Systèmes Linéaires Multivariables
Systèmes Linéaires Multivariables
Cours:
Nacer HACENE
2021/2022
Systèmes linéaires multivariables
Avant propos
Les récentes tendances industrielles dans la mise en œuvre de systèmes de contrôle revendiquent une
perspective plus large dans la conception, pas seulement un ensemble de contrôleurs à boucle unique,
mais un système complexe avec plusieurs variables interdépendantes à contrôler et la possibilité de
manipuler plusieurs variables. La première étape dans cette direction consiste à envisager le contrôle de
systèmes à plusieurs variables.
Le premier chapitre est un chapitre introductif qui met la base théorique de quelques notions
fondamentales telles que: la notion du système et ces différentes représentations, ainsi qu'un rappel
mathématique du calcul matriciel.
Le deuxième chapitre présente les différents types de représentations des systèmes linéaires, et la
résolution de l'équation d'état.
Le quatrième chapitre est consacré à la représentation de systèmes linéaires multivariables par les
matrices de transfert.
Le cinquième chapitre est dédié à la commande par retour d'état des systèmes linéaires multivariables.
Enfin, afin de solidifier les informations acquises, un exemple d'application a été proposé à la fin du
polycopié. Cet exemple est l'étude d'un système multivariable qui est le double pendule inversé.
Pour bien comprendre les concepts donnés, des exemples avec ces solutions ont été insérés, ainsi
qu'une série d'exercices à la fin de chaque chapitre.
Avant propos………………………………………………………………………………………… I
Table de matières …………………………………………………………………………………… II
Chapitre I: Introduction ……………………………………………………………………………. 1
I.1. Rappel sur le calcul matriciel ………………………………………………………………….. 2
I.2. Rappel des notions de système et de l'approche d'état ……………………………………….. 4
I.3. Différents types de représentations des systèmes ………………………………………............ 4
I.3.1. La représentation externe (Fonction de Transfert) ……………………………………… 4
I.3.2. La représentation interne (représentation d'état)………………………………… 5
I.3.3. Passage d'une représentation interne à la représentation externe………………………. 7
I.3.4. Passage de la représentation externe à une représentation interne …………………….. 7
I.4. Systèmes monovariables (SISO) et systèmes multivariables (MIMO) ………………………... 8
I.5. Exercices ………………………………………………………………………………………. 9
Chapitre II: Représentation d'état des systèmes multivariables ………………………………… 10
II.1. Rappel ………………………………………………………………………………………… 11
II.1.1. Les valeurs propres et les vecteurs propres ……………………………………………. 11
II.1.2. Transformation similaire ………………………………………………………………. 12
II.1.3. Vecteurs propres généralisés …………………………………………………………… 12
II.2. Définitions …………………………………………………………………………………….. 16
II.3. Méthodes de mise en équations d'état d'un système à partir de sa fonction de transfert ….. 16
II.3.1. La méthode directe (la forme canonique de commande) …………………………….. 17
II.3.2. Méthode de Honer (la forme canonique d'observation) ………………………………. 18
II.3.3. La forme modale (modes propres) ……………………………………………………... 19
II.3.4. Forme de Jordan ………………………………………………………………………... 20
II.3.5. Le cas où le numérateur possède le même degré que le dénominateur ………………. 22
II.3.6. Remarques ……………………………………………………………………………… 23
II.4. Résolution de l'équation d'état ………………………………………………………………. 26
II.4.1. Calcul de la matrice de transition par la transformée de Laplace ……………………. 26
II.4.2. Calcul de la matrice de transition par diagonalisation ………………………………… 27
II.4.3. Calcul de la matrice de transition par développement en séries de Taylor …………….. 28
II.4.4. Propriétés de la matrice de transition …………………………………………………... 28
II.5. Exercices ……………………………………………………………………………………. 29
Chapitre III: Commandabilité et Observabilité ………………………………………………….. 31
III.1. Introduction ………………………………………………………………………………….. 32
III.2. Commandabilité ……………………………………………………………………………… 32
III.3. Observabilité …………………………………………………………………………………. 33
III.4. Dualité entre la commandabilité et l’observabilité …………………………………………. 33
III.5. Etude de quelques formes canoniques ……………………………………………………… 34
III.5.1. La forme canonique de commande ………………………………………………….. 34
III.5.2. La forme canonique d'observation …………………………………………………… 34
III.5.3. La forme diagonale ……………………………………………………………………. 35
III.6. Passage aux formes canoniques en utilisant les transformations similaires ……………….. 35
III.6.1. Passage à la forme compagne commandable ………………………………………… 35
III.6.2. Passage de la forme commandable à la forme diagonale (modale) …………………. 37
III.7. L'invarience de la commandabilité et l'observabilité ………………………………………… 38
III.8. Relation entre la contrôlabilité, l'observabilité et la fonction de transfert ………………….. 39
III.9. Décomposition de Kalman …………………………………………………………………... 44
III.10. Exercices ……………………………………………………………………………………. 47
Chapitre IV: Représentation des SM par matrice de transfert ………………………………….. 49
IV.1. Introduction ………………………………………………………………………………….. 50
IV.2. Passage d’une représentation d’état à la représentation par matrice de transfert …………. 50
IV.3. Systèmes multivariables ……………………………………………………………………... 50
IV.4. Réalisation des systèmes multivariables ……………………………………………………. 51
IV.4.1. Réalisation diagonale en bloc …………………………………………………………. 51
IV.4.2. Réalisation sous forme canonique en blocs …………………………………………… 53
IV.4.3. Réalisation diagonale ………………………………………………………………….. 54
IV.5. Réalisations minimales ………………………………………………………………………. 56
IV.5.1. Méthode de Gilbert ……………………………………………………………………. 56
IV.5.2. Méthode des invariants (forme de Smith-McMillan) ………………………………… 61
IV.5.2.1. Décomposition de Smith ………………………………………………………... 61
IV.5.2.2. Algorithme de pseudo-diagonalisation …………………………………………. 61
IV.5.2.3. Opérations élémentaires ………………………………………………………… 62
IV.[Link]. Réduction de la première colonne ……………………………………….. 62
IV.[Link]. Réduction de la deuxième colonne ……………………………………….. 62
IV.[Link]. Réduction de la première ligne …………………………………………… 62
IV.[Link]. Réduction de la deuxième ligne ………………………………………….. 62
IV.5.2.4. Forme de Smith-Macmillan …………………………………………………… 63
IV.5.2.5. Méthode directe …………………………………………………………………. 67
IV.6. Exercices …………………………………………………………………………………...... 67
Chapitre V: Commande par retour d'état des systèmes multivariables ……………………….. 69
V.1. Principe général de la commande par retour d'état ………………………………………….. 70
V.2. Problème de placement de pôles par retour d’état …………………………………………… 70
V.2.1. Fonction de transfert en boucle fermée ………………………………………………… 71
V.2.2. Commandabilité en modes (Wonham 1960) ………………………………………….. 72
V.2.3. Cas des systèmes non commandables …………………………………………………. 72
V.3. Conception du régulateur par placement des pôles …………………………………………... 73
V.3.1. La méthode de comparaison directe ……………………………………………………. 73
V.3.2. La méthode de forme canonique commandable ……………………………………… 74
V.3.3. La méthode d'Ackermann ……………………………………………………………… 74
V.4. Observateurs et estimateurs d'état ……………………………………………………………. 76
V.4.1. La méthode de comparaison directe …………………………………………………… 78
V.4.2. La méthode de forme canonique observable ………………………………………….. 78
V.4.3. La méthode d'Ackermann ……………………………………………………………… 79
V.5. Effets de l'ajout de l'observateur sur un système en boucle fermée ………………………… 81
V.6. Fonction de transfert du contrôleur basé sur l'observateur …………………………………… 83
V.7. Exercices ……………………………………………………………………………………… 84
Exemple d'application: Étude d'un système multivariable "Double Pendule Inversé"………... 85
Exemple d'application (Étude d'un système multivariable "Double Pendule Inversé") …….. 86
Biographie …………………………………………………………………………………………… 102
Chapitre I
Introduction
Ce chapitre introductif est consacré à la révision de quelques notions fondamentales. Nous
commençons par un rappel mathématique du calcul matriciel, puis nous donnons quelques notions
fondamentales sur les systèmes et leurs différentes représentations.
Une matrice est dite régulière si elle est inversible, autrement dit, si son déterminant est non nul.
Dans le cas contraire, elle est dite singulière.
I.1.6. Rang d'une matrice
Définition: on appelle mineur d'une matrice A le déterminant formé des éléments restants de la matrice
quand on supprime quelques lignes et quelques colonnes.
Exemple I.1:
Soit donnée la matrice
𝑎11 𝑎12 𝑎13 𝑎14
A = [𝑎21 𝑎22 𝑎23 𝑎24 ]
𝑎31 𝑎32 𝑎33 𝑎34
On obtient les mineurs du troisième ordre de cette matrice après avoir supprimé une colonne et
calculé le déterminant de la matrice qui reste, il y en a quatre.
On obtient les mineurs du deuxième ordre en supprimant deux colonnes et une ligne, il y en a 18.
De même il y a12 mineurs du premier ordre.
Définition: on appelle rang d'une matrice A l'ordre maximal du mineur non nul de la matrice A.
Exemple I.2:
Calculer le rang de la matrice suivante
1 −1 0
A = [2 0 1]
1 1 1
Solution: 2.
Exemple I.3:
Calculer le rang de la matrice suivante
1 2 3
A=[ ]
3 6 9
Solution: 1.
Remarque: Si A est une matrice carrée d'ordre n, le rang k de cette matrice vérifie la relation k ≤
n. si k = n, la matrice est dite régulière, si k < n la matrice est dite singulière.
I.1.7. Matrice carrée diagonale de dimension n
Une matrice carrée est dite diagonale si tous ses éléments 𝑎𝑖𝑗 avec i ≠ j sont nuls. Seule la diagonale
𝑎11 , 𝑎22 ,…, 𝑎𝑛𝑛 contient des éléments non nuls.
I.1.8. Matrice identité de dimension n
La matrice identité I est la matrice diagonale dont les éléments de la diagonale sont tous égaux à 1.
I.1.9. Addition des matrices
On ne peut additionner que des matrices de mêmes dimensions n × m.
C = A + B où 𝑐𝑖𝑗 = 𝑎𝑖𝑗 + 𝑏𝑖𝑗 (I.5)
I.1.10. Multiplication des matrices
On ne peut multiplier une matrice A de dimension n × m que par une matrice B de dimension m × p, le
résultat donnant une matrice C de dimension n × p. la multiplication n'est pas commutative.
C = A . B où cij = ∑m
k=1 a ik bkj (I.6)
Notion de système
Un système, agrégation d'éléments interconnectés, est constitué naturellement ou artificiellement afin
d'accomplir une tâche prédéfinie. Le système est généralement représenté schématiquement par un
schéma fonctionnel (Figure I.1) consistant en un rectangle auquel les signaux d’entrée sont représentés
par des flèches entrantes et les signaux de sortie sont représentés par des flèches sortantes.
𝒖𝟏 (𝒕) 𝒚𝟏 (𝒕)
Grandeurs 𝒖 (𝒕) 𝒚𝟐 (𝒕) Grandeurs
𝟐
d'entrée ou Système de sortie ou
…
…
commandes observations
𝒖𝒎 (𝒕) 𝒚𝒏 (𝒕)
La représentation interne d'un système repose sur la notion d'état. L'état à un instant donné 𝑡0 , d'un
système, est constitué par les n valeurs prises par un ensemble de grandeurs que l'on doit posséder sur le
système à cet instant 𝑡0 pour pouvoir déterminer son évolution ultérieure (à t > 𝑡0 ), à partir de la seule
donnée des entrées ultérieures. Ces grandeurs sont appelées variables d'état, et sont rassemblées dans un
vecteur, appelé vecteur d'état.
L'état d'un système est décrit par un ensemble des équations différentielles de premier ordre en termes
de variables d'état (𝑥1 , 𝑥2 , …, 𝑥𝑛 ) et variables d'entrée (𝑢1 , 𝑢2 , …, 𝑢𝑚 ) en forme générale:
𝑑𝑥1
= 𝑎11 𝑥1 + 𝑎12 𝑥2 + … + 𝑎1𝑛 𝑥𝑛 + 𝑏11 𝑢1 + … + 𝑏1𝑚 𝑢𝑚
𝑑𝑡
𝑑𝑥2
= 𝑎21 𝑥1 + 𝑎22 𝑥2 + … + 𝑎2𝑛 𝑥𝑛 + 𝑏21 𝑢1 + … + 𝑏2𝑚 𝑢𝑚 (I.12)
𝑑𝑡
⋮
𝑑𝑥𝑛
{ 𝑑𝑡 = 𝑎𝑛1 𝑥1 + 𝑎𝑛2 𝑥2 + … + 𝑎𝑛𝑛 𝑥𝑛 + 𝑏𝑛1 𝑢1 + … + 𝑏𝑛𝑚 𝑢𝑚
Cette équation peut être écrite dans une forme matricielle comme suit:
𝑥̇ = A x + B u (I.13)
Cette équation est appelée l'équation d'état, d'où:
x = [𝑥1 , 𝑥2 ,…,𝑥𝑛 ]T est le vecteur d'état de n dimensions,
u = [𝑢1 , 𝑢2 ,…,𝑢𝑚 ]T est le vecteur de commande de m dimensions,
A (n×n) est la matrice d'état,
B (n×m) est la matrice de commande, d'où
𝑎11 𝑎12 ⋯ 𝑎1𝑛 𝑏11 𝑏12 ⋯ 𝑏1𝑚
𝑎21 𝑎22 ⋯ 𝑎2𝑛 𝑏21 𝑏22 ⋯ 𝑏2𝑚
𝐴 =[ ⋮ ⋮ ⋯ ⋮ ], 𝐵 = [
⋮ ⋮ ⋯ ⋮
] (I.14)
𝑎𝑛1 𝑎𝑛2 ⋯ 𝑎𝑛𝑛 𝑏𝑛1 𝑏𝑛2 ⋯ 𝑏𝑛𝑚
La sortie d'un système linéaire peut être reliée aux variables d'état et aux variables d'entrée comme suit:
y=Cx+Du (I.15)
Cette équation est appelée l'équation de sortie.
Alors, dans le cas d'un système linéaire invariant (stationnaire) la représentation d'état se met sous la
forme:
𝑥̇ = 𝐴 𝑥 + 𝐵 𝑢
{ (I.16)
𝑦 = 𝐶𝑥 + 𝐷𝑢
Un schéma fonctionnel de ce système est donné illustré dans la Figure I.2.
(a) (b)
Figure I.2. Schéma fonctionnel d'un système linéaire: a) cas monovariable, b) cas multivariable
Exemple I.5:
Considérons le système masse-ressort-amortisseur de la Figure I3.
Remarques:
1. La représentation d'état est parfaitement adaptée à l'étude d'un système multivariable.
2. Elle permet d'accéder à la connaissance de variables internes, ce qui autorise, par exemple, la
prise en compte de contraintes internes.
3. Contrairement à la représentation externe, elle n'est pas unique, en obtient une autre, par exemple,
en permutant les définitions de variables d'état.
4. Le nombre de variables d'état minimal est l'ordre du système.
5. Contrairement à la représentation externe, elle ne suppose pas que les conditions initiales sont
nulles.
I.3.3 Passage d'une représentation interne à la représentation externe
Soit le système:
𝒖𝟏 (𝒕) 𝒚𝟏 (𝒕)
𝒖𝟐 (𝒕) 𝒚𝟐 (𝒕)
Système
…
…
𝒖𝒎 (𝒕) 𝒚𝒏 (𝒕)
m entrées (m×1) n sorties (n×1)
Figure I.4. Système
Supposons que l'on connaisse, de ce système, la représentation d'état (interne) suivante:
𝑥̇ = 𝐴 𝑥 + 𝐵 𝑢
{ (I.17)
𝑦 = 𝐶𝑥 + 𝐷𝑢
La représentation externe sera constituée par la matrice de transfert 𝑇(𝑝), telle que:
Y(p) = T(p) U(p) (I.18)
(n×1) = (n×m) (m×1)
L'élément 𝑇𝑖𝑗 de la matrice T est la fonction de transfert entre la sortie i et l'entrée j. la matrice de
transfert est donc la généralisation, au cas multivariable, de la notion de fonction de transfert. Comme par
celle-ci, le système est supposé initialement au repos.
Prenons les transformées de Laplace des deux membres de l'équation d'état, en imposent les conditions
initiale nulles, il vient:
𝑝 𝑋(𝑝) = 𝐴 𝑋(𝑝) + 𝐵 𝑈(𝑝)
{
𝑌(𝑝) = 𝐶 𝑋(𝑝) + 𝐷 𝑈(𝑝)
D'où
𝑋(𝑝) = (𝑝𝐼 − 𝐴)−1 𝐵 𝑈(𝑝)
{
𝑌(𝑝) = [𝐶 (𝑝𝐼 − 𝐴)−1 𝐵 + 𝐷] 𝑈(𝑝)
Alors,
𝑇(𝑝) = 𝐶 (𝑝𝐼 − 𝐴)−1 𝐵 + 𝐷
(I.19)
Les pôles des éléments 𝑇𝑖𝑗 de 𝑇(𝑝) sont des solutions de l'équation det (pI – A) = 0, c.-à-d. des
valeurs propres de la matrice A. la réciproque n'est forcément vraie, puisque certains pôles de (𝑝𝐼 − 𝐴)−1
peuvent être simplifiés au moment où l'on forme le produit 𝐶 (𝑝𝐼 − 𝐴)−1 𝐵.
I.3.4. Passage de la représentation externe à une représentation interne
Contrairement au précédent, ce passage n'est pas unique, puisqu'un système donné possède une infinité de
représentations internes. Notons que le nombre minimal de variables d'tat nécessaire pour représenter un
système est une caractéristique du système:
Dans le cas monovariable, le nombre minimal de variables d'état est le nombre de pôles de la
fonction de transfert, c'est-à-dire l'ordre du système.
𝒖(𝒕) 𝒚(𝒕)
Système
Monovariable
1 entrée 1 sortie
𝒖(𝒕) 𝒚(𝒕)
Système
Multivariable
m entrée n sortie
I.5. Exercices:
Exercice 1:
Donner une représentation d'état des systèmes décrit par ses équations différentielles suivantes:
1. 𝑦̈ + 2 𝑦̇ + 3 y = u
2. 𝑦⃛ + 𝑎1 𝑦̈ + 𝑎2 𝑦̇ + 𝑎3 y = 𝑏0 u
3. 𝑦⃛ + 𝑎1 𝑦̈ + 𝑎2 𝑦̇ + 𝑎3 y = 𝑏0 𝑢
⃛ + 𝑏1 𝑢̈ + 𝑏2 𝑢̇ + 𝑏3 u
Exercice 2:
Exercice 3:
Chapitre II
Représentation d'état des systèmes multivariables
II.1. Rappel
II.1.1. Les valeurs propres et les vecteurs propres
Les valeurs propres d'une matrice A (n×n) sont les racines de l'équation caractéristique:
|λI − A| = 0 (II.1)
Les valeurs propres sont aussi appelées les racines caractéristiques.
Exemple II.1:
soit la matrice
0 1 0
A=[ 0 0 1]
−6 −11 −6
L'équation caractéristique est:
λ −1 0
|λI − A| = |0 λ −1 | = λ3 + 6 λ2 +11 λ + 6 = (λ+1) (λ+2) (λ+3) = 0
6 11 λ + 6
Les valeurs propres sont les racines de l'équation caractéristique, c.-à-d., −1, −2 et −3.
Un vecteur propre v de composantes (𝑣1 ,𝑣2 , … , 𝑣𝑛 ) associé à la valeur propre doit vérifier la relation:
A v = v ⇔ (λI − A) (𝑣1 ,𝑣2 , … , 𝑣𝑛 )T = 0 (II.2)
Exemple II.2:
5 −3
Soit la matrice A = [ ], déterminer les valeurs propres et les vecteurs propres de cette matrice.
6 −4
Solution:
|λI − A| = 0 ⇔ [λ − 5 3
]=0
−6 λ + 4
⇔ (λ − 5) (λ + 4) + 18 = 0
⇔ λ2 − λ − 2 = 0
⇔(λ + 1) (λ − 2) = 0
⇔ λ1 = −1 et λ2 = 2
−3 3 𝑠 1
(λ2 I − A) 𝑣2 = 0 ⇔ [ ] [ ]= 0
−6 6 𝑠 2
⇔ −3 𝑠1 + 3 𝑠2 = 0
1
Choix d'un vecteur propre: 𝑣2 = [ ]
1
II.1.2. Transformation similaire
Soit la matrice A (n×n), la matrice B (n×n) est dite similaire à la matrice A, s'il existe une matrice T
(n×n) telle que:
B = 𝑇 −1 A T (II.3)
Cette équation est appelée la transformation similaire. Notons que:
a. Si B est similaire à A, alors, A est similaire à B.
b. Les matrices similaires possèdent les même valeurs propres.
La transformation similaire est souvent a l'objectif de simplifier la matrice A. Cette simplification va
faciliter la résolution de certains problèmes.
Si le but de la transformation similaire est la diagonalisation de la matrice A, alors la détermination de la
matrice T dépend directement des valeurs propres et vecteurs propres de A; dans ce cas, on distingue:
1. Les valeurs propres sont distinctes: alors les vecteurs propres sont linéairement indépendants. Dans
ce cas la matrice de transformation similaire T est dénotée par M et possède la forme suivante: M = [𝑣1 ,
𝑣2 , …, 𝑣𝑛 ], cette matrice est appelée la matrice propre.
2. Les valeurs propres ne sont pas distinctes: c.-à-d., il y a des valeurs propres multiple, alors, la
matrice A ne peut pas être transformée à la forme diagonale, mais elle peut être transformée à une forme
pseudo-diagonale ou ce que l'on appelle la forme de Jordan, où la matrice de Jordan J a la forme
suivante:
𝐽1 0 ⋯ 0
0 𝐽2 ⋱ ⋮
J= (II.4)
⋮ ⋱ ⋱ 0
[0 ⋯ 0 𝐽𝑛 ]
où
− 𝜆𝑖 1 0 ⋯ 0
0 − 𝜆𝑖 1 ⋱ 0
𝐽𝑖 = ⋮ 0 ⋱ ⋱ ⋮ (II.5)
0 ⋯ ⋱ − 𝜆𝑖 1
[ 0 0 ⋯ 0 − 𝜆𝑖 ]
est la sous-matrice de Jordan
Alors, pour trouver la matrice de transformation similaire 𝑇, on va introduire la notion des vecteurs
propres généralisés.
II.1.3. Vecteurs propres généralisés
Pour éclairer l'idée, on va commencer par l'exemple suivant:
Exemple II.3:
Soit la matrice suivante:
0 1
𝐴=[ ]
−9 6
|𝜆𝐼 − 𝐴| = |𝜆 −1
| = 𝜆(𝜆 − 6) + 9 = 𝜆2 − 6𝜆 + 9 = (𝜆 − 3)2
9 𝜆−6
La matrice 𝐴 possède une valeur propre double, alors, on peut assigner un seul vecteur propre, et on peut
pas calculer la matrice de transformation similaire, car elle deviendra: 𝑇 = [𝑣1 𝑣1 ]. Et cette matrice est
une matrice singulière, c.-à-d., son déterminant est nul.
On sait que la matrice résultante de cette transformation est la matrice de Jordan:
𝜆 1
𝐽=[ ]
0 𝜆
Et la matrice de transformation similaire vérifie la relation
𝐽 = 𝑇 −1 𝐴 𝑇 ⟹ 𝐴 𝑇 = 𝑇 𝐽 (II.6)
On écrit la matrice 𝑇 sous la forme:
𝑇 = [𝑣1 𝑣2 ] (II.7)
Et la relation (II.6) sera:
Définition: un vecteur non nul 𝑣 qui satisfait la relation: (𝜆𝐼 − 𝐴)𝑝 𝑣 = 0 pour un scalaire 𝑝 positif est appelé
un vecteur propre généralisé de la matrice 𝐴 avec la valeur propre 𝜆.
1
𝑣2 = [ ]
4
Et la matrice de transformation similaire s'écrit donc:
1 1
𝑇=[ ]
3 4
On peut vérifier les résultats,
1 1 −1 0 1 1 1 4 −1 3 4 3 1
𝑇 −1 𝐴 𝑇 = [ ] [ ][ ]=[ ][ ]=[ ]
3 4 −9 6 3 4 −3 1 9 15 0 3
Exemple II.4:
Soit la matrice
5 1 −4
𝐴 = [4 3 −5]
3 1 −2
- Transformer la matrice A à la forme diagonale ou de Jordan.
Solution:
L'équation caractéristique est:
𝜆 − 5 −1 4
|𝜆𝐼 − 𝐴| = | −4 𝜆 − 3 5 |
−3 −1 𝜆 + 2
2
= (𝜆 − 5)(𝜆 − 𝜆 − 1) + (−4𝜆 + 7) + 4(3𝜆 − 5)
= 𝜆3 − 6𝜆2 + 4𝜆 + 5 + (−4𝜆 + 7) + 4(3𝜆 − 5)
= 𝜆3 − 6𝜆2 + 12𝜆 − 8
= (𝜆 − 2)3
Alors, la matrice A possède une valeur propre triple 𝜆 = 2. On sait que la matrice résultante de cette
transformation est la matrice de Jordan:
𝜆 1 0
𝐽 = [0 𝜆 1]
0 0 𝜆
Et la matrice de transformation similaire vérifie la relation
𝐽 = 𝑇 −1 𝐴 𝑇 ⟹ 𝐴 𝑇 = 𝑇 𝐽 (II.8)
On écrit la matrice 𝑇 sous la forme:
𝑇 = [𝑣1 𝑣2 𝑣3 ] (II.9)
Et la relation (II.8) devient:
𝜆 1 0
𝐴[𝑣1 𝑣2 𝑣3 ] = [𝑣1 𝑣2 𝑣3 ] [0 𝜆 1] ⟹ [𝐴𝑣1 𝐴𝑣2 𝐴𝑣3 ] = [𝜆𝑣1 𝜆𝑣2 + 𝑣1 𝜆𝑣3 + 𝑣2 ]
0 0 𝜆
𝐴𝑣1 = 𝜆𝑣1
⟹ {𝐴𝑣2 = 𝜆𝑣2 + 𝑣1
𝐴𝑣3 = 𝜆𝑣3 + 𝑣2
(𝜆𝐼 − 𝐴)𝑣1 = 0
⟹ {(𝜆𝐼 − 𝐴)𝑣2 = −𝑣1
(𝜆𝐼 − 𝐴)𝑣3 = −𝑣2
(𝜆𝐼 − 𝐴) 𝑣1 = 0
⟹ {(𝜆𝐼 − 𝐴)2 𝑣2 = 0
(𝜆𝐼 − 𝐴)3 𝑣3 = 0
Prenons la première équation:
−3 −1 4 𝑣11
(𝜆𝐼 − 𝐴) 𝑣1 = 0 ⟹ [−4 −1 5] [𝑣12 ] = 0
−3 −1 4 𝑣13
−3𝑣11 − 𝑣12 + 4𝑣13 = 0
⟹ { −4𝑣11 − 𝑣12 + 5𝑣13 = 0
−3𝑣11 − 𝑣12 + 4𝑣13 = 0
−3𝑣11 − 𝑣12 + 4𝑣13 = 0
⟹ {
−4𝑣11 − 𝑣12 + 5𝑣13 = 0
Posons v11 = 1, on obtient
−𝑣12 + 4𝑣13 = 3
⟹ {
−𝑣12 + 5𝑣13 = 4
𝑣12 = 1
⟹ {
𝑣13 = 1
Alors,
1
𝑣1 = [1]
1
Résolvons la deuxième équation:
−3 −1 4 𝑣21 1
(𝜆𝐼 − 𝐴)𝑣2 = −𝑣1 ⟹ [−4 −1 5] [𝑣22 ] = − [1]
−3 −1 4 𝑣23 1
−3𝑣21 − 𝑣22 + 4𝑣23 = −1
⟹ { −4𝑣21 − 𝑣22 + 5𝑣23 = −1
−3𝑣21 − 𝑣22 + 4𝑣23 = −1
−3𝑣21 − 𝑣22 + 4𝑣23 = −1
⟹ {
−4𝑣21 − 𝑣22 + 5𝑣23 = −1
Posons v22 = 1, on obtient
−3𝑣21 + 4𝑣23 = −1
⟹ {
−4𝑣21 + 5𝑣23 = −1
𝑣22 = 1
⟹ {
𝑣23 − 𝑣21 = 0
Alors,
0
𝑣2 = [1]
0
Résolvons la troisième équation:
−3 −1 4 𝑣31 0
𝑣
(𝜆𝐼 − 𝐴)𝑣3 = −𝑣2 ⟹ [−4 −1 5] [ 32 ] = − [1]
−3 −1 4 𝑣33 0
𝒖𝒎 (𝒕) 𝒚𝒏 (𝒕)
m entrées (m×1) n sorties (n×1)
Figure II.1. Système multivariable
𝒀(𝒑)
𝒖(𝒕) Système 𝒚(𝒕) FT=𝑼(𝒑)
Commande Sortie
Figure II.2: Système monovariable
II.3.1. La méthode directe (la forme canonique de commande)
On considère le système décrit par son équation différentielle suivante:
𝑑 (𝑛) 𝑦(𝑡) 𝑑 (𝑛−1) 𝑦(𝑡) 𝑑𝑦(𝑡) 𝑑 (𝑛−1) 𝑢(𝑡) 𝑑 (𝑛−2) 𝑢(𝑡) 𝑑𝑢(𝑡)
+ 𝑎𝑛−1 +…+ 𝑎1 + 𝑎0 y(t) = 𝑏𝑛−1 + 𝑏𝑛−2 +…+ 𝑏1 + 𝑏0 u(t) (II.13)
𝑑𝑡 𝑛 𝑑𝑡 𝑛−1 𝑑𝑡 𝑑𝑡 𝑛−1 𝑑𝑡 𝑛−2 𝑑𝑡
C'est-à-dire:
𝑝𝑛 𝑋 = − 𝑎𝑛−1 𝑝𝑛−1 𝑋 − ⋯ − 𝑎1 𝑝 𝑋 − 𝑎0 𝑋 + 𝑢
{ (II.17)
𝑌(𝑝) = 𝑏𝑛−1 𝑝𝑛−1 𝑋 + 𝑏𝑛−2 𝑝𝑛−2 𝑋 + ⋯ + 𝑏1 𝑝 𝑋 + 𝑏0 𝑋
𝑥̇ 𝑛 = − 𝑎0 𝑥1 − 𝑎1 𝑥2 − ⋯ − 𝑎𝑛−1 𝑥𝑛 + 𝑢
{ (II.20)
𝑦 = 𝑏0 𝑥1 + 𝑏1 𝑥2 + ⋯ + 𝑏𝑛−2 𝑥𝑛−1 + 𝑏𝑛−1 𝑥𝑛
Il en résulte la représentation d'état:
0 𝟏 0 ⋯ 0 0
0 0 𝟏 ⋱ ⋮ 0
𝑥̇ = ⋮ ⋱ ⋱ ⋱ 0 𝑥+ ⋮ 𝑢
0 ⋯ 0 0 𝟏 (II.21)
0
[− 𝑎0 − 𝑎1 ⋯ − 𝑎𝑛−2 − 𝑎𝑛−1 ] [1]
{𝑦 = [𝑏0 𝑏1 ⋯ 𝑏𝑛−2 𝑏𝑛−1 ] 𝑥 + [0] 𝑢
La représentation obtenue est appelée la forme canonique de commande.
Le système peut être représenté par un schéma de câblage (par exemple dans SIMULINK) comme suit:
an−1 an−2 a1 a0
u − 𝑥̇ 𝑛 𝑥𝑛 𝑥̇ 𝑛−1 𝟏 𝑥𝑛−1 𝑥̇ 2 𝑥2 𝑥̇ 1 𝑥1
𝟏 𝟏 𝟏
+ 𝐬 𝐬 𝐬 𝐬
bn−1 bn−2 b1 b0
𝑥𝑛−1
𝑥𝑛
Posons:
𝑥̇ 1 = 𝑏0 𝑢(𝑡) − 𝑎0 𝑦(𝑡)
𝑥̇ 2 = 𝑏1 𝑢(𝑡) − 𝑎1 𝑦(𝑡) + 𝑥1
⋮
(II.26)
𝑥̇ 𝑛−1 = 𝑏𝑛−2 𝑢(𝑡) − 𝑎𝑛−2 𝑦(𝑡) + 𝑥𝑛−2
𝑥̇ 𝑛 = 𝑏𝑛−1 𝑢(𝑡) − 𝑎𝑛−1 𝑦(𝑡) + 𝑥𝑛−1
{ 𝑦(𝑡) = 𝑥𝑛
Et on a donc:
𝑥̇ 1 = 𝑏0 𝑢(𝑡) − 𝑎0 𝑥𝑛
𝑥̇ 2 = 𝑏1 𝑢(𝑡) − 𝑎1 𝑥𝑛 + 𝑥1
⋮
( ) (II.27)
𝑥̇ 𝑛−1 = 𝑏𝑛−2 𝑢 𝑡 − 𝑎𝑛−2 𝑥𝑛 + 𝑥𝑛−2
𝑥̇ 𝑛 = 𝑏𝑛−1 𝑢(𝑡) − 𝑎𝑛−1 𝑥𝑛 + 𝑥𝑛−1
{ 𝑦(𝑡) = 𝑥𝑛
D'où la représentation d'état:
0 0 0 ⋯ − 𝑎0 𝑏0
𝟏 0 0 ⋱ − 𝑎1 𝑏1
𝑥̇ = ⋮ 𝟏 ⋱ ⋱ ⋮ 𝑥+ ⋮ 𝑢
0 ⋯ ⋱ 0 𝑎𝑛−2 𝑏𝑛−2 (II.28)
[0 0 ⋯ 𝟏 − 𝑎𝑛−1 ] [𝑏𝑛−1 ]
{ 𝑦 = [0 0 ⋯ 0 1] 𝑥 + [0] 𝑢
La représentation obtenue est appelée la forme canonique d'observation. Le schéma analogique de cette
représentation est montré dans la Figure II.4.
u
b0 b1 𝑥𝑛−1 bn−1
𝑥̇ 1 𝟏 𝑥1 𝑥̇ 2 𝟏 𝑥2 𝑥̇ 𝑛−1 𝟏 𝑥̇ 𝑛 𝟏 𝑥𝑛 = y
− 𝐬 − 𝐬 𝐬 𝐬
−
a0 a1 an−1
𝑥̇ 1 𝟏 𝑥1
𝛼1
𝐬
u(t) − y(t)
𝜆1
𝑥̇ 2 𝟏 𝑥2
𝛼2
𝐬
−
𝜆2
𝑥̇ 𝑛 𝟏 𝑥𝑛
𝛼𝑛
𝐬
−
𝜆𝑛
𝑈(𝑝)
𝑋𝑖 (𝑝) = 𝑝+𝜆 i=4,5,…,n (II.36)
𝑖
Alors:
P 𝑋𝑖 (𝑝) = −𝜆𝑖 𝑋𝑖 (𝑝) + U(p) (II.37)
Il en résulte:
𝑥̇ 𝑖 (𝑡) = − 𝜆𝑖 𝑥𝑖 (𝑡) + 𝑢(𝑡) (II.38)
Pour 𝑥3 (𝑡), on pose:
𝑈(𝑝)
𝑋3 (𝑝) = 𝑝+𝜆 ⟹𝑥̇ 3 (𝑡) = − 𝜆1 𝑥3 (𝑡) + 𝑢(𝑡) (II.39)
1
− 𝜆𝑖 1 0 ⋯ 0
0 − 𝜆𝑖 1 ⋱ 0
𝐽𝑖 = ⋮ 0 ⋱ ⋱ ⋮ (II.46)
0 ⋯ ⋱ − 𝜆𝑖 1
[ 0 0 ⋯ 0 − 𝜆𝑖 ]
est la sous-matrice de Jordan
La représentation obtenue est appelée la forme de Jordan. Le schéma analogique de cette représentation
est montré dans la Figure II.6.
𝛼3
𝛼2
𝟏 𝟏 𝟏
𝛼1
𝐬 + 𝛌𝟏 𝑥3 𝐬 + 𝛌𝟏 𝑥2 𝐬 + 𝛌𝟏 𝑥1
u(t) y(t)
𝑥̇ 4 𝟏 𝑥4
𝛼4
𝐬
−
𝜆4
𝑥̇ 𝑛 𝟏 𝑥𝑛
𝛼𝑛
𝐬
−
𝜆𝑛
(II.48)
Et donc
𝑌(𝑝) (𝑏𝑛−1 −𝑏𝑛 𝑎𝑛−1 ) 𝑝𝑛−1 +(𝑏𝑛−2 −𝑏𝑛 𝑎𝑛−2 )𝑝𝑛−2 + …+(𝑏1 −𝑏𝑛 𝑎1 ) 𝑝 + (𝑏0 −𝑏𝑛 𝑎0 )
FT = = 𝑏𝑛 + (II.49)
𝑈(𝑝) 𝑝𝑛 + 𝑎𝑛−1 𝑝𝑛−1 +𝑎𝑛−2 𝑝𝑛−2 +⋯+ 𝑎1 𝑝 + 𝑎0
Alors, on peut appliquer les différentes formes canoniques au deuxième terme du membre droit de
cette expression, où le terme 𝑏𝑛 forme la matrice D. Par exemple, on veut trouver la forme de commande,
alors, on trouve:
0 𝟏 0 ⋯ 0 0
0 0 𝟏 ⋱ ⋮ 0
𝑥̇ = ⋮ ⋱ ⋱ ⋱ 0 𝑥+ ⋮ 𝑢
0 ⋯ 0 0 𝟏 (II.50)
0
[− 𝑎0 − 𝑎1 ⋯ − 𝑎𝑛−2 − 𝑎𝑛−1 ] [1 ]
{ 𝑦 = [𝑏0 − 𝑏𝑛 𝑎0 𝑏1 − 𝑏𝑛 𝑎1 ⋯ 𝑏𝑛−2 − 𝑏𝑛 𝑎𝑛−2 𝑏𝑛−1 − 𝑏𝑛 𝑎𝑛−1 ] 𝑥 + [𝒃𝒏 ] 𝑢
La forme observable sera:
0 0 0 ⋯ − 𝑎0 𝑏0 − 𝑏𝑛 𝑎0
𝟏 0 0 ⋱ − 𝑎1 𝑏1 − 𝑏𝑛 𝑎1
𝑥̇ = ⋮ 𝟏 ⋱ ⋱ ⋮ 𝑥+ ⋮ 𝑢
0 ⋯ ⋱ 0 𝑎𝑛−2 𝑏𝑛−2 − 𝑏𝑛 𝑎𝑛−2 (II.51)
[0 0 ⋯ 𝟏 − 𝑎𝑛−1 ] [𝑏𝑛−1 − 𝑏𝑛 𝑎𝑛−1 ]
{ 𝑦 = [0 0 ⋯ 0 1] 𝑥 + [𝒃𝒏 ] 𝑢
Pour la forme modale, la fonction de transfert peut s'écrire comme suit
𝑌(𝑝) 𝛼1 𝛼2 𝛼𝑛
FT = = 𝑏𝑛 + + +⋯+ (II.52)
𝑈(𝑝) 𝑝+𝜆1 𝑝+𝜆2 𝑝+𝜆𝑛
Alors la forme modal reste la même sauf la matrice D qui sera [𝑏𝑛 ]:
− 𝜆1 0 0 ⋯ 0 1
0 − 𝜆2 0 ⋱ 0 1
𝑥̇ = ⋮ 0 ⋱ ⋱ ⋮ 𝑥+ ⋮ 𝑢
(II.53)
0 ⋯ ⋱ − 𝜆𝑛−1 0 1
[ 0 0 ⋯ 0 − 𝜆𝑛 ] [ 1]
{𝑦 = [𝛼1 𝛼2 ⋯ 𝛼𝑛−1 𝛼𝑛 ] 𝑥 + [𝒃𝒏 ] 𝑢
Et la même chose est dite pour la forme de Jordan; on peut l'écrire comme suit:
− 𝜆1 1 0 0 ⋯ 0 0
0 − 𝜆1 1 ⋮ ⋱ 0 0
𝑥̇ = ⋮ 0 − 𝜆1 0 ⋱ ⋮ 𝑥+
1
𝑢
0 ⋯ 0 − 𝜆4 ⋯ 0 1 (II.54)
⋮ ⋯ ⋮ ⋮ ⋱ ⋮ ⋮
[ 0 ⋯ ⋯ 0 ⋯ − 𝜆𝑛 ] [ 1 ]
{ 𝑦 = [𝛼1 𝛼2 ⋯ 𝛼𝑛−1 𝛼𝑛 ] 𝑥 + [𝒃𝒏 ] 𝑢
II.3.6. Remarques
Dont,
1 di−1 𝑞
𝛼𝑖 = (i−1)! dpi−1 {(𝑝 − 𝑝𝑞 ) 𝐻(𝑝) }|𝑝= 𝑝𝑞 pour i = 1,…,q (pôles multiples)
𝛼𝑖 = (𝑝 − 𝑝𝑖 ) H(p) |𝑝= 𝑝𝑖 pour i > q (pôles simples)
2. Si nous disposons d'un système linéaire monovariable donné par sa représentation d'état et si nous
souhaitons obtenir sa forme modale, il nous faudra calculer sa fonction de transfert et la décomposer en
éléments simples. Si tous ces éléments simples sont de première espèce (c'est-à-dire que la fonction de
𝛼1 𝛼2 𝛼𝑛
transfert a la forme ( + +⋯+ + d) il est possible de mettre le système sous forme
𝑝+𝜆1 𝑝+𝜆2 𝑝+𝜆𝑛
modale (attention, fréquemment, cela n'est pas possible). La matrice de passage P peut être obtenue
aisément en prenant comme colonnes les vecteurs propres de la matrice d'état A.
3. La transformation A' = AT; B' = CT; C' = BT et D' = DT, nous fait passer de la forme canonique de
commande à celle d'observation et vice-versa. Elle ne change pas le système.
Pour cela, considérons le système S dont les matrices d'état sont (A,B,C,D) et le système S' dont les
matrices d'état sont (A' = AT, B' = CT, C' = BT, D' = DT). La matrice de transfert associée à S est:
𝐺(𝑝) = 𝐶 (𝑝𝐼 − 𝐴)−1 𝐵 + 𝐷
Et celle associée à S' est:
𝐺′(𝑝) = 𝐶′ (𝑝𝐼 − 𝐴′ )−1 𝐵′ + 𝐷′
= 𝐵 𝑇 ((𝑝𝐼 − 𝐴)−1 )𝑇 𝐶 𝑇 + 𝐷𝑇
= (𝐶 (𝑝𝐼 − 𝐴𝑇 )−1 𝐵)𝑇 + 𝐷𝑇
= (𝐶 (𝑝𝐼 − 𝐴𝑇 )−1 𝐵 + 𝐷)𝑇
= 𝐺 𝑇 (𝑝)
Or 𝐺(𝑝) est un scalaire et donc, 𝐺 𝑇 (𝑝) = 𝐺(𝑝) .
Propriétés,
(𝐴𝐵)−1 = 𝐵 −1 𝐴−1
(𝐴𝐵)𝑇 = 𝐵 𝑇 𝐴𝑇
(𝐴𝑇 )−1 = (𝐴−1 )𝑇
(𝛼 𝐴)−1 = (1/α) 𝐴−1
Pour obtenir la forme modale si les pôles sont distincts ou la forme du Jordan s'il existe des pôles
multiples, on utilise le passage:
A' = 𝑇 −1 A T
B' = 𝑇 −1 B
C' = C T
D' = D
5. Résumé
0 𝟏 0 ⋯ 0 0 0 0 0 ⋯ − 𝑎0 𝑏0
0 0 𝟏 ⋱ ⋮ 0 𝟏 0 0 ⋱ − 𝑎1 𝑏1
𝑥̇ = ⋮ ⋱ ⋱ ⋱ 0 𝑥+ ⋮ u 𝑥̇ = ⋮ 𝟏 ⋱ ⋱ ⋮ 𝑥+ ⋮ u
0 ⋯ 0 0 𝟏 0 0 ⋯ ⋱ 0 𝑎𝑛−2 𝑏𝑛−2
[− 𝑎0 − 𝑎1 ⋯ − 𝑎𝑛−2 – 𝑎𝑛−1 ] [1] [0 0 ⋯ 𝟏 − 𝑎𝑛−1 ] [𝑏𝑛−1 ]
{𝑦 = [𝑏0 𝑏1 ⋯ 𝑏𝑛−2 𝑏𝑛−1 ] 𝑥 + [0] 𝑢 { 𝑦 = [0 0 ⋯ 0 1] 𝑥 + [0] 𝑢
− 𝜆1 0 0 ⋯ 0 − 𝜆1 1 0 0 ⋯ 0 0
1
0 − 𝜆2 0 ⋱ 0 0 − 𝜆1 1 ⋮ ⋱ 0 0
1
𝑥̇ = ⋮ 0 ⋱ ⋱ ⋮ 𝑥+ ⋮ u ⋮ 0 − 𝜆1 0 ⋱ ⋮ 1
𝑥̇ = 𝑥+ u
0 ⋯ ⋱ − 𝜆𝑛−1 0 1 0 ⋯ 0 − 𝜆4 ⋯ 0 1
[ 0 0 ⋯ 0 − 𝜆𝑛 ] [1] ⋮ ⋯ ⋮ ⋮ ⋱ ⋮ ⋮
[ 0 ⋯ ⋯ 0 ⋯ − 𝜆𝑛 ] [1]
{𝑦 = [𝛼1 𝛼2 ⋯ 𝛼𝑛−1 𝛼𝑛 ] 𝑥 + [0] 𝑢
{ 𝑦 = [𝛼1 𝛼2 ⋯ 𝛼𝑛−1 𝛼𝑛 ] 𝑥 + [0] 𝑢
Il vient:
𝑋(𝑝) = (𝑝𝐼 − 𝐴)−1 [𝑥(𝑜) + 𝐵 𝑈(𝑝)]
{ (II.65)
𝑋(𝑝) = 𝛷(𝑝) [𝑥(𝑜) + 𝐵 𝑈(𝑝)]
En identifiant les deux expressions, il vient:
𝛷(𝑝) = (𝑝𝐼 − 𝐴)−1 (II.66)
Si l'on applique la transformée de La place inverse 𝐿−1 , on a finalement:
Alors,
𝑒 𝜆1 𝑡 0 ⋯ 0
𝜆2 𝑡
eAt = 𝑀 [ 0 𝑒 ⋯ 0 ] 𝑀−1
⋮ ⋮ ⋱ 0
0 0 ⋯ 𝑒 𝜆𝑛 𝑡
(II.74)
II.5. Exercices
Exercice 1:
0 1 0 0
0 1 0
0 1 0 0 1 0
[ ], [0 0 1], [ ]
−2 −3 0 0 0 1
0 1 0
0 2 1 2
Exercice 2:
4 −1/2 −1/2 1
𝑥̇ = [4 1 −1 ] 𝑥 + [ 2] 𝑢
{
4 −2 2 4
𝑦 = [2 1 1] 𝑥 + [0] 𝑢
Exercice 3:
Exercice 4:
𝑌(𝑝) 𝑝2 + 6𝑝 + 8
=
𝑈(𝑝) (𝑝 + 1)2 (𝑝 + 3)
Exercice 5:
Soit la fonction de transfert:
𝑌(𝑝) 3𝑝3 + 𝑝2 +9𝑝+20
=
𝑈(𝑝) 𝑝3 + 6𝑝2 +11𝑝+6
- Trouver la matrice de transition 𝛷(𝑝) et 𝛷(𝑡), puis déterminer la réponse des variables d'état pour
les conditions initiales (y(0) = 1, 𝑦̇ = 0) en prenant: M = 1kg, f = 3Ns/m, k = 2 N/m et e(t) = 0.
Chapitre III
Commandabilité et Observabilité
III.1. Introduction
La commandabilité (contrôlabilité) et l'observabilité représentent deux grands concepts de la théorie
moderne de contrôle des systèmes. Ces concepts à l'origine théoriques, introduits par R. Kalman en 1960,
sont particulièrement importants pour les mises en œuvre pratiques. Ils peuvent être définis
approximativement comme suit.
-Contrôlabilité: Afin de pouvoir faire ce que nous voulons avec la dynamique donné sous l'entrée de
commande, le système doit être contrôlable.
-Observabilité: Afin de voir ce qui se passe dans le système sous observation, le système doit être
observable.
Même si les concepts de contrôlabilité et d'observabilité sont presque abstraits, nous comprenons
maintenant intuitivement leurs significations. Le reste du problème est de produire des tests de contrôle
mathématique et de définir plus facilement la contrôlabilité et l'observabilité.
Dans ce chapitre, nous montrons que les concepts de contrôlabilité et d'observabilité sont liés aux
systèmes linéaires d'équations algébriques. Il est bien connu qu'un système soluble d'équations
algébriques linéaires a une solution si et seulement si le rang de la matrice du système est pleine. Les tests
de contrôlabilité et d'observabilité seront liés aux tests du rang des certaines matrices, connues sous le
nom de matrices de contrôlabilité et d'observabilité.
III.2. Commandabilité
La commande disponible sur le système devra rendre possible le passage du vecteur d'état d'un point
initial à un point final de l'espace d'état en un temps fini, et ceci quels que soit les points choisis; le
système sera alors dit commandable.
Définition: un système linéaire, décrit par les équations d'état:
𝑥̇ = 𝐴 𝑥(𝑡) + 𝐵 𝑢(𝑡)
{ (III.1)
𝑦 = 𝐶 𝑥(𝑡) + 𝐷 𝑢(𝑡)
est dit commandable (gouvernable) à l'instant t 0 si, quel que soit x(t 0 ), et quel que soit 𝑥𝑓 , il existe une
commande u(t),t ≥ t 0 , qui transfère l'état, de x(t 0 ) à 𝑥𝑓 , en un temps fini.
est de rang n.
- dans le cas où la représentation d'état choisie est telle que la matrice d'état A est diagonale (espace d'état
modale), le système est commandable si et seulement si B ne possède pas de lignes nulles.
Exemple III.1:
Soit le système décrit par les équations d'état suivantes:
0 1 −2 0 −1
𝑥̇ = [ 3 −4 5 ] 𝑥 + [2 −3] u
−6 7 8 4 −5
La matrice de commandabilité est:
0 −1 −6 7
Com = [[2 −3] | [ 12 −10] | A2 B]
4 −5 46 −55
Rang(Com) = 3, alors le système est commandable.
III.3. Observabilité:
La sortie du système devra permettre une observation correcte du vecteur d'état, c.à.d. que la
connaissance, durant un temps fini, des valeurs prises par la sortie devra suffire pour déterminer l'état du
système; celui-ci sera alors dit observable.
Définition: un système linéaire, décrit par les équations d'état:
𝑥̇ = 𝐴 𝑥(𝑡) + 𝐵 𝑢(𝑡)
{ (III.3)
𝑦 = 𝐶 𝑥(𝑡) + 𝐷 𝑢(𝑡)
est dit observable à l'instant t 0 si, quel que soit x(t 0 ), il existe un instant t −1, fini et inférieur à t 0 , tel que
la connaissance de y(t) pour tout t ∈ [t −1,t 0 ] soit suffisante pour déterminer x(t 0 ).
Condition nécessaire et suffisantes: dans le cas où le système est invariant, le système est observable
si seulement si la matrice:
𝐂
𝐂𝐀
Ob = 𝑪𝐀𝟐 (III.5)
⋮
[𝑪𝐀𝐧−𝟏 ]
est de rang n.
- dans le cas où la représentation d'état choisie est telle que la matrice d'état A est diagonale, le système
est observable si et seulement si C ne possède pas de colonnes nulles.
𝑧̇ = 𝐴𝑇 𝑧(𝑡) + 𝐶 𝑇 𝑣(𝑡)
S∗ { (III.7)
𝑠 = 𝐵 𝑇 𝑧(𝑡)
On peut montrer que si S est commandable à t 0 , alors S ∗ est observable à t 0 , et inversement, c.à.d. si S
est observable à t 0 , alors S ∗ est commandable à t 0 .
Il est donc possible de tester l'observabilité d'un système en vérifiant la commandabilité du système
dual.
Exemple III.2:
Soit le système décrit par sa fonction de transfert suivante:
𝑌(𝑝) 𝑝+3 𝑝+3
= =
𝑈(𝑝) 𝑝3 +6 𝑝2 +11𝑝+6 (𝑝+1)(𝑝+2)(𝑝+3)
a n−1 a n−2 a1 a0
bn−1 bn−2 b1 b0
b0 b1 𝑥𝑛−1 bn−1
𝑥̇1 𝟏 𝑥1 𝑥̇ 2 𝟏 𝑥2 𝑥̇ 𝑛−1 𝟏 𝑥̇ 𝑛 𝟏 𝑥𝑛 = y
− 𝐬 − 𝐬 𝐬 𝐬
−
a0 a1 a n−1
La matrice de commande est diagonale et les éléments de sa diagonale principale sont les valeurs
propres (les pôles de la fonction de transfert).
On peut utiliser les transformations similaires pour obtenir les formes canoniques à partir des
représentations d'état quelconques. Supposons que on a une représentation quelconque (𝐴, 𝐵, 𝐶, 𝐷), et on
veut la transformer à une autre forme usuelle (𝐴∗ , 𝐵 ∗ , 𝐶 ∗ , 𝐷∗ ) en utilisant une transformation similaire
comme suit:
𝑇
(𝐴, 𝐵, 𝐶, 𝐷) (𝐴∗ , 𝐵 ∗ , 𝐶 ∗ , 𝐷∗ )
𝑥 𝑧
On peut transformer une représentation d'état quelconque à la forme commandable si le système est
complètement commandables. Si la matrice de commandabilité Com (Eq. III.8)
𝐶𝑜𝑚 = [𝐵 | 𝐴𝐵 | 𝐴2 𝐵 | ⋯ | 𝐴𝑛−1 𝐵] (III.8)
est de rang plein c.-à-d., le rang égal l'ordre du système n, il existe une matrice de transformation 𝑇 qui
transforme la représentation donnée à la forme de commande. Cette matrice 𝑇 peut être calculé à partir de
sa matrice inverse:
𝑞
𝑞𝐴
𝑇 −1 = 𝑞 𝐴2 (III.9)
⋮
[𝑞 𝐴𝑛−1 ]
Où 𝑞 est la dernière ligne de la matrice 𝐶𝑜𝑚−1.
Démonstration:
Si on replace 𝑥̇ = 𝐴𝑥 + 𝐵𝑢, on obtient 𝑧̇1 = 𝑞 (𝐴𝑥 + 𝐵𝑢) = 𝑞𝐴𝑥 + 𝑞𝐵𝑢. De la structure de la matrice
d'état 𝐴∗ dans la forme de commande, il s'ensuit que: 𝑧̇1 = 𝑧2 , 𝑧̇2 = 𝑧3 ,…, 𝑧̇𝑛−1 = 𝑧𝑛 . Alors:
Puisque, selon la relation 𝑧 = 𝑇 −1 𝑥, les éléments de 𝑧 sont fonctions des éléments de 𝑥, alors, il en
résulte que 𝑞𝐵 = 0. Aussi, puisque: 𝑧̇2 = 𝑧3 = 𝑞𝐴𝑥̇ = 𝑞𝐴(𝐴𝑥 + 𝐵𝑢) = 𝑞𝐴2 𝑥 + 𝑞𝐴𝐵𝑢.
Il s'ensuit que: 𝑞𝐴𝐵 = 0. Si on répète cette procédure, on arrive à l'équation finale:
et, par conséquence, 𝑞𝐴𝑛−2 𝐵 = 0. Les résultat ci-dessus peuvent être résumés comme suit:
𝑧 = 𝑇 −1 𝑥, avec
𝑞
𝑞𝐴
𝑇 −1 = 𝑞 𝐴2
⋮
[𝑞 𝐴𝑛−1 ]
où 𝑞 est pour le moment, un vecteur ligne arbitraire qui doit satisfaire la relations suivantes:
ou
𝑞𝐵 0
𝑞𝐴𝐵 0
𝐵 ∗ = 𝑇 −1 𝐵 = 𝑞 𝐴2 𝐵 = 0
⋮ ⋮
[𝑞 𝐴𝑛−1 𝐵] [1]
La relation ci-dessus est valable lorsque 𝑞 𝐴𝑛−1 𝐵 = 1, par conséquent, le vecteur 𝑞 doit satisfaire
l'équation:
D'où
𝑞 = [0 0 ⋯ 0 1] 𝐶𝑜𝑚−1
Exemple III.3:
Considérons le système:
1 −1 1
𝐴=[ ], 𝐵=[ ]
−1 2 1
Transformer le système à la forme commandable.
Solution
1 0
𝐶𝑜𝑚 = [𝐵 𝐴𝐵 ] = [ ]
1 1
La matrice 𝐶𝑜𝑚 est inversible car sa déterminant |𝐶𝑜𝑚| = 1 ≠ 0 est non nul (le rang(Com)= l'ordre du
système 2). Donc, le système peut être écrit sous la forme de commande.
Alors,
1 0
𝐶𝑜𝑚−1 = [ ]
−1 1
La matrice
𝑞 −1 1 −3 1
𝑇 −1 = [𝑞 𝐴] = [ ] alors, 𝑇 = [ ]
−2 3 −2 1
On obtient, donc:
−1 1 1 −1 −3 1 −2 3 −3 1 0 1
𝐴∗ = 𝑇 −1 𝐴𝑇 = [ ][ ][ ]=[ ][ ]=[ ]
−2 3 −1 2 −2 1 −5 8 −2 1 −1 3
−1 1 1 0
𝐵 ∗ = 𝑇 −1 𝐵 = [ ][ ] = [ ]
−2 3 1 1
III.6.2. Passage de la forme commandable à la forme diagonale (modale)
Supposons que le système est déjà sous la forme canonique de commande et que nous voulons
diagonaliser la matrice 𝐴 du système. Une méthode générale pour diagonaliser toute matrice carrée est
donnée dans la Section II.1.2. Pour le cas particulier où la matrice 𝐴 est déjà sous la forme canonique de
commande, la diagonalisation est simple et peut être réalisée comme suit:
Une matrice de transformation similaire 𝑇, qui diagonalise la matrice 𝐴, peut être déterminée par:
𝐴∗ = 𝑇 −1 𝐴𝑇 ou 𝐴𝑇 = 𝑇𝐴∗
Donc,
0 1 0 ⋯ 0 𝑡1 𝑡1 𝜆1 0 0 ⋯ 0
0 0 1 ⋱ ⋮ 𝑡2 𝑡2 0 𝜆2 0 ⋯ 0
⋮ ⋱ ⋱ ⋱ 0 𝑡3 = 𝑡3 0 0 𝜆3 ⋯ 0
0 ⋯ 0 0 1 ⋮ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮
[− 𝑎0 − 𝑎1 ⋯ − 𝑎𝑛−2 − 𝑎𝑛−1 ] [𝑡𝑛 ] [𝑡𝑛 ] [ 0 0 0 ⋯ 𝜆𝑛 ]
Alors,
𝑡2 = 𝑡1 𝐴∗
𝑡3 = 𝑡2 𝐴∗ = 𝑡1 𝐴∗ 2
𝑡4 = 𝑡3 𝐴∗ = 𝑡1 𝐴∗ 3
𝑡𝑛 = 𝑡𝑛−1 𝐴∗ = 𝑡1 𝐴∗ 𝑛−1
𝑡𝑛 𝐴∗ = 𝑎 𝑇
où 𝑎 = [− 𝑎0 − 𝑎1 ⋯ − 𝑎𝑛−2 − 𝑎𝑛−1 ]
𝑡1 1 1 1 ⋯ 1
𝑡2 𝜆1 𝜆2 𝜆3 ⋯ 𝜆𝑛
𝑡3 𝜆1 2 𝜆2 2 𝜆3 2 ⋯ 𝜆𝑛 2
𝑇= ⋮= (III.10)
⋮ ⋮ ⋮ ⋱ ⋮
𝑡𝑛−1 𝜆1 𝑛−2 𝜆2 𝑛−2 𝜆3 𝑛−2 ⋯ 𝜆𝑛 𝑛−2
[ 𝑡𝑛 ] [𝜆1 𝑛−1 𝜆2 𝑛−1 𝜆3 𝑛−1 ⋯ 𝜆𝑛 𝑛−1 ]
Cette forme particulière de la matrice 𝑇 est connue sous le nom de la matrice de Vandermonde, et elle
est toujours régulière à condition que les valeurs propres soient distinctes.
Exemple III.4:
0 1 0
𝐴 = [0 0 1]
6 11 6
Solution:
1 1 1 1 1 1
𝑇 = [ 𝜆1 𝜆2 𝜆 3 ] = [1 2 3]
𝜆1 2 𝜆2 2 𝜆3 2 1 4 9
Alors,
1 1 1 −1 0 1 0 1 1 1 1 0 0
𝐴∗ = 𝑇 −1 𝐴𝑇 = [1 2 3] [0 0 1] [1 2 3] = [0 2 0]
1 4 9 6 11 6 1 4 9 0 0 3
III.7. L'invarience de la commandabilité et l'observabilité
Les propriétés de commandabilité et observabilités sont invariantes sous les transformations similaires
des vecteurs d'état. En effet, les matrices 𝐶𝑜𝑚∗ et 𝑂𝑏𝑠 ∗ sont reliées au matrice 𝐶𝑜𝑚 et 𝑂𝑏𝑠 comme suit:
= [𝑇 −1 𝐵 |𝑇 −1 𝐴 𝑇 𝑇 −1 𝐵 | (𝑇 −1 𝐴𝑇)2 𝑇 −1 𝐵 | ⋯ | (𝑇 −1 𝐴𝑇)𝑛−1 𝑇 −1 𝐵]
= [𝑇 −1 𝐵 |𝑇 −1 𝐴 𝐵 | 𝑇 −1 𝐴2 𝐵 | ⋯ | 𝑇 −1 𝐴𝑛−1 𝐵]
= 𝑇 −1 [𝐵 |𝐴 𝐵 | 𝐴2 𝐵 | ⋯ | 𝐴𝑛−1 𝐵]
= 𝑇 −1 𝐶𝑜𝑚 (III.11)
𝐶∗ 𝐶𝑇 𝐶𝑇 𝐶
∗ ∗ −1
𝐶 𝐴 𝐶 𝑇 𝑇 𝐴𝑇 𝐶 𝐴𝑇 𝐶𝐴
𝑂𝑏𝑠 ∗ = 𝐶 ∗ (𝐴∗ )2 = 𝐶 𝑇(𝑇 −1 𝐴𝑇)2 = 𝐶 𝐴2 𝑇 = 𝐶 𝐴2 𝑇 = 𝑂𝑏𝑠 𝑇 (III.12)
⋮ ⋮ ⋮ ⋮
[𝐶 ∗ (𝐴∗ )𝑛−1 ] [𝐶 𝑇(𝑇 −1 𝐴𝑇)𝑛−1 ] [𝐶 𝐴𝑛−1 𝑇] [𝐶 𝐴𝑛−1 ]
Les équations (III.11) and (III.12) montrent que si le système original est commandable et/ou
observable, alors, le sytème résultant d'une transformation similaire est aussi commandable et/ou
observable.
Il est clair que la matrice de fonctions de transfert 𝐻(𝑝) est une description entrée-sortie d’un
système, c'est-à-dire qu'elle relie le vecteur d'entrée 𝑈(𝑝) au vecteur de sortie 𝑌(𝑝) du système sans
nécessiter le vecteur d'état 𝑋(𝑝). A ce point, nous posons la question suivante: La matrice de transfert
𝐻(𝑝) est-elle affectée et comment par les propriétés de contrôlabilité et d'observabilité du système? La
réponse à cette question est d'une grande importance et constitue l’une des raisons fondamentales de la
préférence donnée aux équations d’état sur les matrices de transfert pour décrire les systèmes de contrôle.
Dans la suite, nous allons essayez de donner la réponse à cette question. Nous introduisons la définition
suivante:
Théorème III.1:
Pour un système donné par ces équations d'état, les trois propositions suivantes sont équivalentes:
a) Le système est observable et contrôlable - à savoir, le rang des deux matrices 𝐶𝑜𝑚 et 𝑂𝑏𝑠 est n.
b) 𝑟𝑎𝑛𝑔(𝑂𝑏𝑠𝛽 . 𝐶𝑜𝑚𝛼 ) = 𝑛.
c) La dimension n de la réalisation de l'espace d'états est minimale.
Le théorème suivant relie les théories de contrôle classique et moderne, puisqu'il relie la description
classique entrée-sortie 𝐻(𝑝) à la description moderne d'un système dans l’espace d'état. Cette relation a
été mise au jour à partir des concepts de contrôlabilité et observabilité.
Théorème III.2:
Si la matrice de transfert d’un système implique des annulations de pôle-zéro, alors, le système est soit
incontrôlable ou non observable, ou les deux. Si la matrice de transfert n'implique aucune annulation
pôle-zéro, le système est à la fois contrôlable et observable.
Démonstration:
Considérons le système SISO suivant qui est déjà sous la forme diagonale:
𝑥̇ = 𝐴 𝑥(𝑡) + 𝐵 𝑢(𝑡)
{ (III.18)
𝑦 = 𝐶 𝑥(𝑡)
Pour ce système, on a:
𝑐 𝑏
𝑌(𝑝) = 𝐶 𝑋(𝑝) = ∑𝑛𝑖=1 𝑐𝑖 𝑋𝑖 (𝑝) = ∑𝑛𝑖=1 𝑝−𝜆
𝑖 𝑖
𝑈(𝑝) (III.21)
𝑖
ℎ
𝐻(𝑝) = ∑𝑛𝑖=1 𝑝−𝜆𝑖 𝑈(𝑝) (III.23)
𝑖
ℎ𝑖 = 𝑐𝑖 𝑏𝑖 (III.24)
Par conséquent, si 𝐻(𝑝) implique l’annulation du pôle 𝜆𝑖 , il doit y avoir ℎ𝑖 = 0. De l'équation
(III.24), il s'ensuit que pour que ℎ𝑖 soit zéro, il doit alors y avoir soit 𝑏𝑖 = 0 ou 𝑐𝑖 = 0, ou même 𝑏𝑖 =
𝑐𝑖 = 0. Clairement, si 𝑏𝑖 = 0, le système est incontrôlable (car l'une des lignes de B vaut zéro) .Si 𝑐𝑖 = 0,
le système n'est pas observable (car une des colonnes de C vaut zéro). Enfin, si 𝑏𝑖 = 𝑐𝑖 = 0, le système
est alors à la fois incontrôlable et inobservable.
Si ℎ𝑖 ≠ 0, ∀ 𝑖, alors les 𝑏𝑖 et 𝑐𝑖 sont différents de zéro et donc le système est à la fois contrôlable et
observable.
Le théorème suivant est d'une grande importance pratique.
Théorème III.3:
La matrice de transfert ne concerne que la partie contrôlable et observable d’un système.
L’importance pratique des théorèmes précédents, et en particulier du théorème III.2 est démontré par
les exemples suivants.
Exemple III.5:
Considérons le circuit de la Figure III.3. Déterminer la fonction de transfert et étudier la cas d'annulation
de pôle zéro.
Solution:
𝑌(𝑝) 𝑍2 (𝑝)
𝐻(𝑝) = =
𝑈(𝑝) 𝑍1 (𝑝) + 𝑍2 (𝑝)
Avec:
1
𝑅1 (𝐶 𝑝) 𝑅1
1
𝑍1 (𝑝) = =
1
𝑅1 + 𝐶 𝑝 𝑅1 𝐶1 𝑝 + 1
1
1
𝑅2 (𝐶 𝑝) 𝑅2
2
𝑍2 (𝑝) = =
1
𝑅2 + 𝐶 𝑝 𝑅2 𝐶2 𝑝 + 1
2
Alors,
𝑅2
𝑌(𝑝) 𝑅2 𝐶2 𝑝 + 1 𝑅2 (𝑅1 𝐶1 𝑝 + 1)
𝐻(𝑝) = = =
𝑈(𝑝) 𝑅1 𝑅2 𝑅1 (𝑅2 𝐶2 𝑝 + 1) + 𝑅2 (𝑅1 𝐶1 𝑝 + 1)
𝑅1 𝐶1 𝑝 + 1 + 𝑅2 𝐶2 𝑝 + 1
1 1
𝑅1 𝑅2 𝐶1 (𝑝 + 𝑅 𝐶 ) 𝐶1 (𝑝 + 𝑅 𝐶 ) 𝐶1 𝑝+𝛼
1 1 1 1
𝐻(𝑝) = = =( )( )
𝑅1 𝑅2 (𝐶1 + 𝐶2 )𝑝 + 𝑅1 + 𝑅2 (𝐶 + 𝐶 ) (𝑝 + 𝑅1 + 𝑅2 𝐶1 + 𝐶2 𝑝 + 𝛽
1 2 )
𝑅1 𝑅2 (𝐶1 + 𝐶2 )
où
1 𝑅1 +𝑅2
𝛼= et 𝛽=
𝑅1 𝐶1 𝑅1 𝑅2 (𝐶1 +𝐶2 )
𝐶1 𝑅2
𝐻(𝑝) = = = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡
𝐶1 + 𝐶2 𝑅1 + 𝑅2
Les résultats ci-dessus indiquent que, en général, 𝐻(𝑝) est une fonction de 𝑝. Toutefois, dans le cas
particulier où 𝑅1 𝐶1 = 𝑅2 𝐶2 la fonction de transfert 𝐻(𝑝) se réduit à une constante. Dans ce cas, 𝐻(𝑝)
fournit des informations trompeuses sur le circuit, car on peut arriver à la conclusion que le circuit RC est
un circuit purement résistif, ce qui n'est pas. De plus, lorsque 𝑅1 𝐶1 = 𝑅2 𝐶2 , le circuit n’est ni contrôlable
(les tensions des condensateurs 𝐶1 et 𝐶2 ne peuvent pas être contrôlées) ni observable (la valeur initiale
des tensions des condensateurs 𝐶1 et 𝐶2 ne peuvent pas être estimées à partir des données d'entrée et de
sortie.
Exemple III.6:
0 1 0
𝑥̇ = [ ] 𝑥(𝑡) + [ ] 𝑢(𝑡)
{ 2 −1 1
𝑦 = [−1 1] 𝑥(𝑡)
Solution:
Le système étant déjà dans sa forme canonique de commande, il en résulte immédiatement qu'il est
contrôlable.
Pour déterminer si le système est observable, on construit la matrice d'observabilité.
𝐶 −1 1
𝑂𝑏𝑠 = [ ]=[ ]
𝐶𝐴 2 −2
|𝑂𝑏𝑠| = (−1)(−2) − 2 = 0. Alors, 𝑟𝑎𝑛𝑔(𝑂𝑏𝑠) < 2. Par conséquent, le système n'est pas observable.
𝑝 −1 −1 0
= [−1 1] [ ] [ ]
−2 𝑝 + 1 1
𝑝+1 1
[ ]
2 𝑝 0
= [−1 1] [ ]
𝑝2 +𝑝−2 1
𝑝−1
=
𝑝2 +𝑝−2
𝑝−1
=
(𝑝−1)(𝑝+2)
1
=
(𝑝+2)
De toute évidence, comme le système n’est pas observable, on s’attendait à ce qu’au moins une
annulation pôle-zéro. L'annulation du facteur (𝑝 − 1), résulte en une annulation de la valeur propre "1".
Cela peut avoir des résultats extrêmement indésirables, en particulier dans des cas comme le présent
exemple, où le pôle de sortie annulé est dans la partie droite du plan complexe. Dans ce cas, si le système
était excité, les états du système augmenteraient avec le temps et pourraient même tomber en panne ou
brûler le système. En effet, pour simplifier, on prend 𝑢(𝑡) = 𝛿(𝑡)
On a:
𝑋1 (𝑝)
𝑌(𝑝) = [−1 1] 𝑋(𝑡) = [−1 1] [ ] = 𝑋2 (𝑝) − 𝑋1 (𝑝)
𝑋2 (𝑝)
On aussi
𝑌(𝑝) 𝑝−1 𝑝−1
= (𝑝−1)(𝑝+2)
⟹ 𝑌(𝑝) = (𝑝−1)(𝑝+2)
, car 𝑈(𝑝) = 1
𝑈(𝑝)
1 𝑡
𝑥1 (𝑡) = (𝑒 − 𝑒 −2𝑡 )
3
1
𝑥2 (𝑡) = (𝑒 𝑡 + 𝑒 −2𝑡 )
3
Par conséquent, en raison du terme 𝑒 𝑡 , les deux états 𝑥1 (𝑡) et 𝑥2 (𝑡) augmentent avec le temps.
Maintenant, si on considère la sortie où
1
𝑌(𝑝) =
(𝑝 + 2)
Alors,
𝑦(𝑡) = 𝑒 −2𝑡
Clairement, le résultat donne des résultats très trompeurs sur le comportement du système: en réalité, le
système peut tomber en panne ou s’épuiser et la sortie nous laisse croire qu’il n’ya "pas de problème" et
que le comportement du système est décrit par la fonction décroissante 𝑦(𝑡) = 𝑒 −2𝑡 . Cela nous amène à
la conclusion que nous ne devrions pas "faire confiance" à 𝐻(𝑝) à moins que le théorème suivant soit
satisfait.
Théorème III.4:
Lorsqu'un système est contrôlable et observable, aucune annulation de pôle zéro ne prend lieu et sa
matrice de transfert constitue une description complète du système.
Kalman a montré qu’il est possible d’introduire certaines coordonnées en utilisant une matrice de
transformation T, de telle sorte qu’un système puisse être décomposé comme suit:
𝐴11 𝐴12 0 0 𝐵1
0 𝐴22 0 0 0
𝑥̇ = [ ] 𝑥(𝑡) + [ ] 𝑢(𝑡)
𝐴31 𝐴32 𝐴33 𝐴34 𝐵3 (III.25)
0 𝐴42 0 𝐴44 0
{ 𝑦 = [𝐶1 𝐶2 0 0] 𝑥(𝑡)
où un 𝐴𝑖𝑗 , 𝐵𝑖 et 𝐶𝑖 sont des blocs de matrices de dimensions appropriées. Le vecteur 𝑥(𝑡) est par
conséquent décomposé en quatre sous-vecteurs, chacun d'eux correspond à l'un des quatre cas suivants:
Le théorème suivant, lié aux résultats ci-dessus, est appelé le théorème de décomposition de Kalman.
Théorème III.4:
Un système peut être décomposé en quatre sous-systèmes avec les propriétés suivantes:
La Figure III.4 montre le schéma de principe de la décomposition de Kalman, impliquant les quatre
sous-systèmes et la manière dont ils sont liés. De plus, il montre que l'entrée est liée à la sortie
uniquement via le sous-système SCO .
Commandable
et
Non Observable
Commandable
et
u Observable y
Non Commandable
et
Observable
Non Commandable
et
Non Observable
La matrice de transfert d'un système est unique et peut être déterminée à partir du sous système qui
est à la fois contrôlable et observable. En réalité, des calculs simples montrent que la matrice de fonctions
de transfert du système est donnée par:
Exercice résolu:
𝑝−1 𝑝2 +2𝑝−3
𝐻 (𝑝 ) = , 𝐺 (𝑝) =
𝑝2 +3𝑝+2 𝑝3 +6𝑝2 +11𝑝+6
Solution:
𝑝−1 0 1 0
𝑥̇ = [ ] 𝑥(𝑡) + [ ] 𝑢(𝑡)
𝐻 (𝑝 ) = ⟹ { −2 −3 1
𝑝2 +3𝑝+2 𝑦 = [−1 1] 𝑥(𝑡)
0 1
𝐶𝑜𝑚 = [𝐵 𝐴𝐵 ] = [
1 −3
], |𝐶𝑜𝑚| = 1 ⟹ le système est commandable.
𝐶 −1 1
𝑂𝑏𝑠 = [
𝐶𝐴
]=[
−2 −4
], |𝑂𝑏𝑠| = 6 ⟹ le système est observable.
0 1 0 0
𝑝2 +2𝑝−3 𝑥̇ = [ 0 0 1 ] 𝑥(𝑡) + [ 0] 𝑢(𝑡)
𝐺 (𝑝) = ⟹ {
𝑝3 +6𝑝2 +11𝑝+6 −6 −11 −6 1
𝑦 = [−3 2 1] 𝑥(𝑡)
0 0 1
𝐶𝑜𝑚 = [𝐵 𝐴𝐵 𝐴2 𝐵 ] = [0 1 −6], |𝐶𝑜𝑚| = 1 ⟹ le système est commandable.
1 −6 25
𝐶 −3 2 1
𝑂𝑏𝑠 = [ 𝐶 𝐴 ] = [−6 −14 −4],
𝐶 𝐴2 24 38 10
−14 −4 −6 −4 −6 −14
|𝑂𝑏𝑠| = −3 | |− 2| | + 1| | = −36 − 72 + 108 = 0
38 10 24 10 24 38
𝑝2 + 2𝑝 − 3 (𝑝 − 1)(𝑝 + 3) (𝑝 − 1)
𝐺(𝑝) = 3 = = = 𝐻(𝑝)
𝑝 + 6𝑝2 + 11𝑝 + 6 (𝑝 + 1)(𝑝 + 2)(𝑝 + 3) (𝑝 + 1)(𝑝 + 2)
Parce que 𝐺(𝑝) = ℎ(𝑝), alors, on peut dire que les deux réalisations précédentes sont deux réalisation
pour le même système. Mais, la première réalisation est minimal c.-à-d. représentation car le système est
commandable et observable, tandis que la deuxième réalisation n'est pas minimale car elle est non
observable, ce qui implique l'existence d'une annulation pôle-zéro.
Un ensemble de vecteurs est dit être linéairement dépendant si l'un des vecteurs de l'ensemble peut
être défini comme une combinaison linéaire des autres; Si aucun vecteur de l'ensemble ne peut être écrit
de cette manière, les vecteurs sont dits linéairement indépendants.
Les vecteurs d’un sous-ensemble 𝑆 = {𝑣⃗1 , 𝑣⃗2 , … , 𝑣⃗𝑘 } d'un espace vectoriel V sont dits linéairement
dépendants, s'il existe des scalaires 𝛼1 , 𝛼2 ,…, 𝛼𝑘 , pas tous nuls, tels que:
α1 v
⃗⃗1 + α2 v ⃗⃗k = ⃗⃗
⃗⃗2 + ⋯ + αk v 0
Autrement dit, chaque vecteur peut s'écrire comme une combinaison linéaire des autres vecteurs.
−3 2 1
Dans l'exemple précédent, les trois vecteurs 𝑣⃗1 [−6], 𝑣⃗2 [−14] et 𝑣⃗3 [−4] sont linéairement
24 38 10
dépendants car il existe trois scalaires 𝛼1 , 𝛼2 et 𝛼3 tels que:
Figure III.5. (à gauche) les trois vecteurs, (à droite) vue latérale du plan contenant les trois vecteurs.
III.10. Exercices
Exercice 1:
Exercice 2:
𝑌(𝑝) 𝑝3 +5 𝑝2 +𝑝+2
H(p) = =
𝑈(𝑝) 𝑝3 +5 𝑝2 +𝑝+2
Exercice 3:
2 𝑝2 + 7𝑝 + 7
H(p) =
𝑝2 + 3𝑝 + 2
Exercice 4:
1. Si on peut écrire une représentation d'état sous la forme de commande, alors, le système est
commandable.
2. Si on peut écrire une représentation d'état sous la forme d'observation, alors, le système est
observable.
Soutien: Calculer les matrices de commandabilité et d'observabilité et continuer avec la démarche ordinaire.
Chapitre IV
Représentation des SM par matrice de transfert
IV.1. Introduction
Après avoir appris à écrire un système monovariable sous forme d'équations d'état, nous étendrons nos
connaissances au système multivariable.
On considère le système monovariable décrit par:
𝑁(𝑝)
𝐺(𝑝) = avec degré (𝑁(𝑝)) ≤ degré (𝐷(𝑝)) (IV.1)
𝐷(𝑝)
L'objectif est de trouver une représentation d'état:
𝑥̇ = 𝐴 𝑥(𝑡) + 𝐵 𝑢(𝑡)
{ (IV.2)
𝑦 = 𝐶 𝑥(𝑡)
Pour le cas des systèmes propres, on a:
𝑁(𝑝) 𝑅(𝑝)
𝐺(𝑝) = = + Q (IV.3)
𝐷(𝑝) 𝐷(𝑝)
(A,B,C) D
Où, Q est le quotient et 𝑅(𝑝) est le reste.
Exemple IV.1:
3 𝑝2 +9 𝑝+10
𝐺(𝑝) =
𝑝2 +4 𝑝+3
3( 𝑝2 +4 𝑝+3) −3 𝑝+1
= +
𝑝2 +4 𝑝+3 𝑝2 +4 𝑝+3
−3 𝑝+1
=3+
𝑝2 +4 𝑝+3
Alors,
0 1 0
𝑥̇ = [ ] 𝑥 + [ ] 𝑢(𝑡)
{ −3 −4 1
𝑦 = [1 −3] 𝑥 + 3 𝑢
Représentation: un triplet (𝐴, 𝐵, 𝐶) tel que 𝐺(𝑝) = 𝐶 (𝑝𝐼 − 𝐴)−1 𝐵, avec A de dimension minimale.
On peut alors distinguer plusieurs approches pour obtenir une représentation d'état représentée par la
figure suivante :
G(p) Réalisation
Méthode des
invariants
Méthode de Réduction
Gilbert
Représentation
La réalisation est le problème inverse de l'obtention de la matrice de transfert 𝐺(𝑝) à partir des
matrices d'état A, B, C et D, c'est l'obtention d'une représentation d'état à partir de la matrice de transfert.
Réalisation
G(p) {A, B, C, D}
Matrice de transfert
Figure IV.2. Problème de réalisation
Le quadruple (A, B, C, D) est appelé réalisation de 𝐺(𝑝).
Théorème IV.1:
Une matrice de transfert 𝐺(𝑝) est réalisable si seulement si elle est rationnelle propre.
Notons qu'une fonction de transfert est propre si le degré de numérateur est inférieur ou égal au degré
du dénominateur. Une matrice de transfert est propre si tous ces éléments sont propres.
Un système multivariable MIMO peut être considéré comme la superposition de plusieurs SIMO
(Single-Input Multi-Output) systèmes:
𝑃𝑖 (𝑝) [0 ⋯ 1 ⋯ 0]
𝑌𝑖 = 𝐷(𝑝)
U(p)
𝑃𝑖 (𝑝)𝑢𝑖 (𝑝)
= (IV.6)
𝐷(𝑝)
Alors,
𝑌 = 𝐺(𝑝)𝑈(𝑝) = 𝑌1 + 𝑌2 + ⋯ + 𝑌𝑚
𝐴1 0 0 0 𝐵1
0 𝐴2 0 0 𝐵2
𝑥̇ = [ ] 𝑥+ 𝑢
⋮ 0 ⋱ ⋮ ⋱ (IV.8)
0 0 ⋯ 𝐴𝑚 [ 𝐵𝑚 ]
{ 𝑦 = [𝐶1 𝐶2 ⋯ 𝐶𝑚 ] 𝑥 + [0] 𝑢
Exemple IV.2:
1 −1
2 2
[𝑝 + 𝑝−4 2𝑝 − 𝑝−8]
𝑃(𝑝) 𝑝2 −4 2(𝑝2 −4)
G(p) = =
𝐷(𝑝) 𝑝 (𝑝+1)(𝑝+2)
Alors,
1 −1
𝑝 2 + 𝑝−4 2𝑝2 − 𝑝−8
[ ]
𝑝2 −4 2(𝑝2 −4)
Y(p) = U(p)
𝑝 (𝑝+1)(𝑝+2)
1 −1
2 2
[𝑝 + 𝑝−4] [ − 𝑝−8]
2𝑝
𝑝2 −4 2(𝑝2 −4)
= 𝑢1 + 𝑢2
𝑝 +3𝑝2 +2𝑝
3 𝑝3 +3𝑝2 +2𝑝
0 1 0 0 0 0 0 0
0 0 1 0 0 0 0 0
0 −2 −3 0 0 0 1 0
𝑥̇ = 𝑥+ 𝑢
0 0 0 0 1 0 0 0
0 0 0 0 0 1 0 0
[0 0 0 0 −2 −3] [ 0 1]
1 0 0 −1 0 0
𝑦 = [−4 1 1 −8 −1 2] 𝑥 + [0] 𝑢
{ −4 0 1 −8 0 2
IV.4.2. Réalisation sous forme canonique en blocs
On peut obtenir une forme canonique en bloc en utilisant les méthodes du cas monovariable, par
exemple la forme de commande:
0 𝟏 0 ⋯ 0 0
0 0 𝟏 ⋱ ⋮ 0
𝑥̇ = ⋮ ⋱ ⋱ ⋱ 0 𝑥+ ⋮ 𝑢
0 ⋯ 0 0 𝟏 (IV.9)
0
[− 𝑎0 − 𝑎1 ⋯ − 𝑎𝑛−2 − 𝑎𝑛−1 ] [1]
{ 𝑦 = [𝑏0 𝑏1 ⋯ 𝑏𝑛−2 𝑏𝑛−1 ] 𝑥 + [0] 𝑢
Soit le système multivariable qui possède q entrées p sorties:
𝑃(𝑝)
G(p) = (𝑃(𝑝) est la matrice polynomiale)
𝐷(𝑝)
Où, les 𝐵𝑖 (i = 1,…,m) sont des matrices qui possèdent les mêmes dimensions que 𝑃(𝑝), m est le degré du
polynôme du degré le plus élevé dans la matrice 𝑃(𝑝).
Une réalisation analogue à la forme canonique de commande peut s'écrire comme suit:
0 𝑰𝒒 0 ⋯ 0 0
0 0 𝑰𝒒 ⋱ ⋮ 0
𝑥̇ = ⋮ ⋱ ⋱ ⋱ 0 𝑥+ ⋮ 𝑢
0 (IV.11)
0 ⋯ 0 0 𝑰𝒒
[− 𝑎0 𝑰𝒒 − 𝑎1 𝑰𝒒 ⋯ − 𝑎𝑛−2 𝑰𝒒 − 𝑎𝑛−1 𝑰𝒒 ] [𝑰𝒒 ]
{ 𝑦 = [𝐵0 𝐵1 ⋯ 𝐵𝑛−2 𝐵𝑛−1 ] 𝑥 + [0] 𝑢
Où, 𝐼𝑞 est la matrice identité d'ordre q (le nombre d'entrées du système).
Exemple IV.3:
1 −1
2 2
[𝑝 + 𝑝−4 2𝑝 − 𝑝−8]
𝑃(𝑝) 𝑝2 −4 2(𝑝2 −4)
G(p) = =
𝐷(𝑝) 𝑝 (𝑝+1)(𝑝+2)
0 0 0 0 1 −1
{[1 2]𝑝2 + [1 −1]𝑝+[−4 −8]}
1 2 0 0 −4 −8
=
𝑝3 +3𝑝2 +2𝑝
0 𝑰𝟐 0 0
𝑥̇ =[ 0 0 𝑰 𝟐 ] 𝑥 + [0] u
− 0𝑰𝟐 − 2𝑰𝟐 − 3𝑰𝟐 𝑰𝟐
1 −1 0 0 0 0
𝑦 = [[−4 −8] [1 −1] [1 2]] 𝑥 + [0] 𝑢
{ −4 −8 0 0 1 2
ou
1 0
0 [ ] 0
0 1 0
1 0 0
𝑥̇ = 0 0 ] [
𝑥+[ ]u
0 1 1 0
[ ]
1 0 1 0 1 0 0 1
[− 0 [0 1
] − 2[
0 1
] − 3[
0 1
]]
1 −1 0 0 0 0
𝑦 = [[−4 −8] [1 −1] [1 2]] 𝑥 + [0] 𝑢
{ −4 −8 0 0 1 2
Finalement, on a:
0 0 1 0 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 0 1 0 0 0
𝑥̇ = 𝑥+ u
0 0 0 0 0 1 0 0
0 0 −2 0 −3 0 1 0
[0 0 0 −2 0 −3 ] [ 0 1]
1 −1 0 0 0 0
𝑦 = [−4 −8 1 −1 1 2] 𝑥 + [0] 𝑢
{ −4 −8 0 0 1 2
IV.4.3. Réalisation diagonale
On peut utiliser la méthode des résidus pour obtenir une forme diagonale de la matrice d'état. Soit la
matrice de transfert donnée par:
𝑃(𝑝)
𝐺(𝑝) = (IV.12)
𝐷(𝑝)
où, 𝑃(𝑝) est la matrice polynomiale (p×m) et 𝐷(𝑝) est le dénominateur commun.
On peut donc réécrire la matrice 𝐺(𝑝) comme suit:
𝑃(𝑝) 𝑅𝑖
G(p) = = ∑𝑛𝑖=1 (IV.13)
𝐷(𝑝) 𝑝− 𝜆𝑖
dont 𝑅𝑖 sont les matrices résidus, et 𝜆𝑖 sont les pôles ou les modes.
Exemple IV.4:
Soit le système multivariable, 2 entrées et 2 sorties:
On peut écrire:
𝑌1 (𝑝) [1 0] [2 1] [1 0]
[ ]=( 0 1 + 4 2 + 2 0 ) [𝑈1 (𝑝)]
𝑌2 (𝑝) 𝑝 𝑝+1 𝑝+2 𝑈2 (𝑝)
1 0 𝑈1 (𝑝) 2 1 𝑈1 (𝑝) 1 0 𝑈1 (𝑝)
[ ] [ ] [ ] [ ] [ ] [ ]
𝑌1 (𝑝) 0 1 𝑈2 (𝑝) 4 2 𝑈2 (𝑝) 2 0 𝑈2 (𝑝)
[
𝑌2 (𝑝)
]= + +
𝑝 𝑝+1 𝑝+2
𝑥1 𝑥2 𝑥3
𝑥4 𝑥5 𝑥6
La représentation d'état s'écrire:
0 0 0 0 0 0 1 0
0 −1 0 0 0 0 2 1
0 0 −2 0 0 0 1 0
𝑥̇ = 𝑥 + 𝑢(𝑡)
0 0 0 0 0 0 0 1
0 0 0 0 −1 0 4 2
[0 0 0 0 0 −2] [2 0]
1 1 1 0 0 0 0 0
{ 𝑦 = [0 0 0 1 1 1
] 𝑥+[
0 0
]𝑢
𝑈1 (𝑝)
𝑈1 (𝑝) 𝑈 (𝑝)
[1 0 ] [ 1] [ ] ] [1 0] [ 1 ]
[2
𝑈2 (𝑝)
𝑈2 (𝑝) 𝑈2 (𝑝)
𝑌1 (𝑝) = + +
𝑝 𝑝+1 𝑝+2
𝑈 (𝑝) 𝑈 (𝑝) 𝑈 (𝑝)
[0 1] [ 1 ] [4 2] [ 1 ] [2 0] [ 1 ]
𝑈2 (𝑝) 𝑈2 (𝑝) 𝑈2 (𝑝)
𝑌 (𝑝) = + +
{ 2 𝑝 𝑝+1 𝑝+2
𝑥4 2𝑥2 2𝑥3
Et on a:
0 0 0 0 1 0
0 −1 0 0 2 1
𝑥̇ = [ ]𝑥 + [ ] 𝑢(𝑡)
0 0 −2 0 1 0
0 0 0 0 0 1
1 1 1 0 0 0
{𝑦 = [0 2 2 1] 𝑥 + [0 0] 𝑢
Théorème IV.2:
Une réalisation est minimale si elle est à la fois commandable et observable.
Théorème IV.3:
Toutes les réalisations minimales d'une matrice de transfert donnée sont similaires.
Il existe plusieurs méthodes pour obtenir une réalisation minimale. Deux méthodes sont présentées ci-
dessous.
On a, alors:
𝑃(𝑝) 𝑞 𝑅𝑖
G(p) = =𝐷 + ∑𝑖=1 (IV.15)
𝐷(𝑝) 𝑝− 𝜆𝑖
Où
𝐷 = 𝐺(∞) (IV.16)
Les pôles ou modes sont les 𝜆𝑖 et leur ordre de multiplicité est égal au rang(𝑅𝑖 ), dont 𝑅𝑖 sont les
matrices résidus de dimensions (p×m).
𝑅1 𝑅2
𝐺(𝑝) = +
𝑝+1 𝑝+2
2𝑝+3 3𝑝+5
1 2
𝑅1 = (𝑝 + 1) 𝐺(𝑝)|𝑝= −1 = [ 𝑝+2 𝑝+2 ] =[ ]
−1 0 𝑝= −1 −1 0
2𝑝 + 3 3𝑝 + 5
𝑝+1 𝑝+1 1 1
𝑅2 = (𝑝 + 2) 𝐺(𝑝)|𝑝= −2 = =[ ]
−(𝑝 + 2) 0 0
0
[ 𝑝+1 ]𝑝= −2
Alors,
1 2 1 1
[] [ ]
𝐺(𝑝) = −1 0 + 0 0
𝑝+1 𝑝+2
𝑟𝑎𝑛𝑔(𝑅1 ) = 2, car la matrice 𝑅1 contient deux colonnes linéairement indépendantes, alors,
1 2 1 0 1 2 1 0
𝑅1 = 𝐶1 𝐵1 = [ ][ ], donc 𝐶1 = [ ] et 𝐵1 = [ ]
−1 0 0 1 −1 0 0 1
𝑟𝑎𝑛𝑔(𝑅2 ) = 1, car la matrice 𝑅2 contient deux colonnes linéairement dépendantes, alors
1
𝐶2 = [ ], et
0
−1 1 −1 1 1
𝐵2 = (𝐶2 𝑇 𝐶2 ) 𝐶2 𝑇 𝑅2 = ([1 0] [ ]) [1 0] [ ] = ([1])−1 [1 1] = [1 1]
0 0 0
Donc, la réalisation minimale est donnée par:
𝜆1 𝐼1 0 𝐵
𝑥̇ = [ ] 𝑥 + [ 1 ] 𝑢(𝑡)
{ 0 𝜆2 𝐼2 𝐵2
𝑦 = [𝐶1 𝐶2 ] 𝑥 + 𝐷 𝑢
On a donc:
−1 0 0 1 0
𝑥̇ = [ 0 −1 0 ] 𝑥 + [0 1] 𝑢(𝑡)
0 0 −2 1 1
1 2 1 0 0
𝑦 =[ ] 𝑥+[ ]𝑢
{ −1 0 0 0 0
Ordre du système = 𝑛 = ∑2𝑖=1 𝑟𝑖 = 𝑟1 + 𝑟2 = 2 + 1 = 3
Il est clair que la réalisation est commandable et observable, car la matrice 𝐵 ne contient pas de lignes
nulles et la matrice 𝐶 aussi ne contient aucune colonne nulle. Par conséquent, la réalisation est minimale.
On peut vérifier ce résultat en calculant les matrices de commandabilité et d'observabilité.
1 0 −1 0 1 0
2
𝐶𝑜𝑚 = [𝐵 |𝐴 𝐵 | 𝐴 𝐵] = [[0 1] [ 0 −1] [0 1]]
1 1 −2 −2 4 4
Il est évident que la matrice 𝐶𝑜𝑚 est de rang plein (𝑟𝑎𝑛𝑔(𝐶𝑜𝑚) = 3), car les trois lignes sont
linéairement indépendantes, autrement dit, le système est commandable
1 2 1
[ ]
𝐶 −1 0 0
−1 −2 −2
𝑂𝑏𝑠 = [ 𝐶 𝐴 ] = [ ]
1 0 0
𝐶 𝐴2 1 2 4
[ [−1 0 ]
0 ]
Et aussi la matrice 𝑂𝑏𝑠 est de rang plein (𝑟𝑎𝑛𝑔(𝑂𝑏𝑠) = 3), alors la réalisation est observable.
La matrice
𝑌(𝑝) 𝑅1 𝑅2 𝑅1 𝑈(𝑝) 𝑅2 𝑈(𝑝)
𝐺(𝑝) = = + → 𝑌(𝑝) = + = 𝑦1 + 𝑦2
𝑈(𝑝) 𝑝+1 𝑝+2 𝑝+1 𝑝+2
𝒙̇ (t) 𝒀𝟏 (𝒑)
𝟏 𝑿𝟏 (𝒑)
𝟏 𝟎 𝟏 𝟐
[ ] [ ]
𝟎 𝟏 𝒔 −𝟏 𝟎
𝑼(𝒑) −𝟏 𝟎 𝒀(𝒑)
[ ]
𝟎 −𝟏
𝒙̇ (t)
𝟏 𝑿𝟐 (𝒑)
𝟏
[𝟏 𝟏] [ ]
𝒔 𝟎
𝒀𝟐 (𝒑)
−𝟐
2(𝑝 + 1)2
1
𝑝+2 1 0
𝑅1 = (𝑝 + 1)2 𝐺(𝑝)|𝑝= −1 = =[ ]
4 0 4
𝑝+1
[ (𝑝 + 2) ]𝑝= −1
𝑟𝑎𝑛𝑔(𝑅3 ) = 1, alors
2 2
𝑅3 = 𝐶3 𝐵3 = [ ] [0 1] → 𝐶3 = [ ] et 𝐵3 = [0 1].
4 4
1 0 0 0 0 2
[ ] [ ] [ ]
𝐺(𝑝) = 0 4 + 1 −4 + 0 4
(𝑝 + 1) 2 𝑝+1 𝑝+2
Et la realization sera:
𝜆1 𝐼1 𝐼1 0 0
𝑥̇ = [ 0 𝜆2 𝐼2 0 ] 𝑥 + [ 𝐼2 ] 𝑢(𝑡)
{ 𝐵3
0 0 𝜆3 𝐼3
𝑦 = [𝑅1 𝑅2 𝐶3 ] 𝑥 + 𝐷 𝑢
On a donc:
−1 0 1 0 0 0 0
0 −1 0 1 0 0 0
𝑥̇ = 0 0 −1 0 0 𝑥 + 1 0 𝑢(𝑡)
0 0 0 −1 0 0 1
[0 0 0 0 −2 ] [ 0 1]
1 0 0 0 2 0 0
{ 𝑦 = [0 4 1 −4 4
] 𝑥+[
0 0
]𝑢
𝛾1 (𝑝)
⋱
𝑆(𝑝) = 𝛾𝑟 (𝑝) (IV.25)
0
⋱
[ 0]
Il s'agit de la forme de Smith et le rang(S(p)) = rang(P(p)) = r, les 𝛾𝑖 (𝑝) sont les invariants (les
diviseurs invariants) de 𝑆(𝑝).
Utilise des opérations élémentaires sur la matrice polynomiale. Si on multiplie la matrice polynomiale
à gauche par une matrice élémentaire, on effectue une opération sur les lignes, si on multiplie à droite, on
effectue une opération sur les colonnes.
Remarques:
3. Le produit de plusieurs matrices élémentaires donne une matrice polynomiale avec déterminant
constant non nul.
4. Une matrice polynomiale avec déterminant constant non nul est appelée matrice unimodulaire,
Lemme: Toutes les matrices unimodulaires peuvent être écrites comme un produit de matrices
élémentaires.
Exemple IV.6:
1 1
Soit: P(p) = [ ]
𝑝 2𝑝 + 1
1 0 1 1 1 1
𝑃1 (p) = 𝐿1 (p) P(p) = [ ][ ]=[ ]
−𝑝 1 𝑝 2𝑝 + 1 0 𝑝+1
1 1 1 −1 1 0
𝑃2 (p) = 𝑃1 (p) 𝑅1 (p) = [ ][ ]=[ ]
0 𝑝+1 0 1 0 𝑝+1
Alors,
Théorème:
Notons:
On arrive à:
𝑆(𝑝)
G(p) = 𝐿(𝑝) 𝑅(𝑝)
𝐷(𝑝)
𝜖1 (𝑝)
𝐷1 (𝑝)
⋱ 𝑅1 (𝑝)
𝜖𝑟 (𝑝)
= [𝐿1 (𝑝) ⋯ 𝐿𝑝 (𝑝)] 𝐷𝑟 (𝑝) [ ⋮ ]
𝑅𝑚 (𝑝)
0
⋱
[ 0]
𝑅1 (𝑝)
𝜖 (𝑝) 𝜖𝑟 (𝑝)
= [𝐿1 (𝑝) 𝐷1 (𝑝) ⋯ 𝐿𝑝 (𝑝)
𝐷𝑟 (𝑝)
][ ⋮ ]
1
𝑅𝑚 (𝑝)
𝜖𝑖 (𝑝)
= ∑𝑟𝑖=1 𝐿𝑖 (𝑝) 𝑅𝑖 (𝑝) (IV.38)
𝐷𝑖 (𝑝)
Les pôles de G(p) sont les racines de 𝐷𝑖 (𝑝),
Les zéros de G(p) sont les racines de 𝜖𝑖 (𝑝).
L'ordre du système est:
n = ∑𝑟𝑖=1 deg(𝐷𝑖 (𝑝)) (IV.39)
On peut écrire:
𝜖𝑖 (𝑝)
Y(p) = G(p) U(p) = ∑𝑟𝑖=1 𝐿𝑖 (𝑝) 𝑅𝑖 (𝑝) U(p) (IV.40)
𝐷𝑖 (𝑝)
𝐴1 0 0 0 𝐵1
𝑥̇ = [
0 𝐴2 0 0 𝐵
] 𝑥 + [ 2] 𝑢
⋮ 0 ⋱ ⋮ ⋮ (IV.44)
0 0 ⋯ 𝐴𝑟 𝐵𝑟
{𝑦 = [𝐶1 𝐶2 ⋯ 𝐶𝑟 ] 𝑥 + [0] 𝑢
Exemple IV.7:
1 −1
𝑝 2 + 𝑝−4 2𝑝2 − 𝑝−8
[ ]
𝑃(𝑝) 𝑝2 −4 2(𝑝2 −4)
G(p) = =
𝐷(𝑝) 𝑝 (𝑝+1)(𝑝+2)
1 −1
2
P(p) = [ 𝑝 + 𝑝−4 2𝑝2 − 𝑝 − 8]
2
𝑝 −4 2(𝑝2 − 4)
1 0 0 1 −1 1 −1
1 1 2 2 2 2
𝑃 (p) = 𝐿 (p) P(p) = [−𝑝 − 𝑝 + 4 1 0] [𝑝 + 𝑝 − 4 2𝑝 − 𝑝 − 8] = [0 3𝑝 − 12 ]
−𝑝2 + 4 0 1 𝑝2 − 4 2(𝑝2 − 4) 0 3(𝑝2 − 4)
1 −1 1 0
2 1 1
𝑃 (p) = 𝑃 (p) 𝑅 (p) = [0 3𝑝2 − 12 ] [1 1] = [0 3𝑝2 − 12]
0 1
0 3(𝑝2 − 4) 0 3𝑝2 − 12
1 0 0 1 0 1 0
3 2 (𝑝)𝑃2 2
𝑃 (p) = 𝐿 (𝑝) = [0 1 0] [0 3𝑝 − 12] = [0 3𝑝2 − 12]
0 −1 1 0 3𝑝2 − 12 0 0
Alors,
1 0 1 0 0 1 0 0
2 1 1
[0 3𝑝 − 12] = [0 1 0] [−𝑝 − 𝑝 + 4 1 0] 𝑃(𝑝) [
2 ]
2 0 1
0 0 0 −1 1 −𝑝 + 4 0 1
1 0 0
1 1
= [−𝑝2 − 𝑝 + 4 1 0] 𝑃(𝑝) [ ]
0 1
𝑝 −1 1
Il vient:
1 0 0 −1 1 0 −1
𝑃(𝑝) = 𝐿(𝑝) 𝑆(𝑝) 𝑅(𝑝) = ([ −𝑝 − 𝑝+4 2
1 0]) [0 3𝑝2 − 12] [1 1]
0 1
𝑝 1 1 0 0
1 0 0 1 0
2
= [𝑝 + 𝑝 − 4 1 0] [0 3𝑝2 − 12] [1 −1]
0 1
𝑝2 − 4 1 1 0 0
1 0
2
1 0 0 [0 3𝑝 −12]
𝑝 2
+ 𝑝 − 4 1 0] 0 0 1 −1
=[ [ ]
2
𝑝 −4 1 1
𝑝 𝑝+1 (𝑝+2) 0
( ) 1
1
0
1 0 0 𝑝 (𝑝+1)(𝑝+2)
𝑝 2
+ 𝑝 − 4 1 0] 3𝑝2 −12
1 −1
=[ [ ]
2 0 0 1
𝑝 −4 1 1 𝑝 (𝑝+1)(𝑝+2)
[ 0 0 ]
1
1 0 0 𝑝 (𝑝+1)(𝑝+2)
0
𝑝 2
+ 𝑝 − 4 1 0] 3(𝑝−2) 1 −1
=[ [ ]
2 0 0 1
𝑝 −4 1 1 𝑝 (𝑝+1)
[ 0 0 ]
1 0
[ 𝑝2 +𝑝−4 ] [1 −1] [1] 3(p−2) [0 1]
𝑝2 −4 1
= +
𝑝 (𝑝+1)(𝑝+2) 𝑝 (𝑝+1)
1 0
2
[𝑝 +𝑝−4] [1 −1] [3p−6] [0 1]
𝑝2 −4 3𝑝−6
= +
𝑝3 +3𝑝2 +2𝑝 𝑝2 +𝑝
0 1 0 0 0
𝑥̇ = [ 0 0 1 ] 𝑥 + [0 0 ] 𝑢
0 −2 −3 1 −1
1 0 0
𝑦 = [−4 1 1] 𝑥 + [0] 𝑢
{ −4 0 1
Et pour le deuxième terme, la représentation d'état est:
0 1 0 0
𝑥̇ = [ ] 𝑥+[ ]𝑢
0 −1 0 1
0 0
𝑦 = [−6 3] 𝑥 + [0] 𝑢
{ −6 3
Finalement,
0 1 0 0 0 0 0
0 0 1 0 0 0 0
𝑥̇ = 0 −2 −3 0 0 𝑥 + 1 −1 𝑢
0 0 0 0 1 0 0
[0 0 0 0 −1] [0 1 ]
1 0 0 0 0
𝑦 = [−4 1 1 −6 3] 𝑥 + [0] 𝑢
{ −4 0 1 −6 3
1. Posons ∆0 = 1 et définissons ∆𝑖 (p) comme les plus grands communs diviseurs (PGCD) des
mineurs d'ordre i de S(p)
∆1 (𝑝) ∆2 (𝑝) ∆𝑖 (𝑝)
2. On a: 𝛾1 (𝑝) = , 𝛾2 (𝑝) = ,…, 𝛾𝑖 (𝑝) = ,…,
∆0 (𝑝) ∆1 (𝑝) ∆𝑖−1 (𝑝)
Exemple IV.8:
1 −1
2
M(p) = [ 𝑝 + 𝑝−4 2𝑝2 − 𝑝 − 8]
2
𝑝 −4 2(𝑝2 − 4)
𝛾1 (𝑝) 0
𝑆(𝑝)= [ 0 𝛾2 (𝑝)]
0 0
Appliquons l'algorithme:
∆0 = 1
Les mineurs d'ordre 1 sont les éléments de la matrice. Leur PGCD est égal à ∆1 = 1.
Les mineurs d'ordre 2 sont: 3𝑝2 − 12, 3𝑝2 − 12, 3𝑝3 − 12𝑝
Le PGCD est ∆2 (p) = 3𝑝2 − 12. On a donc:
∆1 (𝑝) 1 ∆2 (𝑝)
𝛾1 (𝑝) = = = 1, 𝛾2 (𝑝) = = 3𝑝2 − 12 = 3(𝑝2 − 4)
∆0 (𝑝) 1 ∆1 (𝑝)
1 0
Et S(p) = [0 3(𝑝2 − 4)]
0 0
IV.6. Exercices
Exercice 1:
𝑦̈ 1 + 𝑦̇ 2 + 𝑦2 = 𝑢1
{
𝑦̈ 2 + 𝑦̇ 1 − 𝑦1 = 𝑢2
Exercice 2:
Soit le système décrit par:
1 −1
𝑝3 +9𝑝2 +2 3𝑝+15 𝑝3 +9𝑝2 +2 3𝑝+15
𝑝2 − 𝑝−1 𝑝
G(p) = 𝑝3 +9𝑝2 +2 3𝑝+15 𝑝3 +9𝑝2 +2 3𝑝+15
𝑝2 +3 2𝑝
[𝑝3 +9𝑝2+2 3𝑝+15 𝑝3 +9𝑝2 +2 3𝑝+15]
Exercice 3:
Soit le système décrit par:
1 −1 𝑝2 − 𝑝−8
𝑝3 +𝑝2 +2 𝑝+5 𝑝3 +𝑝2 +2 𝑝+5 𝑝3 +𝑝2 +2 𝑝+5
𝑝2 − 𝑝−1 𝑝 2
G(p) =
𝑝3 +𝑝2 +2 𝑝+5 𝑝3 +𝑝2 +2 𝑝+5 𝑝3 +𝑝2 +2 𝑝+5
𝑝2 +3 2𝑝 𝑝+2
[𝑝3 +𝑝2+2 𝑝+5 𝑝3 +𝑝2 +2 𝑝+5 𝑝3 +𝑝2 +2 𝑝+5]
Exercice 4:
Soit le système décrit par:
𝑝+1 𝑝−1 𝑝
[ 2 ]
𝑃(𝑝) 𝑝 + 𝑝−4 𝑝−2 𝑝2 + 2𝑝+3
G(p) = =
𝐷(𝑝) 𝑝 (𝑝+1)(𝑝+2)
Chapitre V
Commande par retour d'état des systèmes multivariables:
commande par retour d’état, observateur d'état et commande par
retour de sortie
(a) (b)
Figure V.1. Principe de commande: (a) en boucle fermée (b) par retour d'état
Le vecteur d'état étant supposé connu, le signal de commande du système (autrement dit l'écart) doit
être construit en soustrayant au signal de consigne un signal qui dépend du vecteur d'état. Ce vecteur
d'état étant composé de n signaux 𝑥1 (𝑡), 𝑥2 (𝑡),…, 𝑥𝑛 (𝑡), on le multiple par un vecteur ligne "K" appelé
vecteur de gain pour pouvoir faire cette soustraction. On a alors:
K = [𝑘1 𝑘2 ⋯ 𝑘𝑛 ] (V.1)
et
𝑥1
𝑥2
u(t) = e(t) – K x = e(t) − [𝑘1 𝑘2 ⋯ 𝑘𝑛 ] [ ⋮ ] (V.2)
𝑥𝑛
soit:
u(t) = e(t) − 𝑘1 𝑥1 − 𝑘2 𝑥2 −…− 𝑘𝑛 𝑥𝑛 (V.3)
x(t)
K
𝑥̇ = 𝐴 𝑥(𝑡) + 𝐵 𝑢(𝑡)
{ (V.4)
𝑦 = 𝐶 𝑥(𝑡)
On a, alors:
On peut aussi utiliser le schéma analogique (Figure V.3) pour calculer la fonction de transfert en boucle
fermée.
A
A-BK Système
Système
− B K
En effet:
adj{𝑝𝐼−𝐴+𝐵𝐾}
{𝑝𝐼 − 𝐴 + 𝐵𝐾}−1 = (V.10)
det{𝑝𝐼−𝐴+𝐵𝐾}
D'où
𝑎𝑑𝑗{𝑝𝐼−𝐴+𝐵𝐾}
H(p) = C B (V.11)
𝑑𝑒𝑡{𝑝𝐼−𝐴+𝐵𝐾}
Les pôles de la fonction de transfert en boucle fermée sont donc les racines de l'équation
caractéristique 𝑑𝑒𝑡{𝑝𝐼 − 𝐴 + 𝐵𝐾} = 0, c'est-à-dire les valeurs propres de la matrice (𝐴 − 𝐵𝐾). La
possibilité de choisir le vecteur de gain K de manière à positionner ces pôles sur des valeurs voulues,
donc de conférer au système en boucle fermée les performances que l'on souhaite lui assigner, s'appelle la
commandabilité en modes du système.
V.2.2. Commandabilité en modes (Wonham 1960)
Théorème:
Un système est commandable en modes en boucle fermée s'il est complètement commandable
en boucle ouverte.
Pour savoir s'il est possible d'assurer la commandabilité en modes du système en boucle fermée, il
suffira donc de calculer la matrice de commandabilité:
Com = [B | AB | A2 B | ⋯ | A𝑛−1 B] (V.12)
et de vérifier si elle est de rang n.
V.2.3. Cas des systèmes non commandables
Dans le cas où le système n'est pas complètement commandable, les équations d’état pouvaient se
mettre, grâce à un changement de base approprié, sous la forme suivante:
Un système non complètement commandable est stable en boucle fermée si et seulement si les
modes non commandables sont stables, autrement dit si les valeurs propres qui correspondent à
ces modes sont à parties réelles négatives (i.e. si les pôles correspondant sont à parties réelles
négatives).
V.3. Conception du régulateur par placement des pôles
Le problème de placement des pôles est de déterminer la valeur de K qui donne les pôles désirés en
boucle fermée. Il existe plusieurs méthodes pour le placement des pôles:
V.3.1. La méthode de comparaison directe
Si les pôles désirés en boucle fermée sont: 𝑝1, 𝑝2 ,…, 𝑝𝑛 , alors
𝑑𝑒𝑡{𝑝𝐼 − 𝐴 + 𝐵𝐾} = (𝑝 − 𝑝1 )(𝑝 − 𝑝2 ) … (𝑝 − 𝑝𝑛 )
= 𝑝𝑛 + 𝛼𝑛−1 𝑝𝑛−1 +…+ 𝛼1 p + 𝛼0 (V.20)
Pour trouver les éléments de la matrice K, il nous suffit de résoudre l'équation précédente.
c.-à-d.:
𝑝2 + 𝛼1 𝑝 + 𝛼0 = 0
D'où:
𝛼1 = 4 et 𝛼0 = 4
(1) La méthode de comparaison directe
𝑑𝑒𝑡{𝑝𝐼 − 𝐴 + 𝐵𝐾} = 𝑝2 + 4 p + 4
𝑝 0 0 1 0
|[ ]−[ ] + [ ] [𝑘1 𝑘2 ]| = 𝑝2 + 4 p + 4
0 𝑝 0 −4 1
𝑝 −1 0 0
|[ ]+[ ]| = 𝑝2 + 4 p + 4
0 𝑝+4 𝑘1 𝑘2
𝑝 −1
| | = 𝑝2 + 4 p + 4
𝑘1 𝑝 + 4 + 𝑘2
𝑝2 + (4 + 𝑘2 ) p + 𝑘1 = 𝑝2 + 4 p + 4
Et on tire:
𝑘1 = 4 𝑘 = 4
{ ⟹{ 1
4 + 𝑘2 = 4 𝑘2 = 0
(2) La méthode de forme canonique commandable
K = [𝛼0 − 𝑎0 𝛼1 − 𝑎1 ] 𝑇 −1
= [4 − 0 4 − 4] 𝑇 −1
= [4 0] 𝑇 −1
On a:
T = Com W
Où, Com est la matrice de commandabilité:
0 1
Com = [B | AB] = [ ]
1 −4
Et:
𝑎 1 4 1
W=[ 1 ]=[ ]
1 0 1 0
D'où:
0 1 4 1 1 0
T = Com W = [ ][ ]=[ ]=I
1 −4 1 0 0 1
T = I, ce qui prouve que le système est déjà sous la forme commandable. Alors, 𝑇 −1 = I et:
K = [4 0] 𝑇 −1 = [4 0] 𝐼 = [4 0]
(3) La méthode d'Ackermann
K = [0 1] Com−1 ϕ(A)
On a:
0 1 −1 4 1
Com−1 = [ ] =[ ]
1 −4 1 0
Où:
ϕ(A) = 𝐴2 + 𝛼1 A + 𝛼0 I
0 1 2 0 1 1 0
=[ ] + 4[ ] + 4[ ]
0 −4 0 −4 0 1
0 −4 0 4 4 0
=[ ]+[ ]+[ ]
0 16 0 −16 0 4
4 0
=[ ]
0 4
Finalement, on a:
K = [0 1] Com−1 ϕ(A)
4 1 4 0
= [0 1] [ ][ ]
1 0 0 4
16 4
= [0 1] [ ]
4 0
= [4 0]
Système
𝒙̇̂(t)
B ∫ ̂(t)
𝒙
+
Observateur
Rappelons tout d'abord que le principe de base de l'observabilité d'un système consiste à proposer la
reconstruction du vecteur d'état à partir de la connaissance des signaux d'entrée et de sortie du système
sur un intervalle de temps donné. Considérons le système quelconque présenté par la Figure V.4 et régi
par les équations d'états:
𝑥̇ = 𝐴 𝑥(𝑡) + 𝐵 𝑢(𝑡)
{ (V.27)
𝑦 = 𝐶 𝑥(𝑡)
u(t) 𝑥̇ (t) x(t)
B ∫ C y(t)
+
+
𝑲𝒆
−
+
𝒙̇̂(t) ̂(t)
𝒙
B ∫ C ̂(t)
𝒚
+
Après multiplication du signal d'erreur par un vecteur colonne 𝑲𝒆 appelé matrice gain d'observateur,
on réinjecte cette erreur à l'entrée dans le calcul de 𝑥̇̂ (t) (Figure V.4). D'après la Figure V.4, on obtient:
𝑥̇̂ (𝑡) = 𝐴 𝑥̂(𝑡) + 𝐾𝑒 [𝑦(𝑡) – 𝐶𝑥̂(𝑡)] + 𝐵 𝑢(𝑡) (V.28)
Soit:
𝑥̇̂ (𝑡) = [𝐴 − 𝐾𝑒 𝐶] 𝑥̂(𝑡) + 𝐾𝑒 𝑦(𝑡) + 𝐵 𝑢(𝑡) (V.29)
or:
𝑥̇ (𝑡) = 𝐴 𝑥(𝑡) + 𝐵 𝑢(𝑡)
{ (V.30)
𝑦(𝑡) = 𝐶 𝑥(𝑡)
d'où:
0 0 0 ⋯ − 𝑎0 𝑏0
𝟏 0 0 ⋱ − 𝑎1 𝑏1
𝑥̇ = ⋮ 𝟏 ⋱ ⋱ ⋮ 𝑥+ ⋮ u
0 ⋯ ⋱ 0 𝑎𝑛−2 𝑏𝑛−2 (V.36)
[0 0 ⋯ 𝟏 − 𝑎𝑛−1 ] [𝑏𝑛−1 ]
{𝑦 = [0 0 ⋯ 0 1] 𝑥
La valeur de la matrice gain d'observateur 𝐾𝑒 peut être calculée par:
𝛼0 − 𝑎 0
𝛼1 − 𝑎1
𝐾𝑒 = Q [ ⋮ ] (V.37)
𝛼𝑛−1 − 𝑎𝑛−1
Q est la matrice de transformation qui transforme l'équation d'état du système à la forme canonique
observable:
Q = (W. Ob)−1 (V.38)
Où, W est la matrice définie précédemment, Ob est la matrice d'observabilité:
C
CA
Ob = [ ] (V.39)
⋮
CA𝑛−1
Notons, que Q = I si le système est déjà sous la forme canonique observable.
V.4.3. La méthode d'Ackermann
Comme le problème de placement des pôles, cette méthode est applicable seulement dans le cas
monovariable. La matrice gain d'observateur peut être calculée par:
𝐾𝑒 = ϕ(A) Ob−1 [0 0 ⋯ 0 1]T (V.40)
ou:
C −1 0
CA 0
𝐾𝑒 = ϕ(A) [ ] [ ] (V.41)
⋮ ⋮
CA𝑛−1 1
Et ϕ(A) est définie précédemment.
Exemple V.2:
Soit le système décrit par:
0 1 0
𝑥̇ = [ ] 𝑥(𝑡) + [ ] 𝑢(𝑡)
{ −2 −3 1
𝑦 = [1 0] 𝑥(𝑡)
Concevoir un observateur d'état complet où les pôles désirés en boucle fermée sont:
𝑝1 = −2 + j 5√3 et 𝑝2 = −2 − j 5√3.
Solution
La matrice d'observabilité est:
𝐶 1 0
Ob = [ ]= [ ]
𝐶𝐴 0 1
On calcule le déterminant de la matrice Ob:
1 0
det(Ob) = |
|=1
0 1
d'où, le système est complètement observable et le calcul de la matrice gain 𝐾𝑒 est réalisable.
Les pôles du système en boucle ouverte:
p 0 0 1 p −1
|pI − A| = |[ ]−[ ]|= | | = p2 + 3 p + 2
0 p −2 −3 +2 p +3
On a, donc:
a0 = 2 et a1 = 3
En boucle fermée:
(p + 2 − j 5√3) (p + 2 + j 5√3) = (𝑝 + 2)2 − (j 5√3) = 𝑝2 + 4 𝑝 + 79
et:
𝛼0 = 79 et 𝛼1 = 4
(1) La méthode de comparaison directe
𝑑𝑒𝑡{𝑝𝐼 − 𝐴 + 𝐾𝑒 𝐶} = 𝑝2 + 4 𝑝 + 79
𝑝 0 0 1 𝑘
|[ ]−[ ] + [ 1 ] [1 0]| = 𝑝2 + 4 𝑝 + 79
0 𝑝 −2 −3 𝑘2
𝑝 −1 𝑘 0
|[ ]+[ 1 ]| = 𝑝2 + 4 𝑝 + 79
2 𝑝+3 𝑘2 0
𝑝 + 𝑘1 −1
| | = 𝑝2 + 4 𝑝 + 79
2 + 𝑘2 𝑝+3
𝑝2 + (3 + 𝑘1 ) p +3𝑘1 +2+ 𝑘2 = 𝑝2 + 4 𝑝 + 79
Et on tire:
3 + 𝑘1 = 4 𝑘 = 1
{ ⟹{ 1
3𝑘1 + 2 + 𝑘2 = 79 𝑘2 = 74
3 1 1 0 −1
= ([ ][ ])
1 0 0 1
3 1 −1
= ([ ])
1 0
0 1
=[ ]
1 −3
Comme Q ≠ I, alors, A n'est pas sous la forme canonique observable.
77
𝐾𝑒 = Q [ ]
1
0 1 77
=[ ][ ]
1 −3 1
1
=[ ]
74
(3) La méthode d'Ackermann
0
𝐾𝑒 = ϕ(A) Ob−1 [ ]
1
1 0 −1 0
= [𝐴2 + 4 𝐴 + 79I] [ ] [ ]
0 1 1
0 1 2 0 1 1 0 0
= [[ ] + 4[ ] + 79 [ ]] [ ]
−2 −3 −2 −3 0 1 1
−2 −3 0 4 79 0 0
= [[ ] + [ ]+[ ]] [ ]
6 7 −8 −12 0 79 1
77 1 0
=[ ][ ]
−2 74 1
1
=[ ]
74
V.5. Effets de l'ajout de l'observateur sur un système en boucle fermée
Dans le processus de conception du placement des pôles, nous avons supposé que l'état réel 𝑥(𝑡) était
disponible pour le retour d'état. Cependant, dans la pratique, l'état actuel 𝑥(𝑡) peut ne pas être mesurable,
Il est donc nécessaire de concevoir un observateur et d'utiliser l'état observé pour le retour, comme
illustré à la Figure V.6. Le processus de conception devient donc un processus en deux étapes, la
première étape étant la détermination de la matrice de gain de rétroaction K pour obtenir l'équation
caractéristique souhaitée et la deuxième étape étant la détermination de la matrice de gain de l'observateur
𝐾𝑒 pour obtenir l'équation caractéristique souhaitée de l'observateur.
Examinons maintenant les effets de l'utilisation de l'état observé 𝑥̂(𝑡) plutôt que de l'état réel 𝑥(𝑡) sur
l'équation caractéristique d'un système de contrôle en boucle fermée.
Considérons le système complètement contrôlable et complètement observable défini par les
équations:
𝑥̇ (𝑡) = 𝐴 𝑥(𝑡) + 𝐵 𝑢(𝑡)
{ (V.42)
𝑦(𝑡) = 𝐶 𝑥(𝑡)
Pour la commande par retour d'état basée sur l'observateur d'état 𝑥̂(𝑡),
𝑢 = −𝐾 𝑥̂(𝑡) (V.43)
u(t) 𝒙̇ (t) x(t)
B ∫ C y(t)
+
+
𝑲𝒆
−
+
𝒙̇̂(t) ̂(t)
𝒙
B ∫ C ̂(t)
𝒚
+
−𝑲
Figure V.6. Commande de rétroaction (boucle fermée) par observateur d'état complet.
La différence entre l'état actuel 𝑥(𝑡) et l'état observé 𝑥̂(𝑡) a été définie comme l'erreur 𝑒(𝑡):
𝑒(𝑡) = 𝑥(𝑡) − 𝑥̂(t) (V.45)
Substituons (V.45) dans (V.44), on obtient:
𝑥̇ = (𝐴 − 𝐵𝐾)𝑥 + 𝐵𝐾𝑒 (V.46)
Notez que l'équation d'erreur de l'observateur a été donnée par l'équation (V.34), répétée ici:
𝑒̇ = [𝐴 − 𝐾𝑒 𝐶] 𝑒 (V.47)
Combinons les deux équations (V.46) et (V.47), on obtient:
𝑥̇ 𝐴 − 𝐵𝐾 𝐵𝐾 𝑥
[ ]=[ ][ ] (V.48)
𝑒̇ 0 𝐴 − 𝐾𝑒 𝐶 𝑒
L'équation (V.48) décrit la dynamique du système de contrôle en boucle fermée à état observé. L'équation
caractéristique du système est:
𝑝𝐼 − 𝐴 + 𝐵𝐾 −𝐵𝐾
| |=0 (V.49)
0 𝑝𝐼 − 𝐴 + 𝐾𝑒 𝐶
Ou
|𝑝𝐼 − 𝐴 + 𝐵𝐾||𝑝𝐼 − 𝐴 + 𝐾𝑒 𝐶| = 0 (V.50)
Notez que les pôles en boucle fermée du système de contrôle de rétroaction à observateur d'état sont
constitués des pôles dus à la conception du placement des pôles uniquement et des pôles dus à la
conception de l'observateur uniquement. Cela signifie que la conception du placement des pôles et la
conception de l'observateur sont indépendantes l'une de l'autre. Ils peuvent être conçus séparément et
combinés pour former le système de contrôle de rétroaction à observateur d'état. Notez que, si l'ordre du
système est n, alors, l'observateur est également d'ordre n (si l'observateur d'état d'ordre complet est
utilisé) et l'équation caractéristique résultante pour l'ensemble du système en boucle fermée devient
d'ordre 2n.
V.6. Fonction de transfert du contrôleur basé sur l'observateur
Considérons le système défini par:
𝑥̇ (𝑡) = 𝐴 𝑥(𝑡) + 𝐵 𝑢(𝑡)
{ (V.51)
𝑦(𝑡) = 𝐶 𝑥(𝑡)
Supposons que le système est complètement observable. Supposons que nous utilisions le contrôle de
rétroaction à observateur d'état. Ensuite, les équations de l'observateur sont données par:
𝑥̂̇ = (𝐴 − 𝐾𝑒 𝐶 − 𝐵𝐾)𝑥̂ + 𝐾𝑒 𝑦 (V.52)
𝑢 = −𝐾𝑥̂ (V.53)
où l’équation (V.52) s'obtient en substituant (V.53) dans l'équation (V.29).
En prenant la transformation de Laplace de l’équation (V.52), en supposant une condition initiale
nulle, et en résolvant, nous obtenons:
V.7. Exercices
Exercice 1:
0 1 0
𝑥̇ (𝑡) = [ ] 𝑥(𝑡) + [ ] 𝑢(𝑡)
{ −1 0 1
𝑦(𝑡) = [1 0] 𝑥(𝑡)
Concevoir un système de régulation par placement de pôles pour que le système en boucle fermée
possède les pôles désirés suivants: 𝑝1 = −1 et 𝑝2 = −1.5.
Exercice 2:
0 1 0
𝑥̇ (𝑡) = [ ] 𝑥(𝑡) + [ ] 𝑢(𝑡)
{ 20.6 0 1
𝑦(𝑡) = [1 0] 𝑥(𝑡)
1. Concevoir un système de régulation par placement de pôles pour que le système en boucle fermée
possède les pôles désirés suivants: 𝑝1 = −1.8 + 𝑖2.4 et 𝑝2 = −1.8 − 𝑖2.4.
2. Supposons que les états du système ne sont pas disponibles. Concevoir un observateur d'état du
système. Les pôles désirés sont: 𝑝̂1 − 8 et 𝑝̂ 2 = −8
Exercice 3:
0 1 0 0
𝐴 = [0 0 1], 𝐵 = [0]
1 0 0 1
Concevoir un système de régulation par placement de pôles pour que le système en boucle fermée
possède les pôles désirés suivants: 𝑝1 = −1, 𝑝2 = −2 et 𝑝3 = −2.
Exercice 4:
0 1 0 0 0
𝑥̇ (𝑡) = [−2 3 0] 𝑥(𝑡) + [1 3] 𝑢(𝑡)
5 1 3 0 1
0 0 7
𝑦(𝑡) = [ ] 𝑥(𝑡)
{ 7 9 0
Trouver une matrice de rétroaction de sortie K telle que les pôles du système en boucle fermée
soient: 𝑝1 = −3, 𝑝2 = −3 et 𝑝3 = −4.
𝜽𝟏 𝒎
𝜽𝟐
𝒍𝟏
𝒍𝟐
𝒖
𝑴
𝒙
1 1 2 1 2
𝐿= 𝑀(𝑥̇ 2 ) + 𝑚 (𝑥̇ 2 − 2𝑙1 𝑥̇ 𝜃1̇ 𝑐𝑜𝑠(𝜃1 ) + 𝑙1 2 𝜃1̇ ) + 𝑚 (𝑥̇ 2 − 2𝑙2 𝑥̇ 𝜃2̇ 𝑐𝑜𝑠(𝜃2 ) + 𝑙2 2 𝜃2̇ ) − 𝑚𝑔𝑙1 𝑐𝑜𝑠(𝜃1 )
2 2 2
− 𝑚𝑔𝑙2 𝑐𝑜𝑠(𝜃2 )
1 1 2 1 2
𝐿= (𝑀 + 2𝑚)𝑥̇ 2 − 𝑚𝑙1 𝑥̇ 𝜃1̇ 𝑐𝑜𝑠(𝜃1 ) + 𝑚𝑙1 2 𝜃1̇ − 𝑚𝑔𝑙1 𝑐𝑜𝑠(𝜃1 ) − 𝑚𝑙2 𝑥̇ 𝜃2̇ 𝑐𝑜𝑠(𝜃2 ) + 𝑚𝑙2 2 𝜃2̇ − 𝑚𝑔𝑙2 𝑐𝑜𝑠(𝜃2 )
2 2 2
Les équations de mouvement sont:
𝑑 𝜕𝐿 𝜕𝐿
( )− =𝑢
𝑑𝑡 𝜕𝑥̇ 𝜕𝑥
𝑑 𝜕𝐿 𝜕𝐿
( )− =0
𝑑𝑡 𝜕𝜃1̇ 𝜕𝜃1
𝑑 𝜕𝐿 𝜕𝐿
( )− =0
{𝑑𝑡 𝜕𝜃2̇ 𝜕𝜃2
𝑑
((𝑀 + 2𝑚)𝑥̇ − 𝑚𝑙1 𝜃1̇ 𝑐𝑜𝑠(𝜃1 ) − 𝑚𝑙2 𝜃2̇ 𝑐𝑜𝑠(𝜃2 )) − 0 = 𝑢
𝑑𝑡
2 2
(𝑀 + 2𝑚)𝑥̈ − 𝑚𝑙1 𝜃1̈ 𝑐𝑜𝑠(𝜃1 ) + 𝑚𝑙1 𝜃1̇ 𝑠𝑖𝑛(𝜃1 ) − 𝑚𝑙2 𝜃2̈ 𝑐𝑜𝑠(𝜃2 ) + 𝑚𝑙2 𝜃2̇ 𝑠𝑖𝑛(𝜃2 ) = 𝑢
𝑑
(−𝑚𝑙1 𝑥̇ 𝑐𝑜𝑠(𝜃1 ) + 𝑚𝑙1 2 𝜃1̇ ) − (𝑚𝑙1 𝑥̇ 𝜃1̇ 𝑠𝑖𝑛(𝜃1 ) + 𝑚𝑔𝑙1 𝑠𝑖𝑛(𝜃1 )) = 0
𝑑𝑡
−𝑥̈ 𝑐𝑜𝑠(𝜃1 ) + 𝑙1 𝜃1̈ − 𝑔 𝑠𝑖𝑛(𝜃1 ) = 0
2. Matrice de transfert:
𝑀 + 2𝑚 𝑚𝑙2 1
𝜃1̈ = ( ) 𝑔 𝜃1 + ( ) 𝜃2̈ + 𝑢
(𝑀 + 𝑚)𝑙1 (𝑀 + 𝑚)𝑙1 (𝑀 + 𝑚)𝑙1
𝑀 + 2𝑚 𝑚𝑙1 1
𝜃2̈ = ( ) 𝑔 𝜃2 + ( ) 𝜃1̈ + 𝑢
{ (𝑀 + 𝑚)𝑙2 (𝑀 + 𝑚)𝑙2 (𝑀 + 𝑚)𝑙2
−1
𝛩 (𝑀 + 𝑚)𝑙1 𝑝2 − (𝑀 + 2𝑚)𝑔 −𝑚𝑙2 𝑝2 1
[ 1] = [ ] [ ]𝑈
𝛩2 −𝑚𝑙1 𝑝2 (𝑀 + 𝑚)𝑙2 𝑝2 − (𝑀 + 2𝑚)𝑔 1
𝑝4 − 22.5 𝑝2 + 120 = 0
Les pôles en boucle fermée sont:
3. Réalisation du système
Les équations de mouvement précédentes sont non linéaires, mais, puisque le but de contrôle est de
stabiliser les pendules autour la verticale, alors, les équations peuvent être linéarisées autour 𝜃1 ≈
0 et 𝜃1 ≈ 0, d'où:
𝑠𝑖𝑛(𝜃1 ) ≈ 𝜃1 𝑒𝑡 𝑐𝑜𝑠(𝜃1 ) ≈ 1,
𝑠𝑖𝑛(𝜃2 ) ≈ 𝜃2 𝑒𝑡 𝑐𝑜𝑠(𝜃2 ) ≈ 1,
2 2
𝜃1̇ ≈ 0 et 𝜃2̇ ≈ 0
Alors, les équations de mouvement deviendront:
(𝑀 + 2𝑚)𝑥̈ − 𝑚𝑙1 𝜃1̈ − 𝑚𝑙2 𝜃2̈ = 𝑢
{ 𝑙1 𝜃1̈ − 𝑔 𝜃1 − 𝑥̈ = 0
𝑙2 𝜃2̈ − 𝑔 𝜃2 − 𝑥̈ = 0
(𝑀 + 2𝑚)𝑥̈ − 𝑚𝑙1 𝜃1̈ − 𝑚𝑙2 𝜃2̈ = 𝑢
{ 𝑙1 𝜃1̈ − 𝑔 𝜃1 − 𝑥̈ = 0
𝑙2 𝜃2̈ − 𝑔 𝜃2 − 𝑥̈ = 0
𝑀 + 2𝑚 𝑚𝑙2 1
𝜃1̈ = ( ) 𝑔 𝜃1 + ( ) 𝜃2̈ + 𝑢
(𝑀 + 𝑚)𝑙1 (𝑀 + 𝑚)𝑙1 (𝑀 + 𝑚)𝑙1
𝑀 + 2𝑚 𝑚𝑙1 1
𝜃2̈ = ( ) 𝑔 𝜃2 + ( ) 𝜃1̈ + 𝑢
{ (𝑀 + 𝑚)𝑙2 (𝑀 + 𝑚)𝑙2 (𝑀 + 𝑚)𝑙2
𝑥1 = 𝜃1 → 𝑥̇ 1 = 𝜃̇1 = 𝑥2
𝑀 + 2𝑚 𝑚𝑙2 1 𝑀 + 2𝑚 𝑚𝑙2 1
𝑥̇ 2 = 𝜃̈1 = ( ) 𝑔 𝜃1 + ( ) 𝜃̈ + 𝑢=( ) 𝑔 𝑥1 + ( ) 𝑥̇ + 𝑢
(𝑀 + 𝑚)𝑙1 (𝑀 + 𝑚)𝑙1 2 (𝑀 + 𝑚)𝑙1 (𝑀 + 𝑚)𝑙1 (𝑀 + 𝑚)𝑙1 4 (𝑀 + 𝑚)𝑙1
𝑥3 = 𝜃2 → 𝑥̇ 3 = 𝜃̇2 = 𝑥4
𝑀 + 2𝑚 𝑚𝑙1 1 𝑀 + 2𝑚 𝑚𝑙1 1
𝑥̇ 4 = 𝜃̈2 = ( ) 𝑔 𝜃2 + ( ) 𝜃̈ + 𝑢=( ) 𝑔 𝑥3 + ( ) 𝑥̇ + 𝑢
(𝑀 + 𝑚)𝑙2 (𝑀 + 𝑚)𝑙2 1 (𝑀 + 𝑚)𝑙2 (𝑀 + 𝑚)𝑙2 (𝑀 + 𝑚)𝑙2 2 (𝑀 + 𝑚)𝑙2
𝑀 + 2𝑚 𝑚𝑙2 1
𝑥̇ 2 = ( ) 𝑔 𝑥1 + ( ) 𝑥̇ + 𝑢
(𝑀 + 𝑚)𝑙1 (𝑀 + 𝑚)𝑙1 4 (𝑀 + 𝑚)𝑙1
𝑀 + 2𝑚 𝑚𝑙1 1
𝑥̇ 4 = ( ) 𝑔 𝑥3 + ( ) 𝑥̇ 2 + 𝑢
{ (𝑀 + 𝑚)𝑙2 (𝑀 + 𝑚)𝑙2 (𝑀 + 𝑚)𝑙2
𝑀+2𝑚 𝑚 1
𝑎 = (𝑀+𝑚), 𝑏 = (𝑀+𝑚) , 𝑐 = (𝑀+𝑚)
𝑎 𝑏 𝑙2 𝑐
𝑥̇ 2 = 𝑔 𝑥1 + 𝑥̇ 4 + 𝑢
𝑙1 𝑙1 𝑙1
𝑎 𝑏 𝑙1 𝑐
𝑥̇ 4 = 𝑔 𝑥3 + 𝑥̇ 2 + 𝑢
{ 𝑙2 𝑙2 𝑙2
l1 ẋ 2 = ag x1 + b l2 ẋ 4 + cu
{
l2 ẋ 4 = ag x3 + b l1 ẋ 2 + cu
𝑙1 𝑥̇ 2 − 𝑏 𝑙2 𝑥̇ 4 = 𝑎𝑔 𝑥1 + 𝑐𝑢
{
−𝑏 𝑙1 𝑥̇ 2 + 𝑙2 𝑥̇ 4 = 𝑎𝑔 𝑥3 + 𝑐𝑢
𝑏𝑙1 𝑥̇ 2 − 𝑏 2 𝑙2 𝑥̇ 4 = 𝑎𝑏𝑔 𝑥1 + 𝑏𝑐𝑢
{
−𝑏 𝑙1 𝑥̇ 2 + 𝑙2 𝑥̇ 4 = 𝑎𝑔 𝑥3 + 𝑐𝑢
(1 − 𝑏 2 ) 𝑙2 𝑥̇ 4 = 𝑎𝑏𝑔 𝑥1 + 𝑎𝑔 𝑥3 + (1 + 𝑏)𝑐𝑢
{
−𝑏 𝑙1 𝑥̇ 2 + 𝑙2 𝑥̇ 4 = 𝑎𝑔 𝑥3 + 𝑐𝑢
𝑎𝑏𝑔 𝑎𝑔 (1 + 𝑏)𝑐
𝑥̇ 4 = 2
𝑥1 + 2
𝑥3 + 𝑢
(1 − 𝑏 ) 𝑙2 (1 − 𝑏 ) 𝑙2 (1 − 𝑏 2 ) 𝑙2
𝑙2 𝑎𝑔 𝑐
𝑥̇ 2 = 𝑥̇ 4 − 𝑥3 − 𝑢
{ 𝑏 𝑙1 𝑏 𝑙1 𝑏 𝑙1
𝑎𝑏𝑔 𝑎𝑔 (1 + 𝑏)𝑐
𝑥̇ 4 = 2
𝑥1 + 2
𝑥3 + 𝑢
(1 − 𝑏 ) 𝑙2 (1 − 𝑏 ) 𝑙2 (1 − 𝑏 2 ) 𝑙2
𝑙2 𝑎𝑏𝑔 𝑎𝑔 (1 + 𝑏)𝑐 𝑎𝑔 𝑐
𝑥̇ 2 = ( 2
𝑥1 + 2
𝑥3 + 2
𝑢) − 𝑥3 − 𝑢
{ 𝑏 𝑙1 (1 − 𝑏 𝑙2) (1 − 𝑏 𝑙2) (1 − 𝑏 𝑙2) 𝑏 𝑙1 𝑏 𝑙1
𝑎𝑏𝑔 𝑎𝑔 (1 + 𝑏)𝑐
𝑥̇ 4 = 𝑥1 + 𝑥 3 + 𝑢
(1 − 𝑏 2 ) 𝑙2 (1 − 𝑏 2 ) 𝑙2 (1 − 𝑏 2 ) 𝑙2
𝑎𝑏𝑔 𝑎𝑔 (1 + 𝑏)𝑐 𝑎𝑔 𝑐
𝑥̇ 2 = ( 2
𝑥1 + 2
𝑥3 + 2
𝑢) − 𝑥3 − 𝑢
{ 𝑏 𝑙1 (1 − 𝑏 ) 𝑏 𝑙1 (1 − 𝑏 ) 𝑏 𝑙1 (1 − 𝑏 ) 𝑏 𝑙1 𝑏 𝑙1
𝑎𝑏𝑔 𝑎𝑔 𝑐
𝑥̇ 4 = 2
𝑥1 + 2
𝑥3 + 𝑢
(1 − 𝑏 ) 𝑙2 (1 − 𝑏 ) 𝑙2 (1 − 𝑏) 𝑙2
𝑎𝑔 𝑎𝑔 𝑐 𝑎𝑔 𝑐
𝑥̇ 2 = 2
𝑥1 + 2
𝑥3 + 𝑢− 𝑥3 − 𝑢
{ 𝑙1 (1 − 𝑏 ) 𝑏 𝑙1 (1 − 𝑏 ) 𝑏 𝑙1 (1 − 𝑏) 𝑏 𝑙1 𝑏 𝑙1
𝑎𝑏𝑔 𝑎𝑔 𝑐
𝑥̇ 4 = 2
𝑥1 + 2
𝑥3 + 𝑢
(1 − 𝑏 ) 𝑙2 (1 − 𝑏 ) 𝑙2 (1 − 𝑏) 𝑙2
𝑎𝑔 𝑎𝑔 𝑏 𝑐
𝑥̇ 2 = 𝑥1 + 𝑥3 + 𝑢
{ 𝑙1 (1 − 𝑏 2 ) 𝑙1 (1 − 𝑏 2 ) 𝑙1 (1 − 𝑏)
Alors
𝑥̇ 1 = 𝑥2
𝑎𝑔 𝑎𝑔 𝑏 𝑐
𝑥̇ 2 = 2
𝑥1 + 2
𝑥3 + 𝑢
𝑙1 (1 − 𝑏 ) 𝑙1 (1 − 𝑏 ) 𝑙1 (1 − 𝑏)
𝑥̇ 3 = 𝑥4
𝑎𝑏𝑔 𝑎𝑔 𝑐
𝑥̇ 4 = 𝑥1 + 𝑥3 + 𝑢
{ (1 − 𝑏 2 ) 𝑙2 (1 − 𝑏 2 ) 𝑙2 (1 − 𝑏) 𝑙2
𝑀 + 2𝑚
𝑎 (𝑀 + 𝑚) 𝑀 + 2𝑚 𝑀 + 2𝑚
= = 2 =
(1 − 𝑏 2 ) 𝑚 2 𝑚 𝑀 + 2𝑀𝑚 + 𝑚2 − 𝑚2
2
(1 − ( ) ) (𝑀 + 𝑚) (1 − 2 ) (𝑀 + 𝑚) ( )
(𝑀 + 𝑚) (𝑀 + 𝑚) (𝑀 + 𝑚)2
𝑀 + 2𝑚 𝑀+𝑚
= =
𝑀 + 2𝑚 𝑀
( )𝑀
(𝑀 + 𝑚)
𝑎𝑏 𝑀+𝑚 𝑚 𝑚
2
= =
(1 − 𝑏 ) 𝑀 (𝑀 + 𝑚) 𝑀
1
𝑐 (𝑀 + 𝑚) 1 1
= = =
(1 − 𝑏) 𝑚 (𝑀 + 𝑚 − 𝑚) 𝑀
(1 − )
(𝑀 + 𝑚)
Finalement, la réalisation est donnée par:
0 1
0 0 0
(𝑀 + 𝑚)𝑔 𝑚𝑔 1
0 0
𝑀𝑙1 𝑀𝑙1 𝑀𝑙1
𝑥̇ = 𝑥+ 𝑢
0 0 0 1 0
𝑚𝑔 (𝑀 + 𝑚)𝑔 1
0 0
[ 𝑀𝑙2 𝑀𝑙2 ] [ 𝑀𝑙2 ]
1 0 0 0 0
{ 𝑦= [ ] 𝑥 + [ ] 𝑢
0 0 1 0 0
C
B
Le système à double pendule inversé est instable. Si on suppose initialement que les deux tiges sont
alignées verticalement et qu'aucune force 𝑢 n'est appliquée, les deux tiges restent alors en position
verticale, comme illustré à la Figure VI.4.
Cet état est appelé stabilité critique, car à la moindre force appliquée, le système se déstabilise. La
Figure VI.5 montre que les deux pendules tombent en dessous après l'application d'une impulsion.
5. Verification
Pour vérifier est-ce qu'on peut maintenir les deux pendule à la position vertical, il faut calculer la
matrice de commandabilité et montrer que le système soit contrôlable à partir de l'entrée de commande u.
𝐶𝑜𝑚 = [𝐵 | 𝐴𝐵 | 𝐴2 𝐵 | 𝐴3 𝐵]
1 (𝑀 + 𝑚)𝑔 𝑚𝑔
0 0 2 +
𝑀𝑙1 𝑀2 𝑙1 𝑀2 𝑙1 𝑙2
1 (𝑀 + 𝑚)𝑔 𝑚𝑔
0 + 0
𝑀𝑙1 𝑀2 𝑙1 2 𝑀2 𝑙1 𝑙2
𝐶𝑜𝑚 =
1 (𝑀 + 𝑚)𝑔 𝑚𝑔
0 0 +
𝑀𝑙2 𝑀2 𝑙2 2 𝑀2 𝑙1 𝑙2
1 (𝑀 + 𝑚)𝑔 𝑚𝑔
0 + 0
[ 𝑀𝑙2 𝑀2 𝑙2 2 𝑀2 𝑙1 𝑙2 ]
1 (𝑀 + 𝑚)𝑔 𝑚𝑔
2 + 0
|𝑀𝑙1 𝑀2 𝑙1 𝑀2 𝑙1 𝑙2 |
1 (𝑀 + 𝑚)𝑔 𝑚𝑔
|𝐶𝑜𝑚| = − 0 0 + 2
𝑀𝑙1 𝑀2 𝑙2 2 𝑀 𝑙1 𝑙2
| 1 (𝑀 + 𝑚)𝑔 𝑚𝑔 |
+ 0
𝑀𝑙2 𝑀2 𝑙2 2 𝑀2 𝑙1 𝑙2
1 𝑚𝑔 (𝑀 + 𝑚)𝑔
0 2
+ 2
|𝑀𝑙1
2
𝑀 𝑙1 𝑀 𝑙1 𝑙2 |
(𝑀 + 𝑚)𝑔 𝑚𝑔 1
−( 2 2
+ 2 ) 0 0
𝑀 𝑙1 𝑀 𝑙1 𝑙2 𝑀𝑙 2
| 1 (𝑀 + 𝑚)𝑔 𝑚𝑔 |
0 2
+ 2
𝑀𝑙2 2
𝑀 𝑙2 𝑀 𝑙1 𝑙2
1 (𝑀 + 𝑚)𝑔 𝑚𝑔 1 (𝑀 + 𝑚)𝑔 𝑚𝑔
|𝐶𝑜𝑚| = [ ( 2 + 2 ) − ( 2 + 2 )]
𝑀𝑙1 𝑀2 𝑙2 𝑀 𝑙1 𝑙2 𝑀𝑙2 𝑀2 𝑙1 𝑀 𝑙1 𝑙2
1 (𝑀 + 𝑚)𝑔 𝑚𝑔 1 (𝑀 + 𝑚)𝑔 𝑚𝑔
[ ( 2 2
+ 2 )− ( 2 2
+ 2 )]
𝑀𝑙1 𝑀 𝑙2 𝑀 𝑙1 𝑙2 𝑀𝑙2 𝑀 𝑙1 𝑀 𝑙1 𝑙2
2
1 (𝑀 + 𝑚)𝑔 𝑚𝑔 1 (𝑀 + 𝑚)𝑔 𝑚𝑔
|𝐶𝑜𝑚| = [ ( 2 + 2 )− ( 2 + 2 )]
𝑀𝑙1 2
𝑀 𝑙2 𝑀 𝑙1 𝑙2 𝑀𝑙2 2
𝑀 𝑙1 𝑀 𝑙1 𝑙2
Pour que le système soit commandable, il faut que:
1 (𝑀 + 𝑚)𝑔 𝑚𝑔 1 (𝑀 + 𝑚)𝑔 𝑚𝑔
( 2 + 2 )− ( 2 + 2 )≠0
𝑀𝑙1 𝑀2 𝑙2 𝑀 𝑙1 𝑙2 𝑀𝑙2 𝑀2 𝑙1 𝑀 𝑙1 𝑙2
1 (𝑀 + 𝑚)𝑔 𝑚𝑔 1 (𝑀 + 𝑚)𝑔 𝑚𝑔
⟹ ( 2 + 2 )≠ ( 2 + 2 )
𝑙1 2
𝑀 𝑙2 𝑀 𝑙1 𝑙2 𝑙2 2
𝑀 𝑙1 𝑀 𝑙1 𝑙2
(𝑀 + 𝑚)𝑔 𝑚𝑔 (𝑀 + 𝑚)𝑔 𝑚𝑔
⟹( 2 + 2 )≠( ) 2 +
𝑀2 𝑙2 𝑙1 𝑀2 𝑙1 𝑙2 𝑀2 𝑙1 𝑙2 𝑀2 𝑙1 𝑙2 2
(𝑀 + 𝑚)𝑔𝑙1 𝑚𝑔𝑙2 (𝑀 + 𝑚)𝑔𝑙2 𝑚𝑔𝑙1
⟹( 2 2 + 2 2 2) ≠ ( 2 2 + 2 2 2)
2
𝑀 𝑙2 𝑙1 𝑀 𝑙1 𝑙2 2
𝑀 𝑙1 𝑙2 𝑀 𝑙1 𝑙2
⟹ 𝑙1 ≠ 𝑙2
Alors,
1. Si 𝑙2 = 𝑙1 , la réalisation est non commandable, par conséquent, on ne peut pas maintenir les deux
pendules à la position verticale.
2. Si 𝑙2 ≠ 𝑙1 , la réalisation est commandable, et on peut alors maintenir Si 𝜃1 = 𝜃2 = 0, par des choix
convenables de l'entrée.
6. L'observabilté:
Pour vérifier l'observabilité, on calcule la matrice d'observabilité:
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
(𝑀 + 𝑚)𝑔 𝑚𝑔
𝐶 0 0
𝑀𝑙1 𝑀𝑙1
𝐶𝐴
𝑂𝑏𝑠 = [ 2 ] = 𝑚𝑔 (𝑀 + 𝑚)𝑔
𝐶𝐴 0 0
𝐶𝐴3 𝑀𝑙2 𝑀𝑙2
(𝑀 + 𝑚)𝑔 𝑚𝑔
0 0
𝑀𝑙1 𝑀𝑙1
𝑚𝑔 (𝑀 + 𝑚)𝑔
0 0
[ 𝑀𝑙2 𝑀𝑙2 ]
Prenons les premières quatre lignes, on trouve qu'un mineur d'ordre 4 est non nul,
1 0 0 0
4 0 0 1 0
1𝑀 = | | = −1
0 1 0 0
0 0 0 1
Ce qui implique que le rang du système est 4. Alors, le système est observable (la matrice
d'observabilité est de rang plein, |𝑂𝑏𝑠| ≠ 0).
7. Conception d'un régulateur d'état par le placement des pôles
Les pôles désirés sont:
0 1 0 0 0
(𝑀 + 𝑚)𝑔 𝑚𝑔 1
| 0 0 |
𝑀𝑙1 𝑀𝑙1 𝑀𝑙1
𝑝𝐼 − + [𝑘1 𝑘2 𝑘3 𝑘4 ] = 𝑝4 + 14 𝑝3 + 71 𝑝2 + 154 𝑝 + 120
0 0 0 1 0
| 𝑚𝑔 (𝑀 + 𝑚)𝑔 1 |
0 0
[ 𝑀𝑙2 𝑀𝑙2 ] [ 𝑀𝑙2 ]
0 1 0 0 0
12.5 0 2.5 0 1.25 [𝑘 𝑘 𝑘 𝑘 ] 4 3 2
|𝑝𝐼 − [ ]+[ ] 1 2 3 4 | = 𝑝 + 14 𝑝 + 71 𝑝 + 154 𝑝 + 120
0 0 0 1 0
2 0 10 0 1
𝑝 −1 0 0 0 0 0 0
−12.5 𝑝 −2.5 0 1.25 𝑘1 1.25 𝑘2 1.25 𝑘2 1.25 𝑘2
|[ ]+[ ]| = 𝑝4 + 14 𝑝3 + 71 𝑝2 + 154 𝑝 + 120
0 0 𝑝 −1 0 0 0 0
−2 0 −10 𝑝 𝑘1 𝑘2 𝑘3 𝑘4
𝑝 −1 0 0
1.25 𝑘1 − 12.5 𝑝 + 1.25 𝑘2 1.25 𝑘2 − 2.5 1.25 𝑘2
| | = 𝑝4 + 14 𝑝3 + 71 𝑝2 + 154 𝑝 + 120
0 0 𝑝 −1
𝑘1 − 2 𝑘2 𝑘3 − 10 𝑝 + 𝑘4
5𝑘2 5𝑘1 45
𝑝4 + (𝑘4 + ) 𝑝3 + ( + 𝑘3 − ) 𝑝2 + (−10𝑘2 − 10𝑘4 )𝑝 − 10𝑘1 − 10𝑘3 = 𝑝4 + 14 𝑝3 + 71 𝑝2 + 154 𝑝 + 120
4 4 2
Donc,
5𝑘2
𝑘4 + 4
= 14
5𝑘2 + 4𝑘4 = 56 10𝑘2 + 8𝑘4 = 112 𝑘4 = −133
5 𝑘1
+ 𝑘3 −
45
= 71 → 5 𝑘 1 + 4 𝑘 3 − 90 = 284 −10 𝑘 2 − 10 𝑘 4 = 154 −10 𝑘 2 − 10𝑘4 = 154
4 2 → →
−10𝑘2 − 10𝑘4 = 154 5𝑘1 + 4𝑘3 − 90 = 284 5𝑘1 + 4𝑘3 − 90 = 284
−10𝑘2 − 10𝑘4 = 154
{ −10𝑘1 − 10𝑘3 = 120 { −10𝑘1 − 10𝑘3 = 120 { −10𝑘1 − 10𝑘3 = 120
{−10𝑘1 − 10𝑘3 = 120
𝑘4 = −64 𝑘4 = −133
𝑘2 = 48.6 𝑘2 = 117.6
→ →
10𝑘1 + 8𝑘3 = 748 𝑘3 = −434
{−10𝑘1 − 10𝑘3 = 120 { 𝑘1 = 422
Le système sur simulink est illustré dans la Figure VI.6.
Après l'insertion du contrôleur, les résultats sont donnés dans la Figure VI.7.
(a) (b)
Figure VI.7. Résultats avec le contrôleur: a) l'excitation, b) les réponses.
On excite le système par une impulsion, c.-à-d., on applique un petit écart de la position verticale.
D'après la Figure VI.7, on peut voir que le système est stable et les deux pendules reviennent à la position
verticale après le déséquilibre.
𝑝 + 𝑘1 −1 𝑘5 0
𝑘2 − 12.5 𝑝 𝑘6 − 2.5 0
| | = 𝑝4 + 12 𝑝3 + 54 𝑝2 + 108 𝑝 + 81
𝑘3 0 𝑝 + 𝑘7 −1
𝑘4 − 2 0 𝑘8 − 10 𝑝
𝑝 + 𝑘1 −1 𝑘5 𝑝 + 𝑘1 −1 𝑘5
𝑘
| 2 − 12.5 𝑝 𝑘6 − 2.5| + 𝑝 | 𝑘2 − 12.5 𝑝 𝑘6 − 2.5| = 𝑝4 + 12 𝑝3 + 54 𝑝2 + 108 𝑝 + 81
𝑘4 − 2 0 𝑘8 − 10 𝑘3 0 𝑝 + 𝑘7
(𝑝 + 𝑘1 )𝑝(𝑘8 − 10) + (𝑘2 − 12.5)(𝑘8 − 10) − (𝑘4 − 2)(𝑘6 − 2.5) − 𝑘5 𝑝(𝑘4 − 2)
+𝑝 [𝑘3 (−𝑘6 + 2.5 − 𝑘5 𝑝) + (𝑝 + 𝑘7 )(𝑝2 + 𝑘1 𝑝 + 𝑘2 − 12.5)]
= 𝑝4 + 12 𝑝3 + 54 𝑝2 + 108 𝑝 + 81
𝑝4 + (𝑘1 + 𝑘7 )𝑝3 + (𝑘2 − 𝑘3 𝑘5 + 𝑘1 𝑘7 − 12.5 + 𝑘8 − 10)𝑝2
+(𝑘7 𝑘2 − 12.5𝑘7 + −𝑘3 𝑘6 + 𝑘3 2.5 + 𝑘1 (𝑘8 − 10) − 𝑘5 (𝑘4 − 2))𝑝
+(𝑘2 − 12.5)(𝑘8 − 10) − (𝑘4 − 2)(𝑘6 − 2.5) = 𝑝4 + 12 𝑝3 + 54 𝑝2 + 108 𝑝 + 81
𝑝4 + (𝑘1 + 𝑘7 )𝑝3 + (𝑘2 − 𝑘3 𝑘5 + 𝑘1 𝑘7 + 𝑘8 − 22.5)𝑝2
+(𝑘7 𝑘2 − 12.5𝑘7 + −𝑘3 𝑘6 + 𝑘3 2.5 + 𝑘1 (𝑘8 − 10) − 𝑘5 (𝑘4 − 2))𝑝
+(𝑘2 − 12.5)(𝑘8 − 10) − (𝑘4 − 2)(𝑘6 − 2.5) = 𝑝4 + 12 𝑝3 + 54 𝑝2 + 108 𝑝 + 81
Donc,
𝑘1 + 𝑘7 = 12
𝑘2 − 𝑘3 𝑘5 + 𝑘1 𝑘7 + 𝑘8 − 22.5 = 54
{ ……..…..(*)
𝑘7 𝑘2 − 12.5𝑘7 + −𝑘3 𝑘6 + 𝑘3 2.5 + 𝑘1 (𝑘8 − 10) − 𝑘5 (𝑘4 − 2) = 108
(𝑘2 − 12.5)(𝑘8 − 10) − (𝑘4 − 2)(𝑘6 − 2.5) = 81
On a quatre équations et huit inconnus, donc, on choisit quatre paramètres arbitrairement et on résout le
système (*) pour les restes.
Pour la simplification, on choisit:
𝑘2 = 𝑘4 = 𝑘5 = 𝑘7 = 0
𝑘1 = 12
𝑘8 = 76.5
(∗) ⟹ {
−𝑘3 𝑘6 + 𝑘3 2.5 + 𝑘1 (𝑘8 − 10) = 108
(−12.5)(𝑘8 − 10) − (−2)(𝑘6 − 2.5) = 81
𝑘1 = 12
𝑘8 = 76.5
(∗) ⟹ {
𝑘3 = 1.5127
𝑘6 = 458.625
𝑘1 𝑘5 12 0
𝑘2 𝑘6 0 458.625]
⟹ [ ]=[
𝑘3 𝑘7 1.5127 0
𝑘4 𝑘8 0 76.5
Le système sur simulink est donné dans la Figure VI.8.
On peut prend un autre choix pour les valeurs des gains comme suit:
Posons:
𝑘3 = 𝑘4 = 𝑘7 = 𝑘8 = 0
En suivant la même démarche précédente et en identifiant les deux membres de l'équation (*) terme à
terme, on trouve:
𝑘1 = 12
𝑘 = 76.5
(∗) ⟹ { 2
𝑘5 = 114
𝑘6 = 363
Et finalement:
𝑘1 𝑘5 12 114
𝑘2 𝑘6 76.5 363]
[ ]=[
𝑘3 𝑘7 0 0
𝑘4 𝑘8 0 0
Les résultats de simulation sont illustrés dans la Figure VI.10.
Figure VI.10. Résultats avec l'estimateur d'état et avec autre choix de valeurs des gains: a) l'excitation, b)
les réponses.
Maintenant, d'après la Figure VI.10, le système est aussi stable et les angles prennent des valeurs plus
petites que le premier cas. Ainsi, nous pouvons faire d'autres choix pour les valeurs de gain, ou modifier
les pôles souhaités en leur donnant des valeurs situées dans la partie gauche du plan et loin de l'axe
imaginaire.
Bibliographie
1. Katsuhiko Ogata. "Modern Control Engineering" Fifth Edition, Prentice Hall, New Jersey, USA ,
2010.
2. Albertos, P. & Sala, A. "Multivariable Control Systems: An Engineering Approach". Springer-Verlag
London Limited, 2004.
3. Burns, Roland S. . "Advanced Control Engineering". Butterworth-Heinemann, UK, 2001.
4. Paraskevopoulos, P. N. "Modern Control Engineering". Marcel Dekker Inc, New York, USA, 2002.
5. Cellier, E. François. "Lecture Notes on Linear System Theory", University of Arizona, 2002.
6. Siarry, Patrick. "Automatique de base". Edition BERTI, Alger, 1993.
7. Kailath Thomas. "Linear Systems". Prentice-Hall, INC, NJ, USA, 1980.
8. Piskounov, N. "Calcul differential et integrals, tome 2", 8ème edition, Editions MIR, Moscou, 1980.
9. Granjon, Yves. "Automatique". Dunod, Paris, 2010, 2ème edition.
10. Dahleh, Mohammed; Dahleh, Munther A.; & Verghese, George "Lectures on Dynamic Systems and
Control". Massachuasetts Institute of Technology, 2004.
11. Gilbert, Elmer, G. "Controllability and Observability in Multivariable Control Systems". Journal of
the Society for Industrial and Applied Mathematics Series A Control, vol. 2, no. 1, pp. 128–151,
1963.
12. Gantmacher, F. R. "The Theory of Matrices". Vol. 1, Chealsea Publishing company, NY, USA, 1960.
13. Frazzoli Emilio "Dynamic Systems and Control", cours, Massachusetts Institute of Technology
(MIT), 2011, USA.
14. Alazard, D. "Représentation et analyse des systèmes multivariables: Notes de cours". Institut
Supérieur de l'Aéronautique et de l'Espace, Université fédérale de Toulouse, France, 2000.
15. Maciejowski, J.M. "Multivariable Feedback Design", Addison-Wesley Publishing Company, USA,
1989.
16. Coughanower, Donald R. "Process Systems Analysis and Control". McGRAW-HILL, Inc, 2ème
edition, 1991.
17. Wonham, W. Murray "Linear Multivariable Controll: A Geometric Approach". 3ème edition,
Springer-verlag New York Inc, 1985.
18. Owens, D. H. "Feedback and Multivariable Systems". Peter Peregrinus Ltd, England, 1978.
19. Ostertag, E. "Mono- and Multivariable Control and Estimation". Springer-Verlag Berlin Heidelberg,
2011.
20. Apte, Y. S. "Linear Multivariable Control Systems". Edition: New Delhi, Tata McGraw-Hill,India,
1981.