0% ont trouvé ce document utile (0 vote)
490 vues6 pages

Contrôle de systèmes linéaires dynamiques

Ce document présente deux exercices sur la contrôlabilité et la stabilisation de systèmes linéaires. L'exercice 1 étudie la contrôlabilité d'un système à trois dimensions soumis à deux contrôles et propose un changement de coordonnées pour simplifier le système. L'exercice 2 aborde la stabilisation par retour d'état, notamment la forme de Brunovski et le placement des pôles.

Transféré par

Aurelien Yeremou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
490 vues6 pages

Contrôle de systèmes linéaires dynamiques

Ce document présente deux exercices sur la contrôlabilité et la stabilisation de systèmes linéaires. L'exercice 1 étudie la contrôlabilité d'un système à trois dimensions soumis à deux contrôles et propose un changement de coordonnées pour simplifier le système. L'exercice 2 aborde la stabilisation par retour d'état, notamment la forme de Brunovski et le placement des pôles.

Transféré par

Aurelien Yeremou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Cours MAP434 : Contrôle de modèles dynamiques

Séance 1, 06 mars 2019

Contrôlabilité des systèmes linéaires

Exercice I. Contrôlabilité d'un système linéaire

On considère le système de contrôle linéaire


ẋ1 = x1 − x2 + x3 + u1 + u2 ,
ẋ2 = x1 ,
ẋ3 = −2x1 + x2 − 2x3 − u1 ,
pour tout t ∈ [0, T ], T > 0, avec un état x(t) = (x1 (t), x2 (t), x3 (t)) à valeurs dans R3 et un
contrôle u(t) = (u1 (t), u2 (t)) à valeurs dans R2 .
Question 1. Étudier la contrôlabilité du système dans le cas où u2 ≡ 0 (si bien qu'il ne reste
que le contrôle u1 ) et dans le cas où u1 ≡ 0 (si bien qu'il ne reste que le contrôle u2 ). S'il fallait
supprimer un des deux contrôles suite à un problème technique, quel choix feriez-vous ?

Correction: Le système de contrôle s'écrit sous la forme ẋ(t) = Ax(t) + B1 u1 (t) + B2 u2 (t) avec
     
1 −1 1 1 1
A= 1 0 0 , B1 =  0  , B2 = 0 .
−2 1 −2 −1 0
On constate que  
−2 0 1
A2 =  1 −1 1 .
3 0 2
Si on supprime le contrôle u2 , la matrice de Kalman s'écrit
 
1 0 −1
C1 = [ B1 AB1 A2 B1 ] =  0 1 0 .
−1 0 1

On voit que cette matrice est de rang 2 (son noyau est de dimension 1), si bien que le système
n'est pas contrôlable. Tandis que si on supprime le contrôle u1 , la matrice de Kalman s'écrit
 
1 1 −2
C2 = [ B2 AB2 A2 B2 ] = 0 1 1 .
0 −2 3

On voit que cette matrice est de rang plein (son noyau est réduit à zéro), si bien que le système
est contrôlable. En cas de problème technique, il convient donc de supprimer le contrôle u1 .

Question 2. On suppose que l'autre choix est fait et on pose u = u1 . Proposer des coordonnées
y = P x (avec y1 = x1 et y2 = x2 ) dans lesquelles l'ensemble atteignable
A(T, 0) := {z ∈ R3 ; yu (0) = 0, ∃u ∈ L∞ ([0, T ]; R), yu (T ) = z},

1
a pour équation y3 = 0. Écrire le système de contrôle dans les variables y et vérier que le
sous-système associé aux variables (y1 , y2 ) est contrôlable.

Correction: L'ensemble atteignable A(T, 0) étant l'image de la matrice de Kalman C1 , on a


A(T, 0) = {x ∈ R3 | x1 + x3 = 0}. On considère le changement de coordonnées

y1 = x1 , y 2 = x2 , y 3 = x1 + x3 .

Dans ces coordonnées, le système s'écrit (avec u = u1 )

ẏ1 = −y2 + y3 + u,
ẏ2 = y1 ,
ẏ3 = −y3 .

On réécrit le système sous la forme bloc


   
 C B̂
ẏ = y+ u,
0 −1 0
avec      
0 −1 1 1
 = , C= , B̂ = .
1 0 0 0
Le sous-système dans R2 associé à Â et B̂ est contrôlable puisque
 
1 0
[ B̂ ÂB̂ ] =
0 1
est de rang 2.

Question 3. On considère le système de contrôle en y = (y1 , y2 , y3 ) de la question précédente,


et un contrôle sous forme de retour d'état, i.e., u = k1 y1 + k2 y2 . Proposer des valeurs de k1 et
k2 pour lesquelles les 3 composantes de y se comportent essentiellement en e−t à un polynôme
en t près. (On dit que le système est asymptotiquement stabilisable par retour d'état.)

Correction: Avec le retour d'état u = k1 y1 + k2 y2 , on obtient l'EDO


 
 + B̂K C
ẏ = y,
0 −1

où K est un vecteur ligne d'ordre 2 et B̂ un vecteur colonne d'ordre 2 si bien que B̂K est une
matrice carrée d'ordre 2. Le choix k1 = −2 et k2 = 0 conduit à
 
−2 −1
 + K B̂ =
1 0

dont le polynôme caractéristique vaut (λ+1)2 . Pour le système à trois composantes avec le retour
d'état ci-dessus, on conclut en observant que la matrice d'ordre 3 correspondante n'admet que
−1 pour valeur propre.

Exercice II. Stabilisation par retour d'état

2
On considère le système linéaire de contrôle

ẋ(t) = Ax(t) + Bu(t), ∀t ≥ 0, x(0) = x0 ,

où x est à valeurs dans Rd , u est à valeurs dans R, A ∈ Rd×d et B ∈ Rd . Ici, on ne xe pas a
priori d'horizon temporel. On suppose que la paire (A, B) satisfait la condition de contrôlabilité
de Kalman.
Pd−1
Question 1. Forme de Brunovski. On note PA (X) = X + i=0 ai X le polynôme caractéris-
d i

tique de A. On veut montrer que l'on peut trouver une base (e1 , . . . , ed ) dans laquelle le système
de contrôle linéaire se réécrit ẏ(t) = Ãy(t) + B̃u(t) avec
 
0 1 ... 0  
0
 .. .. .. .
..   .. 
 . . .

à =  . .
 , B̃ =  
..
. 0
 
 0 0 1   
−a0 −a1 . . . −ad−1 1

Vérier que si A, B se représentent par Ã, B̃ dans la base (ei )di=1 alors forcément, B = ed et

ei = Aei+1 + ai ed ∀1 ≤ i ≤ d − 1. (1)

Montrer que si le système est contrôlable, ces formules dénissent eectivement une base de Rd .
Enn, en utilisant le théorème de CayleyHamilton, vérier que A, B se représentent bien par
Ã, B̃ dans la base (ei )di=1 .

En eet, B̃ = 1≤i≤d b̃i ei = ed si (b̃i )1≤i≤d = (0, . . . , 0, 1). Ensuite, on voit que
P
Correction:
si i ≥ 2, Aei = ei−1 − ai−1 ed , par conséquent (1) est vraie. Ajoutons qu'on doit aussi avoir
Ae1 = −a0 ed . On observe alors que si on dénit les vecteurs ei par ed = B et la formule de
récurrence (1), on a

Vect{ed } = Vect{B},
Vect{ed−1 , ed } = Vect{AB, B},
Vect{ed−2 , ed−1 , ed } = Vect{A2 B, AB, B}, . . . ,
Vect{e1 , . . . , ed } = Vect{Ad−1 B, . . . , AB, B} = Rd

puisque le système est contrôlable. Dans ce cas, (ei )1≤i≤d est bien une base de Rd . Pour conclure,
il faut s'assurer que Ae1 = −a0 edP
. Par récurrence, on vérie que Ae1 = A2 e2 + a1 Aed = A3 e3 +
d−1
a2 A ed + a1 Aed = · · · = A ed + i=1 ai Ai ed = PA (A)ed − a0 ed . Comme PA (A) = 0 (Cayley
2 d

Hamilton), on a bien Ae1 = −a0 ed .

On considère un contrôle de la
Question 2. Contrôle par retour d'état et placement des pôles.
forme u = Lx, L ∈ R1×d (L est un vecteur ligne). En considérant B dans Rd×1 , le système
dynamique est donc la forme

ẋ(t) = (A + BL)x(t), ∀t ≥ 0.

Montrer que pour tout polynôme P ∈ R[X] de degré d, il existe un vecteur ligne L tel que les
valeurs propres de A + BL sont les racines (réelles ou complexes) de P . En déduire qu'on peut

3
toujours trouver un contrôle par retour d'état u = Lx qui ramène tout point en zéro en temps
éventuellement inni. On dit que le système est asymptotiquement stabilisable par retour d'état.

Pd−1
Correction: On peut supposer P sous la forme P (X) = X d + i=0 ci X i . On introduit les
composantes (l1 , . . . , ld ) du vecteur ligne L dans la base de Brunowski. Dans cette base, on a
 
0 1 ... 0
 .. .. .. ..
 . . . .


A + BL = 
.
 
..

 0 0 1 
l1 − a0 l2 − a1 . . . ld − ad−1

et
 
s −1 ... 0
.. .. .. ..
. . . .
 
det(sI − A − BL) = det 
 
..

.
 
 0 s −1 
a0 − l1 a1 − l2 ... s + ad−1 − ld
= sd + (ad−1 − ld )sd−1 + (ad−2 − ld−1 )sd−2 + · · · + (a0 − l1 ).

Il sut alors de choisir l1 = a0 − c0 , l2 = a1 − c1 etc., pour avoir det(sI − A − BL) = P (s). Pour
ramener tout point en 0, il sut de choisir l tel que P (X) = (X + 1)d (par exemple) de sorte
que x(t) vériera x(t) = x0 e−t π(t) où π est un polynôme de degré au plus d − 1.

Exercice III. Système de contrôle bilinéaire

On considère un système de contrôle bilinéaire de la forme

Ẋ(t) = u(t)AX(t) + (1 − u(t))BX(t), ∀t ∈ [0,T ], X(0) = X0 ∈ Rd (2)

où X : [0,T ] → Rd , u ∈ L1 ([0,T ]; R) et A, B sont deux matrices dans Rd×d .


Question 1. On suppose que u(t) = χE (t) ∈ {0, 1} est la caractéristique d'un ensemble E =
⊂ [0, T ] avec (tk )k≥0 une suite (strictement) croissante de réels dans [0, T ] avec
S
i≥0 [t2i , t2i+1 ]
t0 = 0. Donner l'expression de X(t). Montrer que cette expression se simplie lorsque les matrices
A et B commutent, i.e., [A, B] = AB − BA = 0.

Correction: En utilisant la formule de Duhamel, il vient


(
e(t−t2i )A e(t2i −t2i−1 )B e(t2i−1 −t2i−2 )A · · · e(t1 −t0 )A X0 si t ∈ [t2i , t2i+1 ],
X(t) =
e(t−t2i+1 )B e(t2i+1 −t2i )A e(t2i −t2i−1 )B · · · e(t1 −t0 )A X0 si t ∈ [t2i+1 , t2i+2 ].

Si A et B commutent, alors etA esB = etA+sB et la solution est simplement

X(t) = e|E∩[0,t]|A+|[0,t]\E|B X0 .

4
Question 2. On suppose d = 2 et
   
1 0 0 1
A= , B= .
0 0 1 0

Calculer, pour s, t > 0, exp(tA) et exp(sB). Est-ce que A et B commutent ? Vérier que

exp(tA) exp(sB) 6= exp(sB) exp(tA).

Expliquer (sans faire de calculs) pourquoi exp(tA + sB) est diérente.

Correction: On a  t 
tA e 0
e = .
0 1
Pour exp(sB), on constate d'abord que B 2 = I , d'où B n = I si n pair, B n = B si n impair.
Donc ! !
X sn X sn
sB
e = I+ B = cosh(s)I + sinh(s)B.
n! n!
n∈2N n∈2N+1

On constate que    
0 1 0 0
AB = 6 BA =
= ,
0 0 1 0
et de plus que exp(tA) exp(sB) 6= exp(sB) exp(tA) car
 t
e cosh(s) et sinh(s)
  t 
tA sB sB tA e cosh(s) sinh(s)
e e = 6= e e = ,
sinh(s) cosh(s) et sinh(s) cosh(s)

à moins d'avoir t = 0 ou s = 0. Enn, exp(tA+sB) étant symétrique, cette matrice est forcément
diérente de ces deux matrices, si s > 0.

Question 3. On pose C = A + B . Montrer par récurrence que pour n ≥ 1, C n = ϕn C + ϕn−1 I


où (ϕn )n≥0 = (0, 1, 1, 2, 3, . . . ) est la suite de Fibonacci, donnée par ϕn+2 = ϕn+1 + ϕn (et
ϕ0 = 0, ϕ1 = 1). En déduire une expression de exp(C).

Correction: Remarquons que


   
1 1 2 2 1
C =A+B = , C = = C + I.
1 0 1 1

Donc si C n = ϕn C + ϕn−1 I (hypothèse de récurrence vériée pour n = 1 et n = 2), C n+1 =


ϕn (C + I) + ϕn−1 C = ϕn+1 C + ϕn I . On en déduit que
X ϕn X ϕn
eA+B = eC = C +I + I.
n! (n + 1)!
n≥1 n≥1

√ √
On peut aussi utiliser
√ la relation ϕn = (ϕn − ϕ0n )/ 5 où ϕ = (1 + 5)/2 est le nombre d'or, et
ϕ0 = −1/ϕ = (1 − 5)/2 :
0 0
eϕ − eϕ (eϕ − 1)/ϕ − (eϕ − 1)/ϕ0
eC = √ C +I + √ I,
5 5

5
expression très éloignée de eA eB ou eB eA . (On aurait pu aussi diagonaliser la matrice, qui a
précisément pour valeurs propres ϕ, ϕ0 .)

Question 4. Splitting de Strang . On suppose maintenant que pour N xé, ti = 2i (s + t)/N


pour i pair, 0 ≤ i ≤ 2N ,Set ti = ti−1 + t/N si i est impair. On appelle X N (·) la solution de (2)
pour u(t) = χE (t), E = 0≤i<N [t2i , t2i+1 ]. Montrer que même si A et B ne commutent pas,

lim X N (s + t) = etA+sB X0 .
N →∞

1 1
On pourra supposer que s = t = 1 et vérier que e N A e N B = I + A+B CN
, où la matrice

N + N2
CN est uniformément bornée.

Correction: Par dénition, on a


 
1 2
A n
X
eN A 1 A 1

= I + NA + N2 N (n+2)!

n≥0

et le terme dans la somme est une matrice bornée uniformément (par exemple par kAkn /(n+
P
n≥0
2)! ≤ exp kAk). D'où la décomposition
 
1 1 A+B CN
e N Ae N B = I + + 2
N N

avec CN uniformément bornée. En développant, il vient

N N
(A + B + CN /N )k

N A+B CN X N!
X (2) = I+ + 2 X0 = X0
N N (N − k)! N k k!
k=0
N k−1
X Y
i (A + B + CN /N )k
= (1 − N) X0
k!
k=0 i=0

et on conclut en montrant (comme chaque terme de la série est borné par un élément d'une série
convergente) que ceci tend quand N → +∞ vers

X (A + B)k
X0 .
k!
k=0

Vous aimerez peut-être aussi