AO 102
Systèmes Dynamiques
Stabilité et Commande
Cours et exercices corrigés
Édition 2017/2018
Frédéric JEAN
Table des matières
Avant-propos V
1 Calcul diérentiel 1
1.1 Applications diérentiables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Accroissements nis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 *Dérivées d’ordres supérieurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Inversion locale et fonctions implicites . . . . . . . . . . . . . . . . . . . . . 11
1.5 Et en dimension innie? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 Exercices corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Équations diérentielles linéaires autonomes 43
2.1 Approche élémentaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2 Exponentielle de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.3 Calcul de l’exponentielle de matrices . . . . . . . . . . . . . . . . . . . . . . . 47
2.4 Forme des solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.5 Comportement asymptotique des solutions . . . . . . . . . . . . . . . . . 54
2.6 Exercices corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3 Équations diérentielles linéaires 77
3.1 Existence et unicité globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.2 La résolvante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.3 Quelques propriétés de la résolvante . . . . . . . . . . . . . . . . . . . . . . . 82
3.4 Équations anes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.5 *Équations linéaires périodiques . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.6 Exercices corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4 Théorie générale des équations diérentielles 101
4.1 Existence et unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
Table des matières
4.2 Solutions maximales et durée de vie . . . . . . . . . . . . . . . . . . . . . . . 104
4.3 Flots, portraits de phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.4 Linéarisation et perturbation du ot . . . . . . . . . . . . . . . . . . . . . . . 111
4.5 Exercices corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5 Stabilité des équilibres 139
5.1 Équilibres et stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
5.2 La stabilité par la linéarisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
5.3 Fonctions de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.4 Exercices corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
6 Commande des systèmes 167
6.1 Systèmes commandés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
6.2 Linéarisation des systèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
6.3 Commandabilité (relation entrée/état) . . . . . . . . . . . . . . . . . . . . . 172
6.4 Observabilité (relation état/sortie) . . . . . . . . . . . . . . . . . . . . . . . . 177
6.5 Stabilisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
6.6 Exercices corrigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
A Espaces vectoriels normés et théorèmes du point xe 199
A.1 Topologie des espaces métriques . . . . . . . . . . . . . . . . . . . . . . . . . . 199
A.2 Espaces vectoriels normés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
A.3 Théorèmes du Point Fixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
A.4 Conséquence pour l’inversion locale et les fonctions implicites . 203
B Forme normale des systèmes commandables 207
B.1 Équations diérentielles scalaires d’ordre n . . . . . . . . . . . . . . . . . 207
B.2 Forme normale : cas m = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
B.3 Forme normale : cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
B.4 Démonstration du théorème 6.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
Bibliographie 217
Index 219
4
Avant-propos
Les systèmes dynamiques sont les notions mathématiques qui permettent de
modéliser des phénomènes évoluant dans le temps, ces phénomènes pouvant
provenir de la physique, la mécanique, l’économie, la biologie, l’écologie, la
chimie... Un système dynamique est constitué d’un espace de phases, l’espace
des états possibles du phénomène convenablement paramétré, muni d’une
loi d’évolution qui décrit la variation temporelle de l’état du système. Dans
le cadre choisi ici, celui de lois déterministes en temps continu, cette loi
d’évolution prend la forme d’une équation diérentielle.
La résolution explicite, ou même approchée, d’une équation diérentielle
est en général impossible, les méthodes numériques permettant seulement
de calculer sur un intervalle de temps ni une solution correspondant à des
conditions initiales données. La théorie vise donc plutôt une étude qualitative
des phénomènes et cherche en particulier à en comprendre l’évolution à long
terme.
Ce polycopié a deux objectifs. Le premier est d’aborder l’étude générale
des systèmes dynamiques régis par des équations diérentielles ordinaires.
L’accent est mis principalement sur la notion de stabilité dont l’importance,
pour de nombreux problèmes pratiques, est comparable à celle de la con-
naissance eective des solutions.
Le deuxième objectif est de présenter une introduction à la commande
des systèmes dynamiques, c’est-à-dire à l’automatique. Il s’agit en particulier
d’étudier, dans le cadre de l’automatique linéaire, les notions essentielles que
sont la commandabilité, l’observabilité et la stabilisation.
Chaque chapitre est constitué d’une part de notes de cours et d’autre part
d’exercices suivis de leurs corrigés. Les deux parties sont d’égale importance.
En eet, les notes de cours sont volontairement rédigées dans un style assez
théorique, les exemples et les applications étant présentés dans les exercices.
Table des matières
Ceux-ci contiennent aussi beaucoup de méthodes classiques d’analyse des
systèmes dynamiques ainsi qu’un certain nombre de résultats annexes.
À quelques exceptions prés, les résultats sont accompagnés de leur preuve.
Lorsque celle-ci n’est pas utile à la compréhension du cours ou est trop
dicile, elle est précédée du symbole *. Le même traitement (symbole *)
est appliqué aux parties les plus avancées du document, qui peuvent être
ignorées lors d’une première lecture.
Le plan de cet ouvrage est le suivant.
Le chapitre 1 est consacré au calcul diérentiel : application linéaire tan-
gente, théorèmes d’inversion locale et des fonctions implicites. . . Ces con-
cepts sont nécessaires pour la partie du cours qui concerne la linéarisation,
mais leur utilité dépasse largement le cadre des équations diérentielles.
Après ce chapitre, une deuxième partie qui traite des équations diéren-
tielles ordinaires linéaires, autonomes dans un premier temps (chapitre 2),
puis non autonomes (chapitre 3). Cette partie permet d’aborder dans un
cadre plus simple des thèmes importants pour la suite : étude des portraits de
phase et du comportement asymptotique des solutions, ainsi qu’exponentielle
de matrice et résolvante, qui prégurent la notion de ot.
L’étude de la stabilité des équations diérentielles ordinaires non linéaires
fait l’objet d’une troisième partie. On commence par présenter au chapitre 4
les éléments fondamentaux de la théorie générale des équations diéren-
tielles, puis le chapitre 5 est consacré à l’étude de la stabilité des équilibres.
On montre en particulier comment celle-ci peut se réduire dans certains cas
à l’étude de la stabilité des équations diérentielles ordinaires linéaires, à
l’aide d’une technique dite de linéarisation.
Enn, le chapitre 6 présente une introduction à l’automatique. On y voit
d’abord comment se ramener, par linéarisation à des systèmes commandés
linéaires, puis on aborde, dans le cadre de l’automatique linéaire, les prob-
lèmes de l’analyse du comportement dynamique d’un système et de la syn-
thèse des lois de commande.
Deux annexes viennent compléter cet ouvrage, l’une comprenant des rap-
pels et précisions sur les espaces de Banach, l’autre traitant des équations
diérentielles d’ordre supérieur à un et de leur lien avec la notion de com-
mandabilité.
Il faut noter qu’une autre organisation de la lecture (ou de l’enseignement)
est possible. Ainsi, ces deux dernières années, les séances de cours à l’ENSTA
étaient répartis de la façon suivante : 1. calcul diérentiel (chapitre 1), 2.
théorie générale des équations diérentielles (sections 4.1, 4.2 et 4.3), 3. équa-
tions linéaires autonomes (chapitre 2), 4. linéarisation et équations linéaires
VI
Table des matières
non-autonomes (section 4.4 et chapitre 3), 5. stabilité (chapitre 5), 6. com-
mande des systèmes (chapitre 6).
Enn, ce cours a été créé à l’ENSTA il y a plus de 15 ans par Raphaël
Krikorian sous le titre « Linéarisation et stabilité des équations diéren-
tielles ». Le présent document doit beaucoup à celui qu’il avait rédigé, et je
l’en remercie. De nombreux chargés de travaux dirigés ont participé tout au
long de ces années à cet enseignement, chacun y ayant apporté des amélio-
rations. Je leur en suis très reconnaissant, tout particulièrement au premier
d’entre eux, Jérôme Perez, qui a proposé nombre d’exercices de cet ouvrage,
et aux derniers arrivés, Maxence Cassier, Nicolas Chaulet et Zhiping Rao,
qui ont eectué un précieux travail de relecture et de correction.
Paris, octobre 2011 Frédéric Jean
Modications 2017/2018
La seconde mouture de ce polycopié pour l’année universitaire 2017/2018 a
permis d’abord de corriger une partie des erreurs et coquilles de la première
(une partie seulement car je ne doute pas qu’il m’en reste encore beaucoup
à trouver).
J’en ai aussi proté pour reprendre et simplier le chapitre 2, notamment
la section 2.3 – où il n’est plus fait référence à la réduction de Jordan mais à
celle plus simple de Jordan–Chevalley, sans entrer dans le détail du cas des
matrices à coecients réels – et les sections 2.4 et 2.5.
Enn j’ai ajouté plusieurs exercices au chapitre 1 sur le calcul diérentiel,
pour accompagner l’évolution du cours de l’ENSTA dont ce livre est le sup-
port. En eet, ce cours, dont le titre a évolué en « Systèmes Dynamiques:
Analyse et Stabilité (AO102) », donne maintenant une plus large place au
calcul diérentiel, au détriment de l’introduction à la commande des sys-
tèmes. Ses six séances s’articulent de la façon suivante (les parties du livre
correspondantes sont mentionnées entre parenthèses) :
1. Calcul diérentiel (chapitre 1).
2. Exercices de calcul diérentiel.
3. Résultats généraux sur les équations diérentielles (sections 4.1, 4.2, 4.3).
4. Équations diérentielles linéaires autonomes (chapitre 2).
VII
Table des matières
5. Équations linéarisées, équations linéaires non autonomes (section 4.4 et
chapitre 3).
6. Stabilité des équilibres: approche par linéarisation, fonctions de Lyapunov
(chapitre 5).
Pour nir je tiens à remercier tous les chargés de travaux dirigés de ce
cours qui ont contribué à l’amélioration de cet ouvrage par leurs remarques,
leurs questions ou la rédaction de corrigés d’exercice, et parmi eux tout par-
ticulièrement Antoine Bensalah, Camille Carvalho, Lionel Magnis et Arnaud
Recoquillay.
Paris, mai 2017 Frédéric Jean
VIII
1
Calcul diérentiel
Pour simplier l’exposé, nous avons choisi de présenter les principales notions
du calcul diérentiel dans le cadre des espaces vectoriels de dimension nie.
Tout au long de ce chapitre, les espaces vectoriels (notés E, F , G) que nous
considérerons seront donc supposés de dimension nie. Nous expliquerons
cependant à la n du chapitre, dans la section 1.5, comment étendre ces
outils à un cadre plus général, celui des espaces de Banach.
Ce chapitre (et ceux qui suivent!) nécessite quelques connaissances de
topologie (normes, continuité,. . . ). Nous avons choisi de les regrouper en
annexe dans les sections A.1 et A.2.
1.1 Applications diérentiables
Dans tout ce qui suit, E et F sont deux espaces vectoriels de dimension nie,
U ⊂ E est un ouvert de E, a U est un point et f : U ⊂ E → F est une
application.
Dénition 1.1. Nous dirons que f est diérentiable en a s’il existe une
application linéaire La : E → F telle que, pour tout v vériant a + v U ,
on ait :
f (a + v) = f (a) + La (v) + ‖v‖(v),
où limv→0 ‖(v)‖ = 0 (on notera alors ‖v‖(v) = o(‖v‖)).
Si elle existe, l’application linéaire La est unique (exercice : vériez-le).
On l’appelle la diérentielle de f en a – ou l’application linéaire tangente à
f en a – et on note La = Df (a).
Insistons sur le fait que la diérentielle est une application linéaire Df (a) :
E → F . C’est donc un élément de L(E, F ), l’ensemble des applications
1 Calcul diérentiel
linéaires de E dans F , qui est un espace vectoriel de dimension nie. Nous
noterons Df (a) · v l’image de v E par cette application ;cette expression
Df (a) · v se lit donc « la diérentielle de f au point a appliquée au vecteur
v ».
Remarque 1.1. Une application diérentiable en a est également continue en
a. C’est une conséquence directe de la dénition ci-dessus et de la continuité
des applications linéaires en dimension nie (voir à ce propos la section 1.5).
Donnons quelques cas importants de calcul de diérentielle.
• Fonction réelle de la variable réelle. Pour une fonction f : R → R, la
dérivée usuelle est dénie comme
f (t0 + h) − f (t0 )
f ′ (t0 ) = lim ,
h→0 h
ce qui est équivalent à l’existence du développement limité
f (t0 + h) = f (t0 ) + hf ′ (t0 ) + o(h)
Ainsi, dans ce cas, diérentiable équivaut à dérivable et la diérentielle
est l’application linéaire Df (t0 ) : h 7→ hf ′ (t0 ) de R dans R. La dérivée
s’obtient à partir de la diérentielle par f ′ (t0 ) = Df (t0 ) · 1.
• Fonction vectorielle de la variable réelle. Considérons une fonction f :
R → F . Comme dans l’exemple précédent, la division par h est possible.
La diérentiabilité de f en t0 équivaut à l’existence de la limite
1
lim (f (t0 + h) − f (t0 )) = f ′ (t0 ) F,
h→0 h
(vecteur dérivé ou vecteur vitesse de f en t0 ), et la diérentielle Df (t0 )
est l’application linéaire h 7→ hf ′ (t0 ) de R dans F . On a à nouveau
f ′ (t0 ) = Df (t0 ) · 1.
• Les applications linéaires. Si f : E → F est une application linéaire, sa
diérentielle en tout point a E est égale à elle-même : Df (a) = f . En
eet, par linéarité, f (a + v) = f (a) + f (v).
• Diérentielle de l’inverse. Considérons l’application
Φ : GLn (R) ⊂ Mn (R) → Mn (R)
M 7→ M −1 ,
2
1.1 Applications diérentiables
où Mn (R) est l’espace vectoriel des matrices carrées n × n à coecients
réels et GLn (R) le sous-ensemble des matrices inversibles. Rappelons que
GLn (R) est un ouvert de Mn (R).
Soit M GLn (R). On cherche à calculer Φ(M + H) = (M + H)−1 , pour
une matrice H Mn (R) assez petite. Remarquons d’abord que
M + H = M (I + M −1 H),
et que si ‖M −1 H‖ < 1, la série
K = I − (M −1 H) + (M −1 H)2 + · · · + (−1)n (M −1 H)n + · · ·
est convergente et converge vers (I + M −1 H)−1 . On a de plus l’identité
K = I − (M −1 H) + (M −1 H)2 K. Ainsi, pour H susamment petit,
(M + H)−1 = KM −1
= I − (M −1 H) + (M −1 H)2 K M −1
= M −1 − M −1 HM −1 + o(‖H‖)
L’application Φ est donc diérentiable en toute matrice M GLn (R) et
sa diérentielle est l’application
DΦ(M ) · H = −M −1 HM −1
Dérivées partielles.
Si f est diérentiable en a et si v est un vecteur de E, on a
f (a + tv) − f (a)
Df (a) · v = lim ,
t→0 t
t étant une variable réelle (il sut d’écrire le développement limité de f en
a + tv). Ainsi Df (a) · v est égal au vecteur vitesse dtd f (a + tv)t=0 , appelé
dérivée directionnelle de f en a dans la direction v.
En particulier, si l’espace de départ est E = Rn muni de la base canonique
e1 , , en , la diérentiabilité entraîne l’existence des dérivées partielles :
∂f f (a1 , , ai + t, , an ) − f (a)
(a) := Df (a) · ei = lim F,
∂xi t→0 t
avec i = 1, , n (on utilisera aussi la notation ∂xi pour ∂f
∂xi
). La diérentielle
s’écrit alors, par linéarité,
3
1 Calcul diérentiel
∑n
∂f
Df (a) · v = (a)vi F
i=1
∂x i
Attention : l’existence des dérivées partielles de f en a n’implique pas for-
cément la diérentiabilité. Un exemple classique est la fonction :
x1 x2
f (x1 , x2 ) = si (x1 , x2 ) 6= (0, 0), f (0, 0) = 0,
x21 + x22
qui admet des dérivées partielles nulles à l’origine, mais qui n’est pas diéren-
tiable en ce point car elle n’y est pas continue (considérer par exemple f (s, s)
quand s → 0). On verra dans la proposition 1.3 qu’il faut ajouter une hy-
pothèse de continuité pour obtenir la diérentiabilité à partir de l’existence
des dérivées partielles.
Considérons maintenant
le cas E = Rn et F = Rp , l’application f
s’écrivant alors f (x) = f1 (x1 , , xn ), , fp (x1 , , xn ) . La diérentielle
Df (a) est une application linéaire de E = Rn dans F = Rp et peut donc
s’identier, dans les bases canoniques de Rn et Rp , à une matrice réelle
(p × n). Notons que pour un vecteur h = (h1 , , hn ) Rn on a :
p
( n ) p
( n )
∑ ∑ ∑ ∑ ∂fi
Df (a) · h = Dfi (a) · ej hj ei = (a)hj ei
i=1 j=1 i=1 j=1
∂x j
Ainsi la diérentielle Df (a) s’identie à la matrice jacobienne
∂f1 ∂f1
∂x1
(a) · · · ∂xn
(a)
∂fi .. ..
(a) = . .
∂xj 1≤i≤p
∂f p ∂f p
1≤j≤n
∂x1
(a) · · · ∂xn (a)
Propriétés élémentaires.
Linéarité Soient f et g des applications de U ⊂ E dans F et λ un réel. Si
f et g sont diérentiables en a U , alors f + g et λf sont diérentiables
en a et
D(f + g)(a) = Df (a) + Dg(a), D(λf )(a) = λDf (a)
(il sut d’appliquer la dénition pour le montrer).
4
1.1 Applications diérentiables
Règle de Leibniz Soient f et g des applications de U ⊂ E dans R. Si f et
g sont diérentiables en a U , alors le produit f g est diérentiable en
a et
D(f g)(a) = g(a)Df (a) + f (a)Dg(a)
(il sut là aussi d’appliquer la dénition).
Composition Considérons deux applications f : U ⊂ E → F et g : V ⊂
F → G, où E, F, G sont des espaces vectoriels de dimension nie et
U ⊂ E et V ⊂ F des ouverts. On suppose que a U est un point tel que
f (a) V . L’application composée g ◦ f est donc dénie en a.
Proposition 1.1. Si f est diérentiable en a et g est diérentiable en
f (a), alors g ◦ f est diérentiable en a et
D(g ◦ f )(a) = Dg f (a) ◦ Df (a)
Démonstration. Pour tout v assez petit, écrivons f (a + v) = f (a) + w, avec w = Df (a) ·
v + o(‖v‖). On a alors,
g f (a + v) − g f (a) = Dg(f (a)) · w + o(‖w‖)
= Dg(f (a)) · Df (a) · v + un reste
Le reste est la somme de termes o(‖w‖) et Dg(f (a))·o(‖v‖), qui sont tous des o(‖v‖) (vériez-
le). La proposition est donc démontrée.
t
u
En particulier, quand E = Rn , F = Rp et G = Rm , la matrice jacobienne
de g ◦f est le produit matriciel de celles de g et de f , ce qui se traduit par
la règle de calcul suivante, appelée règle de dérivation en chaîne: pour
i = 1, , m et j = 1, , n,
p
∂(g ◦ f )i ∑ ∂gi ∂fk
(x) = (f (x)) (x) (1.1)
∂xj k=1
∂y k ∂x j
Applications de classe C 1 .
Si f est diérentiable en tout point a de V ⊂ U , nous dirons que f est
diérentiable sur V . Dans ce cas, on peut dénir la diérentielle de f sur V
comme l’application :
Df : V −→ L(E, F )
x 7−→ Df (x)
Dénition 1.2. Nous dirons que f est de classe C 1 en a si elle est diéren-
tiable sur un voisinage V de a et si l’application Df : V → L(E, F ) est
continue en a.
5
1 Calcul diérentiel
1.2 Accroissements nis
Théorème 1.1 (des accroissements nis). Soient f : U ⊂ E → F une
application diérentiable sur l’ouvert U et a, b deux points de U tels que le
segment [a, b] = ta + (1 − t)b, t [0, 1] est inclus dans U . Alors,
‖f (b) − f (a)‖ ≤ sup ‖Df (x)‖ ‖b − a‖
x∈[a,b]
Il faut faire attention ici à l’ambiguïté des notations de norme : la norme
de b − a est une norme ‖ · ‖E sur E, la norme de f (b) − f (a) est une norme
‖·‖F sur F et la norme utilisée pour Df (x) est la norme d’opérateurs ‖·‖E,F
dénie à partir des précédentes (voir la section A.2), c’est-à-dire,
‖Df (x) · v‖F
‖Df (x)‖ = sup
v∈E ‖v‖E
v6=0
*Démonstration. Notons M = supx∈[a,b] ‖Df (x)‖ et supposons M < ∞ (sinon la conclusion
du théorème est triviale). Soit en outre > 0 et posons
A = t [0, 1] : ‖f (a + t(b − a)) − f (a)‖ ≤ (M + )t‖b − a‖
L’ensemble A est fermé (puisque f est continue) contient 0 et, étant borné, il est compact.
Notons t0 son plus grand élément qui, comme A est compact, appartient à A .
B Supposons par l’absurde que t0 < 1 ;on a alors
‖f (a + t0 (b − a)) − f (a)‖ ≤ (M + )t0 ‖b − a‖
Par ailleurs, d’après la dénition de t0 il existe une suite tn > t0 d’éléments n’appartenant pas à
A qui converge vers t0 , c’est-à-dire,
‖f (a + tn (b − a)) − f (a)‖ > (M + )tn ‖b − a‖
Ces deux inégalités nous permettent d’écrire
(M + )(tn − t0 )‖b − a‖ < ‖f (a + tn (b − a)) − f (a)‖ − ‖f (a + t0 (b − a)) − f (a)‖
≤ ‖f (a + tn (b − a)) − f (a + t0 (b − a))‖,
soit
‖f (a + tn (b − a)) − f (a + t0 (b − a))‖
M +< ,
(tn − t0 )‖b − a‖
et, en faisant tendre n vers l’inni,
‖Df (a + t0 (b − a)) · (b − a)‖
M +≤ ,
‖b − a‖
ce qui contredit la dénition de M .
B Par conséquent pour tout > 0, A = [0, 1]. Si on fait à présent tendre vers 0 on obtient la
conclusion du théorème. u
t
6
1.2 Accroissements nis
Remarque 1.2.
• Attention : à la diérence des applications à valeurs dans R, il n’existe
pas toujours un point c ]a, b[ pour lequel f (b) − f (a) = Df (c) · (b − a).
Prendre par exemple f : R → R2 , f (t) = (cos t, sin t) avec a = 0, b = 2π.
• On peut donner des versions plus générales de ce théorème. Signalons
par exemple celle-ci : supposons qu’il existe φ : [0, 1] → R dérivable telle
que pour tout t [0, 1] on ait
‖Df (a + t(b − a)) · (b − a)‖ ≤ φ′ (t)
Alors
‖f (b) − f (a)‖ ≤ φ(1) − φ(0)
La démonstration de ce fait s’eectue de la même manière que précédem-
ment.
Conséquences des accroissements nis.
Les résultats suivants sont des conséquences utiles du théorème des accroisse-
ments nis.
Proposition 1.2. Si f : U ⊂ E → F est de classe C 1 , alors f est lipschitzi-
enne sur toute boule fermée contenue dans U .
Démonstration. Soit B une boule fermée contenue dans U . L’application Df étant continue,
‖Df (x)‖ est bornée par une constante k sur B. Prenons alors deux points quelconques x et y
dans B. Le segment [x, y] est contenu dans B, puisque toute boule est convexe, et le théorème
des accroissements nis s’applique. Ainsi, pour tous x, y B,
‖f (y) − f (x)‖ ≤ k ‖y − x‖
t
u
Remarque 1.3. On montre de façon similaire que, si f : E → E est dif-
férentiable sur E et si ‖Df (x)‖ ≤ ρ < 1 pour tout x E, alors f est
ρ-contractante.
Proposition 1.3. Soient f : U ⊂ Rn → F et a U . Les deux propriétés
suivantes sont équivalentes :
(i) f est C 1 en a U ;
(ii) les dérivées partielles de f existent et sont continues en a.
7
1 Calcul diérentiel
*Démonstration.
Le fait que (i) implique (ii) est clair. Montrons l’implication inverse dans le cas où n = 2 (le
cas général s’eectuant de la même manière). On a, au point a = (a1 , a2 ),
‖f (a1 + h1 , a2 + h2 ) − f (a) − ∂x1 f (a)h1 − ∂x2 f (a)h2 ‖ ≤
‖f (a1 + h1 , a2 + h2 ) − f (a1 + h1 , a2 ) − ∂x2 f (a)h2 ‖ + ‖f (a1 + h1 , a2 ) − f (a) − ∂x1 f (a)h1 ‖,
où on a noté ∂xi f la dérivée partielle de f par rapport à xi . Du fait de l’existence de la dérivée
partielle de f par rapport à x1 en a on a déjà :
‖f (a1 + h1 , a2 ) − f (a1 , a2 ) − ∂x1 f (a1 , a2 )h1 ‖ = o(h1 )
B Par ailleurs l’application g dénie dans un voisinage de 0 par
g(h) = f (a1 + h1 , a2 + h) − f (a1 + h1 , a2 ) − ∂x2 f (a)h,
est diérentiable sur un voisinage de 0 et vérie
∂f ∂f
Dg(h) = (a1 + h1 , a2 + h) − (a) = (h1 + h),
∂x2 ∂x2
où, puisque ∂x2 f est continue, (s) tend vers 0 avec s. On a donc, en appliquant le théorème des
accroissements nis à g entre 0 et h2 ,
‖f (a1 + h1 , a2 + h2 ) − f (a1 + h1 , a2 ) − ∂x2 f (a)h2 ‖ ≤ h2 (h1 + h2 )
B Au total,
‖f (a1 + h1 , a2 + h2 ) − f (a) − ∂x1 f (a)h1 − ∂x2 f (a)h2 ‖
≤ h2 (h1 + h2 ) + o(h1 ) = o(h1 + h2 ),
ce qui démontre le théorème. t
u
1.3 *Dérivées d’ordres supérieurs
Rappelons que, si f : E → F est diérentiable sur U , on peut dénir
l’application
Df : U ⊂ E → L(E, F )
x 7→ Df (x)
Dénition 1.3. Nous dirons que f est deux fois diérentiable en a E si
f est diérentiable sur un voisinage U de a et si l’application Df est dif-
férentiable en a. On appellera D 2 f (a) = D(Df )(a) la diérentielle seconde
de f en a.
8
1.3 *Dérivées d’ordres supérieurs
L’application D 2 f (a) est donc un élément de L E, L(E, F ) : à tout élé-
ment h1 E est associé l’application linéaire D 2 f (a) · h1 L(E, F ), qui à
tout h2 E associe (D2 f (a) · h1 ) · h2 . On peut donc voir D 2 f (a) comme une
application bilinéaire sur E, c’est-à-dire comme un élément de L(E × E, F ),
en l’identiant à l’application :
(h1 , h2 ) 7→ (D2 f (a) · h1 ) · h2
On a même beaucoup mieux (voir [1] pour une démonstration).
Théorème 1.2 (Schwarz). Si f est deux fois diérentiable en a U , alors
D2 f (a) est une application bilinéaire symétrique, c’est-à-dire que, pour tout
(h1 , h2 ) E × E,
D2 f (a) · (h1 , h2 ) = D2 f (a) · (h2 , h1 )
De façon générale, f est dite k fois diérentiable en a si elle est (k − 1)
fois diérentiable sur un voisinage U de a et si sa diérentielle (k − 1)-ème
D(k−1) f : U → L(E k−1 , F ) est diérentiable en a. Sa diérentielle k-ème
Dk f (a) = D(D(k−1) f )(a) est donc bien pour tout x U une application
linéaire de E k dans F , c’est-à-dire une application k-linéaire. Nous noterons
Dk f (a) · (h1 , , hk ) l’action de D k f (a) sur (h1 , , hk ) E k .
Le théorème de Schwarz se généralise à l’ordre k : si f est k fois diéren-
tiable en a U , alors D k f (a) est une application k-linéaire symétrique.
Enn, si D k f (·) est continue, on dit que f est de classe C k .
Formules de Taylor
Nous donnons les trois versions classiques.
Théorème 1.3. Supposons que f : U ⊂ E → F soit une application k fois
diérentiable en a U . Alors
1 k
f (a + h) = f (a) + Df (a) · h + · · · + D f (a) · (h)k + o(‖h‖k ),
k!
où on a noté D k f (a) · (h)k = Dk f (a) · (h, , h).
*Démonstration.
Elle se fait par récurrence sur k. La formule est vraie pour k = 1 par dénition de la dif-
férentiabilité. Supposons-la vraie pour k − 1 et montrons qu’elle est vraie pour k. Pour t [0, 1],
posons
9
1 Calcul diérentiel
1 k
g(t) = f (a + th) − f (a) − Df (a) · (th) − · · · − D f (a) · (th)k
k!
1 k k
= f (a + th) − f (a) − tDf (a) · h − · · · − t D f (a) · (h)k
k!
La fonction g est alors dérivable et on a
1
g ′ (t) = Df (a + th) · h − Df (a) · h − · · · − tk−1 Dk f (a) · (h)k
(k − 1)!
1
= [Df (a + th) − Df (a) − · · · − Dk f (a) · (th)(k−1) ] · h
(k − 1)!
L’hypothèse de récurrence s’applique à Df (·) qui est (k − 1) fois diérentiable en a :
1
‖Df (a + th) − Df (a) − · · · − Dk f (a) · (th)(k−1) ‖ = o(‖th‖k−1 ),
(k − 1)!
et par conséquent ‖g ′ (t)‖ = o(‖th‖k−1 )‖h‖ = o(tk−1 ‖h‖k ). L’inégalité des accroissements nis
appliquée à g montre que
‖g(1) − g(0)‖ ≤ sup ‖g ′ (t)‖,
t∈[0,1]
ce qui est la conclusion recherchée puisque g(0) = 0. t
u
Théorème 1.4. Supposons que U ⊂ E soit un ouvert connexe, que f : U →
F soit une application k + 1 fois diérentiable sur U et qu’il existe M ≥ 0
tel que
sup ‖Df k+1 (x)‖ ≤ M
x∈U
Alors pour tous a, b U ,
1 (k) k ‖b − a‖k+1
‖f (b) − f (a) − Df (a) · (b − a) − · · · − Df (a) · (b − a) ‖ ≤ M
k! (k + 1)!
*Démonstration. Faisons la démonstration dans le cas où U est convexe. Comme précédem-
ment, on procède par récurrence sur k et on introduit :
1 k
g(t) = f (a + th) − f (a) − Df (a) · (th) − · · · − D f (a) · (th)k ,
k!
où h = b−a. On voit en appliquant l’hypothèse de récurrence à Df (·) qu’on a, pour tout t [0, 1],
tk
‖g ′ (t)‖ ≤ M ‖b − a‖ ‖b − a‖k
k!
En intégrant cette dernière expression par rapport à t [0, 1] (ou en utilisant la remarque nale
qui suit le théorème des accroissements nis), on obtient
∫ 1 k
k+1 t 1
‖g(1) − g(0)‖ ≤ M ‖b − a‖ dt ≤ M ‖b − a‖k+1 ,
0 k! (k + 1)!
c’est-à-dire le résultat recherché. t
u
10
1.4 Inversion locale et fonctions implicites
Théorème 1.5 (Taylor avec reste intégral). Supposons que U ⊂ E soit
un ouvert convexe et que f : U → F soit de classe C k+1 . Alors,
1
f (b) − f (a) − Df (a) · (b − a) − · · · − Df (k) (a) · (b − a)k =
∫ 1 k!
(1 − t) k
Df (k+1) a + t(b − a) · (b − a)k+1 dt
0 k!
La démonstration de ce théorème s’eectue de la manière habituelle en in-
tégrant par partie.
1.4 Inversion locale et fonctions implicites
Inversion locale
Le problème de l’inversion est de résoudre en x une équation de la forme
f (x) = y. Dans le cas linéaire, ce problème est bien connu : si A Mn (R)
est inversible (i.e. det A 6= 0), la solution dans Rn de Ax = y est donnée
par x = A−1 y. Quand f est diérentiable un résultat semblable est vrai
localement, c’est le théorème d’inversion locale, dont la preuve est donnée
en annexe, section A.4.
Théorème 1.6 (d’inversion locale). Soit f : E → F une application de
classe C k (k ≥ 1) sur un voisinage de a E. On suppose que Df (a)
L(E, F ) est inversible.
Alors il existe un ouvert V ⊂ E contenant a et un ouvert W ⊂ F con-
tenant f (a), tels que f est une bijection de V dans W = f (V ) dont l’inverse
f −1 : W → V est de classe C k .
En d’autres termes, on a l’équivalence
(x V et y = f (x)) ⇐⇒ (y W et x = f −1 (y)).
Le point y W étant donné, l’équation f (x) = y admet donc une unique
solution x dans V (attention cependant qu’elle peut en avoir d’autres en
dehors de V ).
Enn, on obtient la diérentielle de f −1 à partir de celle de f par
D(f −1 )(y) = Df (x)−1 , pour x V et y = f (x)
Remarque 1.4. 1. L’application f −1 : W → V n’est pas la réciproque de
f , mais la réciproque de la restriction de f à V . Il aurait donc été plus
rigoureux (mais plus lourd) de la noter (f V )−1 .
11
1 Calcul diérentiel
2. Pour que Df (a) soit inversible, il est nécessaire que les espaces vectoriels
E et F soient de même dimension : dim E = dim F (ceci n’a bien entendu
plus de sens quand les espaces vectoriels E et F ne sont plus de dimension
nie, voir la section 1.5).
3. Dans l’énoncé du théorème, « Df (a) inversible » apparaît comme une
condition susante pour qu’une fonction C k soit localement inversible
d’inverse C k . C’est en fait aussi une condition
nécessaire
−1 : si f est bijective
et f de classe C , on a f
−1 1 −1
f (x) = x et f f (y) = y, d’où, par
diérentiation des fonctions composées,
D(f −1 ) f (a) ◦ Df (a) = Id et Df (a) ◦ D(f −1 ) f (a) = Id,
ce qui entraîne que Df (a) est inversible.
4. Quand E = F = Rn , l’application f s’écrit f (x) = (f1 (x), , fn (x)) et
l’hypothèse à vérier est que le déterminant de la jacobienne en a est non
nul, c’est-à-dire,
∂f1 ∂f1
∂x1
(a) · · · ∂xn
(a)
.. .. 6= 0
det Df (a) = det . .
∂fn ∂fn
∂x1
(a) ··· ∂xn
(a)
*Diéomorphismes
Le théorème d’inversion locale est lié à la notion de diéomorphisme. Rap-
pelons d’abord qu’un homéomorphisme f : U → V entre deux ouverts U ⊂ E
et V ⊂ F est une application continue de U dans F , qui établit une bijection
entre U et V , et telle que son inverse f −1 : V → U est continue.
Dénition 1.4. Nous dirons qu’un homéomorphisme f : U → V entre deux
ouverts U ⊂ E et V ⊂ F est un C k -diéomorphisme si f : U → V et
f −1 : V → U sont de classe C k .
Le théorème d’inversion locale peut se reformuler de la façon suivante : si
f : E → F est une application C k sur un voisinage de a E telle que Df (a)
est inversible, alors f est un C k -diéomorphisme d’un voisinage de a sur un
voisinage de f (a).
Fonctions implicites
Le problème de l’inversion locale était de résoudre en x une équation y =
f (x). Nous cherchons maintenant à résoudre en y une équation de la forme
f (x, y) = 0.
12
1.4 Inversion locale et fonctions implicites
Considérons trois espaces vectoriels E, F , G de dimension nie et une
application f : U ⊂ E × F → G. Notons x la variable dans E et y la variable
dans F . Pour (a, b) U , en généralisant la notion de dérivée partielle, nous
noterons :
• Dx f (a, b) la diérentielle au point a de l’application partielle x 7→ f (x, b)
(c’est la diérentielle partielle de f par rapport à x) ;
• Dy f (a, b) la diérentielle au point b de y 7→ f (a, y) (c’est la diérentielle
partielle de f par rapport à y).
Théorème 1.7 (des fonctions implicites). Supposons que f soit de
classe C k , vérie f (a, b) = 0 et que Dy f (a, b) L(F, G) soit inversible.
Alors il existe V ⊂ E un voisinage ouvert de a, W ⊂ F un voisinage
ouvert de b, avec V × W ⊂ U , et une unique application ϕ : V → W de
classe C k telle que
(x V, y W et f (x, y) = 0) ⇐⇒ (x V et y = ϕ(x))
La preuve de ce théorème est donnée en annexe, section A.4.
Quitte à réduire les voisinages V et W , on peut supposer que Dy f (x, y)
est inversible pour tout (x, y) V × W . Ceci permet
de
calculer la diéren-
tielle de ϕ. En eet, pour tout x V , on a f x, ϕ(x) = 0. En prenant la
diérentielle de cette identité, on obtient
Dx f x, ϕ(x) + Dy f x, ϕ(x) ◦ Dϕ(x) = 0,
et donc, puisque Dy f x, ϕ(x) est inversible,
−1
Dϕ(x) = − Dy f x, ϕ(x) ◦ Dx f x, ϕ(x) (1.2)
Remarque 1.5.
1. Pour que Dy f (a, b) soit inversible, il est nécessaire que F et G soient de
même dimension : dim F = dim G.
2. Ce théorème est souvent utilisé avec E = Rn et F = G = Rp . L’équation
f (x, y) = 0 est alors un système de p équations
f1 (x1 , , xn ; y1 , , yp ) = 0,
..
.
f (x , , x ; y , , y ) = 0,
p 1 n 1 p
à p inconnues, les xi étant considérés comme des paramètres. Pour ré-
soudre ce système sous la forme
13
1 Calcul diérentiel
y1 = ϕ1 (x1 , , xn ),
..
.
y = ϕ (x , , x ),
p p 1 n
au voisinage de (a, b), les hypothèses à vérier sont f (a, b) = 0 et
∂f1 ∂f1
∂y1
· · · ∂yp
.. .. ..
det Dy f (a, b) = det . . . (a, b) 6= 0
∂fp ∂fp
∂y1
··· ∂yp
3. Il est intéressant de donner la version linéaire du théorème des fonctions
implicites. Considérons l’équation linéaire Ax + By = 0, où x Rn ,
y Rp , A Mpn (R) et B Mp (R). Si la matrice B est inversible, alors
cette équation a une unique solution, qui est y = −B −1 Ax (on reconnaît
la formule (1.2) donnant la diérentielle de la fonction implicite).
4. Quand E = R, la formule (1.2) peut s’interpréter comme une équation
diérentielle non autonome. La fonction ϕ est alors l’unique solution du
problème suivant (dit problème de Cauchy, voir section 4.1) :
′ −1 ∂f
ϕ (x) = − Dy f x, ϕ(x) · x, ϕ(x) ,
∂x
ϕ(a) = b
5. D’un point de vue géométrique, le théorème des fonctions implicites
donne un critère pour que l’ensemble déni par l’équation f (x, y) = 0
puisse, localement, être vu comme le graphe d’une fonction ϕ.
1.5 Et en dimension innie?
Dans les sections précédentes, nous nous sommes restreint au cadre des es-
paces vectoriels de dimension nie an de faciliter la compréhension. La
plupart des résultats introduits restent cependant valables dans le contexte
des espaces de Banach.
Dénition 1.5. Un espace de Banach est un espace vectoriel normé (E, ‖·‖)
qui est complet pour la distance d(v, w) = ‖v − w‖, c’est-à-dire que toute
suite de Cauchy un de E vériant, par dénition,
∀ > 0, ∃N N, ∀n, m ≥ N, ‖un − um ‖ < ,
converge vers un u E.
14
1.5 Et en dimension innie?
On se reportera à l’annexe A pour une introduction aux espaces vectoriels
normés et par exemple à [1] pour une étude plus complète. Voici quelques
exemples d’espaces de Banach.
1. Tout espace vectoriel de dimension nie est un espace de Banach.
2. Si E et F sont des espaces de Banach, l’ensemble Lc (E, F ) des applica-
tions linéaires continues de E dans F est un espace de Banach si on le
munit de la norme d’opérateurs ‖ · ‖E,F .
3. Si (X, d) est un espace métrique (quelconque) et F un espace de Banach,
l’ensemble Cb0 (X, F ) des fonctions continues et bornées de X dans F est
un espace de Banach pour la norme ‖ · ‖C 0 , dénie par
‖f ‖C 0 = sup ‖f (x)‖F
x∈X
En particulier, muni de cette norme, l’ensemble C 0 ([t0 , t1 ], F ) des fonc-
tions continues sur un intervalle [t0 , t1 ] et à valeurs dans un espace de
Banach F est un espace de Banach.
4. Si I ⊂ R est un intervalle compact et F un espace de Banach, l’espace
C 1 (I, F ) des applications à valeurs dans F de classe C 1 sur I est un
espace de Banach quand on le munit de la norme ‖ · ‖C 1 , dénie par
‖f ‖C 1 = max sup ‖f (t)‖, sup ‖Df (t)‖
t∈I t∈I
Le deuxième exemple fait apparaître une diérence fondamentale avec
les espaces de dimension nie : une application linéaire entre des espaces de
Banach n’est pas forcément continue1 . Pour généraliser la notion de diéren-
tiabilité aux espaces de Banach, il sera donc nécessaire de préciser dans la
dénition que la diérentielle doit être une application linéaire continue.
Dénition 1.6. Soient E, F des espaces de Banach et U ⊂ E un ouvert.
Nous dirons que f : U → F est diérentiable en a U s’il existe une
application linéaire continue La : E → F telle que, pour tout v vériant
a + v U , on ait
f (a + v) = f (a) + La (v) + o(‖v‖)
1
Considérons par exemple l’espace vectoriel E des polynômes à coecients réels, muni de la
norme ‖P ‖ = supx∈[0,1] P (x), et l’application linéaire f L(E, R) dénie par f (P ) = P (3).
Alors f n’est pas continue : quand n → ∞, l’image par f de la suite Pn = ( x2 )n ne tend pas
vers 0 alors que ‖Pn ‖ → 0.
15
1 Calcul diérentiel
Avec cette dénition de la diérentiabilité, la plupart des énoncés des
résultats des sections précédentes restent vrais dans les espaces de Banach.
Ainsi, en substituant la dénition 1.6 à 1.1, la proposition 1.1 (composition
des diérentielles), le théorème des accroissements nis (théorème 1.1) et
son corollaire, la proposition 1.2, le théorème de Schwarz (théorème 1.2), et
les formules de Taylor (théorèmes 1.3, 1.4 et 1.5) restent valides quand les
espaces vectoriels E, F , G sont des espaces de Banach. Quant aux théorèmes
d’inversion locale et des fonction implicites, ils sont énoncés et prouvés dans
le contexte des espaces de Banach en annexe (section A.4).
1.6 Exercices corrigés
Les thèmes des exercices sont les suivants:
• calcul de diérentielles dans les exercices 1.1, 1.2, 1.3, 1.4, 1.5,
• diérentielles en dimension innie dans les exercices 1.7, 1.8,
• théorèmes des accroissements nis dans les exercices 1.9, 1.11 (début),
1.14,
• théorème des fonctions implicites dans les exercices 1.10, 1.11, 1.12,
• théorème d’inversion locale dans les exercices 1.6, 1.13.
Exercice 1.1.
1. Soient A Mn (R) une matrice, b Rn un vecteur et f : Rn → R
l’application dénie par f (x) = xT Ax. Montrer que f est diérentiable en
tout point de Rn , calculer sa diérentielle et montrer que f est de classe C 1 .
2. Soient f et g les applications de Rn → R dénies par f (x) = ‖x‖2 et
g(x) = ‖x‖ (‖ · ‖ désigne la norme euclidienne). Déterminer en quels points
ces applications sont diérentiables et calculer leur diérentielle.
Corrigé de l’exercice 1.1.
1. Pour tous x, h Rn , on a le développement suivant
f (x + h) = xT Ax + hT Ax + xT Ax + hT Ah = f (x) + Lx (h) + R(h),
où Lx : h Rn 7→ hT Ax + xT Ah R est une application linéaire et R(h) =
hT Ah. On a bien R(h) = o(‖h‖) car
R(h) = hT Ah ≤ ‖A‖ ‖h‖2 ,
16
1.6 Exercices corrigés
où ‖h‖ est la norme euclidienne de h et ‖A‖ est la norme d’opérateur associée
à la norme euclidienne. On conclut que f est diérentiable et que L x est sa
diérentielle en x, i.e.,
Df (x) · h = hT Ax + xT Ah = xT (A + AT )h
De plus, l’application x 7→ Df (x) est une application linéaire de Rn dans
L(Rn , R) et est donc continue (nous travaillons en dimension nie). Ainsi, f
est de classe C 1 .
2. Comme f (x) = xT x, on est ramené à la question précédente avec A = I
(l’identité). On en déduit que f est C 1 en tout point et que
∀x, h Rn , Df (x) · h = 2xT h
√
Remarquons ensuite que g s’écrit g = ϕ ◦ f , où ϕ : t 7→ t est dénie sur
[0, ∞[ et diérentiable sur ]0, ∞[. On en déduit que g est diérentiable en
tout point x Rn \0 et que sa diérentielle en un tel point est donnée par
1 1 T
Dg(x) · h = Dϕ(f (x)) · [Df (x) · h] = 2xT h = x h,
2 ‖x‖2 ‖x‖
√
puisque Dϕ(t) : s R 7→ s(2 t) pour t > 0.
Reste à étudier la diérentiabilité en 0. Supposons par l’absurde que g soit
diérentiable en 0. Pour tout h Rn , la valeur Dg(0) · h s’obtient alors
comme une dérivée directionnelle,
1
Dg(0) · h = lim (g(0 + th) − g(h))
t→0 t
Mais 1t (g(0 + th) − g(h)) = sgn(t)‖h‖ n’a pas de limite quand t → 0 pour
h 6= 0, ce qui donne une contradiction. On en déduit ainsi que g n’est pas
diérentiable en 0.
Exercice 1.2.
1. Soit f : R2 → R une application diérentiable et h : R → R une
fonction dérivable. Calculer les dérivées des fonctions u(x) = f (x, x) et
v(x) = f (x, h(x)) ainsi que la diérentielle de g(x, y) = f (y, x).
2. Soient F : Rn ×Rp → Rk et H : Rn → Rp deux applications diérentiables.
Calculer la diérentielle de x 7→ F (x, H(x)).
17
1 Calcul diérentiel
Corrigé de l’exercice 1.2.
1. On écrit u comme une fonction composée, u(x) = f ◦ ϕ(x), où ϕ(x) =
(x, x). En écriture matricielle, i.e. en identiant les diérentielles avec les
matrices des dérivées partielles, on a
1 ∂f ∂f
Dϕ(x) = , Df (x, y) = ∂x (x, y) ∂y (x, y) ,
1
et par conséquent,
∂f ∂f
u′ (x) = Du(x) = Df (ϕ(x)) Dϕ(x) = (x, x) + (x, x)
∂x ∂y
De même, v(x) = f ◦ ψ(x), où ψ(x) = (x, h(x)), et, toujours en écriture
matricielle,
′ 1
v (x) = Dv(x) = Df (ψ(x)) Dψ(x) = Df (ψ(x)) =
h′ (x)
∂f ∂f
= (x, h(x)) + h′ (x) (x, h(x))
∂x ∂y
Enn, pour l’application g(x, y) = f (y, x), on a ∂x ∂g
(x, y) = ∂f
∂y
(y, x) et
∂g
∂y
(x, y) = ∂x (y, x). Ainsi, en écriture matricielle,
∂f
∂f ∂f
Dg(x, y) = (y, x) (y, x)
∂y ∂x
2. Comme dans la question précédente, on écrit l’application G(x) =
F (x, H(x)) comme une composition G = F ◦ φ où φ : Rn → Rn × Rp
est dénie par φ(x) = (x, H(x)). La diérentielle de φ en x Rn est donnée,
pour tout v Rn , par
Dφ(x) · v = (v, DH(x) · v)
Par ailleurs la diérentielle de F en (x, y) Rn × Rp peut s’exprimer en
fonction des diérentielles partielles de F (voir section 1.4 pour la dénition).
Pour (h, k) Rn × Rp ,
DF (x, y) · (h, k) = Dx F (x, y) · h + Dy F (x, y) · k
La formule de composition des diérentielles donne nalement, pour x et v
dans Rn ,
DG(x) · v = DF (x, H(x)) · (Dφ(x) · v)
= Dx F (x, H(x)) · v + Dy F (x, H(x)) ◦ DH(x) · v
18
1.6 Exercices corrigés
Remarque 1.6. Il est utile ici de faire quelques remarques à propos des
diérentielles partielles. On considère une application diérentiable f :
E1 × E2 → F , f : (x, y) 7→ f (x, y), où E1 , E2 et F sont des espaces
vectoriels de dimension nie. La diérentielle de f étant un élément de
L(E1 × E2 , F ), elle se décompose de façon unique en somme d’un élément de
L(E1 × 0, F ) et d’un élément de L(0 × E2 , F ) et cette somme est donnée
par Df (x, y) · (h, k) = Df (x, y) · (h, 0) + Df (x, y) · (0, k). Il est alors aisé de
montrer que Dx f (x, y)·h = Df (x, y)·(h, 0) et Dy f (x, y)·k = Df (x, y)·(0, k)
sont les diérentielles partielles de F , c’est-à-dire les diérentielles des ap-
plications partielles x 7→ f (x, y) et y 7→ f (x, y) respectivement.
Exercice 1.3. Soit f : R2 → R la fonction dénie par
x3 y
f (x, y) = 4 si (x, y) 6= 0, f (0) = 0
x + y2
1. Montrer que f est continue (utiliser a2 + b2 ≥ 2ab).
2. Calculer les dérivées partielles de f en 0.
3. En quels points f est-elle diérentiable?
Corrigé de l’exercice 1.3.
1. La continuité de f sur R2 \0 est obtenue par composition d’applications
continues. Reste la continuité en 0. Utilisons l’inégalité 2ab ≤ a 2 + b2 pour
majorer la diérence f (x, y) − f (0) pour (x, y) R2 :
∣ ∣
∣ 1 2x2 y ∣ 1
f (x, y) − f (0) = ∣∣ x 4 ∣ ≤ x ≤ 1 ‖(x, y)‖
2 x +y ∣ 2
2 2
Ainsi, lim(x,y)→0 f (x, y) = f (0) et f est continue en 0.
2. Sur R2 \0, f est C ∞ en tant que composée de fonctions C ∞ et ses
dérivées partielles se calculent directement : pour (x, y) R2 \0,
∂f −x6 y + 3x2 y 3 ∂f −x3 y 2 + x7
(x, y) = , (x, y) =
∂x (x4 + y 2 )2 ∂y (x4 + y 2 )2
L’existence de dérivées partielles en 0 n’est a priori pas garantie, il faut
procéder par calcul direct. On a
1
lim (f (t, 0) − f (0, 0)) = lim 0 = 0,
t→0 t t→0
19
1 Calcul diérentiel
et de même
1
lim (f (0, t) − f (0, 0)) = lim 0 = 0,
t→0 t t→0
ce qui donne l’existence et les valeurs des dérivées partielles en 0, ∂f
∂x
(0, 0) =0
et ∂f
∂y
(0, 0) = 0.
3. Sur Rn \0, f est diérentiable en tant que composée de fonctions dif-
férentiables. Supposons par l’absurde que f est diérentiable en 0. Connais-
sant les valeurs des dérivées partielles en 0, on déduit la diérentielle en
0,
∂f ∂f
Df (0, 0) = ∂x (0, 0) ∂y f (0, 0) = 0
L’idée est alors de trouver un chemin ϕ : t 7→ (ϕx (t), ϕy (t)) menant en 0
et tel que g(t) = f (ϕ(t)) soit facilement simpliable et de dérivée non nulle
en 0. Ici, nous pouvons choisir g(t) = f (t, t2 ) = 12 t dont la dérivée en 0 est
g ′ (0) = 12. On obtient une contradiction avec
g ′ (0) = Dg(0) · 1 = Df (ϕ(0)) ◦ ϕ(0) · 1 = 0
Ainsi, nous avons montré par l’absurde que f n’est pas diérentiable en 0.
Exercice 1.4.
1. Soit F : Mn (R) → Mn (R) l’application A 7→ A2 . Montrer que F est de
classe C 1 en tout A Mn (R) et calculer sa diérentielle DF (A).
2. Soit B Mn (R). Montrer que la fonction f : GLn (R) → R dénie par
f (A) = tr(BA−1 ) est diérentiable et calculer sa diérentielle.
3. Soit v Rn et g : GLn (R) → R la fonction dénie par g(A) = 〈A−1 v, v〉,
où 〈·, ·〉 désigne le produit scalaire euclidien sur Rn . Montrer que g est dif-
férentiable et calculer Dg(A) · H pour tout A GLn (R) et H Mn (R).
Corrigé de l’exercice 1.4.
1. On utilise la dénition. Soit A Mn (R). Pour tout H Mn (R), on a
F (A + H) = (A + H)2 = A2 + AH + HA + H 2
Or A2 = F (A), H 7→ AH + HA est linéaire et H 2 = o(‖H‖) (en eet,
en utilisant une norme matricielle – donc multiplicative – il est clair que
H 2 ‖H‖ tend vers 0 quand ‖H‖ → 0). Ainsi F est diérentiable en A et
DF (A) · H = AH + HA. De plus A 7→ DF (A) est linéaire, donc continue,
ce qui implique que F est de classe C 1 .
20
1.6 Exercices corrigés
2. Exprimons f comme une composée, f = L ◦ φ, où :
• la fonction φ : GLn (R) → GLn (R), φ(A) = A−1 , est diérentiable sur
GLn (R) avec Dφ(A) · H = −A−1 HA−1 pour tout A GLn (R) et H
Mn (R) (voir section 1.1) ;
• la fonction L : Mn (R) → R est dénie par L(M ) = tr(BM ). L est une
application linéaire, elle est donc diérentiable et DL(M ) = L pour tout
M Mn (R).
Ainsi f est diérentiable en tout A GLn (R) et sa diérentielle en A se
calcule d’après la formule de composition des diérentielles : pour tout H
Mn (R),
Df (A) · H = DL(φ(A)) ◦ Dφ(A) · H
= L(Dφ(A) · H)
= −tr(BA−1 HA−1 )
3. En suivant la même méthode qu’à la question précédente, on dénit une
fonction L′ : Mn (R) → R par L′ (M ) = 〈M v, v〉. Cette application L′ est
linéaire, donc diérentiable, et DL′ (M ) = L′ pour tout M Mn (R).
Comme g = L′ ◦ φ, on conclut que g est diérentiable sur tout GLn (R) et
que, pour tout A GLn (R) et H Mn (R),
Dg(A) · H = DL′ (φ(A)) ◦ Dφ(A) · H
= L′ (Dφ(A) · H)
= 〈−A−1 HA−1 v, v〉
Exercice 1.5. Soit det l’application déterminant de Mn (R) dans R.
1. Montrer a priori que cette application est de classe C 1 (C ∞ en fait).
2. Calculer la diérentielle de det en l’identité.
3. Calculer la diérentielle de det en une matrice inversible.
4. Calculer la diérentielle de det en une matrice quelconque.
Corrigé de l’exercice 1.5.
1. Le déterminant det A est un polynôme en les coecients de la matrice A.
Comme la somme, le produit et la composition d’applications de classe C ∞
sont C ∞ , det est une application de classe C ∞ .
21
1 Calcul diérentiel
2. D’après la question précédente, D det(I) existe : c’est une application
linéaire de Mn (R) dans R. Calculons l’image par D det(I) de la base Eij , 1 ≤
i, j ≤ n de Mn (R) (Eij est la matrice dont la composante i, j vaut 1 et toutes
les autres 0) :
det(I + tEij ) − det I
D det(I) · Eij = lim = ij ,
t→0 t
où ij est le symbole de Kronecker. On obtient l’image d’une matrice H
quelconque par linéarité : si H = i,j hij Eij ,
∑ ∑
D det(I) · H = hij D det(I) · Eij = ij hij = tr H
i,j i,j
3. Considérons une matrice A inversible. Pour tout H Mn (R),
det(A + H) = det A det(I + A−1 H)
= det A (1 + tr(A−1 H) + o(‖A−1 H‖)),
la dernière égalité venant de la diérentiabilité de l’application det en I.
Comme ‖A−1 H‖ ≤ ‖A−1 ‖ ‖H‖ (norme d’opérateur), on obtient :
det(A + H) = det A + det A tr(A−1 H) + o(‖H‖),
et donc D det(A) · H = det A tr(A−1 H).
4. Remarquons que, si A est inversible et si B désigne sa co-matrice, alors
det(A)A−1 = B T , ce qui implique D det(A) · H = tr(B T H). Étant donnés
que A 7→ D det(A) · H est une application continue sur Mn (R) (car det
est C 1 ) ainsi que A 7→ tr(B T H), que ces 2 applications sont égales pour A
inversible et que les matrices inversibles sont denses dans Mn (R), on a, pour
tout A et tout H Mn (R),
D det(A) · H = tr(B T H)
Exercice 1.6.
1. Soit exp l’application exponentielle de Mn (R) dans lui-même, dénie par
+∞
∑ Ai
exp A =
i=0
i!
Montrer que cette application est diérentiable en 0 et calculer sa diéren-
tielle en ce point.
22
1.6 Exercices corrigés
2. Considérons des matrices A1 , , An dans Mn (R) et un vecteur x0 Rn .
On suppose que les vecteurs A1 x0 , , An x0 sont linéairement indépendants.
Montrer qu’il existe un voisinage U ⊂ Rn de x0 et un voisinage V ⊂ Rn de
0 tels que tout point x U peut s’écrire de façon unique
x = exp(u1 A1 + · · · + un An )x0 ,
avec u = (u1 , , un ) V . Comment varie u en fonction de x? (on admettra
que exp est une application de classe C ∞ ).
Corrigé de l’exercice 1.6.
1. Pour tout H Mn (R), on a
+∞
∑ +∞
∑
Hi Hi
exp(0 + H) = =I +H +
i=0
i! i=2
i!
Hi
Or I = exp 0, H 7→ H est linéaire (!) et +∞ i=2 i! est un o(H) car
∥ ∥
∥∑+∞ i∥ +∞
H ∥ ∑ ‖H‖i
+∞
∑ ‖H‖i
∥
∥ ∥≤ ≤ ‖H‖ 2
≤ ‖H‖2 e‖H‖
∥ i! ∥ i=2 i! (i + 2)!
i=2 i=0
Donc exp est diérentiable en 0 et D exp(0) · H = H.
2. Nous allons montrer que le théorème d’inversion locale C ∞ s’applique en
0 à l’application φ : Rn → Rn dénie par
φ(u) = exp(u1 A1 + · · · + un An )x0
La conclusion du théorème nous donnera alors exactement le résultat désiré,
avec u dépendant de façon C ∞ de x.
Remarquons d’abord que φ = f ◦ exp ◦g, où g : Rn → Mn (R) est dénie par
g(u) = u1 A1 + · · · + un An ,
et f : Mn (R) → Rn par f (M ) = M x0 . Les applications f et g sont C ∞
car linéaires et on admet que exp l’est aussi (la preuve est un peu délicate).
Ainsi φ est C ∞ . D’autre part, on a g(0) = 0, exp(0) = I et f (I) = x0 , donc
φ(0) = x0 et, par la formule de composition des diérentielles,
Dφ(0) · h = Df (I) · (D exp(0) · (Dg(0) · h))
23
1 Calcul diérentiel
Les applications f et g étant linéaires, on a Dg(0) · h = g(h) et Df (I) · H =
f (H). En utilisant la question 1. on obtient
Dφ(0) · h = f (D exp(0) · g(h)) = h1 A1 x0 + · · · + hn An x0
Autrement dit, Dφ(0) est la matrice dont les colonnes sont A1 x0 , , An x0 .
Par hypothèse, cette matrice est de rang n, ce qui montre que la version C ∞
du théorème d’inversion locale s’applique à φ en 0.
Exercice 1.7. Soit E = C([0, 1]) l’espace de Banach des fonctions réelles
continues sur [0, 1] muni de la norme de la convergence uniforme : pour
f E, ‖f ‖∞ = supt∈[0,1] f (t).
Montrer que les applications suivantes sont diérentiables et calculer leur
diérentielle :
1. ϕ1 : E → R, ϕ1 (f ) = sin(f (0)) ;
∫ x
2. ϕ2 : E → E, ϕ2 (f ) : x 7→ f 2 (t)dt ;
0 ∫ 1
3. ϕ3 : E × E → R, ϕ3 (f, g) = f (t)g(t)dt.
0
Rappelons qu’en dimension innie la diérentielle doit être une application
linéaire continue et qu’une application linéaire f de E dans F est continue
si et seulement si il existe une constante C ≥ 0 telle que, pour tout v E,
‖f (v)‖F ≤ C‖v‖E
Corrigé de l’exercice 1.7.
1. Soit f E. Cherchons un développement limité au 1er ordre de la fonc-
tion ϕ1 autour de f . Pour tout h E, un développement limité de la fonction
sinus en f (0) nous donne :
ϕ1 (f + h) = sin(f (0) + h(0)) = sin(f (0)) + h(0) cos(f (0)) + O(h(0)2 )
Le terme O(h(0)2 ) est un o(‖h‖∞ ) puisque h(0) ≤ ‖h‖∞ . D’autre part,
l’application Lf : E → R dénie par Lf (h) = h(0) cos(f (0)) est clairement
une application linéaire, et elle est continue car
Lf (h) ≤ h(0) ≤ ‖h‖∞
Ainsi
ϕ1 (f + h) = ϕ1 (f ) + Lf (h) + o(‖h‖∞ ),
avec Lf linéaire et continue, ce qui implique que ϕ1 est diérentiable en f
et que Dϕ1 (f ) = Lf .
24
1.6 Exercices corrigés
2. On procède comme précédemment. Fixons f E et calculons, pour h E
et pour tout x [0, 1],
∫ x
ϕ2 (f + h)(x) = (f + h)2 (t)dt
∫0 x
= f (t)2 + 2f (t)h(t) + h(t)2 dt
0
∫ x
= ϕ2 (f )(x) + 2 f (t)h(t)dt + ϕ2 (h)(x)
0
Ainsi
ϕ2 (f + h) = ϕ2 (f ) + Lf (h) + ϕ2 (h),
où Lf : E → E est l’application dénie par
∫ •
Lf : h E 7−→ 2 f (t)h(t)dt
0
Il est clair que Lf est linéaire, vérions sa continuité. Soit h E, on a, pour
tout x [0, 1],
∣∫ x ∣
∣ ∣
Lf (h)(x) = ∣∣ 2f (t)h(t)dt∣∣
0
∫ 1
≤2 ‖f ‖∞ ‖h‖∞ dt
0
≤ 2‖f ‖∞ ‖h‖∞
Par passage à la borne supérieure dans l’inégalité, on obtient
‖Lf (h)‖∞ ≤ 2‖f ‖∞ ‖h‖∞ ,
ce qui montre que Lf est continue.
Il ne reste plus qu’à montrer que ϕ2 (h) est un o(h). Pour h E et x [0, 1],
∣∫ x ∣
∣ ∣
ϕ2 (h)(x) = ∣∣ h(t) dt∣∣ ≤ ‖h‖2∞ ,
2
0
d’où, par passage à la borne supérieure, ‖ϕ2 (h)‖∞ ≤ ‖h‖2∞ , ce qui montre
que ϕ2 (h) = o(h). On a ainsi montré que ϕ2 est diérentiable en tout f E
et que sa diérentielle est :
∫ •
Dϕ2 (f ) : h E 7−→ 2f (t)h(t)dt
0
25
1 Calcul diérentiel
3. L’application ϕ3 est dénie sur l’espace produit E × E. Puisque E est
muni de la norme ‖ · ‖∞ , on va utiliser sur E × E la norme suivante2 ,
∀(f, g) E × E, ‖(f, g)‖E×E = max (‖f ‖∞ , ‖g‖∞ )
Fixons (f, g) E × E. Pour tout (h, k) E × E,
∫ 1
ϕ3 (f + h, g + k) = (f + h)(t)(g + k)(t)dt
0
∫ 1
= (f (t)g(t) + f (t)k(t) + g(t)h(t) + h(t)k(t)) dt
0
∫ 1
= ϕ3 (f, g) + L(f,g) (h, k) + h(t)k(t)dt,
0
1
où L(f,g) : E×E → R est dénie par L(f,g) (h, k) = 0 (f (t)k(t) + g(t)h(t)) dt.
L’application L(f,g) est clairement linéaire et elle est continue car, pour tout
(h, k) E × E,
∣∫ ∣
∣ ∣ ∣ 1 ∣
∣L(f,g) (h, k)∣ = ∣ (f (t)k(t) + g(t)h(t)) dt ∣
∣ ∣
0
≤ ‖f ‖∞ ‖k‖∞ + ‖g‖∞ ‖h‖∞
≤ (‖f ‖∞ + ‖g‖∞ ) ‖(h, k)‖E×E
1
Il reste à montrer que 0 h(t)k(t)dt est un o((h, k)), ce qui résulte de la
majoration suivante,
∣∫ 1 ∣
∣ ∣
∣ h(t)k(t)dt ∣ ≤ ‖h‖∞ ‖k‖∞
∣ ∣
0
≤ ‖(h, k)‖2E×E
On a ainsi montré que ϕ3 est diérentiable sur tout E × E et que sa dif-
férentielle en (f, g) E × E est donnée par :
∫ 1
∀(h, k) E × E, Dϕ3 (f, g) · (h, k) = (f (t)k(t) + g(t)h(t)) dt
0
Exercice 1.8. Soit I = [0, 1]. On considère les espaces vectoriels normés
suivants :
2
Notons que toute norme de la forme ‖(f, g)‖E×E = ‖(‖f ‖∞ , ‖g‖∞ )‖, où ‖ · ‖ est une norme
sur R2 , est équivalente à celle qui est proposée.
26
1.6 Exercices corrigés
• E = f : I → R t.q. f de classe C 1 et f (0) = 0 muni de la norme
‖f ‖E = sup f ′ (t) ;
t∈I
• F = f : I → R t.q. f continue muni de la norme
‖f ‖F = sup f (t) ;
t∈I
ainsi que l’application φ : E → F , φ(f ) = f ′ + f 2 .
1. Montrer que supt∈I f (t) ≤ ‖f ‖E pour tout f E et vérier que ‖ · ‖E
est bien une norme.
2. Montrer que φ est diérentiable et calculer sa diérentielle.
3. Montrer que φ est C 1 .
Corrigé de l’exercice 1.8.
1. Soit f E. Pour t I, on a l’estimation suivante
∣∫ t ∣
∣ ∣
f (t) = f (t) − f (0) = ∣∣ f ′ (s)ds∣∣ ≤ sup f ′ (s) = ‖f ‖E
0 s∈I
Cette inégalité étant valable pour tout t I, on peut passer à la borne
supérieure et on obtient,
sup f (t) ≤ ‖f ‖E (1.3)
t∈I
Montrons que ‖·‖E est bien une norme sur E. L’inégalité triangulaire découle
de celle sur R appliquée à f ′ + g ′ où f, g E. Il en est de même pour
l’homogénéité et le caractère positif est évident. Il reste donc à montrer que,
si f E est telle que ‖f ‖E = 0, alors f = 0. Et ceci est une conséquence
directe de (1.3).
2. Écrivons φ comme la somme de deux applications φ = +ψ, où : f 7→ f ′
et ψ : f 7→ f 2 sont des applications de E dans F . Montrons alors séparément
que ψ et sont des fonctions diérentiables et calculons leurs diérentielles.
• L’application est linéaire et elle est de plus continue car, pour tout
f E,
‖(f )‖F = ‖f ′ ‖F = ‖f ‖E
Donc est diérentiable et D(f ) = pour tout f E.
27
1 Calcul diérentiel
• Intéressons nous à présent à la fonction ψ. Soit f E. Pour tout h E,
ψ(f + h) = f 2 + 2f h + h2 = ψ(f ) + lf (h) + r(h),
où les applications lf et r de E → F sont dénies par lf (h) = 2f h et
r(h) = h2 . L’application lf est linéaire et elle est continue car, pour tout
h E,
‖lf (h)‖F = 2 sup f (t)h(t) ≤ 2 sup f (t) sup h(t) ≤ 2‖f ‖E ‖h‖E , (1.4)
t∈I t∈I t∈I
où on a utilisé l’inégalité (1.3). Par ailleurs r(h) est un o(‖h‖E ) pour la
norme F puisque, toujours grâce à (1.3),
‖r(h)‖F = sup h(t)2 ≤ ‖h‖2E
t∈I
On en déduit que ψ est diérentiable et que sa diérentielle en f E est
égale à l − f , i.e.,
∀f, h E, Dψ(f ) · h = 2f h
On en conclut que φ est diérentiable en tout f E et que sa diérentielle
est donnée par
∀f, h E, Dφ(f ) · h = h′ + 2f h
3. Pour montrer que φ est de classe C 1 , il sut de montrer que et ψ le
sont. En tant qu’application linéaire et continue, est de classe C 1 (en eet
sa diérentielle D(f ) = est constante). Montrons que Dψ est continue.
On remarque d’abord que f 7→ Dψ(f ) est linéaire de E dans Lc (E, F ). Il
sut donc de montrer qu’il existe une constante C > 0 telle que
∀f E, ‖Dψ(f )‖Lc (E,F ) ≤ C ‖f ‖E
Rappelons que
‖Dψ(f ) · h‖F
‖Dψ(f )‖Lc (E,F ) = sup ,
h∈E ‖h‖E
h6=0
et que, d’après la question précédente, Dψ(f ) = lf . L’inégalité (1.4) implique
alors que ‖Dψ(f )‖Lc (E,F ) ≤ 2‖f ‖E ce qui implique la continuité de Dψ.
Finalement, φ est bien de classe C 1 en tant que somme d’applications de
classe C 1 .
28
1.6 Exercices corrigés
Exercice 1.9. On considère la fonction f : Rn → Rn dénie par
x
f (x) = ,
1 + ‖x‖
où ‖ · ‖ désigne la norme euclidienne.
1. Montrer que f est diérentiable sur Rn et calculer sa diérentielle (dis-
tinguer le cas x = 0).
2. Montrer que f est de classe C 1 sur Rn .
3. En utilisant le théorème des accroissements nis, montrer que, pour tout
x, y Rn ,
‖f (x) − f (y)‖ ≤ ‖x − y‖
Corrigé de l’exercice 1.9.
1. Montrons d’abord que f est diérentiable sur Rn \0. En introduisant
u : R+ → R et g : Rn → R dénies par
1
u(t) = et g(x) = ‖x‖,
1+t
on écrit f sous la forme f = (u ◦ g) × Id.
On a vu dans l’exercice 1.1 que g est diérentiable en tout x Rn \0, et
que sa diérentielle en x est donnée par
〈x, h〉
∀h Rn , Dg(x) · h =
‖x‖
D’autre part, u est dérivable sur R+ , donc diérentiable, et sa diérentielle
en t R+ est donnée par
1
∀s R, Du(t) · s = u′ (t) s = − s
(1 + t)2
Ainsi, u ◦ g est diérentiable en tout x Rn \0, de diérentielle
∀h Rn , D(u ◦ g)(x) · h = Du(g(x)) ◦ Dg(x) · h
〈x, h〉
= u′ (‖x‖)
‖x‖
〈x, h〉
=−
‖x‖(1 + ‖x‖)2
29
1 Calcul diérentiel
On en déduit que f est diérentiable sur Rn \0 en tant que produit de
fonctions diérentiables. Sa diérentielle en x Rn \0 est donnée par la
formule de Leibniz,
∀h Rn , Df (x) · h = [D(u ◦ g)(x) · h] Id(x) + u ◦ g(x) [DId(x) · h]
〈x, h〉 1
=− x + h,
‖x‖(1 + ‖x‖)2 1 + ‖x‖
puisque DId(x) = Id, l’identité étant une application linéaire.
On s’intéresse à présent à la diérentiabilité de f en 0. Soit h Rn , on
calcule
h
f (0 + h) =
1 + ‖h‖
= h(1 − ‖h‖ + o(h)))
= h + o(h)
Ainsi f est diérentiable en 0 et
Df (0) = Id
2. Sur Rn \0, f = (u ◦ g) × Id est de classe C 1 (et même C ∞ ) en tant que
produit et composition d’applications de classe C 1 . Il reste donc à montrer
que Df est continue en 0, c’est-à-dire que
‖Df (x) − Id‖ −−→ 0
x→0
La norme utilisée ici est la norme d’opérateur, i.e.,
‖Df (x) · h − h‖
‖Df (x) − Id‖ = sup
h∈Rn ‖h‖
h6=0
Soit x Rn \0. Pour tout h Rn , on a,
∥ ∥
∥ 〈x, h〉 1 ∥
‖Df (x) · h − h‖ = ∥ −
∥ ‖x‖(1 + ‖x‖)2 x + h − h ∥
∥
1 + ‖x‖
∥ ∥
〈x, h〉 ∥ 1 ∥
≤ ‖x‖ + ∥ − 1 h ∥
‖x‖(1 + ‖x‖)2 ∥ 1 + ‖x‖ ∥
‖x‖‖h‖ ‖x‖ ‖h‖
≤ 2
+
(1 + ‖x‖) 1 + ‖x‖
2 + ‖x‖
≤ ‖x‖‖h‖
(1 + ‖x‖)2
30
1.6 Exercices corrigés
On en déduit que
2 + ‖x‖
‖Df (x) − Df (0)‖ ≤ ‖x‖ −−→ 0,
(1 + ‖x‖)2 x→0
ce qui montre la continuité de Df en 0. Ainsi, f est de classe C 1 sur Rn .
3. An d’appliquer le théorème des accroissements nis, cherchons à majorer
‖Df (x)‖ pour tout x Rn . Pour x = 0, on a vu que
‖Df (0)‖ = ‖Id‖ = 1
Puis, pour x Rn \0 et h Rn , on a
∥ ∥
∥ 〈x, h〉 1 ∥
‖Df (x) · h‖ = ∥ −
∥ ‖x‖(1 + ‖x‖)2 x + h ∥
1 + ‖x‖ ∥
∥ ∥
〈x, h〉 ∥ 1 ∥
≤ ‖x‖ + ∥ h ∥
‖x‖(1 + ‖x‖)2 ∥ 1 + ‖x‖ ∥
2‖x‖ + 1
≤ ‖h‖
(1 + ‖x‖)2
≤ ‖h‖
Ainsi, on a ‖Df (x)‖ ≤ 1, et ce pour tout x Rn . Le théorème des accroisse-
ments nis permet de conclure que pour tout x, y Rn , on a
∥ ∥
‖f (x) − f (y)‖ ≤ sup ∥Df (tx + (1 − t)y)∥‖x − y‖
t∈[0,1]
≤ ‖x − y‖
Exercice 1.10. On considère le système d’équations suivant, d’inconnues
(x, y, z, t) R4 : 3
x + y 3 + z 3 + t2 = 0,
x2 + y 2 + z 2 + t = 2, (1.5)
x + y + z + t = 0
1. Vérier que le point (0, −1, 1, 0) est une solution.
2. Montrer que l’on peut résoudre ce système par rapport à (x, y, z) au voisi-
nage de ce point.
3. Calculer la dérivée en 0 de la fonction t 7→ (x(t), y(t), z(t)).
31
1 Calcul diérentiel
Corrigé de l’exercice 1.10. Cet exercice est un exemple d’application
du théorème des fonctions implicites. Pour le voir, dénissons la fonction
f : R3 × R → R3 par
3
x + y 3 + z 3 + t2
f (x, y, z, t) = x2 + y 2 + z 2 + t − 2
x+y+z+t
Le système (1.5) s’écrit donc f (x, y, z, t) = 0.
1. On vérie aisément que f s’annule au point (x0 , y0 , z0 , t0 ) = (0, −1, 1, 0).
2. Remarquons d’abord que la fonction f est de classe C ∞ puisque ses com-
posantes sont polynomiales. Montrons que la diérentielle partielle de f par
rapport à (x, y, z) est inversible au point (x0 , y0 , z0 , t0 ). Comme f est une
application de R3 × R dans R3 , cette diérentielle partielle s’identie à la
matrice des dérivées partielles par rapport à x, y, z, c’est-à-dire,
∂f1 ∂f1 ∂f1
∂x
(x , y
0 0 0 , z ) ∂y
(x , y
0 0 0 , z ) ∂z
(x , y
0 0 0 , z )
∂f2
D(x,y,z) f (x0 , y0 , z0 , t0 ) = (x , y , z ) ∂f2
(x
∂x 0 0 0 ∂y 0 0 0 ∂z 0 0 0 , y , z ) ∂f2
(x , y , z )
∂f3
∂x
(x0 , y0 , z0 ) ∂f
∂y
3
(x0 , y0 , z0 ) ∂f
∂z
3
(x0 , y0 , z0 )
2
3x0 3y02 3z02
= 2x0 2y0 2z0
1 1 1
0 3 3
= 0 −2 2
1 1 1
Cette matrice est inversible car de déterminant non nul (il est égal à 12).
D’après le théorème des fonctions implicites, il existe alors deux voisinages
ouverts V V ⊂ R3 de (x0 , y0 , z0 ) et I ⊂ R de 0 ainsi qu’une application
ϕ : I → V de classe C ∞ tels que
∀(x, y, z) V, ∀t I f (x, y, z, t) = 0 ⇐⇒ ϕ(t) = (x, y, z)
La fonction ϕ résoud le système: elle donne pour chaque t la solution (x, y, z)
de (1.5).
32
1.6 Exercices corrigés
3. Le théorème des fonctions implicites donne aussi la diérentielle de ϕ
(toujours identiée à la matrice des dérivées partielles) en t0 = 0,
Dϕ(t0 ) = −D(x,y,z) f (x0 , y0 , z0 , t0 )−1 Dt f (x0 , y0 , z0 , t0 ) (1.6)
Notons que dans l’identication entre applications linéaires et matrices, la
diérentielle Dϕ(t0 ) s’identie à la dérivée ϕ′ (t0 ) puisque
dϕ1
dt
(t0 ) ϕ1 (t)
Dϕ(t0 ) = dϕdt
2
(t0 ) , où ϕ(t) = ϕ2 (t)
dϕ3
dt
(t0 ) ϕ3 (t)
La matrice D(x,y,z) f (x0 , y0 , z0 , t0 ) a été calculée à la question précédente et
l’autre diérentielle partielle est donnée par
∂f
∂t
1
(x , y ,
0 0 0 0 z , t ) 0
∂f
Dt f (x0 , y0 , z0 , t0 ) =
∂t (x0 , y0 , z0 , t0 ) = 1 ,
2
∂f3
∂t
(x0 , y0 , z0 , t0 ) 1
On peut donc calculer directement ϕ′ (t0 ) avec la formule (1.6). Pour éviter
d’avoir à inverser une matrice il est cependant plus facile d’écrire (1.6) comme
un système linéaire d’inconnue ϕ′ (t0 ),
′
0 3 3 0 3ϕ2 (t0 ) + 3ϕ′3 (t0 ) = 0
0 −2 2 ϕ′ (t0 ) = − 1 ⇔ −2ϕ′ (t0 ) + 2ϕ′3 (t0 ) = −1 ,
′ 2 ′ ′
1 1 1 1 ϕ1 (t0 ) + ϕ2 (t0 ) + ϕ3 (t0 ) = −1
et de le résoudre directement, ce qui donne
−1
ϕ′ (t0 ) = 14
−14
Exercice 1.11. On considère le système d’équations
1 1 1
x= sin(x + y) + t − 1, y = cos(x − y) − t + , (1.7)
2 2 2
aux inconnues x et y. On veut montrer qu’il existe une unique solution
X(t) = (x(t), y(t)), de classe C ∞ , et en donner un développement limité
autour de X = 0.
Notons X = (x, y) et, pour t R xé,
1 1 1
Ft (X) = sin(x + y) + t − 1, cos(x − y) − t +
2 2 2
33
1 Calcul diérentiel
1. Montrer que, dans la norme d’opérateur induite par la norme euclidienne,
on a ‖DFt (X)‖ ≤ √12 .
2. En déduire que Ft est contractante et que, pour t xé, le système
d’équations (1.7) a une unique solution dans R2 que l’on notera X ∗ (t) =
(x∗ (t), y ∗ (t)).
3. Montrer, en utilisant la question 1, que l’application I − DF t (X) est in-
versible quel que soit X R2 (I est l’identité de R2 ).
4. Montrer à l’aide du théorème des fonctions implicites que la fonction
t 7→ X ∗ (t) est de classe C ∞ .
5. Donner un développement de Taylor à l’ordre 1 de X ∗ (t) en t = 1.
Corrigé de l’exercice 1.11.
1. Commençons par calculer DFt (X) : comme F est une application de R2
dans R2 de classe C ∞ , DFt (X) s’identie à la matrice des dérivées partielles
1 1
cos(x + y) cos(x + y)
DFt (X) = 2 1 2
− 2 sin(x − y) 12 sin(x − y)
(h1 + h2 ) cos(x + y)
Ainsi, pour h = (h1 , h2 ) R , DFt (X) · h = 2
2 1
.
(h2 − h1 ) sin(x − y)
Prenons la norme euclidienne de ce vecteur :
1
‖DFt (X) · h‖2 = (h1 + h2 )2 cos2 (x + y) + (h2 − h1 )2 sin2 (x − y)
4
1 1 1
≤ (h1 + h2 )2 + (h2 − h1 )2 = (h21 + h22 ) = ‖h‖2
4 2 2
On en déduit la norme de DFt (X),
‖DFt (X) · h‖ 1
‖DFt (X)‖ = sup ≤√
h6=0 ‖h‖ 2
Notons qu’il est important ici d’utiliser la norme euclidienne partout, i.e. la
norme euclidienne pour les vecteurs et la norme d’opérateur induite par la
norme euclidienne
pour les matrices. Ainsi, pour un vecteur X, la norme est
‖X‖ = x + y et pour une matrice A, ‖A‖ = supY 6=0 ‖AY
2 2
‖Y ‖
‖
. Si on avait
utilisé la norme `1 ou `∞ , le majorant de ‖DFt (X)‖ serait 1 et non plus √12
(vériez-le), et le reste du raisonnement ne pourrait pas être appliqué.
34
1.6 Exercices corrigés
2. La question précédente implique, par le théorème des accroissements nis,
que pour tout couple X, Y R2 , ‖Ft (X)−Ft (Y )‖ ≤ √12 ‖X −Y ‖, c’est-à-dire
que Ft est √12 -contractante.
Utilisons alors le théorème du point xe de Picard : puisque F t est con-
tractante, elle admet un unique point xe X ∗ (t) R2 . Autrement dit,
X ∗ (t) = (x∗ (t), y ∗ (t)) est l’unique solution de l’équation (1.7) dans R2 .
3. C’est la conséquence d’un résultat général : si une matrice A M n (R)
vérie ‖A‖ < 1, alors I − A est inversible.
En eet, pour une telle matrice A, la série ∞k=0 A est convergente (car nor-
k
malement convergente). En faisant alors tendre p vers l’inni dans l’identité
( p ) ( p )
∑ ∑
Ak (I − A) = (I − A) Ak = I − Ap+1 ,
k=0 k=0
∞
on obtient que I − A est inversible, d’inverse k=0 Ak , puisque Ap → 0
quand p → ∞.
4. Introduisons l’application G : R × R2 → R2 , G(t, X) = X − Ft (X), à
laquelle nous allons appliquer le théorème des fonctions implicites (les zéros
de G étant les solutions de l’équation (1.7)). Remarquons dès maintenant
que G est de classe C ∞ .
Soit t0 R. On pose X0 = X ∗ (t0 ), où X ∗ (·) est la fonction obtenue à la
question 2.. On a donc G(t0 , X0 ) = 0.
D’autre part, la diérentielle partielle de G par rapport à X est
DX G(t, X) = I − DFt (X),
qui est inversible d’après la question précédente.
Toutes les hypothèses du théorème des fonctions implicites étant satisfaites,
il existe un voisinage V de t0 , un voisinage W de X0 et une application
ϕ : V → W de classe C ∞ tels que, pour (t, X) V × W ,
G(t, X) = 0 ⇔ X = ϕ(t)
Or, d’après la question 2., G(t, X) = 0 ⇔ X = X ∗ (t). Par conséquent
X ∗ (·)V = ϕ(·), et donc X ∗ (·) est C ∞ en t0 .
5. Remarquons d’abord que X ∗ (1) = 0. Il sut ensuite de dériver par rap-
port à t l’expression G(t, X ∗ (t)) = 0 pour obtenir
∗ ∗ dX ∗
Dt G(t, X (t)) + DX G(t, X (t)) · (t) = 0,
dt
35
1 Calcul diérentiel
c’est-à-dire
{
−1 + x′ (t) 1 − 12 cos(x(t) + y(t)) − 12 y ′ (t) cos(x(t) + y(t)) = 0,
(1.8)
1 + 12 x′ (t) sin(x(t) − y(t)) + y ′ (t) 1 − 12 sin(x(t) − y(t)) = 0
En prenant t = 1 et en résolvant, on obtient x′ (1) = 1 et y ′ (1) = −1.
Remarquons d’ailleurs (même si ce n’est pas demandé dans l’énoncé) qu’en
dérivant (1.8) on obtient également les dérivées secondes x′′ (1) = y ′′ (1) =
−2. Finalement, en posant s = t − 1,
1 1
X ∗ (1 + s) = s − s2 + O(s3 )
−1 1
Exercice 1.12. Le but de l’exercice est de se familiariser avec la notion
d’espace tangent à une surface. Soit donc un ensemble S ⊂ R3 et xons un
point y S. On dénit l’espace tangent à S en y comme
Ty S = v R3 : ∃ : ] − 1, 1[ → R3 courbe C 1 t.q.
(0) = y, v = ̇(0), et, pour tout t, (t) S
1. Considérons le graphe S d’une fonction φ : R2 → R de classe C 1 , c’est-à-
dire,
S = x = (x1 , x2 , x3 ) R3 : x3 = φ(x1 , x2 )
Soit y S. Déterminer Ty S et montrer que c’est un plan vectoriel dont on
donnera une base.
2. Considérons l’ensemble S ′ des zéros d’une fonction f : R3 → R de classe
C 1 , c’est-à-dire,
S ′ = x R3 : f (x) = 0
Soit y S ′ . Montrer que Ty S ′ est inclus dans le noyau de Df (y).
3. Supposons que S soit à la fois le graphe de φ et l’ensemble des zéros de
f , i.e. S = S ′ . À quelle condition peut-on retrouver la base de Ty S à partir
de f ? Interpréter à l’aide du théorème des fonctions implicites.
4. Soit S = S(0, 1) la sphère unité de R3 et y S. Déterminer Ty S.
Corrigé de l’exercice 1.12.
1. Soient y S, y = (y1 , y2 , φ(y1 , y2 )), et v Ty S. Il existe donc : ]−1, 1[→
R telle que (0) = y, ̇(0) = v et (t) S pour tout t ]−1, 1[. Nous pouvons
donc écrire sous la forme
36
1.6 Exercices corrigés
(t) = (x1 (t), x2 (t), φ(x1 (t), x2 (t)),
ainsi que sa dérivée,
∂φ ∂φ
̇(t) = ẋ1 (t), ẋ2 (t), (x1 (t), x2 (t))ẋ1 (t) + (x1 (t), x2 (t))ẋ2 (t)
∂x1 ∂x2
En t = 0, on obtient donc
∂φ ∂φ
v = ̇(0) = ẋ1 (0), ẋ2 (0), (y1 , y2 )ẋ1 (0) + (y1 , y2 )ẋ2 (0) (1.9)
∂x1 ∂x2
En posant
∂φ ∂φ
e1 = 1, 0, (y1 , y2 ) et e2 = 0, 1, (y1 , y2 ) ,
∂x1 ∂x2
l’égalité (1.9) s’écrit v = ẋ1 (0)e1 + ẋ2 (0)e2 , d’où Ty S ⊂ Vect(e1 , e2 ).
Inversement, soit v Vect(e1 , e2 ). Ce vecteur s’écrit donc v = ae1 + be2 , avec
a, b R, ou encore,
∂φ ∂φ
v = a, b, a (y1 , y2 ) + b (y1 , y2 )
∂x1 ∂x2
En comparant avec la formule (1.9), on voit qu’il est pertinent d’introduire
la courbe dénie par
(t) = (y1 + ta, y2 + tb, φ(y1 + ta, y2 + tb))
On vérie aisément que (0) = y et que (t) S, ∀t ] − 1, 1[. De plus,
d
̇(0) = a, b, (φ(y1 + ta, y2 + tb))t=0
dt
∂φ ∂φ
= a, b, a (y1 , y2 ) + b (y1 , y2 ) ,
∂x1 ∂x2
d’où ̇(0) = v. Ainsi v Ty S et on a l’égalité Ty S = Vect(e1 , e2 ).
2. Soient y S ′ et v Ty S ′ . Comme précédemment, considérons la courbe
associée , qui est telle que ̇(0) = v. Puisque, par dénition de cette courbe,
(t) S ′ pour tout t, on a f ◦ (t) ≡ 0. Ces deux fonctions sont C 1 , leur
composée est donc C 1 et on a
Df ((t)) · ′ (t) = 0
En particulier, en t = 0 cette expression devient Df (y) · v = 0. Nous avons
donc montré que
Ty S ′ ⊂ ker Df (y)
37
1 Calcul diérentiel
3. D’après les questions précédentes, l’espace tangent à S vérie à la fois
Ty S = Vect(e1 , e2 ) et Ty S ⊂ ker Df (y)
On a donc e1 , e2 ker Df (y), c’est-à-dire,
∂f ∂f ∂φ
(y) + (y) (y1 , y2 ) = 0
∂x1 ∂x3 ∂x1
∂f ∂f ∂φ
(y) + (y) (y1 , y2 ) = 0
∂x2 ∂x3 ∂x2
Ce système permet de déterminer les dérivées partielles de φ, et donc la base
de Ty S, si et seulement si ∂x
∂f
3
(y) 6= 0. Cela revient à dire que f vérie les
conditions du théorème des fonctions implicites en y : ce théorème implique
alors que f = 0 est localement le graphe d’une fonction C 1 de (x1 , x2 ), ce
qui est cohérent avec notre hypothèse S = S ′ .
4. La sphère unité peut s’écrire comme l’ensemble des zéros de la fonction
f (x) = xT x − 1. D’après
la question 2., on a alors Ty S ⊂ ker Df (y). Or
Df (y) = 2y1 2y2 2y3 = 2y T , donc Df (y) · v = 0 est équivalent à y T v = 0.
Autrement dit ker Df (y) est l’orthogonal (Ry)⊥ de l’espace vectoriel engen-
dré par y et
Ty S ⊂ (Ry)⊥
Remarquons que (Ry)⊥ est un espace vectoriel de dimension 2 car y 6= 0 (0
n’appartient pas à la sphère).
Par ailleurs, en n’importe quel point y de la sphère, au moins une des dérivées
partielles de f est non nulle. Nous pouvons donc appliquer le théorème des
fonctions implicites à f et donc considérer qu’autour de y, la sphère est le
graphe d’une fonction de R2 → R. Le raisonnement de la question 1. nous
permet alors de conclure que Ty S est de dimension 2.
Finalement l’inclusion associée à l’égalité des dimensions implique
Ty S = (Ry)⊥
Exercice 1.13.
1. Soit M Mn (R) une matrice ayant une valeur propre réelle simple λ.
Montrer qu’il existe un voisinage ouvert V ⊂ Mn (R) de M et une application
λ : V → R de classe C ∞ tels que
λ(M ) = λ et ∀M V, λ(M ) est valeur propre simple de M
38
1.6 Exercices corrigés
2. En déduire que l’ensemble U des matrices de Mn (R) admettant n valeurs
propres réelles distinctes est un ouvert de Mn (R).
Corrigé de l’exercice 1.13.
1. Comme λ est une valeur propre réelle simple de M , le polynôme carac-
téristique de M , PM (λ) = det(λIn − M ), peut s’écrire sous la forme
PM (λ) = (λ − λ)QM (λ),
où QM (λ) est un polynôme à coecients réels tel que QM (λ) 6= 0. Posons
alors f (M, λ) = PM (λ). Nous allons appliquer le théorème des fonctions
implicites à cette fonction, vérions-en les hypothèses :
• f (M, λ) = det(λIn − M ) est un polynôme en les coecients de M et en
λ, elle est donc de classe C ∞ ;
• f (M , λ) = 0 ;
• la diérentielle partielle de f par rapport à λ est
∂f ∂Q
(M, λ) = QM (λ) + (λ − λ) M (λ),
∂λ ∂λ
et donc ∂f
∂λ
(M , λ) = QM (λ) 6= 0.
Il existe donc un voisinage ouvert V de M dans Mn (R) et une fonction
λ : V → R de classe C ∞ tels que, pour M V , f (M, λ(M )) = 0, ce qui
implique que λ(M ) est une valeur propre réelle de M . Comme de plus, par
continuité, ∂f
∂λ
(M, λ(M )) 6= 0 sur V (quitte à réduire V ), λ(M ) est une valeur
propre simple de M .
2. Soit M U , de valeurs propres λ1 < λ2 < · · · < λn . En procédant comme
précédemment, nous trouvons n voisinages ouverts Vi de M et n fonctions
C ∞ λi , chacune dénie sur Vi , telles que λi (M ) = λi . L’intersection V = ∩i Vi
est un voisinage de M sur lequel sont dénies toutes les fonctions λi . De
plus, ces fonctions étant continues, on peut supposer, quitte à restreindre
le voisinage V , que λ1 (M ) < λ2 (M ) < · · · < λn (M ) pour tout M V , ce
qui implique que tout M V admet n valeurs propres réelles et distinctes
λ1 (M ), , λn (M ).
On a donc montré que, pour tout élément M de U , il existe un voisinage
ouvert V de M inclus dans U , ce qui implique que U est ouvert.
Exercice 1.14 (Cauchy–Lipschitz). Soit f : Rn → Rn une application de
classe C 1 . On suppose qu’il existe une constante réelle L telle que
‖Df (x)‖ ≤ L, ∀x Rn
39
1 Calcul diérentiel
On s’intéresse au problème (P) suivant :
trouver une application t 7→ y(t) de [t0 , t1 ] dans Rn , continûment dérivable
sur l’intervalle [t0 , t1 ], et telle que
{
dy
dt
(t) = f (y(t)), ∀t [t0 , t1 ],
y(t0 ) = a,
où a est un point de Rn donné.
1. Soit E l’espace des fonctions continues de [t0 , t1 ] dans Rn muni de la norme
C 0,
‖y‖C 0 = sup ‖y(t)‖
t∈[t0 ,t1 ]
Montrer que le problème (P) est équivalent à trouver un point xe de
l’application Φ de E dans E dénie par
∫ t
Φ(y)(t) = a + f (y(s))ds
t0
2. Montrer que Φ est lipschitzienne.
3. Soient x et y deux éléments quelconques de E. Démontrer par récurrence
sur p l’inégalité suivante :
p p p (t − t0 ) p
‖Φ (x)(t) − Φ (y)(t)‖ ≤ L ‖x − y‖C 0 ∀t [t0 , t1 ]
p!
4. En déduire que le problème (P) admet une solution et une seule (ce
résultat est une variante du théorème de Cauchy–Lipschitz que nous verrons
au chapitre 4).
Corrigé de l’exercice 1.14.
1. Il est clair qu’une solution de (P) est un point xe de Φ. Il sut pour le
voir d’intégrer l’équation diérentielle. Réciproquement, si y est point xe
de Φ, alors y est C 1 puisque y(t) = Φ(y)(t) et f est continue ;on peut donc
dériver y(t) = Φ(y)(t) et on retrouve l’équation diérentielle.
2. Si x et y sont deux éléments quelconques de E, on a
∫ t ∫ t
‖Φ(x)(t) − Φ(y)(t)‖ ≤ ‖f (x(s)) − f (y(s))‖ds ≤ L ‖x(s) − y(s)‖ds,
t0 t0
la dernière inégalité résultant du théorème des accroissements nis, d’où
‖Φ(x) − Φ(y)‖C 0 ≤ L(t1 − t0 )‖x − y‖C 0
Ceci prouve que Φ est lipschitzienne (et donc continue).
40
1.6 Exercices corrigés
3. L’inégalité est vraie pour p = 1 d’après ce qui précède. Supposons-la
vériée pour p quelconque supérieur ou égal à 1. On a alors
∫ t
‖Φp+1 (x)(t) − Φp+1 (y)(t)‖ ≤ ‖f (Φp (x)(s)) − f (Φp (y)(s))‖ds
t0
∫ t
≤L ‖Φp (x)(s) − Φp (y)(s)‖ds
t
∫ 0t p
p (t − t0 )
≤L L ‖x − y‖C 0
t0 p!
Le résultat s’en déduit en calculant l’intégrale.
4. On en déduit que pour p assez grand Φp est contractante. Or E est un
espace de Banach (voir section 1.5), donc complet. D’après le théorème A.1
du point xe, la fonction Φp admet alors un unique point xe dans E. Mais il
n’est pas dicile de voir que les points xes de Φ sont les point xes de Φ p :
en eet si y est point xe de Φ on a évidemment Φp (y) = y ;réciproquement,
si Φp (y) = y, alors
Φp Φ(y) = Φp+1 (y) = Φ Φp (y) = Φ(y),
et donc Φ(y) et y sont points xes de Φp , qui n’en admet qu’un seul : ils sont
donc égaux. Ainsi Φ admet un unique point xe y dans E, c’est-à-dire que
(P) a une et une seule solution.
41
2
Équations diérentielles linéaires autonomes
Nous abordons dans ce chapitre l’étude des équations diérentielles les plus
simples, les équations linéaires autonomes – aussi appelées équations linéaires
à coecients constants – c’est-à-dire les équations de la forme
x′ (t) = Ax(t) (2.1)
Précisons les notations. La donnée A Mn (K) est une matrice carrée (n ×
n) à coecients dans K, où K = R ou C. L’inconnue est une application
dérivable x(·) : R → Kn . Résoudre l’équation (2.1) signie trouver une
application x(·) telle que, pour tout t R, la dérivée x′ (t) = dx
dt
(t) vérie
′
x (t) = Ax(t).
Cette équation est dite autonome parce que la donnée A Mn (K) ne
dépend pas du temps. Le cas plus général où la donnée est une fonction A(t)
du temps sera traité dans le chapitre 3.
2.1 Approche élémentaire
Commençons par un cas connu, celui d’une équation scalaire
x′ (t) = x(t),
où est un réel et x une fonction de R dans R. Une solution x(·) de cette
équation décrit l’évolution en fonction du temps d’une quantité dont le taux
de variation est constant.
Rappelons (cela résulte également du théorème 2.1) que la seule solution
de cette équation valant x0 à l’instant t0 est
x(t) = x0 eα(t−t0 )
2 Équations diérentielles linéaires autonomes
Cette expression nous fournit toutes les informations que l’on peut souhaiter
sur l’équation diérentielle. Par exemple le comportement asymptotique de
x(t) quand t → +∞ est caractérisé par le signe de :
• si < 0, limt→+∞ x(t) = 0,
• si = 0, x(t) est constant,
+∞ si x(t0 ) 6= 0,
• si > 0, limt→+∞ x(t) =
0 si x(t0 ) = 0
Considérons maintenant un système de deux équations diérentielles,
′
x1 = 1 x1 ,
x′2 = 2 x2
C’est un système très simple puisque les fonctions x1 (t) et x2 (t) sont décou-
plées. La solution de ce système est bien évidemment
x1 (t) = x1 (t0 )eα1 (t−t0 ) , x2 (t) = x2 (t0 )eα2 (t−t0 )
Comme dans le cas scalaire, on a une connaissance complète du comporte-
ment des solutions. Par exemple, si 1 et 2 sont strictement négatifs,
toute solution (x1 (t), x2 (t)) du système d’équations tend vers l’origine quand
t → +∞ ;si 1 > 0 et x1 (t0 ) 6= 0, la norme de (x1 (t), x2 (t)) tend vers l’inni
quand t → +∞, etc.
Adoptons maintenant une écriture matricielle. En posant x = (x 1 , x2 ), le
système de deux équations ci-dessus apparaît comme le cas particulier n = 2
de l’équation diérentielle dans Rn suivante :
1 · · · 0
x′ (t) = ∆x(t), où ∆ = ... . . . ... est diagonale
(2.2)
0 · · · n
Cette équation étant en fait un système de n équations scalaires découplées,
la solution est donnée par
x1 (t0 )eα1 (t−t0 ) eα1 (t−t0 ) · · · 0
.. .. .. ..
x(t) = . = . . . x(t0 ),
xn (t0 )eαn (t−t0 ) 0 · · · eαn (t−t0 )
avec x = (x1 , , xn ). Nous verrons dans la section suivante que la matrice
diagonale ci-dessus est l’exponentielle de la matrice ∆ et nous la noterons
donc e(t−t0 )∆ .
44
2 Équations diérentielles linéaires autonomes
exp : Mn (K) −→ Mn (K)
∞
∑
A Ak
A 7−→ exp A = e =
k=0
k!
∞ Ak
Notons que la série k=0 k! converge normalement. En eet,
∞
∑ ∞
∑
‖Ak ‖ ‖A‖k
≤ = e‖A‖ < ∞,
k=0
k! k=0
k!
où on a choisi pour ‖ · ‖ une norme multiplicative sur Mn (K) (par exemple
une norme matricielle). L’application exponentielle est donc continue (elle
est en fait C ∞ ). Rappelons sans démonstration ses propriétés principales.
Proposition 2.1.
1. Pour A Mn (K), l’application t 7→ etA est dérivable et
d tA
e = AetA = etA A
dt
2. Soient A et B Mn (K). On a
exp(A + B) = exp(A) exp(B)
si et seulement si A et B commutent, i.e. AB = BA.
3. Pour tout A Mn (K), exp(A) est inversible et exp(A)−1 = exp(−A).
−1
4. Si P GLn (K), alors P eA P −1 = eP AP .
5. Si ∆ est une matrice diagonale d’éléments diagonaux λ 1 , , λn , alors
e∆ est diagonale d’éléments diagonaux e λ1 , , eλn .
Nous pouvons maintenant résoudre l’équation (2.1).
Théorème 2.1. Soient t0 R et x0 Kn . L’unique solution de l’équation
x′ (t) = Ax(t) valant x0 en t0 est l’application x(·) dénie par
x(t) = e(t−t0 )A x0 , ∀t R
Démonstration. La première propriété de la proposition précédente implique
( )
d (t−t0 )A d (t−t0 )A
e x0 = e x0 = Ae(t−t0 )A x0
dt dt
La fonction x(t) = e(t−t0 )A x0 est donc solution de x′ (t) = Ax(t), et x(t0 ) = x0 puisque e0A = I.
Pour montrer l’unicité de la solution, considérons une autre solution y(t) valant x 0 en t0 et
formons le produit z(t) = e−(t−t0 )A y(t). En utilisant encore la proposition 2.1, on obtient
z ′ (t) = −Ae−(t−t0 )A y(t) + e−(t−t0 )A y ′ (t) = −Ae−(t−t0 )A y(t) + e−(t−t0 )A Ay(t) = 0,
car A et etA commutent. Donc z(t) est une constante, et puisque z(t0 ) = x0 , on obtient y(t) =
e(t−t0 )A z(t0 ) = e(t−t0 )A x0 . u
t
46
2.3 Calcul de l’exponentielle de matrices
Ainsi, la résolution d’une équation linéaire autonome se ramène au calcul
d’une exponentielle de matrices. Remarquons en particulier que les deux
derniers points de la proposition 2.1 permettent de retrouver le résultat de
la section 2.1 : si A est diagonalisable dans K, c’est-à-dire
A = P ∆P −1 , P GLn (K), ∆ Mn (K) diagonale,
alors on a etA = P et∆ P −1 et la solution de l’équation (2.1) est
x(t) = P e(t−t0 )∆ P −1 x(t0 )
Malheureusement toutes les matrices ne sont pas diagonalisables. La
théorie de la réduction des endomorphismes permet cependant de mener
à bien le calcul.
2.3 Calcul de l’exponentielle de matrices
Le but de cette section est de calculer l’exponentielle d’une matrice A
Mn (C) à un changement de base près, c’est-à-dire de calculer P −1 etA P pour
un P GLn (C) bien choisi.
Cette section repose sur des résultats standards d’algèbre linéaire que
nous rappellerons sans en donner la démonstration (on les trouvera dans les
cours de classes préparatoires ou de licence 2ème année).
Rappels d’algèbre linéaire
Polynôme caractéristique.
Considérons une matrice A Mn (C) et notons λ1 , , λr ses valeurs propres.
Rappelons que ce sont les seuls nombres complexes pour lesquels l’équation
Av = λi v
admet une solution v Cn non nulle (les vi correspondants s’appellent
des vecteurs propres). Les valeurs propres s’obtiennent également comme
les racines du polynôme caractéristique de A : PA (λ) = det(λI − A). Ce
polynôme est donc de la forme
PA (λ) = (λ − λ1 )p1 · · · (λ − λr )pr ,
où chaque entier pi est strictement positif et p1 + · · · + pr = n (le polynôme
caractéristique étant de degré n). On appelle pi la multiplicité algébrique de
la valeur propre λi .
Une propriété importante du polynôme caractéristique est la suivante.
47
2 Équations diérentielles linéaires autonomes
Théorème 2.2 (Cayley–Hamilton). Toute matrice annule son polynôme
caractéristique :
PA (A) = (A − λ1 I)p1 · · · (A − λr I)pr = 0
Une des conséquences de ce résultat est que, le polynôme caractéristique
étant un polynôme unitaire de degré n, An s’écrit comme une combinaison
linéaire de I, A, , An−1 .
Sous-espaces propres, sous-espaces caractéristiques.
À chaque valeur propre de A sont associés deux sous-espaces vectoriels de
Cn . Le premier est le sous-espace propre,
Πi ou Πλi = kerC (A − λi I)
C’est l’ensemble des vecteurs propres associés à λi . L’entier ei = dim Πi est
appelé la multiplicité géométrique de la valeur propre λ i .
Le deuxième est le sous-espace caractéristique,
Γi ou Γλi = kerC (A − λi I)pi
Il est clair que Πi ⊂ Γi , mais ces deux espaces peuvent être diérents. Le
rôle des espaces caractéristiques est précisé dans le résultat suivant.
Théorème 2.3 (de décomposition des noyaux). L’espace Cn se décom-
pose en somme directe des sous-espaces caractéristiques,
Cn = Γ 1 ⊕ · · · ⊕ Γ r
On a de plus les propriétés suivantes :
1. dim Γi = pi ;
2. chacun des espaces Γi est invariant par A : x Γi ⇒ Ax Γi ;
3. la restriction AΓi de A à Γi s’écrit :
AΓi = λi IΓi + N i ,
où IΓi désigne l’identité de Γi et N i End(Γi ) est nilpotent d’ordre ≤ pi ,
pi
i.e. N i = 0.
Ce résultat appelle un certain nombre de commentaires.
48
2.3 Calcul de l’exponentielle de matrices
• Rappelons que End(Γi ) désigne l’ensemble des endomorphismes de Γi ,
c’est-à-dire des applications linéaires de Γi dans lui-même. Dire que Γi
est invariant par A est équivalent à dire que AΓi appartient à End(Γi ).
• L’opérateur N i est déni comme N i = (A − λi I)Γi . Le fait que N i soit
nilpotent d’ordre ≤ pi n’est donc rien d’autre que la dénition de Γi . Il
est en revanche possible que l’ordre exact de nilpotence de N i , c’est-à-
mi
dire le plus petit entier mi ≤ pi tel que N i = 0, soit plus petit que pi .
Cet entier mi est déni par
ker(A − λi I)mi −1 ker(A − λi I)mi = ker(A − λi I)pi
• Une matrice est diagonalisable (dans C) si il existe une base de C n formée
de vecteurs propres, ce qui équivaut à
Cn = Π 1 ⊕ · · · ⊕ Πr
D’après le théorème de décomposition des noyaux, ceci n’est possible que
si Πi = Γi pour tout i. Autrement dit, A est diagonalisable si et seulement
si une des conditions suivantes (toutes équivalentes) est satisfaite:
– pour toute valeur propre les multiplicités algébrique et géométrique
coïncident, i.e. dim Πi = pi pour i = 1, , r ;
– tous les opérateurs N i sont nuls, i.e. N i = 0 pour i = 1, , r ;
– les ordres de nilpotence mi sont tous égaux à 1.
Un cas important où ces conditions sont satisfaites est le cas où tous les
pi sont égaux à 1. Autrement dit, une matrice dont toutes les valeurs
propres sont simples est diagonalisable dans C.
Réduction de Jordan–Chevalley dans Cn .
Choisissons une base B de Cn formée de la réunion d’une base de Γ1 , d’une
base de Γ2 , . . . , d’une base de Γr , et notons P la matrice de passage de cette
base à la base canonique. D’après le théorème de décomposition des noyaux,
la matrice P −1 AP qui représente l’application linéaire associée à A dans la
base B est diagonale par blocs, chaque bloc représentant AΓi . On obtient
ainsi la réduction suivante.
Théorème 2.4. Pour toute matrice A Mn (C), il existe P GLn (C) telle
que P −1 AP est une matrice diagonale par bloc
J1
P −1 AP = . . . , (2.3)
Jr
49
2 Équations diérentielles linéaires autonomes
chaque bloc Ji étant une matrice (pi × pi ) de la forme
Ji = λi Ipi + Ni ,
où Ipi est la matrice identité (pi × pi ) et Ni est nilpotent d’ordre mi ≤ pi .
Une conséquence directe de ce théorème est que la matrice A admet une
décomposition
A = D + N, (2.4)
où D est diagonalisable, N est nilpotente, et D et N commutent (i.e. DN =
N D). Cette décomposition est dite de Jordan–Chevalley (ou de Dunford
ou encore D + N ) et la matrice J = P −1 AP est appelée forme réduite de
Jordan–Chevalley. Notons qu’il est également possible de choisir la base B
de façon à mettre les matrices nilpotentes Ni sous une forme relativement
simple, ce qui aboutit à la réduction de Jordan (voir par exemple [2]).
Remarque 2.1.
• Rappelons que mi = 1 si et seulement si les multiplicités algébrique et
géométrique de λi coïncident (i.e. dim kerC (A − λi I) = pi ). Dans ce cas
la matrice Ni est nulle et Ji est diagonale, Ji = λi Ipi .
• D’après la remarque précédente, si pour chaque valeur propre les multi-
plicités algébrique et géométrique coïncident, la forme réduite de Jordan–
Chevalley est diagonale. Ainsi cette réduction généralise la diagonalisa-
tion. Insistons cependant sur le fait que toute matrice de Mn (C) admet
une réduction de Jordan–Chevalley, alors que toute matrice n’est pas
diagonalisable.
Calcul de l’exponentielle.
Le théorème 2.4 permet de calculer etA à conjugaison près. En eet, com-
mençons par le calcul de l’exponentielle d’un bloc Ji = λi I + Ni . Comme λi I
et Ni commutent, on obtient, d’après la proposition 2.1,
etJi = etλi I etNi = etλi etNi
De plus, Ni étant nilpotente d’ordre mi , on a
∞
∑ m
∑ i −1
tNi (tNi )l (tNi )l
e = =
l=0
l! l=0
l!
50
2.4 Forme des solutions
D’autre part, d’après les propriétés de l’exponentielle de matrice (propo-
−1
sition 2.1), on a etA = etP JP = P etJ P −1 , ce qui donne nalement pour
l’exponentielle de tA :
etJ1 m
∑ i −1
... −1 (tNi )l
e tA
=P P , avec e tJi
=e tλi
(2.5)
tJr
l!
e l=0
2.4 Forme des solutions
Forme des solutions dans Cn
Grâce au calcul de l’exponentielle que nous venons d’eectuer, nous sommes
maintenant en mesure de préciser le théorème 2.1. Donnons d’abord la forme
de la solution générale dans Cn .
Théorème 2.5. Soit A Mn (C). Toute solution de x′ (t) = Ax(t) dans Cn
s’écrit sous la forme
∑ ∑
x(t) = etλi tk vi,k , où vi,k Γi (2.6)
1≤i≤r 0≤k≤mi −1
Démonstration. Toute solution de x′ (t) = Ax(t) s’écrit x(t) = etA x(0), le théorème résulte
donc directement de l’expression (2.5) de etA .
On peut aussi l’obtenir simplement à partir du théorème 2.3 de décomposition des noyaux. En
eet, dans la décomposition Cn = Γ1 ⊕· · ·⊕Γr , si le vecteur x(0) s’écrit comme x(0) = x10 +· · ·+xr0 ,
alors x(t) = x1 (t) + · · · + xr (t), où xi (·) est la solution de x′ = Ax telle que xi (0) = xi0 . Or les
sous-espaces Γi sont invariants par A, donc par etA , et AΓi = λi IΓi + N i . Pour i = 1, , r, on
a donc :
xi (t) = etA|Γi xi0 = etλi IΓi +tN i xi0 = etλi etN i xi0 ,
i −1 (tN i )k
d’après la proposition 2.1, puisque λi IΓi et N i commutent. D’autre part etN i = m k=0 k!
où mi est l’ordre de nilpotence de N i . On obtient ainsi
mi −1 k
∑ N i xi0
xi (t) = etλi tk ,
k!
k=0
c’est-à-dire l’expression cherchée en posant
1 k i
vi,k = N i x0
k!
t
u
51
2 Équations diérentielles linéaires autonomes
Remarque 2.2.
• Le terme en facteur de etλi est polynômial en t quand mi > 1, et constant
quand mi = 1. Rappelons que ce dernier cas a lieu si et seulement si les
multiplicités algébrique et géométrique de λi coïncident.
• Il est également important de noter la dépendance de x(t) par rapport
à la condition initiale x(0) dans l’expression (2.6). Si x(0) s’écrit comme
x(0) = x10 + · · · + xr0 dans la décomposition Cn = Γ1 ⊕ · · · ⊕ Γr , alors
1 k i
vi,k = N x0 , (2.7)
k!
où N est la matrice nilpotente de la décomposition (2.4) A = D + N . En
particulier, xi0 = 0 si et seulement si tous les vecteurs vi,k sont nuls.
Forme des solutions dans Rn
Considérons maintenant une matrice A Mn (R), à coecients réels. On
peut bien entendu considérer A comme une matrice de Mn (C). Tout ce que
nous venons de voir pour les matrices à coecients complexes s’applique
donc.
Désignons les valeurs propres réelles de A par λ1 , , λs , et ses valeurs
propres non réelles par λs+1 , λ̄s+1 , , λq , λ̄q (avec 2q − s = r). Le polynôme
caractéristique de A est donc le polynôme à coecients réels,
s q
∏ ∏
pj
PA (λ) = (λ − λj ) [(λ − λj )(λ − λ̄j )]pj
j=1 j=s+1
Les sous-espaces vectoriels Γλj = kerC (A − λj I)pj de Cn sont maintenant
appelés les sous-espaces caractéristiques complexes.
Remarque 2.3. Rappelons les liens qui existent entre les sous-espaces vec-
toriels de Cn , qui sont des C-espaces vectoriels, et ceux de Rn , qui sont
des R-espaces vectoriels. On considère Rn comme un sous-ensemble de Cn
et, pour un sous-espace vectoriel Γ de Cn , on note Γ ∩ Rn l’ensemble des
vecteurs v Γ dont toutes les coordonnées sont réelles. Il est facile de véri-
er qu’un tel ensemble Γ ∩ Rn est un sous-espace vectoriel de Rn . De plus,
si Γ est stable par conjugaison (i.e. v Γ ⇒ v̄ Γ ), alors Γ et Γ ∩ Rn ont
même dimension en tant que sous-espaces respectivement de Cn et de Rn .
En fait, dans ce cas, Γ est l’ensemble des combinaisons linéaires à coecients
complexes des éléments de Γ ∩ Rn ;en conséquence, toute base du R-espace
vectoriel Γ ∩ Rn est également une base du C-espace vectoriel Γ .
52
2.4 Forme des solutions
Dénissons maintenant les sous-espaces caractéristiques réels de A comme
les sous-espaces vectoriels de Rn :
E j = Γ λ j ∩ Rn , 1≤j≤s
Ej = (Γλj ⊕ Γλ̄j ) ∩ Rn , s + 1 ≤ j ≤ q
Remarquons alors que (A − λj I)pj v = 0 implique (A − λ̄j I)pj v̄ = 0, ce qui
signie que les sous-espaces Γλj pour λj réel et Γλj ⊕ Γλ̄j pour λj non réel
sont stables par conjugaison. D’après la remarque précédente et le théorème
de décomposition des noyaux dans Cn , on a la décomposition
Rn = E 1 ⊕ · · · ⊕ E q ,
chaque sous-espace Ej étant invariant par A.
Considérons maintenant une solution x(·) dans Rn de x′ = Ax, dont
la condition initiale est x(0) Rn . De même qu’on a considéré A comme
une matrice à coecients complexes , on peut considérer également x(·) =
x(·) + i 0 comme la solution dans Cn de x′ = Ax ayant pour condition
initiale x(0) + i 0. L’expression de x(·) est donc donnée par la formule (2.6).
Puisque cette solution est réelle, elle est en fait égale à la partie réelle de
la formule (2.6), la partie imaginaire devant être nulle. On obtient ainsi la
forme générale suivante pour les solutions de x′ = Ax dans Rn .
Théorème 2.6. Soit A Mn (R). Toute solution de x′ (t) = Ax(t) dans Rn
s’écrit sous la forme
∑ ∑
x(t) = etαj tk cos(j t) aj,k + sin(j t) bj,k , (2.8)
1≤j≤q 0≤k≤mj −1
où j = <e(λj ), j = =m(λj ) et les vecteurs aj,k , bj,k appartiennent à Ej .
Comme dans le théorème 2.5, les vecteurs aj,k , bj,k dépendent uniquement
de la condition initiale x(0). Si x(0) s’écrit comme x(0) = x10 + · · · + xq0 dans
Rn = E1 ⊕ · · · ⊕ Eq , alors xj0 = 0 si et seulement si tous les vecteurs aj,k et
bj,k sont nuls. En fait, puisque chaque sous-espace Ej est invariant par A, il
est aussi invariant par etA et le fait que toute solution s’écrive x(t) = etA x(0)
implique la décomposition suivante des solutions.
Proposition 2.2. Soient A Mn (R) et x(·) une solution de x′ (t) = Ax(t)
dans Rn . Si la décomposition de x(0) dans Rn = E1 ⊕ · · · ⊕ Eq est x(0) =
x10 + · · · + xq0 , alors, pour tout t R, la décomposition de x(t) est
53
2 Équations diérentielles linéaires autonomes
x(t) = x1 (t) + · · · + xq (t),
où xj (·) est la solution de x′ (t) = Ax(t) telle que xj (0) = xj0 , qui s’écrit
∑
j
x (t) = e tαj k
t cos(j t) aj,k + sin(j t) bj,k (2.9)
0≤k≤mj −1
Notons que, pour j 1, , q xé, la composante xj (·) est identiquement
nulle si et seulement xj0 = 0. Autrement dit aj,k = bj,k = 0, k = 0, , mj −1,
est équivalent à xj0 = 0.
2.5 Comportement asymptotique des solutions
Les théorèmes 2.5 et 2.6 donnent toutes les informations que l’on peut
souhaiter sur l’équation diérentielle, généralisant les résultats de la sec-
tion 2.1 sur les équations scalaires et les systèmes d’équations découplées.
On constate en particulier que le comportement quand t tend vers l’inni
des solutions x(t) de x′ (t) = Ax(t) dépend essentiellement des signes des
parties réelles des valeurs propres λj de A. Plus précisément, on peut dé-
composer le comportement des composantes de x(t) sur chaque sous-espace
caractéristique (on suppose ici A réelle) :
• si <e(λj ) < 0 la projection sur Ej de x(t) tend vers 0 quand t → +∞ et
sa norme croît de façon au moins exponentielle en −∞ ;
• si <e(λj ) > 0, c’est l’inverse, la norme de la projection sur Ej de x(t)
croît de façon au moins exponentielle quand t → +∞ et tend vers 0
quand t → −∞ ;
• si <e(λj ) = 0, la composante sur Ej de x(t) croît de façon polynomiale
en ±∞ quand dim Πj < pj , et est bornée pour t R quand dim Πj =
pj ;dans les deux cas elle ne tend pas vers 0 quand t → ±∞.
Il est commode de regrouper les sous-espaces caractéristiques en fonc-
tion du signe de la partie réelle des valeurs propres correspondantes. Nous
dénissons ainsi, pour A Mn (R), les sous-espaces vectoriels suivant de Rn :
⊕ ⊕
– l’espace stable : Es = Γ j ∩ Rn = Ej ,
<e(λj )<0 <e(λj )<0
⊕ ⊕
– l’espace instable1 : Eu = Γ j ∩ Rn = Ej ,
<e(λj )>0 <e(λj )>0
⊕ ⊕
– l’espace indiérent2 : Ec = Γ j ∩ Rn = Ej
<e(λj )=0 <e(λj )=0
54
2.5 Comportement asymptotique des solutions
La somme de ces espaces est Rn tout entier : Rn = E s ⊕ E u ⊕ E c .
D’après le théorème de décomposition des noyaux, ces espaces ont la
particularité d’être invariants par etA pour tout t R : etA E s ⊂ E s , etA E u ⊂
E u , etc. . . Ce qui entraîne que, si une solution x(·) de x′ (t) = Ax(t) vérie
par exemple x(0) E s , alors x(t) E s pour tout t ;si x(0) E c , alors
x(t) E c pour tout t, etc.
Les espaces stable, instable et indiérent correspondent chacun à un cer-
tain type de comportement asymptotique des solutions. Nous résumons ces
comportements dans le théorème suivant.
Théorème 2.7. Soit A une matrice (n × n) réelle. Pour v Rn , on note
xv (·) la solution dans Rn de l’équation diérentielle x′ (t) = Ax(t) telle que
xv (0) = v. Alors
• E s est l’ensemble des v Rn pour lesquels
lim ‖xv (t)‖ = 0 ;
t→+∞
• E u est l’ensemble des v Rn pour lesquels
lim ‖xv (t)‖ = 0 ;
t→−∞
• E c est l’ensemble des v Rn pour lesquels il existe une constante C > 0
telle que, pour t susamment grand,
‖xv (t)‖ ≤ C tn ‖v‖
Remarque 2.4. La même caractérisation existe pour les solutions dans C n en
remplaçant partout où il le faut les espaces caractéristiques réels E j par les
espaces caractéristiques complexes Γj .
Démonstration. Utilisons la proposition 2.2. Soit v = v 1 + · · · + v q la décomposition de v
dans Rn = E1 ⊕ · · · ⊕ Eq ;alors la décomposition de xv (t) est xv (t) = x1 (t) + · · · + xq (t), où pour
j = 1, , q, xj (·) = xvj (·) est la solution telle que xj (0) = v j . De plus
( ∑ )
j tαj k
x (t) = e t cos(βj t) aj,k + sin(βj t) bj,k ,
0≤k≤mj −1
où αj est la partie réelle de la valeur propre λj .
B Si v E s , alors les seules composantes xj (·) non identiquement nulle sont celles qui corre-
spondent à des αj < 0, et elles convergent donc vers 0 quand t → +∞, ce qui implique que xv (t)
tend vers 0 aussi. Inversement, si on suppose que xv (t) → 0 en +∞, alors toutes ses composantes
doivent tendre vers 0 ou être identiquement nulles. Or seules les composantes x j (·) associées à
des αj < 0 vérient cette propriété, ce qui implique que v E s . Ceci montre le premier point.
Le deuxième se montre de façon identique en regardant cette fois le comportement en −∞.
55
2 Équations diérentielles linéaires autonomes
B Pour le troisième point, supposons d’abord que v est tel que ‖xv (t)‖ ≤ Ctn ‖v‖. L’inégalité
doit être vériée par chacune des composantes xj (·), ce qui implique qu’aucune d’entre elles
n’a une croissance exponentielle quand t → ±∞, et donc que les seules composantes non nulles
correspondent à des αj = 0. Ainsi v E c .
B Inversement, supposons v E c . On va considérer A et v comme une matrice et un vecteur
à coecients complexes et utiliser le deuxième point de la remarque 2.2. Dans la décomposition
Cn = Γ1 ⊕ · · · ⊕ Γr , v s’écrit comme v = v 1 + · · · + v r où les seules composantes v j non nulles
sont celles correspondant à une valeur propre λj = iβj de partie réelle nulle. En utilisant le
théorème 2.5 et l’équation (2.7), xv (t) s’écrit sous la forme
r
∑ ( m∑
j −1 )
itβj tk k j
xv (t) = e N v ,
j=1
k!
k=0
et donc, en choisissant une norme sur Cn telle que ‖v j ‖ ≤ ‖v‖, on obtient pour tout t > 1,
∑r m∑j −1 (∑r n−1
∑ 1 )
tk k j
‖xv (t)‖ ≤ ‖N v ‖ ≤ ‖N ‖ tn ‖v‖,
k
j=1
k! j=1
k!
k=0 k=0
puisque les entiers mj sont tous inférieurs ou égaux à n. Ceci conclut la preuve t
u
Cette caractérisation s’accompagne des estimations suivantes, que l’on
déduit aisément de la preuve ci-dessus.
Proposition 2.3. Pour 0 < < min<e(λj )6=0 <e(λj ), il existe une con-
stante C > 0 telle que :
• si x(0) E s , alors, pour tout t > 0 assez grand,
‖x(t)‖ ≤ Ce−αt ‖x(0)‖, ‖x(−t)‖ ≥ C −1 eαt ‖x(0)‖ ;
• si x(0) E u , alors, pour tout t > 0 assez grand,
‖x(t)‖ ≥ C −1 eαt ‖x(0)‖, ‖x(−t)‖ ≤ Ce−αt ‖x(0)‖
Si en outre AE c est diagonalisable, il existe une constante C > 0 telle que,
pour tout x(0) E c et tout t R,
C −1 ‖x(0)‖ ≤ ‖x(t)‖ ≤ C‖x(0)‖
Remarque 2.5. Notons que AE c est diagonalisable si et seulement si, pour
toute valeur propre λj de partie réelle nulle, les multiplicités algébrique et
géométrique coïncident, i.e. dim kerC (A − λj I) = pj .
Ce théorème est fondamental puisqu’il permet de faire le lien entre des
espaces dénis de façon purement algébrique (les E s , E u , etc), donc calcula-
bles, et des ensembles de points ayant des propriétés dynamiques données.
56
2.5 Comportement asymptotique des solutions
Pour obtenir le comportement asymptotique d’une solution particulière x(·),
il sut donc de décomposer sa condition initiale x(0) en x(0) = xs0 + xu0 + xc0
dans Rn = E s ⊕ E u ⊕ E c . On sait alors que la décomposition de x(t) est
x(t) = xs (t) + xu (t) + xc (t), où xs (·) (resp. xu (·), xc (·)) est la solution de
x′ (t) = Ax(t) ayant xs0 (resp. xu0 , xc0 ) pour condition initiale. En particulier,
si on s’intéresse aux temps positifs, on a les critères suivants :
• si xu0 6= 0, alors ‖x(t)‖ tend vers l’inni quand t → +∞ ;
• si xc0 6= 0, alors ‖x(t)‖ ne tend pas vers 0 quand t → ±∞ (mais ‖x(t)‖
ne tend pas forcément vers l’inni).
Corollaire 2.1. Toutes les solutions de x′ (t) = Ax(t) tendent vers 0 quand
t → +∞ si et seulement si toutes les valeurs propres de A ont une partie
réelle strictement négative (c’est-à-dire E s = Rn ).
Quand c’est le cas, on dit que 0 est un équilibre asymptotiquement stable
de l’équation. Nous reviendrons sur les notions d’équilibre et de stabilité
dans le chapitre 5.
Corollaire 2.2. Toutes les solutions de x′ (t) = Ax(t) sont bornées pour
t ≥ 0 si et seulement si toutes les valeurs propres de A ont une partie réelle
négative (c’est-à-dire E u = 0) et AE c est diagonalisable.
Remarque 2.6. Pour une équation diérentielle x′ = Ax dans R2 , le signe
des parties réelles des valeurs propres se déduit directement des signes du
déterminant et de la trace de A. En eet, det A est le produit des valeurs
propres et tr A est la somme de leurs parties réelles. Ainsi, en notant λ 1 et
λ2 les valeurs propres de A :
• si det A < 0, λ1 et λ2 sont réelles et de signe opposé (elles ne peuvent
être complexes, car dans ce cas det A = λ1 2 ) ;
• si det A > 0, λ1 et λ2 sont soit réelles et de même signe, soit complexes
conjuguées ;dans les deux cas, les parties réelles de λ1 et λ2 sont de même
signe, qui est celui de tr A ;notons que, si tr A = 0, λ1 et λ2 sont forcément
complexes conjuguées de partie réelle nulle ;
• si det A = 0, une des valeurs propres est nulle, l’autre étant égale à tr A.
On peut donc obtenir directement les dimensions des espaces stables, insta-
bles et indiérents en fonction des signes de la trace et du déterminant de
A (voir l’exercice 2.2).
57
2 Équations diérentielles linéaires autonomes
*Pour en savoir plus...
Nous dirons qu’une matrice A Mn (R) est hyperbolique si elle n’a aucune
valeur propre de partie réelle nulle. Pour une telle matrice, on a E c = 0,
c’est-à-dire que Rn = E s ⊕ E u .
La classe des matrices hyperboliques est d’un intérêt particulier puisqu’elle
est stable par perturbation.
Théorème 2.8. Si A est une matrice hyperbolique, il existe un réel > 0
(dépendant de A) tel que pour toute matrice F vériant
‖F ‖ ≤ ,
la matrice A + F est encore hyperbolique. L’ensemble des matrices hyper-
boliques est donc ouvert dans Mn (R).
En outre, les espaces stable et instable dépendent continûment de F (pour
‖F ‖ ≤ ).
Démonstration. Le fait que si F est assez petite A+F est hyperbolique résulte de la continuité
des valeurs propres des matrices : les valeurs propres de A + F sont d’autant plus proches de
celles de A que F est petite ;or celles-ci sont dans l’ouvert C − <e = 0. Il en est donc de même
de celles de F si elle est assez petite. t
u
Remarque 2.7. Alors que la dépendance des espaces caractéristiques de A+F
n’est pas continue en général par rapport à F , celle des espaces stable et
instable l’est.
Cas d’une matrice diagonalisable dans C (ou semi-simple).
Considérons le cas particulier d’une matrice A Mn (R) diagonalisable dans
C (on dit aussi semi-simple). Comme nous l’avons vu dans la section 2.3,
ceci signie que A satisfait les conditions suivantes, qui sont équivalentes
entre elles (nous utilisons les notations de la section 2.3) :
• il existe une base de Cn formée de vecteurs propres de A ;
• Cn = Π1 ⊕ · · · ⊕ Πr , où Πj = kerC (A − λj I) ⊂ Cn est le sous-espace
propre associé à λj et λ1 , , λr sont les valeurs propres (complexes) de
A;
• pour toute valeur propre λj , le sous-espace caractéristique (complexe) est
égal au sous-espace propre : Γj = Πj ;
• pour toute valeur propre, les multiplicités géométrique et algébrique coïn-
cident : dim Πj = pj pour j = 1, , r ;
58
2.5 Comportement asymptotique des solutions
• dans la forme réduite de Jordan–Chevalley de la matrice A, chaque bloc
Jj est diagonal, Jj = λj I.
Ce cas est en pratique très important, puisque l’ensemble des matrices
de Mn (R) diagonalisables dans C contient un ensemble ouvert et dense
dans Mn (R). Autrement dit, être diagonalisable dans C est une propriété
générique sur Mn (R) (voir la discussion de ce point dans [2, chap. 7]).
Considérons donc une telle matrice A. La forme générale des solutions de
x = Ax donnée par le théorème 2.6 se simplie : tous les termes polynômiaux
′
en t disparaissent, seuls restent les termes exponentiels et trigonométriques.
Corollaire 2.3. Soit A Mn (R) une matrice diagonalisable dans C. Toute
solution de x′ (t) = Ax(t) dans Rn s’écrit sous la forme
∑
x(t) = etαj cos(j t) aj + sin(j t) bj ,
1≤j≤q
où j = <e(λj ), j = =m(λj ) et les vecteurs aj et bj Rn sont tels que
aj + ibj est un vecteur propre de A associé à λj (i.e. aj + ibj Πj ).
Les sous-espaces stables, instables et indiérents s’écrivent maintenant
en fonction des sous-espaces propres (puisque ceux-ci sont égaux aux sous-
espaces caractéristiques complexes) :
⊕ ⊕ ⊕
Es = Πj ∩Rn , E u = Πj ∩Rn , E c = Πj ∩Rn
<e(λj )<0 <e(λj )>0 <e(λj )=0
La caractérisation dynamique de ces espaces résulte du théorème 2.7.
Corollaire 2.4. Soit A Mn (R) une matrice diagonalisable dans C. Notons
x(·) les solutions dans Rn de l’équation diérentielle x′ (t) = Ax(t). Alors
• E s est l’ensemble des conditions initiales x(0) R n correspondant à des
solutions x(t) qui tendent exponentiellement vers 0 quand t → +∞ ;
• E u est l’ensemble des conditions initiales x(0) R n correspondant à des
solutions x(t) qui tendent exponentiellement vers 0 quand t → −∞ ;
• E c est l’ensemble des conditions initiales x(0) R n correspondant à des
solutions x(t) bornées sur tout R.
La seule diérence par rapport au cas général concerne l’espace E c : alors
que dans le cas général le comportement asymptotique des solutions dans
E c était indéterminé (d’où le nom d’espace « indiérent »), on sait ici que
toutes les solutions dans E c sont bornées.
59
2 Équations diérentielles linéaires autonomes
2.6 Exercices corrigés
Exercice 2.1. L’écart à l’équilibre x (t) d’un chariot de masse m attaché à
un ressort de raideur k > 0 satisfait
mx′′ + λx′ + kx = 0, (2.10)
où λ > 0 modélise les frottements. On posera pour simplier = λ
2m
et
k
ω02 = m .
1. Écrire l’équation diérentielle (210) sous la forme d’une équation diéren-
tielle X ′ = AX dans R2 .
2. Déterminer, en fonction de et ω02 , les valeurs propres de la matrice A.
Dans quels cas A est-elle diagonalisable?
3. Calculer une forme réduite de etA (c’est-à-dire P etA P −1 pour une matrice
de changement de base P ), puis donner sur un dessin l’allure des solutions de
X ′ = AX en tant que courbes paramétrées de R2 (i.e. le portrait de phase,
voir section 4.3) dans chacun des cas suivants :
(a) frottements importants, i.e. 2 > ω02 ;on montrera que les courbes X(t)
solutions de l’équation diérentielle présentent alors une asymptote pour
t → ∞;
(b) frottements faibles, i.e. 0 < 2 < ω02 ;
(c) mouvement sans frottements, i.e. = 0 ;on montrera que les solutions
X(t) sont des ellipses.
4. Mêmes questions dans le cas intermédiaire 2 = ω02 . Montrer en particulier
que les solutions X(t) présentent une asymptote pour t → ∞.
5. Généralisation : Classication des systèmes dynamiques à 2 dimensions
Soit A une matrice réelle 2 × 2. Indiquer, en fonction des valeurs propres
et des vecteurs propres de la matrice A, l’allure du portrait de phase de
l’équation diérentielle x′ = Ax dans R2 .
60
2.6 Exercices corrigés
Corrigé de l’exercice 2.1.
1. En posant X = (x, x′ ), on obtient X ′ = AX avec
0 1
A=
−ω02 −2
2. Les valeurs propres sont solutions de PA (λ) = λ2 + 2λ + ω02 = 0 où
PA (λ) = det(λI − A) est le polynôme caractéristique de A. On distingue
donc 3 possibilités, selon le signe du discriminant ∆ = 2 − ω02 :
√
(i) si ∆ > 0 : les valeurs propres sont λ± = − ± ∆, toutes deux réelles
et distinctes (et négatives). La matrice A est donc diagonalisable dans R.
(ii) si ∆ = 0 : − est valeur propre double. La matrice A ne peut pas
être diagonalisable, sinon elle serait égale à −I car on aurait alors A =
P (−I)P −1 .
√
(iii) si ∆ < 0 : les valeurs propres sont µ± = − ± i −∆, imaginaires
conjuguées. La matrice A est donc diagonalisable dans C mais pas dans R.
3. On peut traiter cette question rapidement en utilisant la forme générale
des solutions (théorème 2.6). Dans ce corrigé, on va plutôt faire un raison-
nement “à la main”.
(a) 2 > ω02 . On est dans le cas du 2.(i). Il existe une base de R2 formée de
vecteurs propres v− , v+ de la matrice A et, en notant P la matrice dont les
colonnes sont v+ , v− , on obtient
λ+ 0
A=P P −1 , P GLn (R)
0 λ−
Dans ce cas, l’exponentielle se calcule aisément,
λ t
e +
0
etA = P P −1
0 eλ − t
Pour simplier l’étude, posons Y (t) = P −1 X(t) (changement linéaire de
coordonnées). En notant Y (0) = (y10 , y20 ), on obtient
λ t 0
y1 (t) e +y
Y (t) = = λ− t 10
y2 (t) e y2
Les fonctions y1 (t) et y2 (t) sont donc monotones, tendent vers 0 quand t →
+∞ et vers +∞ quand t → −∞. De plus :
61
2 Équations diérentielles linéaires autonomes
√
• si y10 6= 0, alors y2 (t)y1 (t) = e−2t ∆ → 0, donc l’axe Oy1 est asymptote
pour t → +∞ ;
• si y10 = 0, la trajectoire est contenue dans l’axe Oy2 , qui est alors asymp-
tote pour t → +∞.
Ces propriétés permettent de donner l’allure des solutions en tant que
courbes paramétrées de R2 , comme indiqué gure 2.1.
y2 x2
y1
x1
Fig. 2.1. Cas α2 > ω02
(b) 0 < 2 < ω02 . On est dans le cas 2.(iii). Soit donc w = a + ib C2
un vecteur propre non nul de A associé à µ+ . On sait que a et b R2 sont
linéairement indépendants (sinon a ou b serait un vecteur propre réel associé
à la valeur propre non réelle µ+ , ce qui est impossible pour un matrice à
coecients réels). De plus, en identiant les parties réelles et imaginaires de
l’expression Aw = µ+ w, on obtient
Aa = <e(µ+ )a − =m(µ+ )b, et Ab = =m(µ+ )a + <e(µ+ )b
En notant P la matrice dont les vecteurs colonnes sont a et b, il vient
√
<e(µ + ) =m(µ + ) −
√ −∆
P −1 AP = = , P GLn (R)
−=m(µ+ ) <e(µ+ ) − −∆ −
Pour calculer etA , il sut de remarquer que w = a+ib√est aussi vecteur √ propre
de e associé à la valeur propre e
tA tµ+
=e −αt
cos( −∆t) + i sin( −∆t) .
Le raisonnement ci-dessus s’applique donc aussi à etA et on obtient
tµ+ tµ+
√ √
<e(e ) =m(e ) cos √−∆t sin √ −∆t
P −1 etA P = = e−αt
−=m(etµ+ ) <e(etµ+ ) − sin −∆t cos −∆t
62
2.6 Exercices corrigés
Pour Y (t) = P −1 X(t), on obtient
√ √
−αt cos √−∆t sin √−∆t √
Y (t) = e Y (0) = e−αt Rot − −∆t Y (0),
− sin −∆t cos −∆t
où Rot(θ) désigne la rotation d’angle θ. Les courbes Y (t) “spiralent” donc
vers 0 quand t → +∞, le sens de rotation dans les coordonnées Y étant le
sens trigonométrique inverse (voir gure 2.2).
x2
x1
Fig. 2.2. Cas 0 < α2 < ω02
(c) = 0. On est à nouveau dans le cas 2.(iii). Comme au (b), la matrice
A peut se mettre sous la forme
0 −ω0
A=P P −1 , P GLn (R)
ω0 0
L’exponentielle de A se calcule alors comme précédemment,
cos(ω0 t) sin(ω0 t)
tA
e =P P −1 = P Rot(−ω0 t)P −1
− sin(ω0 t) cos(ω0 t)
Pour Y (t) = P −1 X(t), on obtient
Y (t) = Rot(−ω0 t)Y (0)
Ainsi les courbes Y (t) décrivent des cercles, et les courbes X(t) = P Y (t)
décrivent des ellipses (voir gure 2.3).
4. Quand 2 = ω02 , on est dans le cas 2.(ii). Soient v R2 un vecteur propre
non nul de A (associé à −) et w R2 tels que (v, w) forme une base de
63
2 Équations diérentielles linéaires autonomes
Fig. 2.3. Cas α = 0
R2 . L’image de w par A s’écrit Aw = w + v, avec 6= 0 puisque w ne
peut pas être un vecteur propre. Quitte à remplacer v par v, on peut
de plus supposer = 1. D’autre part on a forcément = − : en eet,
d’après le théorème de Cayley–Hamilton, PA (A) = (A + I)2 = 0, d’où
(A + I)2 w = ( + )2 w + ( + )v = 0, ce qui implique = − puisque v
et w sont linéairement indépendants.
En notant P la matrice dont les vecteurs colonnes sont v et w, on obtient
donc
− 1
A=P P −1 , P GLn (R)
0 −
Pour calculer l’exponentielle, remarquons que
01
P −1 AP = −I2 + N, N= ,
00
ce qui implique que l’exponentielle de tA s’écrit etA = P e−αt etN P −1 . Comme
N 2 = 0, l’exponentielle de tN est etN = I + tN et l’exponentielle de tA est
−αt 1 t
tA
e = Pe P −1
01
Pour Y (t) = P −1 X(t), on obtient
y10 + ty20
Y (t) = e−αt
y20
Les fonctions y1 (t) et y2 (t) tendent vers 0 quand t → +∞, vers +∞ quand
t → −∞, mais y1 (t) n’est pas monotone. De plus :
64
2.6 Exercices corrigés
• si y20 6= 0, alors, pour t susamment grand,
y2 (t) y0 1
= 0 2 0 ∼ →0
y1 (t) y1 + ty2 t
donc l’axe Oy1 est asymptote et les fonctions y1 et y2 ont même signe
pour t → +∞ ;
• si y20 = 0, la trajectoire est contenue dans l’axe Oy1 , qui est à nouveau
asymptote.
On obtient alors l’allure des solutions de la gure 2.4.
y1 x2
x1
y2
Fig. 2.4. Cas α2 = ω02 .
5. Soient λ1 , λ2 les valeurs propres de A, qui sont toujours complexes con-
juguées puisque A est à coecients réels. Trois cas peuvent se produire, selon
que ces valeurs propres sont distinctes et réelles, distinctes et non réelles ou
enn égales.
(i) Si λ1 6= λ2 sont toutes les deux réelles, A est diagonalisable dans R,
c’est-à-dire qu’il existe P GL2 (R) telle que
−1 λ1 0
P AP =
0 λ2
On a alors
tA etλ1 0 −1
e =P tλ2 P ,
0 e
et l’allure des solutions dépend des signes respectifs de λ1 et λ2 . On a
représenté les diérentes possibilités dans la gure 2.5, où E1 (resp. E2 )
est le sous-espace caractéristique – ici égal au sous-espace propre – associé
à la valeur propre λ1 (resp. λ2 ).
65
2 Équations diérentielles linéaires autonomes
x2 x2
E1 E2 E1 E2
x2
E1 E2
x1 x1 x1
λ1 < λ 2 < 0 λ1 < 0 < λ 2 0 < λ1 < λ 2
x2 x2 E2 = ker A
E1 E2 = ker A E1
x1 x1
λ1 < λ 2 = 0 0 = λ1 < λ 2
Fig. 2.5. Portraits de phase avec λ1 , λ2 réels distincts.
(ii) Si λ1 6= λ2 ne sont pas réelles, elles sont de la forme λ1 = ρ + iθ,
λ2 = ρ − iθ avec θ 6= 0. On voit alors, en utilisant le raisonnement de la
question 3.(b), qu’il existe P GL2 (R) telle que
ρ θ cos(tθ) sin(tθ)
A=P P −1 et etA = P etρ P −1 ,
−θ ρ − sin(tθ) cos(tθ)
c’est-à-dire que etA est conjuguée à une matrice de similitude (homothétie
multipliée par rotation). L’allure des solutions dépend du signe de ρ. On a
représenté les diérentes possibilités dans la gure 2.6, où les coordonnées
y = (y1 , y2 ) sont égales à P −1 x. Notez que le sens de rotation dans les coor-
données y est donné par le signe de θ, les dessins de la gure 2.6 ayant été fait
avec θ < 0 (d’où un sens de rotation trigonométrique dans les coordonnées
y).
(iii) Si les valeurs propres sont égales, λ1 = λ2 := λ, alors elles sont réelles,
et il existe P GL2 (R) telle que
λa
P −1 AP = , a = 0 ou 1,
0λ
66
2.6 Exercices corrigés
x2 x2
y1 x2 y1 y2
y2 y1 y2
x1 x1 x1
ρ<0 ρ=0 ρ>0
Fig. 2.6. Portraits de phase avec λ1 , λ2 complexes conjugués distincts.
et donc,
1 at
etA = P etλ P −1
0 1
Les solutions peuvent avoir plusieurs formes diérentes, représentées dans la
gure 2.7, selon le signe de λ et la valeur de a :
• si a = 0 et λ 6= 0, A est diagonalisable et s’écrit donc comme A = λI ;les
solutions décrivent des demi-droites et tendent vers 0 ou s’en éloignent
selon le signe de λ ;
• si a = 0 et λ = 0, A est la matrice nulle et les solutions sont toutes
constantes ;
• si a = 1, A est non diagonalisable, c’est-à-dire que le sous-espace propre
∆ = ker(A − λI) associé à λ est de dimension 1. Si λ 6= 0, l’étude est
la même qu’à la question 4. ;en revanche, dans le cas où λ = 0, les tra-
jectoires sont des droites parallèles à ∆ et leur équation, en coordonnées
y = P −1 x, est y1 (t) = y1 (0) + ty2 (0), y2 (t) = y2 (0).
Exercice 2.2. Soit B une matrice réelle 2 × 2 de trace nulle.
1. Montrer que B 2 = − det(B)I. En déduire que etB s’écrit
etB = (t)I + (t)B
On exprimera (t) et (t) sous forme de séries entières, puis à l’aide de
fonctions élémentaires (distinguer des cas selon le signe de det B).
Considérons maintenant une matrice A réelle 2 × 2 et posons B = A −
1
2
tr(A)I.
2. Montrer que tr(B) = 0 et calculer det(B) en fonction de tr(A) et det(A).
67
2 Équations diérentielles linéaires autonomes
x2 x2 x2
x1 x1 x1
λ < 0, a = 0 λ = 0, a = 0 λ > 0, a = 0
x2 x2
∆ x2 ∆
∆ = ker A
x1 x1
x1
λ < 0, a = 1 λ = 0, a = 1 λ > 0, a = 1
Fig. 2.7. Portraits de phase avec λ1 = λ2 := λ.
3. Écrire etA et décrire le comportement asymptotique des solutions de x′ =
Ax en fonction de tr(A) et det(A). Commenter la gure 2.8 (on pourra
également faire le lien avec la classication de la n de l’exercice 2.1).
Corrigé de l’exercice 2.2.
1. Le polynôme caractéristique de B est
PB (λ) = λ2 − tr(B)λ + det(B) = λ2 + det(B),
puisque tr(B) = 0. D’après le théorème de Cayley–Hamilton, PB (B) = 0,
ce qui implique B 2 = − det(B)I. Les puissances de B s’écrivent donc B 2p =
= (− det(B))p I et B 2p+1 = BB 2p = (− det(B))p B. L’exponentielle
(B 2 )p
etB = ∞ k=0 (tB) k! s’écrit alors sous la forme (t)I + (t)B, avec
k
∞
∑ ∞
∑
t2p t2p+1
(t) = (− det(B)) p
et (t) = (− det(B)) p
p=0
(2p)! p=0
(2p + 1)!
On reconnaît dans ces séries des sinus et cosinus trigonométriques ou hyper-
boliques, selon le signe de det(B). Plus précisément :
68
2.6 Exercices corrigés
x2 x2
∆ x2 x2
y1 x2 y1 y2 ∆
y2 y1 y2
x1 x1
x1 x1 x1
x2 x2
E1 E2 det A E1 E2
x1 x1
(trA)2
det A =
x2 4 E1
x2 E2 = ker A
E1 E2 = ker A
x1
x1
trA x2
2 E1 E2
∆ = ker A
x1
1
Fig. 2.8. Diagramme de bifurcation dans le plan (tr(A), det(A)).
• si det(B) > 0,
sin det(B) t
(t) = cos det(B) t , (t) = ;
det(B)
• si det(B) = 0,
(t) = 1, (t) = t ;
• si det(B) < 0,
sinh − det(B) t
(t) = cosh − det(B) t , (t) =
− det(B)
2. La trace de B est clairement nulle. Soit PA (λ) = det(λI − A) le polynôme
caractéristique de A. Rappelons que PA (λ) = λ2 − tr(A)λ + det(A). Le
déterminant de B s’obtient comme
2
tr(A) tr(A) tr(A)
det(B) = det(A − I) = PA = det(A) −
2 2 2
69
2 Équations diérentielles linéaires autonomes
3. Écrivons A comme la somme 1
2
tr(A)I + B. Comme ces deux matrices
commutent, on obtient
1 1
etA = e 2 tr(A) t etB = e 2 tr(A) t (t)I + (t)B
L’expression de (t) et (t) dépend de la position du point (tr(A), det(A))
2
par rapport à la parabole det(B) = det(A) − tr(A) 2
= 0.
• Si det(B) > 0 (au-dessus de la parabole) :
tA 1
tr(A) t
sin det(B) t
e = e2 cos det(B) t I + B ;
det(B)
1
le terme dominant (quand t → ∞) est e 2 tr(A) t , qui tend vers ±∞ selon
le signe de tr(A) (quand tr(A) = 0, les orbites sont des ellipses).
• Si det(B) = 0 (sur la parabole) :
1
etA = e 2 tr(A) t I + tB ;
1
le terme dominant est donc toujours e 2 tr(A) t (quand tr(A) = 0, les orbites
sont des droites).
• Si det(B) < 0 (en-dessous de la parabole) :
1 sinh − det(B) t
etA = e 2 tr(A) t cosh − det(B) t I + B ;
− det(B)
dans ce cas, le comportement asymptotique est plus compliqué à déter-
miner. En eet etA est alors une combinaison linéaire de termes de
la forme ea± t M , où M est une matrice constante et a± = 12 tr(A) ±
− det(B). On peut alors caractériser l’allure des solutions en remar-
quant que a+ et a− sont de signe opposé si det(A) < 0, de même signe
que tr(A) si det(A) > 0, et enn égales à tr(A) et 0 si det(A) = 0 (voir
la gure 2.8).
Exercice 2.3. On considère l’équation diérentielle dans R3 ,
1 −a 1
x′ (t) = Ax(t), où A = 1 0 0
−2 a −2
Déterminer, selon les valeurs du paramètre réel a, si l’une des propriétés
suivantes est vériée :
70
2.6 Exercices corrigés
(i) toutes les solutions tendent vers 0 quand t → +∞ ;
(ii) toutes les solutions sont bornées pour t ≥ 0.
Corrigé de l’exercice 2.3. Le polynôme caractéristique de A est PA (λ) =
(λ + 1)(λ2 + a).
√
• Si a < 0 : les valeurs propres sont −1 et ± −a. Il y a donc une valeur
propre positive, ce qui implique qu’aucune des deux propriétés n’est vraie.
• Si a > 0 : il y a une valeur propre
√ négative, −1, et deux valeurs propres
distinctes imaginaires pures, ±i √a ;les solutions
√ s’écrivent comme des
combinaisons linéaires de e , cos( at) et sin( at), elles sont donc toutes
−t
bornées mais ne tendent pas toutes vers 0. La propriété (ii) est vraie mais
pas la (i).
• Si a = 0 : il y a une valeur propre négative, −1, et une valeur propre
double, 0. Or le sous-espace propre associé à 0, c’est-à-dire ker A, est
de dimension 1 (car A est clairement de rang 2) ;les solutions s’écrivent
comme des combinaisons linéaires de e−t , 1 et t, elles ne sont donc pas
toutes bornées. Aucunes des deux propriétés n’est vraie.
En conclusion, (i) n’est jamais vériée, et (ii) est vériée si et seulement
si a > 0.
Exercice 2.4. On étudie l’équation diérentielle dans R3
0 1 0
X′ = 0 0 1 X
−( + + ) ( + + 1)
1. Vérier que cette équation est équivalente à une équation diérentielle
scalaire du troisième ordre.
2. Trouver les valeurs propres de la matrice (c’est plus facile qu’on ne pour-
rait croire).
3. Pour quelles valeurs de (, ) la matrice est-elle diagonalisable dans R?
(on montrera que tout sous-espace propre est de dimension 1).
4. Pour les quatre valeurs (±1, ±1) de (, ), donner la dimension de l’espace
des conditions initiales amenant vers 0 quand t → +∞ (resp. t → −∞), puis
la forme des solutions.
71
2 Équations diérentielles linéaires autonomes
Corrigé de l’exercice 2.4.
1. En posant X = (x, y, z), l’équation s’écrit
x′ = y, x′′ = y ′ = z, x′′′ = z ′ = x − ( + + )x′ + ( + + 1)x′′
2. Le polynôme caractéristique de la matrice est λ3 − ( + + 1)λ2 + ( +
+ )λ − . Les valeurs propres sont donc 1, , (remarquer d’abord que
1 est valeur propre).
3. Si 1 6= 6= 6= 1 : la matrice est diagonalisable puisque ses valeurs
propres , , 1 sont 2 à 2 distinctes.
Si = ou = 1 ou = 1 : l’une des valeurs propres λ est de multiplicité p
supérieure à 1 (i.e. p = 2 ou 3). Dans ce cas, la matrice est diagonalisable si et
seulement si le sous-espace propre associé ker(A−λI) est de dimension p. Or
les deux premières lignes de A−λI sont toujours linéairement indépendantes
puisque
−λ 1 0
A − λI = 0 −λ 1 ;
∗ ∗ ∗
ainsi ker(A − λI) est de dimension ≤ 1, et la matrice ne peut pas être
diagonalisable (voir aussi la remarque B.1).
4. Rappelons que l’espace des conditions initiales amenant vers 0 quand
t → +∞ (resp. t → −∞) est le sous-espace stable E s (resp. instable E u ),
qui est la somme des sous-espaces caractéristiques correspondant aux valeurs
propres de partie réelle < 0 (resp. > 0). Ici, vu les valeurs de (, ), on a
E s = E−1 , E u = E1 et E s ⊕ E u = R3 .
• Si (, ) = (1, 1) : E u = E1 = R3 est de dimension 3. Pour toute solution
de l’équation diérentielle, toutes les coordonnées tendent vers +∞, mais
pas forcément de façon monotone. En eet, comme le sous-espace propre
associé à 1 est de dimension 1, la matrice est semblable à sa forme de
Jordan–Chevalley,
J = I3 + N, avec N 6= 0, N 3 = 0,
2
et les solutions sont de la forme X(t) = et (X0 + tN X0 + t2 N 2 X0 ), avec
X0 R3 .
• Si (, ) = (−1, −1) : E s = E−1 est de dimension 2 et E u = E1 est de
dimension 1. Les solutions sont de la forme X(t) = et X0 + e−t (tX2 + X1 ),
où X0 E u et X1 , X2 E s .
72
2.6 Exercices corrigés
• Si (, ) = (−1, 1) ou (−1, 1) : E s = E−1 est de dimension 1 et E u = E1
est de dimension 2. Les solutions sont de la forme X(t) = e−t X0 +et (tX2 +
X1 ), où X0 E s et X1 , X2 E u .
Exercice 2.5. Soit A Mn (R). Montrer que les deux propriétés suivantes
sont équivalentes :
(i) A est conjuguée à une matrice antisymétrique ;
(ii) toutes les solutions x(·) de x′ = Ax sont bornées sur R.
Corrigé de l’exercice 2.5.
(i) ⇒ (ii) Supposons d’abord A antisymétrique. Alors la norme de toute
solution x(t) est constante, et donc bornée, puisque
d
(‖x(t)‖2 ) = x′ (t)T x(t) + x(t)T x′ (t) = x(t)T AT x(t) + x(t)T Ax(t) = 0
dt
Supposons maintenant que A = P −1 BP , avec B antisymétrique. Alors,
pour toute solution x(t) de x′ = Ax, la fonction y(t) = P x(t) est solution
de y ′ = By. La norme de y(t) est donc constante et ‖x(t)‖ = ‖P −1 y(t)‖
est bornée.
(ii) ⇒ (i) Si toutes les solutions de x′ = Ax sont bornées sur R, alors, vue la
forme générale des solutions, toutes les valeurs propres de A sont de partie
réelle nulle et leurs multiplicités algébrique et géométrique coïncident
(en particulier, A est diagonalisable dans C). En procédant comme à
l’exercice 2.1, question 3.(b), on montre alors qu’il existe Q GL n (R)
telle que Q−1 AQ s’écrit sous forme d’une matrice diagonale par bloc J,
d’éléments diagonaux J1 , , Js , où chaque Jj est soit une matrice carrée
nulle, soit de la forme
0 −j
,
j 0
±ij étant valeurs propres de A. Ainsi Q−1 AQ est antisymétrique.
Exercice 2.6. Si A, B sont deux matrices de Mn (C) on dénit leur commu-
tateur
[A, B] = AB − BA
1. Montrer que, si A, C Mn (C) commutent (i.e. AC = CA), alors pour
tout t R les matrices etA et C commutent.
73
2 Équations diérentielles linéaires autonomes
2. Pour A, B Mn (C) dénissons la fonction φ : R → Mn (C) par
φ(t) = etA etB e−t(A+B)
Montrer que, pour tout t R,
φ′ (t)φ(t)−1 = etA (A − etB Ae−tB )e−tA
3. Supposons que A et B commutent avec [A, B].
a) Montrer que
A − etB Ae−tB = t[A, B]
b) En déduire que
φ′ (t)φ(t)−1 = t[A, B]
c) Montrer qu’alors
1
eA eB = eA+B+ 2 [A,B]
Corrigé de l’exercice 2.6.
1. Puisque A et C commutent, C commute N avec ktoutes lespuissances de A
N
et, pour tout t R et tout entier N , C( k=0 (tA) k!) = ( k=0 (tA) k!)C.
k
En prenant la limite quand N → ∞ dans cette égalité, on obtient Ce tA =
etA C.
2. Calculons φ′ (t) en utilisant (etA )′ = AetA = etA A (vrai puisque A et etA
commutent) :
φ′ (t) = etA AetB e−t(A+B) + etA etB Be−t(A+B) − etA etB (A + B)e−t(A+B)
= etA AetB e−t(A+B) − etB Ae−t(A+B)
= etA A − etB Ae−tB e−tA φ(t),
d’où le résultat.
3. a) Soit ψ(t) = A − etB Ae−tB . Alors
ψ ′ (t) = −etB BAe−tB + etB ABe−tB = etB [A, B]e−tB
Comme [A, B] et B commutent, d’après la question 1, [A, B] et etB com-
mutent également
t et donc ψ ′ (t) = [A, B]. Comme de plus ψ(0) = 0, on
obtient ψ(t) = 0 ψ ′ = t[A, B].
b) D’après la question 2, φ′ (t)φ(t)−1 = etA ψ(t)e−tA = tetA [A, B]e−tA .
Comme [A, B] et etA commutent (question 1), on obtient φ′ (t)φ(t)−1 =
t[A, B].
74
2.6 Exercices corrigés
c) D’après la question précédente, φ(t) est solution de l’équation diéren-
tielle
φ′ (t) = t[A, B]φ(t),
t2
qui s’intègre en φ(t) = e 2 [A,B] φ(0). Comme φ(0) = I, on obtient, en
prenant t = 1,
1 1
eA eB e−(A+B) = e 2 [A,B] ⇒ eA eB = e(A+B) e 2 [A,B]
1 1
Mais A + B et [A, B] commutent, donc e(A+B) e 2 [A,B] = eA+B+ 2 [A,B] , ce
qui donne le résultat.
Exercice 2.7 (Équation de Riccati). Soient X, Y C k (I, Mn (R)) solu-
tions du système
′
X = AX + BY,
A, B, C, D Mn (R)
Y ′ = CX + DY,
1. Supposons Y (t) inversible sur un intervalle J ⊂ I. Trouver une équation
diérentielle (non linéaire) satisfaite par U = XY −1 sur J.
2. Comment trouver les solutions de l’équation non linéaire :
V ′ = E1 + E2 V + V E3 V, (2.11)
où E1 , E2 et E3 sont des matrices constantes?
Corrigé de l’exercice 2.7.
1. La fonction U (t) est bien dénie sur J puisque Y (t) est inversible, et y
est de plus dérivable. Sa dérivée est
U ′ (t) = X ′ (t)Y −1 (t) + X(t)(Y −1 )′ (t)
Or (Y −1 )′ = −Y −1 Y ′ Y −1 . En eet, Y −1 (t) = Φ(Y (t)), où Φ est l’application
diérentiable Y 7→ Y −1 dénie sur GLn (R), dont la diérentielle est DΦ(Y ) ·
H = −Y −1 HY −1 (voir la section 1.1) ;on obtient alors par composition
(Y −1 )′ = DΦ(Y ) · Y ′ , donc le résultat (on peut aussi obtenir cette expression
en dérivant par rapport à t l’égalité Y Y −1 = I). Insérons cette expression
dans celle de U ′ :
U ′ = X ′ Y −1 − XY −1 Y ′ Y −1 = AU + B − U CU − U D
75
2 Équations diérentielles linéaires autonomes
2. Identions d’abord les coecients avec ceux de l’équation trouvée à la
question précédente : A = E2 , B = E1 , C = −E3 et D = 0. Ainsi, si
(X(·), Y (·)) est solution du système
′
X = E2 X + E1 Y,
Y ′ = −E3 X,
et si Y (t) est inversible sur un intervalle J, alors V = XY −1 est solution de
l’équation (2.11). Pour une matrice V0 donnée, choisissons par exemple la
solution X(·), Y (·) telle que
X(0) = V0 , Y (0) = I
Par continuité, la fonction Y (·) ainsi obtenue sera inversible sur un voisinage
J de 0 et V = XY −1 sera la solution de l’équation (2.11) sur J vériant
V (0) = V0 .
76
3
Équations diérentielles linéaires
Nous avons traité au chapitre 2 les équations linéaires dans un cas particulier,
le cas autonome. Nous abordons maintenant en toute généralité l’étude des
équations diérentielles linéaires, c’est-à-dire de la forme
x′ (t) = A(t)x(t), t J (3.1)
Précisons les notations. Les données sont :
• un intervalle J de R ;
• une application A : J → Mn (R) de classe C k (k est un entier positif ou
k = ∞) ;chaque valeur A(t) est donc une matrice (n × n) à coecients
réels.
Une solution de (3.1) est une application dérivable x : J → Rn telle que,
pour tout t J, sa dérivée x′ (t) = dxdt
(t) vérie x′ (t) = A(t)x(t). Notons
qu’une solution est automatiquement de classe C k+1 .
Nous traiterons aussi le cas un peu plus général des équations diéren-
tielles anes
x′ (t) = A(t)x(t) + b(t), t J, (3.2)
la donnée b(·) étant une application de J dans Rn de classe C k . Nous verrons
que l’étude de ces équations se déduit de celle des équations linéaires.
Remarque 3.1. Il est fréquent dans la littérature que l’expression « équation
linéaire » soit utilisée pour les équations anes, les équations (3.1) étant
alors appelées équations linéaires homogènes.
Remarque 3.2. Nous nous limiterons dans ce chapitre (à l’exception du
théorème 3.7) à des matrices A(t) à coecients réels et donc aux équa-
tions diérentielles dans Rn . Cependant tous les résultats restent valables,
mutatis mutandis, pour les équations dans Cn dénies par des matrices
A : J → Mn (C).
3 Équations diérentielles linéaires
3.1 Existence et unicité globales
Nous énonçons le résultat pour les équations anes, les équations linéaires
correspondant au cas particulier où b(·) est identiquement nul.
Théorème 3.1 (existence et unicité globales). Soient t0 J et
x0 Rn . Il existe une unique solution x(·) de l’équation (3.2) satisfaisant la
condition initiale
x(t0 ) = x0
Insistons sur le fait que ce théorème garantit l’existence de x(·) sur tout
l’intervalle J. Ce phénomène est propre aux équations linéaires (on com-
parera avec le théorème 4.1 de Cauchy–Lipschitz concernant les équations
non-linéaires).
La preuve de ce théorème repose sur la remarque suivante : x(·) est so-
lution de (3.2) avec x(t0 ) = x0 si et seulement si x(·) est continue et vérie
pour tout t J,
∫ t
x(t) = x0 + A(s)x(s) + b(s) ds, (3.3)
t0
autrement dit, si x(·) est un point xe de l’application
∫ ·
x(·) 7→ x0 + A(s)x(s) + b(s) ds
t0
Ainsi le théorème 3.1 est un résultat de point xe et nous utiliserons donc
le théorème du point xe de Picard (théorème A.1, donné dans l’annexe A)
pour le montrer. Notons que nous avons déjà vu une preuve similaire dans
l’exercice 1.14.
*Démonstration. Supposons d’abord que J soit un intervalle compact de la forme J = [a, b]
et introduisons Φ l’application ane qui à toute fonction x(·) C 0 (J, Rn ) associe la fonction
∫ ·
Φ x(·) = x0 + A(s)x(s) + b(s) ds,
t0
qui est clairement continue et à valeurs dans Rn . Comme nous l’avons remarqué ci-dessus, il
s’agit de montrer que Φ a un unique point xe. Nous allons pour cela vérier qu’un itéré de Φ
est contractant et appliquer le théorème du point xe de Picard à cet itéré. On vériera alors
que les points xes de Φ sont ceux de cet itéré.
78
3.1 Existence et unicité globales
B Pour x(·), y(·) C 0 (J, Rn ) et t J, on a
∫ t
‖(Φ ◦ x)(t) − (Φ ◦ y)(t)‖ = ‖ (A(s)(x(s) − y(s))ds‖
t0
∫ t
≤ ‖A‖C 0 ‖(x − y)(s)‖ds ≤ t − t0 ‖A‖C 0 ‖x − y‖C 0 ,
t0
où ‖f ‖C 0 = maxt∈J ‖f (t)‖ désigne la norme C 0 . On voit en particulier que
‖Φ ◦ x − Φ ◦ y‖C 0 ≤ (b − a) ‖A‖C 0 ‖x − y‖C 0 ,
ce qui prouve que Φ est continue de C 0 (J, Rn ) dans lui-même.
B Par le même calcul, on a, en notant Φ2 = Φ ◦ Φ,
∫ t
‖(Φ2 ◦ x)(t) − (Φ2 ◦ y)(t)‖ ≤ ‖A‖C 0 ‖(Φ ◦ x−Φ ◦ y)(s)‖ds
t0
∫ t
1
≤ ‖A‖C 0 ‖A‖C 0 ‖x − y‖C 0 s − t0 ds ≤ ‖A‖2C 0 t − t0 2 ‖x − y‖C 0 ,
t0 2
et on montre par récurrence que
t − t0 N
‖(ΦN ◦ x)(t) − (ΦN ◦ y)(t)‖ ≤ ‖A‖N
C0 ‖x − y‖C 0 ,
N!
c’est-à-dire,
N
N N (b − a) ‖A‖C 0
‖Φ ◦x−Φ ◦ y‖C 0 ≤ ‖x − y‖C 0
N!
((b−a)‖A‖ )N
B Choisissons N susamment grand pour que N!
C0
≤ 12 (ce qui est possible puisque
le membre de gauche de cette inégalité tend vers 0 avec N ). Rappelons que l’espace C 0 (J, Rn ),
muni de la norme C 0 , est un espace de Banach. L’application ΦN : C 0 (J, Rn ) → C 0 (J, Rn ) est
alors 12 -contractante et, d’après le théorème du point xe de Picard, admet un unique point xe
x(·) C 0 (J, Rn ).
Mais il n’est pas dicile de voir que les points xes de Φ sont les points xes de ΦN : en eet
si x(·) est point xe de Φ on a évidemment
ΦN x(·) = ΦN −1 ◦ Φ x(·) = ΦN −1 x(·) ,
et donc ΦN x(·) = x(·) ;réciproquement, si ΦN x(·) = x(·), alors,
ΦN Φ x(·) = ΦN +1 x(·) = Φ ΦN x(·) = Φ x(·) ,
et donc Φ x(·) et x(·) sont points xes de ΦN qui est contractante et admet de ce fait un unique
point xe : ils sont donc égaux. Ceci prouve le théorème pour J de la forme J = [a, b].
B Si J n’est⋃pas compact, il existe une suite d’intervalles croissants Jk , k N, contenant t0 et
tels que J = k Jk . Il sut alors d’appliquer le résultat sur chaque intervalle Jk . t
u
79
3 Équations diérentielles linéaires
3.2 La résolvante
Revenons à l’étude des équations linéaires dans Rn
x′ (t) = A(t)x(t), t J (3.1)
La notion fondamentale ici est celle de résolvante.
Dénition 3.1. Soient t, s J. On appelle résolvante entre s et t de
l’équation diérentielle (3.1) l’application R A (t, s) : Rn → Rn qui à x0 Rn
associe x(t), où x(·) est la solution de (3.1) qui satisfait x(s) = x 0 .
Proposition 3.1. Pour tout t, s J, la résolvante RA (t, s) est une applica-
tion linéaire et bijective (i.e. c’est un isomorphisme) et peut donc s’identier
à une matrice inversible de Mn (R).
Démonstration. Notons E l’ensemble des solutions de (3.1). C’est un espace vectoriel puisque
toute combinaison linéaire de solutions est aussi une solution. Fixons un instant t J et in-
troduisons l’application Lt : Rn → E qui à x0 Rn associe la solution x(·) de (3.1) telle que
x(t) = x0 . C’est clairement une application linéaire et il résulte directement de l’existence et de
l’unicité des solutions que Lt est un isomorphisme de Rn sur E (ce qui implique au passage que
E est un espace vectoriel de dimension n).
Comme RA (t, s) = Lt ◦ L−1s , on obtient le résultat. t
u
Ainsi la résolvante RA (t, s) est l’application qui « envoie » les valeurs au
temps s des solutions sur leurs valeurs au temps t. Elle permet d’exprimer
toute solution x(·) de l’équation (3.1) en fonction d’une condition initiale
x(t) = RA (t, t0 )x(t0 )
Elle joue donc pour les équations linéaires non-autonomes le rôle que joue
l’exponentielle de matrices pour les équations linéaires autonomes.
Exemple 3.1 (cas autonome). Quand A(·) ≡ A est constante, la résolvante
est l’exponentielle de A : RA (t, s) = e(t−s)A .
Exemple 3.2 (cas n = 1). Quand l’équation diérentielle est une équation
scalaire x′ (t) = (t)x(t), où x(·) et (·) sont à valeurs dans R, les solutions
se calculent directement par intégration à partir de la valeur au temps s :
∫ t
x(t) = exp( (τ )dτ )x(s)
s
t
La résolvante est donc Rα (t, s) = exp( s
(τ )dτ ).
80
3.2 La résolvante
La résolvante possède également les propriétés suivantes.
Proposition 3.2.
1. Pour tout t0 J, RA (·, t0 ) est la solution de l’équation diérentielle
matricielle
∂
RA (t, t0 ) = A(t)RA (t, t0 ),
∂t (3.4)
R (t , t ) = I,
A 0 0
2. Pour tous t0 , t1 , t2 dans J,
RA (t2 , t0 ) = RA (t2 , t1 ) RA (t1 , t0 )
3. Si A(·) est de classe C k , l’application t 7→ RA (t, t0 ) est de classe C k+1 .
Démonstration. Le premier point résulte du fait que, pour tout x 0 Rn , RA (t, t0 )x0 est
solution de l’équation (3.1) et satisfait donc
∂
(RA (t, t0 )x0 ) = A(t)(RA (t, t0 )x0 )
∂t
Le deuxième point résulte de la dénition même de la résolvante. Quant à la dernière assertion,
elle résulte de la première. t
u
Remarque 3.3.
• L’équation diérentielle satisfaite par la résolvante a la même forme que
l’équation (3.1) mais a lieu dans Mn (R) et non dans Rn .
• Le point 2 (ou directement la dénition) implique en particulier
RA (t, s)−1 = RA (s, t)
• Les colonnes x1 (t), , xn (t) de la résolvante RA (t, t0 ) sont les valeurs à
l’instant t des solutions valant e1 , , en (les vecteurs de la base canon-
ique) à t = t0 , puisque par dénition xj (t) = RA (t, t0 )ej . Les fonctions
x1 (·), , xn (·) forment donc une base de l’espace vectoriel des solutions.
C’est ce que l’on appelle un système fondamental de solutions.
Réciproquement, à un système fondamental de solutions y1 (·), , yn (·)
on peut associer les matrices V (s) GLn (R), s J, dont les colonnes
sont les vecteurs yi (s). On a alors V (t) = RA (t, s)V (s), c’est-à-dire,
RA (t, s) = V (t)V (s)−1 (3.5)
Comme nous venons de le voir, pour résoudre une équation diérentielle
linéaire, il sut de savoir calculer la résolvante (de même que pour les équa-
tions autonomes il sut de savoir calculer l’exponentielle). Malheureuse-
ment, en dehors du cas autonome, il est très rare de pouvoir donner une
expression explicite de la résolvante. Nous allons voir en revanche que
l’on peut obtenir des informations qualitatives sur les solutions de l’équation
grâce à l’étude de la résolvante.
81
3 Équations diérentielles linéaires
3.3 Quelques propriétés de la résolvante
Déterminant de la résolvante
Proposition 3.3. Soit t0 R. La fonction ∆(t) = det RA (t, t0 ) est la solu-
tion du problème de Cauchy
′
∆ (t) = tr(A(t)) ∆(t),
∆(t0 ) = 1,
ce qui implique
∫ t
det RA (t, t0 ) = exp tr(A(u)) du
t0
Démonstration. Rappelons (voir exercice 1.5) que la diérentielle de l’application déterminant
en A GLn (R) est D det(A) · H = (det A) tr(A−1 H). On a donc
−1
∆′ (t) = det RA (t, t0 ) tr RA ′
(t, t0 ), RA (t, t0 )
= ∆(t) tr(A(t))
La conclusion de la proposition suit. t
u
Remarque 3.4. Rappelons que le wronskien d’une famille y 1 (·), , yn (·) de
solutions de x′ = A(t)x est la fonction t 7→ W (t) = det(y1 (t), , yn (t)).
D’après la remarque 3.3, équation (3.5), le wronskien se déduit directement
du déterminant de la résolvante,
W (t) = det RA (t, t0 )W (t0 )
Il en résulte que tout wronskien est solution de l’équation diérentielle
W ′ (t) = tr(A(t)) W (t),
et, inversement, que toute solution de cette équation est le wronskien d’une
famille de solutions.
Corollaire 3.1 (Liouville). Si pour tout t R, A(t) est de trace nulle,
alors le déterminant de RA (t, s) est identiquement égal à 1.
Il résulte de ce corollaire que, si A(t) est de trace nulle, l’équation dif-
férentielle (3.1) préserve les volumes. En eet, si Γ est un domaine de R n ,
notons Γt son transport de t0 à t par l’équation (3.1), c’est-à-dire,
Γt = x(t) : x(·) solution de (3.1) t.q. x(t0 ) Γ ,
82
3.3 Quelques propriétés de la résolvante
ou encore Γt = RA (t, t0 )Γ . Alors, en utilisant la formule de changement de
variable dans les intégrales multiples, on obtient
vol(Γt ) = det RA (t, t0 ) vol(Γ ),
et donc vol(Γt ) = vol(Γ ) si tr A(·) ≡ 0.
La préservation du volume a une conséquence sur le comportement
asymptotique des solutions : il est en eet impossible dans ce cas que toutes
les solutions de (3.1) tendent vers 0 quand t → ±∞ (de même qu’il est
impossible que ‖x(t)‖ tende vers l’inni pour toute solution x(·)).
Une classe particulièrement intéressante de matrices de trace nulle est
l’ensemble des matrices antisymétriques, qui interviennent fréquemment
dans les problèmes issus de la physique.
Proposition 3.4. Si, pour tout t R, la matrice A(t) est réelle et anti-
symétrique, alors pour tous t, s R la résolvante R A (t, s) est une rotation.
Rappelons qu’une rotation est une matrice R Mn (R) orthogonale (c’est-à-
dire RT R = I) et de déterminant 1.
Démonstration. Une matrice antisymétrique étant de trace nulle, on a, d’après le corollaire
précédent, det RA (t, s) ≡ 1. D’autre part,
∂ ∂ ∂
RA (t, s)T RA (t, s) = RA (t, s)T RA (t, s) + RA (t, s)T RA (t, s)
∂t ∂t ∂t
= RA (t, s)T A(t)T RA (t, s) + RA (t, s)T A(t)RA (t, s)
= RA (t, s)T A(t)T + A(t) RA (t, s) = 0
Ainsi, RA (t, s)T RA (t, s) est indépendant de t. Comme RA (s, s) = I, on a la conclusion. t
u
Une conséquence de ce résultat est que, si pour tout t la matrice A(t)
est réelle et antisymétrique, alors l’équation diérentielle (3.1) préserve la
norme. En eet, si x(·) est une solution de l’équation
‖x(t)‖ = ‖RA (t, t0 )x(t0 )‖ = ‖x(t0 )‖,
puisque RA (t, t0 ) est une rotation. En particulier, toute solution est bornée.
En revanche il est impossible qu’une solution tende vers 0 (sauf si x(·) ≡ 0
bien sûr).
Notons enn que, contrairement au cas autonome, le comportement
asymptotique des solutions (et donc de la résolvante) n’est pas déterminé
par les valeurs propres de la matrice A(t). Nous donnons ci-dessous deux ex-
emples de matrices A(t) ayant des valeurs propres de partie réelle négative
alors que l’équation x′ (t) = A(t)x(t) admet des solutions qui ne tendent pas
vers 0.
83
3 Équations diérentielles linéaires
Exemple 3.3.
• La matrice
( )
− 12 cos2 t −1 − 12 cos t sin t
A(t) =
1 − 12 cos t sin t − 12 sin2 t
√
a pour valeurs propres 14 (−1±i 15), qui sont toutes deux de partie réelle
négative (et indépendantes de t). Or il est facile de vérier que l’équation
x′ (t) = A(t)x(t) admet une solution périodique,
− sin t
x(t) = ,
cos t
qui ne tend donc pas vers 0 quand t → +∞.
• La matrice
( 1 2 t 1
)
4
(1 + cos t) e (−1 + 4
cos t sin t)
A(t) =
e−t (1 + 14 cos t sin t) 1
4
(−3 + sin2 t)
a deux valeurs propres de partie réelle négative (mais qui dépendent de
t), d’après la remarque (2.6), puisque :
1 13 1 1 10
tr A(t) = − < 0 et det A(t) = + − cos2 t ≥ > 0
4 16 4 4 16
Or l’équation x′ (t) = A(t)x(t) admet pour solution
t/2
e cos t
x(t) = −t/2 ,
e sin t
dont la norme tend vers l’inni quand t → +∞.
Dépendance par rapport aux perturbations et aux conditions
initiales
Pour connaître la sensibilité d’une équation diérentielle aux perturbations,
il est important de savoir comment varient les solutions en fonction des
données et des conditions initiales, c’est-à-dire, dans le cas des équations
linéaires, comment varie la solution de
′
x (t) = A(t)x(t),
(3.6)
x(t0 ) = x0 ,
quand x0 et A(·) varient. La solution de ce système étant x(·) = RA (·, t0 )x0 ,
il sut de savoir de quelle façon la résolvante dépend de la fonction A(·) (la
dépendance par rapport à x0 étant alors linéaire, donc C ∞ ).
84
3.3 Quelques propriétés de la résolvante
Théorème 3.2. La résolvante RA (·, t0 ) dépend de façon C ∞ de A(·), et la
solution de (3.6) dépend de façon C ∞ de x0 et A(·).
Plus précisément, t0 J et k N étant donnés, les applications A(·) 7→
RA (·, t0 ) de C k (J, Mn (R)) dans lui-même et
Ψ : C k (J, Mn (R)) × Rn −→ C k (J, Rn )
(A(·), x0 ) 7−→ la solution x(·) de (3.6),
sont des applications de classe C ∞ .
Ce théorème est une conséquence directe du résultat ci-dessous, qui donne
une expression de la résolvante sous forme d’une série normalement conver-
gente.
*Expression de la résolvante
Il est parfois intéressant d’avoir une expression de la résolvante sous forme
de série, analogue à celle de l’exponentielle de matrice.
Proposition 3.5. La résolvante de (3.1) satisfait, pour tous a < b J,
∫
RA (b, a) = I + A(s1 ) ds1 + · · ·
a≤s1 ≤b
∫
··· + A(sk ) · · · A(s1 ) ds1 · · · dsk + · · · ,
a≤s1 ≤···≤sk ≤b
la série précédente étant normalement convergente (en a et b).
Démonstration. Constatons que, puisque ∂
R (t, a)
∂t A
= A(t)RA (t, a), on a
∫ t
RA (t, a) = I + A(s)RA (s, a)ds
a
Introduisons l’opérateur linéaire TA de C 0 (J, Mn (R)) dans lui-même déni par
∫ ·
TA F (·) = A(s)F (s)ds
a
On a donc RA (·, a) = I + TA RA (·, a) et, en itérant k fois cette relation,
RA (·, a) = I + TA I + TA2 I + · · · + TAn−1 I + TAk RA (·, a)
85
3 Équations diérentielles linéaires
B D’autre part, il est facile de voir que
∫
k
(TA F )(t) = A(sk ) · · · A(s1 )F (s1 ) ds1 · · · dsk
a≤s1 ≤···≤sk ≤t
Par conséquent, en choisissant une norme multiplicative sur Mn (R),
∫
‖(TAk F )(t)‖ = ‖ A(sk ) · · · A(s1 )F (s1 ) ds1 · · · dsk ‖
a≤s1 ≤···≤sk ≤t
∫
≤ ‖A(sk )‖ · · · ‖A(s1 )‖ ‖F (s1 )‖ ds1 · · · dsk
a≤s1 ≤···≤sk ≤t
≤ ‖A(·)‖kC 0 (J) ‖F (·)‖C 0 (J) ×
× mesk ((s1 , , sk ) [a, t]k , a ≤ s1 ≤ · · · ≤ sk ≤ t)
‖A(·)‖kC 0 (J) t − a k
≤ ‖F (·)‖C 0 (J) ,
k!
puisque le pavé [a, t]k est, à un ensemble de mesure k-dimensionnelle nulle près, la réunion
disjointe des ensembles (s1 , , sk ) [a, t]k : sσ(1) < · · · < sσ(k) , qui sont tous d’égale
mesure, σ décrivant l’ensemble des k! permutations des indices 1, , k.
B Ceci prouve d’une∞ partk que TA RA (·, a) tend vers 0 pour la topologie C (J, Mn (R)) et d’autre
n 0
part que la série k=0 TA I converge normalement. Il est alors clair que cette dernière série est
égale à RA (·, a). t
u
On évitera de recourir à ces formules dans la pratique sauf peut-être dans
un cas : si toutes les valeurs de A(·) commutent entre elles, c’est-à-dire si
A(t1 )A(t2 ) = A(t2 )A(t1 ) pour tous t1 , t2 J, la série précédente se réduit à
une exponentielle :
∫
b
RA (b, a) = exp A(s) ds
a
C’est en particulier le cas quand n = 1, voir l’exemple 3.2.
3.4 Équations anes
On s’intéresse maintenant aux équations diérentielles anes
x′ (t) = A(t)x(t) + b(t), t J
La connaissance de la résolvante RA (t, t0 ) associée à A(·) (i.e. à l’équation
linéaire x′ (t) = A(t)x(t)) permet de déterminer toutes les solutions du sys-
tème ane, grâce à la formule de la variation de la constante.
86
3.4 Équations anes
Théorème 3.3 (variation de la constante). Soient t0 J et x0 Rn .
La solution de l’équation x′ (t) = A(t)x(t) + b(t) valant x0 en t0 est
∫ t
x(t) = RA (t, t0 )x0 + RA (t, s)b(s) ds
t0
Démonstration. Soit x(·) la solution valant x0 en t0 . Posons y(t) = RA (t, t0 )−1 x(t) pour tout
t J. Calculons la dérivée de y(·) :
∂
y ′ (t) = RA (t, t0 )−1 x(t) + RA (t, t0 )−1 x′ (t)
∂t
∂
= RA (t, t0 )−1 + RA (t, t0 )−1 A(t)x(t) + b(t)
∂t
En utilisant d’abord la diérentielle de l’application M 7→ M −1 (voir page 2) puis l’équation (3.4)
vériée par RA , on a
∂ ∂
RA (t, t0 )−1 = −RA (t, t0 )−1 RA (t, t0 ) RA (t, t0 )−1
∂t ∂t
= −RA (t, t0 )−1 A(t)RA (t, t0 )RA (t, t0 )−1 ,
et on obtient nalement
y ′ (t) = RA (t, t0 )−1 b(t)
Par conséquent, en utilisant RA (t, t0 )−1 = RA (t0 , t),
∫ t
y(t) − y(t0 ) = RA (t0 , s)b(s)ds,
t0
et, puisque y(t0 ) = RA (t0 , t0 )−1 x(t0 ) = x0 ,
∫ t
x(t) = RA (t, t0 )x0 + RA (t, t0 ) RA (t0 , s)b(s)ds,
t0
ce qui est le résultat annoncé puisque RA (t, t0 )RA (t0 , s) = RA (t, s). t
u
Ce résultat montre que l’étude des équations anes, comme celle des
équations linéaires, se ramène à l’étude de la résolvante. Nous obtenons par
exemple directement la dépendance C ∞ par rapport aux conditions initiales
et aux perturbations.
Théorème 3.4. La solution de x′ (t) = A(t)x(t)+b(t) satisfaisant x(t0 ) = x0
dépend de façon C ∞ de x0 , A(·), b(·).
*Démonstration. Précisément, il faut montrer que pour tout t 0 J et k N, l’application
Ψ : C k (J, Mn (R)) × C k (J, Rn ) × Rn −→ C k (J, Rn ),
qui à (A(·), b(·), x0 ) associe la solution de x′ (t) = A(t)x(t) + b(t) satisfaisant x(t0 ) = x0 , est une
application de classe C ∞ . Pour cela, il sut de constater que Ψ est la composée de l’application
87
3 Équations diérentielles linéaires
Ψ1 : C k (J, Mn (R)) × C k (J, Rn ) × Rn −→ C k (J, Mn (R)) × C k (J, Rn ) × Rn ,
(A(·), b(·), x0 ) 7−→ (RA (·, t0 ), b(·), x0 ),
dont on sait qu’elle est C ∞ d’après le théorème 3.2, et de l’application
Ψ2 : C k (J, Mn (R)) × C k (J, Rn ) × Rn −→ C k (J, Rn ),
·
(RA (·, t0 ), b(·), x0 ) 7 → RA (·, t0 )x0 + t0 RA (·, s)b(s)ds,
−
dont on peut vérier (exercice) qu’elle est C ∞ . t
u
3.5 *Équations linéaires périodiques
Nous considérons dans cette section le cas particulier des équations diéren-
tielles linéaires à coecients périodiques, c’est-à-dire de la forme
x′ (t) = A(t)x(t), t R, (3.7)
où A C k (R, Mn (R)) est T -périodique : ∀t R, A(t + T ) = A(t). C’est une
situation que l’on rencontre fréquemment dans les équations diérentielles
issues de la physique (voir par exemple l’exercice 3.4).
Propriétés de la résolvante
Théorème 3.5. Soit RA (t, s) la résolvante du système (3.7).
(i) Pour tous t1 , t2 R, on a
RA (t2 + T, t1 + T ) = RA (t2 , t1 )
(ii) Pour tout t R,
RA (t + T, t) = RA (t, 0) RA (T, 0) RA (t, 0)−1
Démonstration. Pour t1 R xé, posons S(t) = RA (t + T, t1 + T ). En dérivant, il vient
∂
S ′ (t) = RA (t + T, t1 + T ) = A(t + T )RA (t + T, t1 + T ) = A(t)S(t),
∂t
puisque A est T -périodique. En outre S(t1 ) = RA (t1 + T, t1 + T ) = I. D’après la proposition 3.2,
on a S(t) = RA (t, t1 ), ce qui est (i).
B Montrons (ii). On a l’égalité
RA (t + T, t) = RA (t + T, T ) RA (T, 0) RA (0, t),
et comme, d’après (i), RA (t + T, T ) = RA (t, 0), on a
RA (t + T, t) = RA (t, 0) RA (T, 0) RA (0, t) = RA (t, 0) RA (T, 0) RA (t, 0)−1
t
u
88
3.5 *Équations linéaires périodiques
Existence de solutions périodiques non triviales
Un système tel que (3.7) admet toujours la solution x ≡ 0 comme solution
T -périodique triviale (et même périodique de toute période), mais n’admet
pas toujours de solution T -périodique non identiquement nulle, bien que A(·)
soit T -périodique (prendre A constante par exemple). L’étude de la matrice
RA (T, 0) permet de donner une condition nécessaire et susante d’existence
de telles solutions.
Théorème 3.6. Soit A(·) T -périodique. L’équation x′ (t) = A(t)x(t) admet
une solution T -périodique non triviale si et seulement si 1 est valeur propre
de RA (T, 0).
Si c’est le cas, et si v Rn est un vecteur propre associé à la valeur propre
1, alors
x(t) = RA (t, 0)v,
est une solution T -périodique de (3.7).
Démonstration. Soit x(·) une solution T -périodique non triviale de (3.7) et soit t 0 tel que
x(t0 ) 6= 0. On a alors
x(t0 ) = x(t0 + T ) = RA (t0 + T, t0 ) x(t0 ),
ce qui signie que x(t0 ) est un vecteur propre de RA (t0 + T, t0 ) associé à la valeur propre 1. Or,
d’après le (ii) du théorème 3.5, les matrices RA (t0 + T, t0 ) et RA (T, 0) sont conjuguées. Elles
ont donc en particulier les mêmes valeurs propres, ce qui implique que 1 est valeur propre de
RA (T, 0).
B Réciproquement, si v 6= 0 Rn vérie v = RA (T, 0)v, alors
x(t) = RA (t, 0)v = RA (t, 0) RA (T, 0)v,
et, d’après le (i) du théorème précédent,
x(t) = RA (t + T, T ) RA (T, 0)v = RA (t + T, 0)v = x(t + T )
t
u
Le théorème de Floquet
Il existe de fortes analogies entre les équations linéaires autonomes et celles
à coefcients périodiques. Le résultat suivant montre que les solutions d’une
équation périodique s’obtiennent en appliquant un changement de base péri-
odique aux solutions d’un système linéaire. On l’énonce dans le cadre un peu
plus général des équations dans Kn , où K désigne R ou C.
Théorème 3.7 (Floquet). Soit A(·) C k (R, Mn (K)) une application T -
périodique. Il existe alors :
89
3 Équations diérentielles linéaires
• une matrice A0 Mn (K),
• une fonction P C k (R, GLn (K)), avec P (0) = I, qui est T -périodique si
K = C et 2T -périodique si K = R,
telles que, pour tout t R,
RA (t, 0) = P (t)etA0
En outre, pour toute solution x(·) de x′ (t) = A(t)x(t), la fonction y(·) =
P (·)−1 x(·) est solution de l’équation linéaire autonome y ′ (t) = A0 y(t).
Démonstration. La preuve de ce résultat repose sur les deux faits suivants : d’une part,
toute matrice inversible à coecients complexes est l’exponentielle d’une matrice à coecients
complexes et, d’autre part, le carré de toute matrice réelle inversible est l’exponentielle d’une
matrice à coecients réels. La preuve du premier fait repose sur la décomposition du théorème 2.4.
En eet il résulte de cette décomposition qu’il sut de savoir écrire un bloc J = λI + N , où
λ 6= 0, comme eB . Or en choisissant µ C tel que eµ = λ, il sut de résoudre
1
I+ N = eB−µI ,
λ
Nk
et cette dernière équation admet comme solution B−µI = ∞ k=1 kλk (c’est la série du logarithme,
et elle converge car N est nilpotente). La preuve du deuxième fait (sur le carré d’une matrice
réelle), est plus délicate. On en trouvera une preuve dans [3, Prop. 3.13].
B Revenons à la preuve du théorème et supposons d’abord K = C. D’après ce qui précède, on
peut trouver une matrice A0 telle que :
RA (T, 0) = eT A0 (3.8)
Vérions alors que la fonction P dénie par P (t) = RA (t, 0)e−tA0 est T -périodique. Calculons :
P (t + T ) = RA (t + T, 0)e−(t+T )A0
= RA (t + T, T )RA (T, 0)e−T A0 e−tA0
= RA (t, 0)e−tA0 = P (t),
où on a utilisé (3.8) et le (i) du théorème 3.5 pour obtenir l’avant dernière égalité : P est donc
bien T -périodique.
B Dans le cas où K = R, on choisira A0 Mn (R) telle que
RA (2T, 0) = RA (T, 0)2 = e2T A0 ,
et on poursuivra la preuve comme dans le cas complexe. t
u
Bien évidemment il est dicile de déterminer A0 et P (·). Néanmoins, leur
existence peut fournir de précieux renseignements, en particulier la forme
générale des solutions.
90
3.6 Exercices corrigés
Corollaire 3.2. En reprenant les notations précédentes, toute solution de
x′ (t) = A(t)x(t) admet une écriture de la forme
r m
∑ ∑ i −1
x(t) = tk etλi vi,k (t),
i=1 k=0
où les λi , 1 ≤ i ≤ r, sont les racines du polynôme caractéristique de A 0
et les vi,k (·) sont des fonctions de classe C k à valeurs dans Kn qui sont T
ou 2T -périodiques suivant que K égale C ou R (les entiers m i sont dénis
comme dans le théorème 2.5).
3.6 Exercices corrigés
Exercice 3.1. Soit f une fonction continue réelle de la variable réelle. Con-
sidérons l’équation scalaire
x′′ + x = f (t) (3.9)
1. Écrire (39) sous forme d’une équation diérentielle ane du premier or-
dre.
2. Calculer la résolvante du système linéaire associé.
3. Exprimer x(t) et x′ (t) en fonction de leurs valeurs en 0 et de f (t).
4. On suppose que f (t) est 2π-périodique. Montrer que x (t) solution de (39)
est 2π-périodique si et seulement si
{ 2π
sin(s) f (s)ds = 0,
02π
0
cos(s) f (s)ds = 0
Corrigé de l’exercice 3.1.
1. En posant X = (x, x′ ), l’équation s’écrit
′ 0 1 0
X (t) = X(t) +
−1 0 f (t)
2. La matrice A du système linéaire étant indépendante de t, la résolvante
est égale à l’exponentielle
R(t, s) = e(t−s)A = cos(t − s)I + sin(t − s)A
(voir le calcul de cette exponentielle dans l’exercice 2.2).
91
3 Équations diérentielles linéaires
3. D’après la formule de variation de la constante, on a
∫ t
0
X(t) = etA X(0) + e(t−s)A ds
0 f (s)
c’est-à-dire,
t
x(t) = cos(t)x(0) + sin(t)x′ (0) + 0 sin(t − s)f (s)ds,
t
x′ (t) = − sin(t)x(0) + cos(t)x′ (0) + 0 cos(t − s)f (s)ds
4. La fonction x(·) est 2π-périodique si et seulement si X(·) l’est. Or, puisque
X(·) est solution d’une équation à coecients 2π-périodiques, X(·) est 2π-
périodique si et seulement si X(0) = X(2π) (en eet, dans ce cas, les fonc-
tions X(t) et X(t + 2π) sont solutions de la même équation diérentielle
avec les mêmes conditions initiales, elles sont donc égales). Il sut donc de
calculer X(2π) − X(0) pour obtenir la conclusion :
{ 2π 2π
x(2π) − x(0) = 0 sin(2π − s)f (s)ds = − 0 sin(s)f (s)ds,
2π 2π
x′ (2π) − x′ (0) = 0 cos(2π − s)f (s)ds = 0 cos(s)f (s)ds
Exercice 3.2. Soit A : ]0, +∞[ → Mn (R) une application continue. On
considère l’équation diérentielle linéaire
x′ (t) = A (t) x (t) , t ]0, +∞[,
et on note R (t, t0 ) sa résolvante.
1. Montrer que S (t, t0 ) = R (t0 , t)T est la résolvante de l’équation diéren-
tielle
z ′ (t) = −A (t)T z (t)
2. Dans cette équation on choisit
2t + 1t 0 1t − t
A (t) = t − 1t 3t t − 1t
2
t
− 2t 0 2t + t
Montrer que A (t) possède une base de vecteur propres indépendante de t.
En déduire la résolvante R (t, t0 ) de l’équation (32).
3. Résoudre à l’aide des questions précédentes le système
′
x1 = − 2t + 1t x1 + 1t − t x2 + 2 t − 1t x3 ,
x′ = −3tx
2 ,
2′
x3 = t − t x1 + 1t − t x2 − 2t + t x3
1
92
3.6 Exercices corrigés
Corrigé de l’exercice 3.2.
1. Essayons d’abord de donner une équation diérentielle satisfaite par
R(t0 , t) = R(t, t0 )−1 . Il sut de calculer ∂t
∂
R(t0 , t). Écrivons R(t0 , t) comme
f ◦ R(t, t0 ), où f : GLn (R) → GLn (R), f (M ) = M −1 . On sait, d’après la
section 1.1, que Df (M ) · H = −M −1 HM −1 . On obtient donc
∂ ∂
R(t0 , t) = Df R(t, t0 ) · R(t, t0 )
∂t ∂t
= −R(t, t0 ) A(t)R(t, t0 )R(t, t0 )−1
−1
= −R(t0 , t)A(t)
La transposition étant une opération linéaire, elle commute avec la dérivation
∂ T
et on a ∂t
∂
R(t0 , t)T = ∂t R(t0 , t) . On obtient nalement
∂
R(t0 , t)T = −A(t)T R(t0 , t)T
∂t
Puisque en outre R(t0 , t0 )T = I, la matrice R(t0 , t)T est la résolvante de
z ′ = −A(t)T z.
2. Le polynôme caractéristique de A(t) est
1 2 1 2
PA(t) (λ) = (λ − 2t − )(λ − 3t)(λ − − t) + ( − t)3t( − 2t)
t t t t
3
= (λ − 3t)2 (λ − ),
t
les valeurs propres de A(t) sont donc 3t et 3t, qui est valeur propre double.
Le sous-espace propre associé à 3t est Π3t = ker(A − 3tI). Donc x Π3t si
et seulement si
1 1
(−t + t )x1 + ( t − t)x3 = 0,
(t − 1t )x1 + (t − 1t )x3 = 0,
(−2t + 2t )x1 + (−2t + 2t )x3 = 0,
c’est-à-dire, Π3t = Vect(1, 0, −1), (0, 1, 0). Le sous-espace propre associé à
3
t
est Π 3 = ker(A − 3t I). Donc x Π 3 si et seulement si
t t
2 1
(2t − t )x1 + ( t − t)x3 = 0,
(t − 1t )x1 + (3t − 3t )x2 + (t − 1t )x3 = 0,
(−2t + 2t )x1 + (t − 1t )x3 = 0,
93
3 Équations diérentielles linéaires
c’est-à-dire, Π 3 = Vect(1, −1, 2).
t
La matrice A(t) est donc diagonalisable dans R. Plus précisément, en posant
1 0 1 3t 0 0
P = 0 1 −1 et D(t) = 0 3t 0 ,
−1 0 2 0 0 3t
on a A(t) = P D(t)P −1 .
Ce qui est important ici (et exceptionnel!) est que la matrice de passage P
ne dépend pas de t. Ainsi, si x(t) est une solution de x′ = A(t)x, la fonction
y(t) = P −1 x(t) satisfait y ′ (t) = D(t)y(t), ou encore
3 2
′ (t −t20 )
1y = 3ty 1 , y1 (t) = y1 (t0 )e 2 ,
3 2 2
y2′ = 3ty2 , ⇒ y2 (t) = y2 (t0 )e 2 (t −t0 ) ,
′
y3 = 3t y3 , y3 (t) = y3 (t0 )( tt0 )3
En résumé, on sait d’une part que x(t) = R(t, t0 )x(t0 ) et d’autre part que
x(t) = P y(t) (et donc y(t0 ) = P −1 x(t0 )), ce qui donne nalement
3 (t2 −t2 )
e2 0 0 0
R(t, t0 ) = P 0 e 2 (t −t0 ) 0 P −1
3 2 2
0 0 ( tt0 )3
Il faut insister sur le caractère quasi-miraculeux du cas que l’on traite ici :
non seulement A(t) est diagonalisable pour tout t, mais en plus elle est
diagonalisable dans la même base pour tout t. C’est pour cette raison que
l’on est capable de calculer la résolvante.
3. C’est une application directe des questions précédentes. En eet l’équation
s’écrit x′ (t) = B(t)x(t), où B(t) = −A(t)T (A(t) étant la matrice de la ques-
tion 2). La solution générale s’obtient à partir de la résolvante R(t, t 0 ) de la
question 2 par x(t) = R(t0 , t)T x(t0 ), c’est-à-dire
3 (t2 −t2 )
e2 0 0 0
x(t) = P −T 0 e 2 (t0 −t ) 0 P x(t0 )
T
3 2 2
0 0 ( tt0 )3
Exercice 3.3.
1. Montrer que, si u, v sont deux fonctions continues de R → R+ telles que,
pour tout t ≥ t0 ,
94
3.6 Exercices corrigés
∫ t
u(t) ≤ C + u(s)v(s)ds, où C ≥ 0 est une constante,
t0
alors ∫ t
u(t) ≤ C exp v(s)ds
t0
On considère maintenant l’équation linéaire sur Rn
x′ (t) = A + B(t) x(t), t R, (3.10)
où A Mn (R) et B : R → Mn (R) est une application C 1 .
2. Montrer que toute solution x(·) de (3.10) vérie
∫ t
tA
x(t) = e x(0) + e(t−s)A B(s)x(s)ds
0
3. Supposons que toutes les solutions de x′ (t) = Ax(t) sont bornées sur R+
et que ∫ ∞
‖B(s)‖ds < ∞
0
Montrer que toute solution de (3.10) est bornée sur R+ .
4. Supposons que toutes les solutions de x′ (t) = Ax(t) tendent vers 0 quand
t → +∞ et que B est bornée sur R+ , ‖B(t)‖ ≤ K pour tout t R+ .
Montrer que, si K est susamment petit, toutes les solutions de (3.10)
tendent vers 0 quand t → +∞.
Corrigé de l’exercice 3.3.
1. Ce résultat est le lemme de Gronwall, (lemme 4.1), voir sa preuve dans
la section 4.2.
2. Il sut d’appliquer la formule de la variation de la constante (voir
théorème 3.3), en considérant x(t) comme solution de l’équation ane
x′ (t) = Ax(t) + b(t), où b(t) = B(t)x(t).
3. Puisque toutes les solutions de x′ = Ax sont bornées, il existe une con-
stante K > 0 telle que ‖etA ‖ ≤ K pour tout t R+ . En utilisant la question
précédente, on obtient donc
∫ t
‖x(t)‖ ≤ K‖x(0)‖ + K ‖B(s)‖ ‖x(s)‖ds
0
95
3 Équations diérentielles linéaires
En appliquant le lemme de Gronwall (question 1) à u(t) = ‖x(t)‖ et v(t) =
K‖B(t)‖, il vient, pour t R+ ,
∫ t ∫ ∞
‖x(t)‖ ≤ K‖x(0)‖ exp K ‖B(s)‖ds ≤ K‖x(0)‖ exp K ‖B(s)‖ds ,
0 0
c’est-à-dire que x(t) est bornée sur R+ .
4. Comme à la question précédente, une solution de x′ (t) = (A + B(t))x(t)
satisfait
∫ t
tA
‖x(t)‖ ≤ ‖e ‖ ‖x(0)‖ + ‖e(t−s)A ‖ ‖B(s)‖ ‖x(s)‖ ds
0
D’après l’hypothèse, toutes les valeurs propres de A sont à partie réelle < 0.
Soit > 0 tel que < min<e(λ) : λ valpropre de A. D’après le
théorème 2.9, il existe une constante C1 > 0 telle que
‖eτ A ‖ ≤ C1 e−ατ pour tout τ ≥ 0
Ceci implique
∫ t
−αt
‖x(t)‖ ≤ C1 e ‖x(0)‖ + C1 e−α(t−s) ‖B(s)‖ ‖x(s)‖ ds,
0
c’est-à-dire,
∫ t
αt
e ‖x(t)‖ ≤ C1 ‖x(0)‖ + C1 eαs ‖B(s)‖ ‖x(s)‖ ds
0
En appliquant le lemme de Gronwall à u(t) = eαt ‖x(t)‖ et v(t) = C1 ‖B(t)‖,
il vient, pour t R+ ,
∫ t
eαt ‖x(t)‖ ≤ C1 ‖x(0)‖ exp C1 ‖B(s)‖ds ,
0
et donc, en utilisant l’hypothèse sur B,
‖x(t)‖ ≤ C1 ‖x(0)‖eKC1 t−αt
Ainsi, pour K < C1 , toute solution tend vers 0 quand t → ∞.
96
3.6 Exercices corrigés
Exercice 3.4 (Structure en bande des solides).
Le modèle physique. On considère un solide comme un réseau d’atomes
disposés selon un motif périodique inni. Certains de ces atomes sont ionisés,
c’est-à-dire qu’ils ont perdu un ou plusieurs de leurs électrons pour diverses
raisons physiques (l’agitation thermique par exemple). Les électrons ainsi
libérés de leurs atomes mais prisonniers du solide se retrouvent soumis à un
potentiel dont la période est celle du réseau cristallin, notée T .
Nous supposerons ici le solide isotrope, ce qui permet d’étudier séparément
chaque direction de l’espace. Pour chacune de ces directions, la fonction
d’onde ψE d’un électron d’énergie E est alors une solution de l’équation
Schrödinger stationnaire, qui s’écrit
~2 d 2 ψ E
− (x) + V (x)ψE (x) = EψE (x), x R,
2m dx2
où le potentiel V (x) est T -périodique et ψE est à valeurs dans C.
Il s’agit donc d’une équation diérentielle linéaire à coecients péri-
odiques, qui peut s’écrire, en renormalisant x, sous la forme (3.11) ci-
dessous. Rappelons que le carré de la fonction d’onde s’interprète comme une
densité de probabilité de présence, ce qui implique qu’une fonction d’onde est
dans L2 (R, C), donc a fortiori bornée sur R (puisque continue en tant que
solution de l’équation). Le but de cet exercice est de montrer qu’il existe des
bandes de valeurs de l’énergie E pour lesquelles l’équation de Schrödinger
ci-dessus n’admet pas de solutions bornées, c’est-à-dire qu’il ne peut y avoir
d’électrons dans ces états d’énergie.
Soient V une fonction T −périodique de R dans R et E est un paramètre
réel. On considère l’équation diérentielle scalaire :
− ϕ′′ (t) + V (t) ϕ (t) = Eϕ (t) (3.11)
1. Écrire l’équation (311) comme une équation diérentielle linéaire du pre-
mier ordre, dont la résolvante sera notée RE (t, s).
2. Montrer que, pour tous (t, s) R2 , det RE (t, s) = 1.
3. Montrer que RE (t + T, s + T ) = RE (t, s).
4. Montrer que, pour tout t R et tout entier n Z, on a
RE (t, 0) = RE (t − nT, 0)RE (T, 0)n
5. Montrer qu’il existe une solution bornée et non nulle X(t), t R, si et
seulement si il existe v R2 non nul tel que la suite RE (T, 0)n v est bornée
quand n → ±∞.
97
3 Équations diérentielles linéaires
6. En déduire que l’équation (311) admet une solution bornée non triviale
si et seulement si trRE (T, 0) ≤ 2.
7. Montrer que trRE (T, 0) tend vers +∞ quand E tend vers −∞.
8. Que peut-on dire de l’ensemble des valeurs de E pour lesquelles (311)
admet des solutions bornées non triviales? On utilisera le fait que la fonc-
tion E 7→ trRE (T, 0) est R-analytique (c’est une conséquence de la propo-
sition 3.5), et donc ne prend qu’un nombre ni de fois une valeur sur un
intervalle borné.
Corrigé de l’exercice 3.4.
1. En posant X = (ϕ, ϕ′ ), l’équation s’écrit
0 1
′
X (t) = AE (t)X(t) où AE (t) =
V (t) − E 0
2. C’est une simple conséquence du corollaire 3.1 puisque la trace de AE (t)
est nulle.
3. C’est une application directe du théorème 3.5, puisque AE (·) est T -
périodique.
4. D’après la question précédente et la proposition 3.2, propriété 2,
RE (t, 0) = RE (t, T )RE (T, 0) = RE (t − T, 0)RE (T, 0)
En appliquant le même calcul à RE (t − T, 0) puis en itérant, on obtient bien
RE (t, 0) = RE (t − nT, 0)RE (T, 0)n pour tout n.
5. Supposons d’abord qu’il existe une solution bornée non nulle X(·) et
posons v = X(0) 6= 0. Pour tout n Z, on a alors, d’après la question
précédente,
RE (T, 0)n v = RE (nT, 0)v = X(nT ),
qui est donc une suite bornée.
Réciproquement, supposons qu’il existe v R2 , v 6= 0, tel que la suite
RE (T, 0)n v est bornée, c’est-à-dire qu’il existe une constante C telle que,
pour tout n Z, on a ‖RE (T, 0)n v‖ ≤ C. Considérons la fonction t 7→
X(t) = RE (t, 0)v qui est une solution non nulle de l’équation. Pour tout
t R, appliquons la formule de la question précédente avec n = d Tt e Z (la
partie entière de tT ) :
X(t) = RE (t − nT, 0)RE (T, 0)n v
98
3.6 Exercices corrigés
Or t − nT [0, T ]. Cet intervalle étant compact et s 7→ RE (s, 0) continue,
M = maxs∈[0,T ] (‖RE (s, 0)‖) est ni et on a :
‖X(t)‖ ≤ ‖RE (t − nT, 0)‖ ‖RE (T, 0)n v‖ ≤ M C,
ce qui implique que X(·) est bornée.
6. Soient λ1 et λ2 les valeurs propres de RE (T, 0). On sait déjà que λ1 λ2 =
det RE (T, 0) = 1. On va montrer qu’il y a une solution bornée non triviale si
et seulement si trRE (T, 0) = <(λ1 ) + <(λ2 ) ≤ 2. On considère pour cela
tous les cas possibles.
(i) λ1 et λ2 sont des réels distincts : λ2 = λ−1 1 et λ1 6= ±1 (donc
trRE (T, 0) > 2). La matrice RE (T, 0) est alors diagonalisable, c’est-à-dire
n
λ1 0 λ 0
RE (T, 0) = P P −1 et RE (T, 0)n = P 1
−n P
−1
0 λ−1
1 0 λ 1
Dans ce cas, pour tout v 6= 0, RE (T, 0)n v → ∞ quand n → +∞ ou −∞. Il
n’y a donc pas de solutions bornées sur R.
(ii) λ1 = λ2 = ±1 (donc trRE (T, 0) = 2). Considérons un vecteur propre
v0 . Il vérie RE (T, 0)n v0 = (λ1 )n v0 = ±v0 , ce qui est borné.
(iii) λ1 et λ2 sont complexes conjugués et diérents, λ1 = eiθ , λ2 = e−iθ , avec
θ 6= 0[π] (donc trRE (T, 0) < 2). La matrice RE (T, 0) est alors semblable à
une rotation
cos θ sin θ
RE (T, 0) = Q Q−1 ,
− sin θ cos θ
et ses puissances itérées s’écrivent
cos(nθ) sin(nθ)
RE (T, 0)n = Q Q−1
− sin(nθ) cos(nθ)
Puisque RE (T, 0)n est bornée, pour tout v R2 , RE (T, 0)n v est borné.
7. Nous allons utiliser l’expression de la résolvante sous forme de série nor-
malement convergente. D’après la proposition 3.5, on a :
∞ ∫
∑
RE (T, 0) = A(s1 ) · · · A(sk ) dsk · · · ds1 ,
k=0 0≤sk ≤···≤s1 ≤T
et donc
99
3 Équations diérentielles linéaires
∞ ∫
∑
trRE (T, 0) = tr (A(s1 ) · · · A(sk )) dsk · · · ds1 (3.12)
k=0 0≤sk ≤···≤s1 ≤T
Posons E (t) = V (t) − E. On montre aisément par récurrence les formules
suivantes : pour tout entier p,
( p )
i=1 E (s 2i ) 0
A(s1 ) · · · A(s2p ) = p ,
0 i=1 E (s 2i−1 )
( p )
0 i=1 E (s2i )
A(s1 ) · · · A(s2p+1 ) = p+1
i=1 E (s2i−1 ) 0
Par conséquent, seuls les termes pairs interviennent dans la série (3.12) :
∞ ∫
( p p
)
∑ ∏ ∏
trRE (T, 0) = E (s2i ) + E (s2i−1 ) ds2p · · · ds1
p=0 0≤s2p ≤···≤s1 ≤T i=1 i=1
Soit Vmin = min[0,T ] V (t). Quand E → −∞, on a, pour tout t [0, T ],
E (t) ≥ Vmin − E > 0. Le terme général de la série ci-dessus peut donc être
minoré par
∫ 2p
p p T
2(Vmin − E) ds2p · · · ds1 = 2(Vmin − E)
0≤s2p ≤···≤s1 ≤T (2p)!
√
Ainsi trRE (T, 0) ≥ 2 cosh T Vmin − E qui tend vers +∞ quand E → −∞.
8. D’après la question précédente, il existe une valeur Emin telle que la trace
trRE (T, 0) est supérieure à 2 pour tout E < Emin . D’autre part, l’analyticité
de la fonction E 7→ trRE (T, 0) implique que cette fonction prend les valeurs
±2 en des points isolés. Ainsi l’ensemble des E pour lesquelles (3.11) n’admet
pas de solutions bornées (les énergies “interdites”) est constitué de l’intervalle
] − ∞, Emin [, ainsi que d’une famille d’intervalles ouverts disjoints. C’est ce
qui permet d’expliquer la structure en bandes des solides.
100
4
Théorie générale des équations diérentielles
Dans ce chapitre, nous présentons la théorie générale des équations diéren-
tielles autonomes, qui sont de la forme
x′ (t) = f x(t)
Dans cette formulation, les données sont :
• un ensemble ouvert Ω ⊂ Rn ;
• une application f : Ω → Rn de classe C 1 (les résultats que nous al-
lons présenter restent valables quand on remplace Rn par n’importe quel
espace vectoriel de dimension nie, par exemple Cn ou Mn (R)).
Une telle application f : Ω ⊂ Rn → Rn est appelée un champ de vecteurs :
à tout point x dans Ω, elle associe un vecteur f (x) dans Rn .
Une solution de l’équation diérentielle est une fonction dérivable x(·) :
I → Rn telle que
• I est un intervalle de R ;
• x(·) prend ses valeurs dans Ω, i.e. x(I) ⊂ Ω ;
• pour tout t I, x (t) = f x(t) .
′
Une solution est donc en fait un couple (x(·), I) : l’intervalle de dénition I
fait partie des inconnues. Nous verrons comment caractériser cet intervalle
dans la section 4.2.
Notons enn que, comme l’application f est supposée C 1 , toute solution
x(·) de l’équation diérentielle est automatiquement de classe C 2 .
Remarque 4.1. Il peut sembler réducteur de se restreindre aux équations dif-
férentielles autonomes, alors que le cadre le plus général est celui des équa-
tions de la forme
4 Théorie générale des équations diérentielles
x′ (t) = f t, x(t) , t J ⊂ R, (4.1)
qui dépendent explicitement du temps, et qui sont dites non-autonomes. Ce
n’est en fait pas vraiment une restriction : toute équation non-autonome
dans Rn peut être vue comme une équation autonome dans Rn+1 . En ef-
fet, dénissons un champ de vecteur F : J × Ω ⊂ Rn+1 → Rn+1 par
F (t, x) = (1, f (t, x)). Il est alors clair que l’équation non-autonome (4.1)
est équivalente à l’équation autonome
′
t 1
= = F t, x(t)
x f t, x
L’inconvénient de cette approche est que le temps t est considéré avec le
même statut que l’état x, on suppose donc pour f la même régularité par
rapport à t que par rapport à x ;or ce n’est généralement pas nécessaire (voir
remarque 4.2 plus loin).
4.1 Existence et unicité
Nous avons vu au chapitre 3 qu’une équation diérentielle linéaire admet
toujours une unique solution pour une condition initiale donnée. Par ailleurs
cette solution est dénie globalement, c’est-à-dire qu’elle est dénie tant que
l’équation elle-même est dénie. Dans le cas non linéaire, l’unicité sera (sous
certaines hypothèses) encore de nature globale mais il n’en sera pas de même
de l’existence, qui est locale.
Théorème 4.1 (Cauchy–Lipschitz). Pour tout point x0 Ω et tout t0
R, il existe > 0 tel que le système
′
x (t) = f x(t) ,
(4.2)
x(t0 ) = x0 ,
possède une unique solution dénie sur ]t 0 − , t0 + [.
On appelle problème de Cauchy le système (4.2), formé d’une équation
diérentielle et d’une condition initiale donnée.
*Démonstration. La démonstration de ce théorème repose sur le théorème du point xe de
Picard. Fixons un réel α > 0 tel que la boule fermée B(x0 , α) soit contenue dans Ω. Puisque f
est C 1 , il existe des constantes M et K > 0 telles que, sur B(x0 , α), f est bornée en norme par
M et est K-lipschitzienne (grâce à la proposition 1.2). Posons en outre
( )
α 1
= min ,
M 2K
102
4.1 Existence et unicité
B Dénissons E comme étant l’ensemble des fonctions x(·) continues sur ]t0 − , t0 + [ à valeurs
dans B(x0 , α) et telles que x(t0 ) = x0 . Muni de la norme ‖ · ‖C 0 , c’est un espace complet.
L’application : ∫ .
Φ x(·) = x0 + f x(s) ds,
t0
est une application de E dans lui même : en eet, pour t − t0 ≤ ,
∫ t
‖Φ x(t) − x0 ‖ = ‖ f x(s) ds‖ ≤ M ≤ α
t0
Cette application est en outre 1
2
-lipschitzienne puisque, pour t ]t0 − , t0 + [,
∫ t
‖Φ x(·) − Φ y(·) ‖C 0 ≤ sup ‖f x(s) − f y(s) ‖ ds
|t−t0 |<δ t0
∫ t
≤ sup K‖x(s) − y(s)‖ ds
|t−t0 |<δ t0
1
≤ K‖x(·) − y(·)‖C 0 ≤ ‖x(·) − y(·)‖C 0
2
Le théorème du point xe de Picard s’applique et montre que l’application Φ admet un unique
point xe dans E, c’est-à-dire que le système (4.2) admet une unique solution x(·) :]t 0 −, t0 +[→
Rn à valeurs dans la boule B(x0 , α).
B Il ne reste plus qu’à montrer que toute solution x(·) : ]t0 − , t0 + [ → Rn du système (4.2) est
à valeurs dans la boule B(x0 , α). Par l’absurde, supposons qu’une solution x(·) de (4.2) sorte de
B(x0 , α) en temps inférieur à , et notons t1 le premier instant où x(·) sort de la boule ouverte
B(x0 , α). D’après le théorème des accroissements nis,
α = ‖x(t1 ) − x0 ‖ ≤ sup ‖x′ (t)‖ t1 − t0 < M ,
t∈[t0 ,t1 ]
ce qui contredit ≤ αM . Toute solution de (4.2) sur ]t0 − , t0 + [ est donc à valeurs dans
B(x0 , α), ce qui montre le théorème. t
u
Hypothèses plus faibles sur f
Nous avons énoncé le théorème de Cauchy–Lipschitz avec l’hypothèse que f
est C 1 sur Ω car elle est simple à utiliser et fréquemment satisfaite dans les
applications. Remarquons cependant que, dans la preuve, nous avons seule-
ment besoin que f soit localement lipschitzienne, c’est-à-dire que pour tout
x0 Ω, il existe un voisinage U0 de x0 dans Ω et une constante K tels que f
soit K-lipschitzienne sur U0 . La conclusion du théorème de Cauchy–Lipschitz
reste donc valable sous l’hypothèse que f est localement lipschitzienne. En
particulier, elle est valable si f est lipschitzienne sur Ω (on a même dans ce
cas un résultat d’existence et d’unicité globales, voir l’exercice 1.14).
Que se passe-t-il si on aaiblit encore les hypothèses et que l’on suppose
f seulement continue? Un théorème de Peano arme que, dans ce cas, le
système (4.2) admet toujours une solution. En revanche, l’unicité n’est pas
garantie. Par exemple le problème de Cauchy
103
4 Théorie générale des équations diérentielles
y ′ (t) = y(t),
y R,
y(0) = 0,
admet comme solutions les fonctions y1 (t) = 0 et y2 (t) = t|t|
4
. Il en admet
même une innité puisque, pour tout a ≥ 0, la fonction y (·) dénie par
a
y a (t) = 0 pour t ≤ a, y a (t) = y2 (t − a) pour t > a,
est également solution.
Remarque 4.2. D’après la remarque faite en introduction, le théorème de
Cauchy–Lipschitz est également valable pour une équation non-autonome
x′ = f (t, x) : si f est C 1 sur J × Ω, alors, pour (t0 , x0 ) J × Ω, l’équation
a une unique solution dénie sur ]t0 − , t0 + [ et valant x0 en t0 .
On peut dans ce cas aaiblir nettement les hypothèses sur f : en eet,
la conclusion du théorème restera valable si on suppose seulement que f est
continue par rapport à t et localement lipschitzienne en la seconde variable
x, c’est-à-dire que, pour tout (t0 , x0 ) J × Ω, il existe un voisinage J0 de
t0 dans J, un voisinage U0 de x0 dans Ω et une constante K tels que, pour
tout t J0 , l’application f (t, ·) est K-lipschitzienne sur U0 . La preuve est
une simple adaptation de celle que nous avons donnée ici. On verra même
dans le théorème 6.1 que la continuité par rapport à t n’est pas toujours
nécessaire.
4.2 Solutions maximales et durée de vie
Considérons l’équation diérentielle
x′ (t) = f x(t) , (4.3)
où le champ de vecteurs f : Ω ⊂ Rn → Rn est supposé de classe C 1 .
Nous avons déni au début de ce chapitre une solution de cette équation
comme une fonction x(·) dénie sur un certain intervalle I de R. Cette section
est consacrée à l’étude de cet intervalle de dénition I. Nous rencontrerons
deux types de problèmes.
• Étant donné un couple (t0 , x0 ) R × Ω, il existe une innité de solutions
de (4.3) satisfaisant la condition initiale x(t0 ) = x0 : par exemple si x(·)
est une solution dénie sur l’intervalle I, avec t0 I, toute restriction
de x(·) à un sous-intervalle de I contenant t0 est une solution diérente.
104
4.2 Solutions maximales et durée de vie
Pour éviter de considérer comme solutions diérentes la même fonction
prise sur des sous-intervalles, nous chercherons à associer à une fonction
un unique intervalle, le plus grand, sur lequel elle est solution : c’est la
notion de solution maximale.
• Si on choisit l’intervalle I le plus grand possible, peut-on le prendre égal
à R tout entier? Si ce n’est pas le cas, que se passe-t-il pour la solution?
et quelle est la forme de I? C’est le problème de la durée de vie des
solutions.
Solutions maximales
Dénition 4.1. On dit qu’une solution x(·) : I → Ω de (4.3) est une solu-
tion maximale si elle n’a pas de prolongement à un intervalle strictement plus
grand, c’est-à-dire si elle n’est pas la restriction à I d’une solution dénie
sur un intervalle I ′ ) I.
Nous allons montrer que l’équation (4.3) admet une unique solution max-
imale satisfaisant une condition initiale donnée. Nous avons besoin pour cela
d’un résultat d’unicité globale.
Proposition 4.1. Si x(·) et y(·) : I → Ω sont deux solutions de (4.3)
dénies sur le même intervalle I qui coïncident en un point t 0 I, alors
elles sont égales.
Démonstration. Considérons d’abord le supremum des instants où les solutions coïncident :
t+ = supt I : t > t0 , x(s) = y(s) pour tout s [t0 , t]
Par l’absurde, supposons t+ < sup I. Les solutions étant continues, on a x(t+ ) = y(t+ ). En appli-
quant le théorème de Cauchy–Lipschitz au couple (t+ , x(t+ )), on obtient que les deux solutions
sont encore égales sur un intervalle [t+ , t+ + [, ce qui contredit la dénition même de t+ . Donc
t+ = sup I. Le même argument vaut pour l’inmum des instants où les deux solutions coïncident.
t
u
Théorème 4.2. Pour toute donnée initiale (t0 , x0 ) R × Ω, il existe une
unique solution maximale x(·) : ]t− , t+ [ → Ω de (4.3) satisfaisant x(t0 ) = x0 .
Tout autre solution satisfaisant cette condition initiale est une restriction de
x(·) à un sous-intervalle de ]t− , t+ [.
Démonstration. Soit I la réunion de tous les intervalles contenant t 0 sur lesquels le système
{ ′
x (t) = f x(t) ,
(4.2)
x(t0 ) = x0 ,
admet une solution. D’après le théorème de Cauchy–Lipschitz, cette réunion est un intervalle
ouvert, c’est-à-dire de la forme I = ]t− , t+ [. Pour tout t ]t− , t+ [, dénissons x(t) comme la
valeur en t de n’importe quelle solution de (4.2) dénie sur [t0 , t]. La proposition précédente
montre que la fonction x(·) : ]t− , t+ [ → Ω ainsi dénie est bien solution de (4.2). De plus, par
construction, c’est un prolongement de toute autre solution. t
u
105
4 Théorie générale des équations diérentielles
Remarque 4.3. Insistons sur le fait que l’intervalle de dénition d’une solution
maximale est toujours un intervalle ouvert ]t− , t+ [. Les bornes t+ et t− de
l’intervalle maximal sont des fonctions de (t0 , x0 ) qui prennent leurs valeurs
dans R : t+ peut être soit un réel, soit +∞, alors que t− peut être soit un
réel, soit −∞. Dans tous les cas, on a t− < t0 < t+ .
Durée de vie
On s’intéresse maintenant à l’intervalle de dénition ]t − , t+ [ d’une solution
maximale x(·) de (4.3). Cet intervalle peut être diérent de R, même pour
les équations les plus simples.
Exemple 4.1. Considérons l’équation y ′ (t) = y 2 (t) dans Ω = R, dont la solu-
tion valant y0 en t0 est
y0
y(t) =
(t − t0 )y0 + 1
L’intervalle maximal de dénition de cette solution est ]t 0 − y10 , +∞[ si y0 > 0,
] − ∞, t0 − y10 [ si y0 < 0, et R tout entier si y0 = 0.
Exemple 4.2. Considérons l’équation y ′ (t) = 1 dans Ω =]0, 1[, dont la solu-
tion valant y0 ]0, 1[ en t0 est
y(t) = y0 + t − t0
L’intervalle maximal de dénition de cette solution est ]t 0 − y0 , t0 − y0 + 1[.
L’idée générale est que, si une solution ne peut être prolongée sur tout R,
c’est qu’elle s’approche en temps ni du bord de l’ensemble Ω. Formalisons
cette idée pour la borne supérieure t+ de l’intervalle (les résultats pour t−
sont similaires).
Proposition 4.2. Soit x(·) : ]t− , t+ [ → Ω une solution maximale de (4.3).
Alors, si t+ < +∞, x(t) sort de tout compact contenu dans Ω, c’est-à-
dire que pour tout compact K ⊂ Ω, il existe un temps t K ]t− , t+ [ tel que
x(tK ) 6 K.
*Démonstration. Soit K un compact contenu dans Ω. Supposons par l’absurde que x(]t − , t+ [)
soit inclus dans K. Le champ f étant continu sur Ω, sa norme admet une borne M ≥ 0 sur K ;en
particulier,
‖f (x(t))‖ ≤ M ∀t ]t− , t+ [
Ainsi pour toute paire t, t′ ]t− , t+ [, on a :
106
4.2 Solutions maximales et durée de vie
∫ t′
′
‖x(t ) − x(t)‖ = ‖ f (x(s))ds‖ ≤ M t′ − t,
t
ce qui implique par le critère de Cauchy que x(t) a une limite x+ quand t → t+ . Appliquons
alors le théorème 4.1 en (x+ , t+ ) : on obtient une solution x̄(·) de l’équation diérentielle dénie
sur un intervalle ]t+ − , t+ + [ et telle que x̄(t+ ) = x+ . Par conséquent la fonction y(·) dénie
par : {
y(t) = x(t) si t ]t− , t+ [ ,
y(t) = x̄(t) si t [t+ , t+ + [ ,
est continue et solution de l’équation diérentielle. C’est donc un prolongement de x(·), ce qui
contredit le fait que x(·) soit une solution maximale. t
u
On rencontrera le cas t+ < +∞ essentiellement dans les deux situations
suivantes :
• quand Ω = Rn et limt→t+ ‖x(t)‖ = +∞ : c’est le phénomène d’explosion
en temps ni (voir l’exemple 4.1 ci-dessus) ;
• quand le bord de Ω est borné et x(t) converge vers un point du bord
quand t → t+ (voir l’exemple 4.2).
Inversement, retenons une condition susante pour que ]t− , t+ [ = R.
Corollaire 4.1. Si toutes les valeurs d’une solution maximale x(·) sont con-
tenues dans un compact inclus dans Ω, alors x(·) est dénie sur tout R.
Champs de vecteurs complets
Dénition 4.2. On dit que le champ de vecteurs f : Ω ⊂ Rn → Rn est
complet (ou que l’équation associée est complète) si toute solution maximale
est dénie sur R tout entier.
D’après le corollaire précédent, si toutes les solutions maximales sont
contenues dans des compacts, le champ est complet. On a vu aussi au
théorème 2.1 que tous les champs linéaires f (x) = Ax sur Rn sont com-
plets. C’est en fait le cas de tous les champs dénis sur Rn admettant une
majoration ane.
Proposition 4.3. Tout champ de vecteurs f : Rn → Rn admettant une
majoration ane
‖f (x)‖ ≤ ‖x‖ + , avec , ≥ 0,
est complet. C’est en particulier le cas des champs bornés.
Cette proposition est une conséquence d’un résultat très utile, le lemme
de Gronwall, dont nous verrons par la suite plusieurs applications (nous en
avons déjà vu une, voir exercice 3.3).
107
4 Théorie générale des équations diérentielles
Lemme 4.1 (lemme de Gronwall). Soient u, v deux fonctions continues
de [t0 , t1 ] → R à valeurs positives telles que, pour tout t [t 0 , t1 ],
∫ t
u(t) ≤ C + u(s)v(s)ds,
t0
où C ≥ 0 est une constante. Alors, pour tout t [t 0 , t1 ],
∫
t
u(t) ≤ C exp v(s)ds
t0
t
Démonstration. Posons V (t) = t0
u(s)v(s)ds, qui est une fonction C 1 . Sa dérivée satisfait
V ′ (t) = u(t)v(t) ≤ Cv(t) + V (t)v(t),
t
d’où V ′ − vV ≤ Cv. En multipliant par exp(− t0 v(s)ds), on obtient
∫ − ∫ t v(s)ds ′
− t v(s)ds ′
V (t)e t0 ≤ − Ce t0
Intégrons entre t0 et t :
∫ ∫ ∫t
− tt v(s)ds − tt v(s)ds v(s)ds
V (t)e 0 ≤ C − Ce 0 ⇒ V (t) ≤ Ce t0 − C
Comme u(t) ≤ C + V (t), on obtient la conclusion. t
u
On est maintenant en mesure de prouver la proposition.
Démonstration de la proposition 4.3. Soit f : Rn → Rn un champ de vecteur admettant une
majoration linéaire. Supposons par l’absurde qu’il n’est pas complet. Il existe donc une solution
maximale x(·) dont l’intervalle de dénition ]t− , t+ [ n’est pas égal à R. Supposons par exemple
t+ < ∞ ;d’après la proposition 4.2, on a alors ‖x(t)‖ → ∞ quand t → t+ .
Fixons t0 ]t− , t+ [. Pour tout t [t0 , t+ [, on a :
∫ t
x(t) = x(t0 ) + f (x(s))ds
t0
En utilisant la majoration de f , on obtient
∫ t ∫ t
‖x(t)‖ ≤ ‖x(t0 )‖ + (α‖x(s)‖ + β)ds ≤ ‖x(t0 )‖ + β(t+ − t0 ) + α‖x(s)‖ds,
t0 t0
et donc, en appliquant le lemme de Gronwall, ‖x(t)‖ ≤ (‖x(t0 )‖ + β(t+ − t0 ))eα(t+ −t0 ) . Ainsi
‖x(t)‖ est borné sur [t0 , t+ [, ce qui contredit le fait que ‖x(t)‖ → ∞ quand t → t+ . t
u
4.3 Flots, portraits de phase
Considérons à nouveau une équation diérentielle autonome
x′ (t) = f x(t) , (4.3)
108
4.3 Flots, portraits de phase
où le champ de vecteurs f : Ω ⊂ Rn → Rn est supposé de classe C 1 . Une
des spécicités de cette équation est qu’elle ne dépend pas explicitement
du temps (d’où le qualicatif autonome). En particulier, les solutions sont
invariantes par translation du temps : si x(·) est solution, x(t 0 + ·) aussi.
Proposition 4.4. Soit x(·) : ]t− , t+ [ → Ω une solution maximale de (4.3) et
t0 R. Alors x̄ : t 7→ x(t + t0 ), dénie sur ]t− − t0 , t+ − t0 [, est également
une solution maximale de (4.3).
Ainsi le temps n’a pas de rôle intrinsèque ici et on pourra se limiter aux
données initiales en t = 0. On introduit donc la notation suivante: pour
v Ω, xv (·) désigne la solution maximale de l’équation (4.3) xv (0) = v, et
on note Iv = ]t− , t+ [ son intervalle de dénition.
Dénition 4.3. Le ot du champ de vecteurs f (ou de l’équation x ′ = f (x))
est l’application (t, v) 7→ φ(t, v) où φ(t, v) = xv (t). Elle est dénie sur
l’ensemble des couples (t, v) tels que v Ω et t Iv .
Par dénition, l’application partielle à v xé, t 7→ φ(t, v), est la solution
maximale xv (·). En particulier φ(·, v) est l’unique solution du système
{∂
∂t
φ(t, v) = f φ(t, v) ,
∀t Iv
φ(0, v) = v,
Pour une étude qualitative de l’équation diérentielle, il est important
d’étudier plutôt l’autre application partielle, φ t : x 7→ φ(t, x), pour t xé.
De façon imagée, φt (x) est la position à l’instant t d’un corps transporté par
l’équation diérentielle qui se trouvait à la position x en t = 0. Autrement
dit, φt est l’application qui « envoie » x(0) sur x(t) pour toute solution x(·).
Exemple 4.3. Si f est linéaire, i.e. f (x) = Ax, A Mn (R), le ot est donné
par l’exponentielle de A :
φt (x) = etA x, ∀(t, x) R × Rn
Ainsi le ot est une généralisation de l’exponentielle de matrice. Il possède
des propriétés similaires.
Proposition 4.5 (formule du ot). Si t1 Iv et t2 Ixv (t1 ) , alors t1 +t2
Iv et
φt1 +t2 (v) = φt2 ◦ φt1 (v)
En particulier, si t Iv ,
φ−t ◦ φt (v) = v
109
4 Théorie générale des équations diérentielles
Démonstration. D’après la proposition sur l’invariance par translation du temps, la fonction
t 7→ φt1+t (v) est
la solution maximale valant φt1 (v) en t = 0, ce qui est la dénition de la fonction
t 7→ φt φt1 (v) . t
u
Remarque 4.4. La formule du ot peut aussi se lire de la façon suivante : si
x(·) est une solution de (4.3), alors
x(t) = φt−t0 x(t0 )
pour tous t0 et t dans l’intervalle de dénition de x(·).
Le domaine de dénition du ot est l’ensemble
D = (t, v) R × Ω : t Iv
Pour obtenir des propriétés intéressantes sur le ot (continuité, diérentia-
bilité), il est nécessaire de montrer d’abord que son domaine de dénition D
est un ouvert de R × Ω. Nous le verrons dans la section suivante.
Il y a cependant déjà un cas où cela est évident : si f est un champ de
vecteurs complet sur Ω, c’est-à-dire si Iv = R pour tout v Ω, le domaine
de dénition du ot est D = R × Ω. On peut alors réécrire les propriétés du
ot de façon globale : pour tous t, s R,
1. φt ◦ φs = φt+s ;
2. φ−t ◦ φt = id, c’est-à-dire (φt )−1 = φ−t ;
3. φ0 = id ;
4. ∂t
∂
φt = f ◦ φ t .
Les trois premières propriétés montrent en particulier que l’ensemble des
applications φt , t R, forme un groupe à un paramètre.
Orbites et portraits de phase
Dénition 4.4. On appelle orbite d’un point v Ω (ou trajectoire passant
par v) l’ensemble
Ov = φt (v) : t Iv = xv (t) : t Iv
L’orbite de v est donc la courbe tracée sur Rn par la solution maximale xv (·).
La propriété d’invariance par translation du temps implique que, pour
tout point w Ov , on a Ow = Ov . En eet, dans ce cas, il existe un instant
t0 tel que w = φt0 (v). Tout point y de Ow s’écrit alors y = φt (w) = φt+t0 (v),
c’est-à-dire y Ov . En particulier, ceci implique que deux orbites distinctes
110
4.4 Linéarisation et perturbation du ot
ne peuvent pas se croiser. Chaque point de Ω appartient donc à une et une
seule orbite.
La partition de Ω en orbites s’appelle le portrait de phase du champ de
vecteurs. On distingue trois possibilité pour l’orbite d’un point v.
(i) Soit l’orbite est réduite à un point, i.e. Ov = v : un tel point vérie
nécessairement f (v) = 0. C’est ce que l’on appelle un point d’équilibre
(voir le chapitre 5).
(ii) Soit l’orbite est une courbe (non réduite à un point) ayant un point
double : il existe alors des instants t1 6= t2 tels que xv (t1 ) = xv (t2 ). En
posant T = t2 − t1 et w = φt1 (v), ceci s’écrit φT (w) = w d’après la
formule du ot (Proposition 4.5). On obtient alors, pour t R,
xw (t + T ) = φt+T (w) = φt (φT (w)) = φt (w) = xw (t),
c’est-à-dire que la solution xw (·), et donc xv (·), est T -périodique. On
parlera dans ce cas d’orbite périodique.
(iii) Soit l’orbite est une courbe ouverte, sans aucun point double, i.e. φ t (v) 6=
φs (v) pour tous t 6= s.
On porte habituellement sur le dessin d’un portrait de phase le sens de
parcours des orbites.
Exemple 4.4. Considérons le champ de vecteurs linéaire f (x) = Ax dans R 2 ,
et supposons que la matrice A M2 (R) a deux valeurs propres réelles et
distinctes λ1 < λ2 . L’étude réalisée dans la section 2.4 permet de déterminer
la forme du portrait de phase en fonction de λ1 et λ2 . Nous avons représenté
les diérentes possibilités dans la gure 4.1, où nous avons noté E1 et E2 les
sous-espaces propres associés à λ1 et λ2 .
4.4 Linéarisation et perturbation du ot
Dans la pratique, on n’a quasiment jamais une connaissance exacte des con-
ditions initiales (ni de l’équation elle-même, en fait). Il est donc primordial
de savoir ce qui se passe pour la solution d’une équation diérentielle lorsque
la condition initiale est perturbée (ou quand l’équation elle-même est per-
turbée) : comment varie l’intervalle de dénition et les valeurs de la solution,
peut-on donner un ordre de grandeur de ces variations,. . . ? Les réponses à
ces questions sont contenues dans le théorème ci-dessous : donnons d’abord
111
4 Théorie générale des équations diérentielles
x2 x2
E1 E2 E1 E2
x2
E1 E2
x1 x1 x1
λ1 < 0 < λ2
λ1 < λ 2 < 0 0 < λ1 < λ 2
x2 x2 E2 = ker A
E1 E2 = ker A E1
x1 x1
0 = λ1 < λ 2
λ1 < λ 2 = 0
Fig. 4.1. Exemples de portraits de phase pour f (x) = Ax dans R2 .
le théorème et sa preuve, nous expliquerons ensuite pourquoi il permet de
répondre aux questions précédentes.
Rappelons que nous considérons une équation diérentielle autonome
x′ (t) = f x(t) , (4.3)
où le champ de vecteurs f : Ω ⊂ Rn → Rn est supposé de classe C 1 , et que,
pour v Ω, xv (·) désigne la solution maximale telle que xv (0) = 0.
Théorème 4.3. Soit v Ω. Supposons que [0, T ] est inclus dans l’intervalle
de dénition Iv de xv (·). Il existe alors un voisinage V ⊂ Ω de v tel que,
pour tout w V, [0, T ] est inclus dans l’intervalle de dénition I w de xw (·).
De plus, l’application w 7→ xw [0,T ] est de classe C 1 sur V et sa diéren-
tielle en v est l’application qui à v Rn associe la solution de
′
y (t) = Df xv (t) · y(t),
t [0, T ]
y(0) = v,
Remarque 4.5. La notation xw [0,T ] désigne la restriction de xw (·) à l’intervalle
[0, T ]. Pour alléger les notations, on omettra la restriction dans la preuve ci-
dessous et on écrira xw (·) pour xw [0,T ] .
112
4.4 Linéarisation et perturbation du ot
*Démonstration. Soit F = C 1 ([0, T ], Ω) l’ensemble des fonctions x(·) : [0, T ] → Ω de classe
C 1 ;c’est un ouvert de C 1 ([0, T ], Rn ), qui, muni de la norme C 1 , est un espace de Banach (voir
section 1.5). Considérons l’application Φ : F × Ω → C 1 ([0, T ], Rn ) dénie par
∫ .
Φ x(·), w = x(·) − w − f (x(s))ds,
0
qui est une application C puisque
1
f est de classe C . Nous voulons appliquer le théorème
1
des fonctions
implicites
à Φ en xv (·), v . Pour cela, nous devons vérier que l’application
Dx(·) Φ xv (·), v est inversible dans C 1 ([0, T ], Rn ). Calculons cette diérentielle :
∫ .
Dx(·) Φ xv (·), v · x(·) = x(·) − Df xv (s) · x(s) ds (4.4)
0
Elle est inversible si, y(·) C 1 ([0, T ], Rn ) étant
donné,
on peut toujours trouver une unique
fonction x(·) C 1 ([0, T ], Rn ) telle que Dx(·) Φ xv (·), v · x(·) = y(·), soit
∫ .
x(·) − Df xv (s) · x(s) ds = y(·)
0
En dérivant par rapport à t (y est C 1 ), on voit qu’il s’agit de résoudre :
{
(x)′ (t) = Df xv (t) · x(t) + y ′ (t), ∀t ]0, T [,
(4.5)
x(0) = y(0)
Or l’équation diérentielle ci-dessus est ane. Nous savons donc que (4.5) admet toujours une
unique solution sur ]0, T [ qui est de plus dans C 1 ([0, T ], Rn ). Le théorème des fonctions implicites
nous dit alors qu’il existe un voisinage V de v dans Ω et une application ψ : V → F tels que,
pour tout w V,
Φ ψ(w), w = 0,
c’est-à-dire que ψ(w) est solution de l’équation (4.3) et vérie xw (0) = w. Ceci montre la première
partie du théorème.
B Toujours d’après le théorème des fonctions implicites, l’application ψ est de classe C 1 et sa
diérentielle en v est [ ]−1
− Dx(·) Φ xv (·), v ◦ Dw Φ xv (·), w
Comme Dw Φ xv (·), v · v = −v, on obtient, en utilisant à nouveau l’expression (4.4) de
Dx(·) Φ xv (·), v , que Dψ(v) · v est la solution de (4.5) avec y(·) ≡ v, c’est-à-dire que Dψ(v) · v
est la solution de {
(x)′ (t) = Df xv (t) · x(t),
x(0) = v,
ce qui montre la seconde partie du théorème. t
u
Conséquences et signication du théorème 4.3
a. Domaine de dénition du ot
La première conséquence est que, pour toute condition initiale w dans le
voisinage V de v, on a [0, T ] ⊂ Iw . Autrement dit, de façon informelle, si
une solution est dénie sur un temps « long », les solutions voisines sont
également dénies sur un temps « long ». Ceci se traduit par une propriété
du domaine de dénition du ot.
113
4 Théorie générale des équations diérentielles
Corollaire 4.2. Le ot φ est déni sur un ouvert D de R×Ω. En particulier,
si (t, v) D, alors l’application φt est dénie sur un voisinage de v (voir
gure 4.2).
w xw (·)
φt(w) = xw (t)
v xv (·) φt(v) = xv (t)
V φt
φt(V)
Fig. 4.2. Domaine de dénition du ot φt .
Cette propriété est très importante pour l’étude du ot et de sa dépen-
dance par rapport aux conditions initiales : en eet, φ et φt étant dénies
sur des ouverts, il est maintenant possible d’étudier leur continuité et leur
diérentiabilité.
Démonstration. Rappelons que le domaine de dénition du ot est
D = (t, v) R × Ω : t Iv
Soit (t, v) D. Puisque l’intervalle maximal Iv est ouvert (théorème 4.2), la solution maximale
xv (·) est dénie sur un intervalle [0, T ] ⊂ Iv contenant t. Le théorème 4.3 implique alors que, pour
tout w dans un voisinage V de v, on a encore [0, T ] ⊂ Iw , c’est-à-dire que l’ensemble ]0, T [ ×V,
qui est un voisinage de (t, v) dans R × Ω, est inclus dans D. t
u
b. Dépendance continue
L’application w 7→ xw [0,T ] dénie dans le théorème 4.3 est l’application
qui à une condition initiale dans V associe la solution correspondante de
l’équation diérentielle sur [0, T ]. Cette application étant C 1 , elle est en
particulier continue :
les solutions de l’équation diérentielle (4.3) dépendent de façon continue
de leur condition initiale.
C’est une propriété essentielle : en eet elle signie, grosso modo, que la
solution calculée à partir d’une approximation de la condition initiale est
une approximation de la vraie solution. Ceci justie l’utilisation des équa-
tions diérentielles dans la modélisation de phénomènes réels, où l’on ne
114
4.4 Linéarisation et perturbation du ot
dispose que d’une connaissance approximative des données, et de méthodes
numériques pour les résoudre.
Notons que la dépendance continue peut également s’obtenir à partir
d’une estimation de la divergence des solutions, qui résulte du lemme de
Gronwall (lemme 4.1).
Lemme 4.2. Si, pour tout x Ω, la norme de Df (x) est majorée par une
constante K > 0, alors pour tout couple v, w dans Ω,
‖φt (w) − φt (v)‖ ≤ eKt ‖w − v‖, ∀t Iv ∩ Iw
*Démonstration. D’après les hypothèses, f est lipschitzienne de rapport K sur Ω. On peut
donc écrire :
∥ ∫ t ∥
∥ ∥
∥
‖φt (w) − φt (v)‖ = ∥w − v + (f (φs (w)) − f (φs (v)))ds∥
∥
0
∫ t
≤ ‖w − v‖ + K ‖φs (w) − φs (v)‖ ds
0
On conclut alors en appliquant le lemme de Gronwall. t
u
c. Équation linéarisée
La dernière partie du théorème 4.3 arme que les valeurs de la diérentielle
de l’application ψ : w 7→ xw (·) sont les solutions d’une certaine équation
linéaire. Cette équation linéaire joue un rôle important dans la suite.
Dénition 4.5. Soit x(·) : [0, T ] → Ω ⊂ Rn une solution de (4.3).
L’équation linéaire dans Rn
y ′ (t) = Df x(t) · y(t), t [0, T ],
est appelée équation linéarisée de (4.3) autour de x(·).
D’après le théorème 4.3, pour tout v Rn , Dψ(v) · v est la solution de
l’équation linéarisée autour de xv (·) valant v en t = 0. En notant R(t, s)
la résolvante de l’équation linéarisée autour de xv (·), on obtient, pour tout
t [0, T ],
Dψ(v) · v (t) = R(t, 0)v
Intéressons-nous maintenant à l’application φt . Fixons un point v de Ω
et un instant t Iv . D’après le théorème 4.3, l’application φt est dénie et
de classe C 1 sur un voisinage V de v dans Ω. Avec les notations ci-dessus,
on a clairement, pour tout w V, φt (w) = xw (t) = (ψ(w))(t) et donc
Dφt (v) · v = Dψ(v) · v (t)
On en déduit le résultat suivant.
115
4 Théorie générale des équations diérentielles
Corollaire 4.3. Soient v Ω et t Iv . L’application φt est de classe C 1
sur un voisinage V de v et
Dφt (v) = R(t, 0),
où R est la résolvante de l’équation linéarisée
y ′ (s) = Df xv (s) · y(s), s [0, t]
On peut donner une explication plus intuitive du rôle de l’équation
linéarisée. On choisit une solution xv (·) : [0, T ] → Ω de l’équation diéren-
φt(v + δv)
v + δv xv+δv (·)
δx(·) Dφt(v) · δv + o(δv)
δv
v xv (·) φt(v)
V
φt(V)
Fig. 4.3. Perturbation du ot.
tielle, de condition initiale xv (0) = v. Considérons maintenant une pertur-
bation v + v de la condition initiale et écrivons la solution correspondante,
xv+δv (·), sous la forme d’une perturbation xv (·)+x(·) de la solution d’origine
(voir gure 4.3). Cette perturbation étant une solution, elle doit satisfaire
l’équation diérentielle :
x′v (t) + (x)′ (t) = f xv (t) + x(t) , t [0, T ]
En utilisant un développement limité de f en xv (t) (à t xé) :
f xv (t) + x(t) = f xv (t) + Df xv (t) · x(t) + reste,
et en tenant compte du fait que x′v (t) = f xv (t) , on obtient
(x)′ (t) = Df xv (t) · x(t) + reste
En ne conservant que les « termes
du premier ordre » on retrouve l’équation
linéarisée (x) (t) = Df xv (t) · x(t). Autrement dit, la solution perturbée
′
116
4.4 Linéarisation et perturbation du ot
s’écrit xv (·) + x(·) + reste, où le « terme du premier ordre » x(·) est la
solution de
(x)′ (t) = Df xv (t) · (x)(t),
(x)(0) = v
L’équation linéarisée indique donc comment se propage au cours du temps
une perturbation de la condition initiale. Bien entendu ce qui précède n’est
pas un raisonnement rigoureux (les restes posent évidemment quelques prob-
lèmes!), seulement une heuristique.
Remarque 4.6. L’équation linéarisée est en général une équation linéaire non-
autonome, on ne sait donc pas a priori calculer ses solutions. Cependant, si
v est un point d’équilibre, la solution maximale xv (·) est la fonction con-
stante xv (·) ≡ v dénie sur tout R, et dans ce cas l’équation linéarisée est
autonome :
y ′ (t) = Df (v) · y(t), t R
Exemple d’application : champs de vecteurs à divergence nulle. Rappelons
que la divergence d’un champ de vecteurs f : Ω ⊂ Rn → Rn , noté f (x) =
(f1 (x), , fn (x)), est dénie comme
∂f1 ∂fn
div f (x) = (x) + · · · + (x) = tr Df (x)
∂x1 ∂xn
Considérons alors un temps t et un domaine Γ de Rn , supposé inclus dans
le domaine de dénition de φt . Notons Γt = φt (Γ ) le transport de Γ de 0 à t
par l’équation (4.3). En utilisant la formule de changement de variable dans
les intégrales multiples, on obtient
∫ ∫
vol(Γt ) = dµ = det Dφt (x)dµ,
φt (Γ ) Γ
où, d’après le corollaire 4.3, Dφt (x) est la résolvante de l’équation linéarisée.
Supposons maintenant que div f (x) = tr Df (x) ≡ 0. Le théorème de
Liouville (corollaire 3.1) implique que le déterminant de la résolvante du
linéarisé est égal à 1, et donc que det Dφt (x) = 1. On a alors vol(Γt ) =
vol(Γ ) :
si f est un champ de divergence nulle, le ot de f préserve le volume.
117
4 Théorie générale des équations diérentielles
*Dépendance par rapport à un paramètre
Considérons maintenant une famille d’équations diérentielles dépendant
d’un paramètre λ Rp ,
x′ (t) = fλ x(t) , (4.6)
où chaque fλ est un champ de vecteurs sur Ω ⊂ Rn . Supposons égale-
ment que f (x, λ) = fλ (x) est une application de classe C 1 . On s’intéresse à
la dépendance des solutions de ces équations diérentielles par rapport au
paramètre λ.
Remarquons d’abord que l’équation (4.6) est équivalente à
′
x (t) = f x(t), λ ,
λ′ (t) = 0,
c’est-à-dire à l’équation diérentielle dans Rn+p associée au champ de
vecteurs F (x, λ) = (f (x, λ), 0). Ainsi, les solutions de (4.6) dépendent du
paramètre λ de la même façon que les solutions de l’équation diérentielle
(x, λ)′ (t) = F (x, λ)(t) dépendent de leur condition initiale. D’après ce
que nous avons vu précédemment dans cette section, nous avons donc les
propriétés suivantes.
• Les solutions φλ (·, v) de (4.6) dépendent de façon C 1 , donc continue, du
paramètre λ (et de la condition initiale v).
• La diérentielle de l’application (v, λ) 7→ φλ (·, v) en un point (v, λ) est
l’application qui à (v, λ) associe la solution y(·) de l’équation diéren-
tielle ane
′
y (t) = Dx f x̄(t), λ · y(t) + Dλ f x̄(t), λ · λ,
(4.7)
y(0) = v,
où x̄(·) = φλ (·, v). Autrement dit, en utilisant la formule de variation de
la constante,
∫ t
y(t) = R(t, 0)v + R(t, s)Dλ f x̄(s), λ · λ ds,
0
où R(t, s) est la résolvante de l’équation y ′ (t) = Dx f x̄(t), λ · y(t).
118
4.4 Linéarisation et perturbation du ot
*Application de Poincaré
Supposons que l’équation (4.3) admette une solution T -périodique non triv-
iale x(·) et notons x(0) = x0 . Traçons un hyperplan ane Σ passant par x0
et transverse à x(·) en x0 , c’est-à-dire que f (x0 ) n’est pas parallèle à Σ (notez
que f (x0 ) 6= 0 puisque x(·) est non triviale). Quitte à faire un changement
linéaire de coordonnées, on suppose que f (x0 ) = e1 et que Σ est l’hyperplan
ane passant par x0 parallèle à Vecte2 , , en , où e1 , , en désignent
comme d’habitude les vecteurs de la base canonique de Rn .
Proposition 4.6. Il existe des voisinages V1 , V2 ⊂ Rn de x0 et une fonction
η : V1 → R de classe C 1 tels que, pour tout z dans Σ ∩ V1 , φT +η(z) (z)
appartient à Σ ∩ V2 . L’application G : Σ ∩ V1 → Σ ∩ V2 ainsi dénie est un
C 1 -diéomorphisme : c’est l’application de premier retour de Poincaré.
On a en outre, pour tout (s, z) R × Rn−1 ,
s 1 ∗ s
DφT (x0 ) · = · (4.8)
z 0 Dz G(x0 ) z
Démonstration. Quitte à faire une translation sur les coordonnées, on suppose x 0 = 0, et par
conséquent Σ = Vecte2 , , en . Appelons p1 : Rn → Re1 la projection sur Re1 parallèlement
à Σ et p̃ : Rn → Σ la projection complémentaire sur Σ. Ainsi, Σ coïncide avec l’ensemble des
x Rn tels que p1 (x) = 0.
B Soit φ le ot du champ de vecteurs f (voir dénition 4.3). On cherche
les trajectoires qui
coupent l’hyperplan Σ, c’est-à-dire les couples (t, x) tels que p1 φ(t, x) = 0. Or l’application
p1 ◦ φ est de classe C 1 , p1 ◦ φ(T, x0 ) = 0 et
∂(p1 ◦ φ) ∂φ
(T, x0 ) = p1 (T, x0 ) = p1 f (x(T ) = p1 f (x0 ) 6= 0
∂t ∂t
Les hypothèses du théorème des fonctions implicites sont satisfaites : il existe donc un voisinage
V ⊂ Rn de x0 et une fonction η : V → R telle que φ(T + η(z), z) Σ pour z V. On peut
donc dénir l’application de Poincaré G : Σ ∩ V → Σ par G(z) = p̃ ◦ φ(T + η(z), z) pour tout
z Σ ∩ V.
B Commençons par montrer que la diérentielle du ot DφT (x0 ) = Dx φ(T, x0 ) est de la forme
annoncée. Remarquons que, la solution x(·) étant T -périodique, on a φ T x(t) = x(t) pour tout
t. En dérivant par rapport à t puis en prenant la valeur en t = 0, on obtient
DφT (x0 ) · f (x0 ) = f (x0 )
Ainsi f (x0 ) = e1 est vecteur propre de DφT (x0 ) associé à la valeur propre 1 et
( ) ( ) ( )
s 1 p1 Dz φ(T, x0 ) s
DφT (x0 ) · = ·
z 0 p̃ Dz φ(T, x0 ) z
Or la diérentielle de G en x0 est l’application linéaire :
[ ]
z Σ 7→ Dz G(x0 ) · z = p̃ Dt φ(T, x0 ) · Dη(x0 ) · z + Dz φ(T, x0 ) · z
Dans cette expression, Dη(x0 ) · z est un réel et le vecteur
119
4 Théorie générale des équations diérentielles
∂φ
Dt φ(T, x0 ) · Dη(x0 ) · z = Dη(x0 ) · z (T, x0 ) = Dη(x0 ) · z f (x0 ),
∂t
est annulé par p̃. On en déduit que Dz G(x0 ) = p̃ Dz φ(T, x0 ) , d’où l’expression (4.8) de DφT (x0 ).
B Il reste à montrer que G est un C 1 -diéomorphisme entre des voisinages de x0 (dénition 1.4).
Le ot φT étant lui-même un C 1 -diéomorphisme, sa diérentielle DφT (x0 ) est inversible. Il ré-
sulte alors de l’expression (4.8) que Dz G(x0 ) est également inversible. Par conséquent le théorème
d’inversion locale s’applique à G en x0 et permet de conclure. t
u
Remarque 4.7. L’application de Poincaré ne dépend que de la section Σ
transverse à l’orbite, elle a donc un sens géométrique très fort. Notons d’autre
part que cette construction permet de passer de l’étude d’un ot en dimen-
sion n à celui d’un diéomorphisme local en dimension n − 1.
4.5 Exercices corrigés
Exercice 4.1 (Durée de vie). On considère l’équation diérentielle dans
R2 suivante, issue de la modélisation des solitons (voir l’exercice 5.5 pour les
détails) : { ′
x = 2y,
(4.9)
y ′ = −3x2 − 12x
1. Montrer que la fonction C : R2 → R, C(x, y) = x3 +6x2 +y 2 , est constante
le long des solutions de (4.9).
Les courbes de niveau de C sont représentées gure 4.4. On note la courbe
de niveau (en gras sur la gure) qui passe par le point A = (−4, 0) et Ω la
région à l’intérieur de la boucle formée par .
A Ω
Fig. 4.4. Courbes de niveau: C(x, y) = constante.
120
4.5 Exercices corrigés
2. Montrer que toute solution maximale de (4.9) issue d’un point de Ω est
dénie sur tout R.
3. Que peut-on dire sur l’intervalle de dénition d’une solution issue d’un
point v de (plusieurs possibilités selon la position de v)?
4. Considérons maintenant l’équation diérentielle
{ ′
x = 2y + C(x, y) − 32 y,
(4.10)
y ′ = −3x2 − 12x + C(x, y) − 32 x
Que peut-on dire sur la durée de vie des solutions issues d’un point de ? Et
de celles issues d’un point de Ω? (Indication : remarquer que C(x, y) = 32
sur ).
5. Question subsidiaire : dessiner le portrait de phase de l’équation (4.9),
en identiant les diérents types d’orbites.
Corrigé de l’exercice 4.1.
1. Il faut montrer que, pour toute solution (x(t), y(t)) de l’équation (4.9),
la fonction t 7→ C(x(t), y(t)) est constante. Or
d
C(x(t), y(t)) = 3x2 x′ + 12xx′ + 2yy ′
dt
En remplaçant x′ et y ′ par les valeurs données dans l’équation (4.9), on
obtient bien dtd C(x(t), y(t)) = 0.
2. Toute solution est incluse dans une courbe de niveau de C. Les courbes
de niveau dans Ω étant compactes, les solutions sont dénies sur tout R.
3. Soit Xv (·) = (xv (·), yv (·)) la solution issue d’un point v . On sait déjà
que toutes les valeurs de Xv (·) sont contenues dans . Remarquons alors que
est composée de 4 parties : l’équilibre A = (−4, 0), la boucle c à droite
de l’équilibre, et les deux branches − et + à gauche ;chacune de ces parties
est stable par le ot de (4.9). Traitons séparément chaque partie.
• Si v = A, Xv (·) ≡ v est dénie sur tout R.
• Si v c , les valeurs Xv (t) sont contenues dans le compact ̄c , la solution
Xv (·) est donc dénie sur R.
• Si v + : comme x′ > 0, pour t ≥ 0 le point Xv (t) est dans la portion
de + comprise entre v et l’équilibre : cette portion étant contenue dans
un compact, la solution Xv (·) a une durée de vie innie pour les temps
positifs. Elle est donc dénie sur un intervalle de la forme ]t − , +∞[, où
t− < 0 pourrait être inni.
121
4 Théorie générale des équations diérentielles
• Si v − : comme x′ < 0, pour t ≤ 0 le point Xv (t) est dans la portion
de − comprise entre v et l’équilibre : cette portion étant contenue dans
un compact, la solution Xv (·) a une durée de vie innie pour les temps
positifs. Elle est donc dénie sur un intervalle de la forme ] − ∞, t+ [, où
t+ > 0 (éventuellement inni).
Remarque 4.8. On peut en fait montrer que, pour v appartenant à + (resp.
− ), la durée de vie dans les temps négatifs (resp. positifs) est nie. Sup-
posons par exemple v + (la preuve est la même sur − ). On veut montrer
que t− > −∞. En notant que x′ 2y = 1 (y ne s’annule pas sur + ), on
obtient ∫ 0 ′
x
t− = − dt
t− 2y
Comme C(x, y) = 32 le long de + √ (il sut de prendre la valeur de C en
A) et que y y est positif, on a y = 32 − x3 − 6x2 . D’autre part, x′ étant
positif sur + , on peut faire le changement de variable t → x, les valeurs de
x étant comprises entre une valeur minimale xmin ≥ −∞ et vx , la première
coordonnée de v = (vx , vy ). Ainsi,
∫ 0 ∫ vx
x′ dx
t− = − √ dt ≥ − √
3 2 3 2
t− 2 32 − x − 6x −∞ 2 32 − x − 6x
Or la dernière intégrale ci-dessus est nie, comme le montre le calcul suivant :
∫ vx ∫ vx ∫ −12
dx dx dx
√ ≤ √ +
3 2 3 2
−∞ 2 32 − x − 6x −12 2 32 − x − 6x −∞ 2 32 − x3 2
∫ vx ∫ −12
dx dx
< √ + √ < ∞
2 32 − x 3 − 6x2 2(−x) 3/2
−12 −∞
Le temps t− est donc ni : t− > −∞.
4. Soit v et Xv (·) la solution de (4.9) issue de v, dont toutes les valeurs
sont contenues dans . Alors Xv (·) est aussi la solution de (4.10) issue de
v puisque C(Xv (t))−32 ≡ 0. On connaît donc son intervalle de dénition
grâce à la question précédente.
De plus, ceci montre que, pour tout v , l’orbite de v est contenue dans
;autrement dit, est égale à l’union des orbites de ses points. Considérons
alors la solution Xv (·) de (4.10) issue d’un point v Ω. L’orbite correspon-
dante ne peut couper , ce qui implique que toute valeur X v (t) appartient
à Ω, et donc a fortiori au compact Ω. La solution Xv (·) est ainsi dénie sur
tout R.
122
4.5 Exercices corrigés
5. Cette question se traite par un raisonnement similaire à celui de l’exercice
4.2: A et 0 étant les seuls équilibres, on montre ainsi que chaque ligne de
niveau de C dans Ω est une orbite périodique et que chaque composante
connexe d’une ligne de niveau hors de Ω est une orbite, de même que c , +
et − .
Exercice 4.2 (Modèle prédateur-proie).
Le modèle de Volterra. Le premier modèle de type “prédateur-proie” a
été proposé par le mathématicien italien Vito Volterra au début des années
1920. Le but de ce modèle était d’expliquer le phénomène suivant, observé à
l’époque par le bureau de la pêche italienne de Trieste : pendant la Première
Guerre Mondiale, période où la pêche était très réduite, la proportion de
requins et autres prédateurs impropres à la consommation qu’on attrapait
était nettement supérieure à ce qu’elle était avant-guerre, et à ce qu’elle
redevint ensuite.
Le modèle de Volterra est le suivant. Soit x(t) le nombre de proies (i.e.
les poissons comestibles) et y(t) le nombre de prédateurs (requins et autres).
On va écrire un système diérentiel en faisant les hypothèses suivantes :
• la population des proies n’est limitée que par les prédateurs et en leur
absence croît exponentiellement ;
• la population des prédateurs est totalement dépendante des proies et en
leur absence décroît exponentiellement.
En termes mathématiques, l’énoncé nous dit qu’en l’absence d’interactions
entre proies et prédateurs, on a
x′ (t) = ax(t), y ′ (t) = −cy(t),
où a et c sont des constantes positives. D’autre part, chaque rencontre entre
proie et prédateur est bonne pour le prédateur et mauvaise pour la proie.
On peut supposer le nombre de rencontres proportionnel au produit x(t)y(t).
Ainsi, l’évolution avec interaction peut être décrite par le système
′
x (t) = ax(t) − bx(t)y(t),
y ′ (t) = −cy(t) + f x(t)y(t)
Si l’on connaît les constantes a, b, c, f et les population à un instant t 0 ,
ce système décrit l’évolution future de chaque population : est-ce qu’elles
vont augmenter, ou diminuer? À quelle vitesse? Pourquoi la pêche inuence-
t-elle le nombre de prédateurs? Le but de l’exercice est de répondre à ces
interrogations.
123
4 Théorie générale des équations diérentielles
Considérons l’équation du modèle “prédateur-proie” de Volterra,
′
x = ax − bxy,
(4.11)
y ′ = −cy + f xy
1. Montrer que l’équation (4.11) ne peut pas induire de populations x(t) ou
y(t) négatives.
2. Montrer qu’il existe une fonction de la forme V (x, y) = F (x) + G(y) sur
]0, +∞[2 qui est constante le long des solutions de (4.11).
La forme des courbes de niveau de V ,
(x, y) ]0, +∞[2 : V (x, y) = Const ,
est donnée gure 4.5 (avec cf = 1, ab = 2), les régions A, B, C, D étant
séparées par les droites x = cf et y = ab.
C B
D A
x
Fig. 4.5. Lignes de niveau de V (x, y)
3. En déduire que l’équation est complète sur ]0, +∞[2 .
4. Montrer le résultat général suivant.
Soit f : Ω ⊂ Rn → Rn un champ de vecteur et x(·) une solution de x′ = f (x)
dénie sur [0, +∞[ ayant une limite x∞ Ω en +∞. Alors x∞ est un
équilibre (i.e. f (x∞ ) = 0).
5. Soit z(·) = ((x(·), y(·)) une solution maximale de l’équation diéren-
tielle (4.11). Montrer que, si z(t) reste dans la région A pour tout t ≥ 0,
alors z(t) admet une limite quand t → +∞.
124
4.5 Exercices corrigés
6. En déduire que, si z(0) A, alors la solution z(·) entre dans la région B
au bout d’un temps ni.
7. Montrer que toute solution z(·) dans ]0, +∞[2 possède un point double,
c’est-à-dire qu’il existe t1 6= t2 tels que z(t1 ) = z(t2 ).
8. En déduire que toute solution dans ]0, +∞[2 est périodique et dessiner le
portrait de phase.
9. Vérier que cf est la population moyenne de proies et que ab est la pop-
ulation moyenne de prédateurs (on calculera la moyenne sur une période).
Expliquer l’inuence de la pêche sur les deux populations.
Corrigé de l’exercice 4.2. On notera g(x, y) = (a − by)x, (f x − c)y
le champ de vecteurs déni par l’équation (4.11).
1. Remarquons que les demi-droites Ox+ = x > 0, y = 0 et Oy + = x =
0, y > 0, ainsi que l’origine, sont des orbites de l’équation diérentielle. En
eet, sur Ox+ , le champ de vecteurs vaut g(x, 0) = (ax, 0). Il est donc facile
de vérier que
(x, y)(t) = x0 eat , 0
est la solution issue d’un point (x0 , 0) Ox+ en t = 0. Cette solution est
dénie pour tout t R et décrit tout Ox+ , c’est-à-dire que Ox+ est l’orbite
de (x0 , 0). De même, la solution issue d’un point (0, y0 ) Oy + est
(x, y)(t) = 0, y0 e−ct ,
ce qui implique que Oy + est l’orbite de (0, y0 ).
Puisque deux orbites ne peuvent pas se couper, l’orbite d’un point du quad-
rant positif ]0, +∞[2 ne peut pas en sortir. Autrement dit, si les populations
x(t) et y(t) sont positives en un instant t donné, les fonctions x(·) et y(·)
restent positives sur tout leur ensemble de dénition.
2. On cherche une fonction V (x, y) = F (x)+G(y) constante sur les solutions
de (4.11) dans ]0, +∞[2 , c’est-à-dire une fonction telle que
d
V x(t), y(t) = F ′ x(t) x′ (t) + G′ y(t) y ′ (t) = 0
dt
Or une simple combinaison des deux lignes de l’équation diérentielle montre
qu’une solution (x, y)(·) dans ]0, +∞[2 vérie
f x(t) − c ′ by(t) − a ′
x (t) + y (t) = 0
x(t) y(t)
125
4 Théorie générale des équations diérentielles
Il sut donc de choisir F et G tels que
c a
F ′ (x) = f − , et G′ (y) = b − ,
x y
soit par exemple,
V (x, y) = (f x − c log x) + (by − a log y)
(on peut ajouter une constante quelconque à cette fonction).
3. Soit z(·) = (x, y)(·) une solution maximale de l’équation (4.11) dans
]0, +∞[2 . Puisque V est constante le long de z(·), cette solution est incluse
dans la ligne de niveau V (x, y) = V (z(t0 )), où t0 est un point quelconque
de l’intervalle de dénition de z(·). Les lignes de niveau de V étant com-
pactes, la solution z(·) est contenue dans un compact, donc dénie pour
tout t R. Ainsi l’équation est complète sur ]0, +∞[2 .
4. En posant x(s) = φs (x(0)), la solution issue de x∞ est
φt (x∞ ) = φt lim φs x(0)
s→∞
L’application φt étant continue, on obtient
φt (x∞ ) = lim φt ◦ φs x(0) = lim φt+s x(0) = x∞ ,
s→∞ s→∞
ce qui implique que x∞ est un équilibre.
5. La région A est l’ensemble ouvert des (x, y) ]0, +∞[2 tels que x > cf
et y < ab. De même, B, C, D sont les ensembles ouverts de ]0, +∞[2 tels
que, respectivement, x > cf et y > ab, x < cf et y > ab, x < cf et
y < ab.
Supposons que z(t) = (x(t), y(t)) reste dans A pour tout t ≥ 0. D’après
l’équation (4.11), dans la région A les dérivées x′ et y ′ sont positives, ce
qui implique que les fonctions x(·) et y(·) sont croissantes. D’autre part
y(t) est majorée sur A (par ab) et x(t) est majorée également: en eet, la
solution z(·) est incluse dans la ligne de niveau V (x, y) = V (z(0)) d’après
la question 2., et cet ensemble est un compact. Ainsi x(·) et y(·) sont des
fonctions croissantes et majorées, elles admettent donc une limite quand
t → ∞ et par conséquent z(t) admet aussi une limite quand t → ∞.
6. Soit z(0) A. Supposons par l’absurde que z(t) = (x(t), y(t)) reste dans
A pour tout t ≥ 0. Alors d’après les deux questions précédentes, z(·) admet
126
4.5 Exercices corrigés
une limite z∞ quand t → ∞, qui doit être un équilibre, i.e. un point (x, y)
qui annule la dynamique. Cette limite z∞ doit de plus être dans la ligne de
niveau V (x, y) = V (z(0)) (puisque cet ensemble est fermé). Or il n’y a
que deux équilibres, 0 et (cf, ab), et aucun des deux n’appartient à une
telle ligne de niveau, ce qui conduit à une contradiction. Donc la solution
z(·) sort de A au bout d’un temps ni.
7. Considérons à nouveau une solution maximale z(·) de condition initiale
z(0) A. On a vu à la question précédente que cette solution doit entrer
dans B en temps τ > 0 ni. Un raisonnement semblable montre que z(·)
doit ensuite sortir de B pour entrer dans C à l’instant τC > τ , puis sortir de
C pour entrer dans D à l’instant τD > τC , sortir de D pour entrer dans A
à l’instant τA > τD , et à nouveau sortir de A pour entrer dans B à l’instant
τB > τA .
D’autre part, l’orbite décrite par cette
solution z(·) est contenue dans la
ligne de niveau V (x, y) = V z(0) , qui intersecte en un unique point la
demi-droite séparant les régions A et B. Ce point est donc égal à z(τ ), mais
aussi à z(τB ). Comme τB > τ , la solution z(·) a bien un point double.
8. C’est un fait général : dès qu’une solution z(·) présente un point double,
z(t1 ) = z(t2 ) pour t1 6= t2 , elle
est périodique. En eet, en écrivant en
fonction du ot z(t) = φt z(0) , on a
z(t) = φt−t1 z(t1 ) = φt−t1 z(t2 ) = φt−t1 φt2 (z(0))
= φt+t2 −t1 z(0) = z(t + t2 − t1 ),
c’est-à-dire que z(·) est périodique et que sa période T divise t2 − t1 : kT =
t2 − t1 , pour k entier.
Le portrait de phase dans ]0, +∞[2 est simple à dessiner : les orbites sont
exactement les lignes de niveau de V , représentées dans la gure 4.5, parcou-
rues dans le sens trigonométrique. Noter que le point (cf, ab) est lui-même
une orbite (c’est un point d’équilibre).
9. Soit z(·) = x(·), y(·) une solution de période T . La population moyenne
de proies est
∫ ∫
1 T 1 T 1 y ′ (t) c 1 1 y(T ) c c
x(t)dt = + dt = log +T = ,
T 0 T 0 f y(t) f T f y(0) f f
et la population moyenne de prédateurs est
∫ ∫
1 T 1 T 1 x′ (t) a a
y(t)dt = − + dt =
T 0 T 0 b x(t) b b
127
4 Théorie générale des équations diérentielles
Notons que le fait que ces valeurs moyennes ne dépendent pas de la solution
est une propriété extrêmement particulière de cette équation.
L’eet de la pêche est de prélever une certaine proportion de chacune des
espèces. Dans le système diérentiel, ceci revient à retrancher x à x′ et ηy
à y ′ (, η > 0), c’est-à-dire que l’équation devient :
′
x (t) = (a − )x(t) − bx(t)y(t),
y ′ (t) = −(c + η)y(t) + f x(t)y(t)
Les coordonnées du nouveau point d’équilibre (c’est-à-dire les nouvelles pop-
ulations moyennes) sont
c+η c a− a
x̄ = > et ȳ = <
f f b b
Ce point d’équilibre est donc situé plus bas et plus à droite que l’ancien,
d’où ce résultat étonnant : la pêche tend à augmenter le nombre moyen de
poissons comestibles!
Exercice 4.3 (Modèle de la grippe).
Modèle de la grippe. An de modéliser la propagation d’une épidémie
(typiquement une épidémie de grippe) au sein d’une population, on intro-
duit les trois grandeurs suivantes :
• x(t) est le nombre d’individus qui à l’instant t n’ont pas contracté la
maladie ;
• y(t) est le nombre d’individus qui à l’instant t ont contracté la maladie
et sont contagieux ;
• z(t) est le nombre d’individus qui à l’instant t ont contracté la maladie
et ne sont plus contagieux.
L’étude des épidémies au cours du temps permet de mettre en évidence deux
caractéristiques de la maladie considérée : la capacité de contagion b, qui
représente la capacité que possède la maladie de contaminer de nouveaux
malades par unité de temps ;et la fréquence d’incubation g = 1τ , où τ
représente la durée moyenne pendant laquelle un individu est contagieux.
Ces deux paramètres b et g sont supposés constants pour une épidémie don-
née.
En présence de la maladie et pendant une période caractéristique ∆t, la
quantité x(t) est diminuée du nombre de nouveaux malades. On a donc
∆x = −b xy ∆t
128
4.5 Exercices corrigés
La quantité z(t) est augmentée du nombre de nouveaux guéris,
∆z = +g y ∆t
La quantité y(t) varie quant à elle en fonction de la diérence entre le nombre
de nouveaux malades et de nouveaux guéris,
∆y = b xy ∆t − g y ∆t,
la population totale N = x(t) + y(t) + z(t) restant constante. En supposant
que ces relations peuvent être considérées entre des variations innitésimales,
les trois fonctions x, y et z de la variable t sont donc solutions de l’équation
diérentielle (S) ci-dessous.
Le but de l’exercice est d’analyser le comportement de l’épidémie an d’en
déduire la stratégie de vaccination la plus adaptée.
Considérons le modèle de propagation d’épidémie suivant :
′
x = −b xy, (S1)
′
(S) y = b xy − g y, (S2)
′
z = g y, (S3)
où b, g sont des constantes positives.
1. Montrer que le modèle (S) ne peut pas induire de populations x, y ou z
négatives.
Dans le modèle (S), la population totale est supposée constante : x(t) +
y(t) + z(t) = N . Comme de plus l’équation diérentielle ne dépend pas de
z, on se restreint à l’étude de l’équation en (x, y) donnée par (S1) − (S2), la
dernière variable étant obtenue par z(t) = N − x(t) − y(t).
Donnerle sens de variation de la fonction x(t) et montrer que la courbe
2.
x(t), y(t) est contenue dans le graphe d’une fonction y = φ(x) que l’on
calculera.
3. Montrer que l’orbite de la solution x(·), y(·) est exactement le graphe de
φ(x), pour x > 0 (on utilisera le résultat de la question 4. de l’exercice 4.2).
4. Tracer le portrait de phase de l’équation diérentielle (S1) − (S2).
5. Supposons gb < N et considérons une condition initiale x(t0 ) ]gb, N [
et y(t0 ) 1. Décrire le comportement de x(t) et y(t). Qu’en conclure sur
les stratégies de vaccinations?
129
4 Théorie générale des équations diérentielles
Corrigé de l’exercice 4.3.
1. Le raisonnement est similaire à celui de l’exercice 4.2, question 1.. Notons
f (x, y, z) le champ de vecteurs déni par (S) et considérons une solution
(x, y, z)(t) de f dont chaque composante à l’instant initial, x(0), y(0) et
z(0), est positive.
Supposons que y change de signe. Il existe alors t̃ > 0 tel que y(t̃) = 0. Or
tout point (x, 0, z) est un équilibre de f : les seules solutions qui passent
par un tel point sont les solutions constantes. La population y ne peut donc
changer de signe. Ceci implique par ailleurs que z est croissant et reste donc
également positif pour t ≥ 0.
Enn, supposons que x change de signe, c’est-à-dire qu’il existe t̃ > 0 tel que
x(t̃) = 0. Or en un point (0, y0 , z0 ) passe la trajectoire :
∫ t
−gt
x = 0, y = y0 e , z = z0 + g y
0
L’unique orbite passant par (x(t̃) = 0, y(t̃), z(t̃)) est donc contenue dans le
plan x = 0, ce qui contredit x(0) > 0. La population x ne peut donc
changer de signe.
2. Sur un intervalle de temps où x(t) et y(t) sont non nuls (et positifs), on a
x′ (t) < 0. En conséquence (théorème d’inversion locale), le long d’une telle
solution (x, y)(t), la fonction
t7→ x(t) est inversible et on peut paramétrer la
solution par x : y(t) = y t(x) = φ(x). Autrement dit, la courbe (x(t), y(t))
est contenue dans le graphe de φ. Cette fonction φ vérie, en x = x(t),
dφ dy dt y ′ (t) g
(x) = (t) (x) = ′ = −1 +
dx dt dx x (t) bx
En intégrant à partir d’un point (x(t0 ), y(t0 )), on trouve
g x
φ(x) = x(t0 ) − x +
log( ) + y(t0 )
b x(t0 )
3. On vient de voir qu’une solution X(·) = x(·), y(·) de (S1) − (S2) dans
le quadrant ]0, +∞[2 est contenue dans le graphe d’une fonction φ dont la
forme est donnée à la gure 4.6. De plus, cette solution ne peut sortir du
quadrant ]0, +∞[2 car tout point de l’axe Ox est un équilibre (une solution
ne peut donc pas “passer” par un tel point). Donc X(·) est contenue dans
un compact (le graphe de φ), ce qui implique qu’elle est dénie pour tout t.
130
4.5 Exercices corrigés
x
g/b
Fig. 4.6. Graphe de φ(x)
D’autre part, le long de cette solution, x(t) étant monotone, minorée et
majorée, elle admet des limites quand t → ±∞ ;c’est donc aussi le cas de
y(t) = φ(x(t)) et par conséquent de X(t). Or, si X(t) a une limite, c’est un
équilibre, d’après l’exercice 4.2, question 4.. Les seuls équilibres de l’équation
étant les points de l’axe Ox, on en conclut que l’orbite de X(·) est exactement
le graphe de φ(x), pour x > 0.
4. Le portrait de phase est composé des graphes de toutes les fonctions φ(x)
parcourus de la droite vers la gauche (car x′ est négatif), comme indiqué
gure 4.7.
x
g/b
Fig. 4.7. Portrait de phase
5. La condition initiale (x(t0 ), y(t0 )) choisie est pratiquement à l’intersection
du graphe de φ et de l’axe Ox, à droite de gb. Au cours du temps, x(t)
va donc décroître et tendre vers sa valeur minimale (l’autre intersection
du graphe avec Ox), y(t) va croître jusqu’au moment où x(t) vaut gb et
décroître ensuite pour tendre vers 0.
La stratégie de vaccination est donc la suivante :
• mesurer x(t0 ) ;
131
4 Théorie générale des équations diérentielles
• si x(t0 ) < gb, on ne fait rien : le pic de l’épidémie est passé ;
• si x(t0 ) > gb, on vaccine : cela a pour eet de diminuer b, donc d’élever
le seuil gb, qui devient alors (on l’espère) plus grand que x(t 0 ) ;on est
passé dans la phase descendante de l’épidémie.
Exercice 4.4 (Redressement d’un champ de vecteurs). On appelle
changement de coordonnées sur un ouvert Ω ⊂ R n une application
ψ : Ω ⊂ Rn → Ω ′ ⊂ Rn , Ω ′ ouvert,
x 7→ y = ψ(x),
qui est bijective, C 1 et d’inverse C 1 (ψ est donc un C 1 -diéomorphisme de
Ω dans Ω ′ ). En particulier, ψ −1 est un changement de coordonnées sur Ω ′ .
Considérons un champ de vecteurs f sur Rn tel que f (0) 6= 0. On peut
donc trouver une base de Rn de la forme f (0), v2 , , vn et on dénit
n
∑
ϕ: y = (y1 , , yn ) 7→ φy1 ( yi vi ),
i=2
où φt est le ot de f .
1. Calculer la diérentielle de ϕ en 0.
2. Montrer que ψ = ϕ−1 est un changement de coordonnées sur un voisinage
Ω de 0. On note y = ψ(x).
3. Soit x(t), t [0, T ], une trajectoire de f contenue dans Ω. Écrire y(t) =
ψ(x(t)) en fonction des coordonnées y 0 = ψ(x(0)) de x(0).
4. Montrer que le changement de coordonnées ψ transforme l’équation ẋ =
f (x) sur Ω en l’équation ẏ = e1 sur Ω ′ = ψ(Ω) (e1 étant le premier vecteur
de la base canonique de Rn ).
Corrigé de l’exercice 4.4.
La diérentiellede φ se calcule à partir des dérivées partielles : Dϕ(0) =
1.
∂ϕ ∂ϕ
∂y1
(0) · · · ∂y n
(0) . Or
∂ϕ ∂
(0) = φy1 (0) ∣∣ = f (0),
∂y1 ∂y1 y1 =0
et, pour i = 2, , n,
132
4.5 Exercices corrigés
n
∂ϕ ∂ ∑
(0) = φ0 ( yi vi ) ∣∣ = vi ,
∂yi ∂yi i=2
y=0
donc Dϕ(0) = f (0) v2 · · · vn .
2. Il sut d’appliquer le théorème d’inversion locale à ϕ en 0, toutes les
hypothèses en sont vériées.
3. Soient y 0 = (y10 , , yn0 ) les coordonnées de x(0), i.e. x(0) = ϕ(y 0 ). On a
n
∑
0
x(t) = φt (x(0)) = φt (ϕ(y )) = φt φy10 ( yi0 vi )
i=2
n
D’après la formule du ot, ceci implique x(t) = φy10 +t ( i=2 yi0 vi ) et donc
y(t) = (y10 + t, y20 , , yn0 ).
4. Puisque y(t) = (y10 + t, y20 , , yn0 ), on a ẏ(t) = (1, 0, , 0) = e1 : le
changement de coordonnées ψ transforme donc les solutions de l’équation
ẋ = f (x) en celles de l’équation ẏ = e1 .
Exercice 4.5 (Méthode des caractéristiques). Soit F : Rn → Rn un
champ de vecteur complet de ot φt .
1. Montrer que Dφt (x) · F (x) = F φt (x) .
Considérons une application u : Rn → R de classe C 1 .
2. Montrer que la fonction g(t, x) = u φt (x) est solution de l’équation aux
dérivées partielles :
∂f
(t, x) = Dx f (t, x) · F (x), f (0, x) = u(x) (4.12)
∂t
3. Étudions maintenant l’unicité des solutions de (4.12). On considère donc
une solution f de cette équation.
a) Soit F le champ de vecteurs sur R × Rn déni par F (t, x) = − 1, F (x) .
Montrer que,
si y(·) : R → Rn+1 est solution de l’équation diérentielle
y ′ (s) = F y(s) , alors f ◦ y est une fonction constante.
b) Montrer que toute solution maximale de y ′ = F (y) coupe l’hyperplan
t = 0.
c) En déduire que f = g et conclure sur l’unicité des solutions de (4.12).
133
4 Théorie générale des équations diérentielles
4. Dans le cas n = 2, résoudre l’équation aux dérivées partielles
∂f ∂f ∂f
(t, x) = x2 (t, x) − x1 (t, x) (4.13)
∂t ∂x1 ∂x2
en fonction de la condition aux limites f (0, x) = u(x).
Corrigé de l’exercice 4.5.
1. Dérivons par rapport à s l’identité φt+s (x) = φt ◦ φs (x). On sait que
d
φt+s (x) = F φt+s (x) ,
ds
alors que
d
φt ◦ φs (x) = Dφt φs (x) · F φs (x)
ds
On obtient donc
F φt+s (x) = Dφt φs (x) · F φs (x) ,
et il sut de prendre s = 0 pour conclure.
2. Rappelons d’abord que φ0 (x) = x, ce qui entraîne g(0, x) = u(x). Calcu-
lons maintenant la dérivée de g par rapport à t,
∂g
(t, x) = Du φt (x) · F φt (x)
∂t
Par ailleurs, le membre de droite de l’équation aux dérivées partielles est
Dx g(t, x) · F (x) = Du φt (x) · Dφt (x) · F (x) = Du φt (x) · F φt (x) ,
d’après la question précédente. Ceci montre bien que g est solution de (4.12).
3. a) Il sut de montrer que d
ds
(f ◦ y)(s) = 0. Calculons-le :
d
(f ◦ y)(s) = Df y(s) · y ′ (s) = Df y(s) · F y(s)
ds
Or Df (t, x) est la matrice ligne à (n + 1) éléments qui s’écrit par blocs
Df (t, x) = ∂f
∂t
(t, x) Dx f (t, x) ,
alors que F (t, x) est le vecteur colonne − 1, F (x) . Posons y(s) =
(t(s), x(s)). En multipliant les deux matrices précédentes, on obtient
d ∂f
(f ◦ y)(s) = − y(s) + Dx f y(s) · F x(s) = 0,
ds ∂t
puisque f est solution de l’équation aux dérivées partielles.
134
4.5 Exercices corrigés
b) Puisque le champ F est complet, son ot φt (x) est déni pour tout t R
et tout x Rn . Le ot φ de F (t, x) étant donné par
φs (t, x) = − s + t, φs (x) ,
il est déni pour tout s R et tout (t, x) Rn+1 , c’est-à-dire que F
est complet et que toute solution maximale y(s) est dénie sur R entier.
Or une telle solution y(s) = (t, x)(s) vérie t(s) = −s + t(0) : la valeur
y t(0) est donc dénie et appartient à l’hyperplan t = 0.
c) Prenons (t0 , x0 ) Rn+1
et montrons que f (t0 , x0 ) = g(t0 , x0 ). Soit y(·) la
solution de y (s) = F y(s) de condition initiale y(0) = (t0 , x0 ). D’après
′
la question précédente, y(t0 ) = (0, x(t0 )).
D’autre part, d’après la question a), f et g, et donc f −g, sont constantes
le long de y(·), ce qui implique (f − g)(y(0)) = (f − g)(y(t0 )), ou encore
f (t0 , x0 ) − g(t0 , x0 ) = f (0, x(t0 )) − g(0, x(t0 )) = 0,
car f (0, x) = g(0, x) = u(x). Ainsi f = g, c’est-à-dire que g est l’unique
solution de (4.12).
4. Pour mettre l’équation (4.13) sous la forme (4.12), il sut de prendre
pour F le champ de vecteurs linéaire
0 1
F (x) = Ax où A =
−1 0
Son ot est l’exponentielle de la matrice A, c’est-à-dire (voir exercice 2.2,
1., par exemple),
cos t sin t
φt (x) =
− sin t cos t
La solution de (4.13) satisfaisant g(0, x) = u(x) est donc
g(t, x) = u x1 cos t + x2 sin t, −x1 sin t + x2 cos t
Exercice 4.6 (Application de Poincaré). Considérons l’équation dif-
férentielle dans R2 dénie par
′
x1 = −x2 + x1 (1 − (x21 + x22 )) ,
(4.14)
x′2 = x1 + x2 (1 − (x21 + x22 ))
1. Montrer que x̄(t) = (cos t, sin t) est une solution 2π-périodique de ce sys-
tème.
135
4 Théorie générale des équations diérentielles
2. Soit R(t, s) la résolvante de l’équation linéarisée de (4.14) autour de la
solution x̄(·). Montrer que x̄′ (0) est un vecteur propre de la matrice R(2π, 0)
associé à la valeur propre 1.
3. Écrire l’équation linéarisée de (4.14) autour de x̄(·).
4. Montrer que det R(t, 0) est solution d’une équation diérentielle ;en dé-
duire det R(2π, 0).
5. Calculer les valeurs propres de la matrice R(2π, 0) et montrer qu’elle est
diagonalisable dans R.
6. En déduire le comportement asymptotique des solutions de (4.14) dont
les conditions initiales x(0) sont proches du cercle unité.
Corrigé de l’exercice 4.6.
1. Évident, il sut de remplacer dans l’équation.
2. Soit φt le ot de l’équation diérentielle (4.14). Puisque x̄(·) est dénie
sur [0, 2π] (sur tout R en
fait), l’application φ2π est dénie sur un voisinage
V de x̄(0) et Dφ2π x̄(0) = R(2π, 0).
Or,pour t susamment petit, x̄(t) appartient à V et x̄(t) = x̄(t + 2π) =
φ2π x̄(t) , puisque la solution est 2π-périodique. En dérivant cette égalité en
t = 0, on obtient
d
x̄′ (0) = φ2π x̄(t) t=0 = Dφ2π x̄(0) · x̄′ (0),
dt
c’est-à-dire R(2π, 0)x̄′ (0) = x̄′ (0). Ainsi R(2π, 0) admet 1 pour valeur propre,
un vecteur propre associé étant x̄′ (0).
3. Soit f (x) le champ de vecteur dénissant l’équation diérentielle (4.14).
L’équation
linéarisée est l’équation linéaire y (t) = A(t)y(t) où A(t) =
′
Df x̄(t) . Calculons d’abord Df :
1 − (x21 + x22 ) − 2x21 −1 − 2x1 x2
Df (x) = ,
1 − 2x1 x2 1 − (x21 + x22 ) − 2x22
et donc
−2 cos2 t −1 − 2 cos t sin t
A(t) =
1 − 2 cos t sin t −2 sin2 t
4. Il sut d’appliquer la proposition 3.3. Ici la trace de A(t) est égale à −2.
On a donc ∫
2π
det R(2π, 0) = exp tr A(t)dt = e−4π
0
136
4.5 Exercices corrigés
5. Connaissant une valeur propre de R(2π, 0), 1, et son déterminant, on en
déduit la valeur de l’autre valeur propre : e−4π . Les deux valeurs propres
étant réelles et distinctes, R(2π, 0) est diagonalisable dans R.
6. Intuitivement, la question peut se comprendre de la façon suivante. Soit
x̄(0) + v une condition initiale proche de x̄(0). La solution de (4.14) issue de
cette condition initiale se trouve en un point φ2π (x̄(0) + v) proche de x̄(0)
“après un tour”, i.e. au bout d’un temps 2π. Au bout de k tours, la solution
se trouve au point φ2kπ (x̄(0) + v). La question est : s’est-on rapproché ou
éloigné de x̄(0)?
Remarquons que Dφ2kπ (x̄(0)) = R(2π, 0)k , ce qui entraîne
φ2kπ (x̄(0) + v) = R(2π, 0)k v + o(‖v‖) (4.15)
Or R(2π, 0) est e−4π -contractante dans la direction transverse à l’orbite de
x̄(·) : R(2π, 0)k est donc e−4kπ -contractante dans cette direction, ce qui im-
plique que le vecteur R(2π, 0)k v tend à être tangent à x̄(t). Ainsi une so-
lution issue d’un point voisin de x̄(0) tend à se rapprocher de l’orbite de
x̄(·).
Le raisonnement précédent n’est cependant pas rigoureux : dans le développe-
ment limité (4.15), le terme o(‖v‖) dépend de k. Pour obtenir une vraie
preuve, on va plutôt utiliser l’application premier retour de Poincaré (voir
la proposition 4.6). Soit v un vecteur propre associé à la valeur propre e −4π .
On a vu à la question 2 que x̄′ (0) est un vecteur propre associé à la valeur
propre 1 : v et x̄′ (0) sont donc linéairement indépendants et l’hyperplan
Σ = x̄(0) + Rv est transverse à x̄(·) en x̄(0). Il existe alors un voisinage V
de x̄(0) et η : V → R telle que, pour tout z V ∩ Σ, on a φ2π+η(z) (z) Σ.
L’application de premier retour de Poincaré G : V ∩ Σ → Σ est dénie par
G(z) = φ2π+η(z) (z)
Sa diérentielle est DG x̄(0) = Dφ2π x̄(0) Rv = (e−4π ). Puisque e−4π < 1,
G est contractante : il en résulte que toute solution issue d’une condition
initiale dans V est dénie pour tout t ≥ 0 et se rapproche à chaque tour
un peu plus de x̄(0). Autrement dit, les solutions proches du cercle unité
“spiralent” vers lui.
Exercice 4.7 (non corrigé). On s’intéresse à l’équation diérentielle x′ =
f (x) dans Rn dénie par le champ de vecteurs
f (x) = Ag(AT x),
137
4 Théorie générale des équations diérentielles
où A est une matrice de Mn (R) et g : Rn → Rn est une application C 1 telle
que g(0) = 0 et Dg(x) est antisymétrique, ∀x Rn . On notera φt le ot de
x′ = f (x).
1. Calculer φt (0).
2. Calculer la diérentielle Df (x) et montrer qu’elle est antisymétrique.
3. Soit R(t, s) la résolvante de l’équation linéarisée autour d’une solution
x(·) de l’équation diérentielle. Montrer que ‖R(t, s)‖ = 1.
4. En déduire que ‖φt (x)‖ ≤ ‖x‖ pour tout x Rn .
138
5
Stabilité des équilibres
5.1 Équilibres et stabilité
Considérons l’équation diérentielle autonome
x′ (t) = f x(t) , (5.1)
où le champ de vecteurs f : Ω ⊂ Rn → Rn est supposé de classe C 1 .
Dénition 5.1. On dit qu’un point x0 Ω est un équilibre de (5.1) si la
fonction constante x(·) ≡ x0 est solution de (5.1) ou, de façon équivalente,
si f (x0 ) = 0 (vérier que c’est bien équivalent!).
Autrement dit, φt (x0 ) = x0 pour tout t R, où φ est le ot du champ de
vecteurs f (l’intervalle maximal associé à x0 étant Ix0 = R). L’orbite de x0
est donc réduite à un point : Ox0 = x0 .
Quand l’équation (5.1) modélise l’évolution d’un phénomène physique
(mécanique, biologique, écologique, . . . ), un équilibre correspond bien à la
notion habituelle « d’état d’équilibre » : si le système est dans l’état x 0 , alors
il y reste (et il y a toujours été). En pratique on sait cependant que seuls les
états d’équilibre ayant certaines propriétés de stabilité sont signicatifs.
Dénition 5.2. Nous dirons qu’un équilibre x0 est stable si, pour tout > 0,
il existe > 0 tel que
‖x − x0 ‖ < et t > 0 =⇒ ‖φt (x) − x0 ‖ <
Ainsi, toute solution proche de x0 en reste proche.
Remarque 5.1. Toute solution dont la condition initiale est dans une boule
B(x0 , ) reste dans la boule B(x0 , ), et donc dans un compact de Ω, pour
t > 0 (on suppose susamment petit pour que B̄(x0 , ) ⊂ Ω). D’après la
proposition 4.2, ces solutions sont donc dénies pour tout t > 0.
5 Stabilité des équilibres
Dénition 5.3. Nous dirons qu’un équilibre x0 est asymptotiquement stable
si il est stable et si il existe un voisinage V de x 0 tel que, pour tout x V ,
lim φt (x) = x0
t→∞
Dans ce cas toute solution proche de l’équilibre en reste proche et en plus
converge vers lui. Notons que le fait que toute solution issue d’un voisinage V
converge vers x0 n’implique pas la stabilité de cet équilibre : il existe des sys-
tèmes possédant un équilibre non stable x0 mais dont toutes les trajectoires
convergent vers x0 .
Le cas linéaire
Considérons le cas particulier d’une équation diérentielle autonome linéaire,
x′ (t) = Ax(t), x Rn
L’origine est toujours un équilibre de cette équation (mais il peut y en avoir
d’autres : tout élément de ker A est un équilibre). L’étude réalisée dans la
section 2.4 permet de caractériser la stabilité de cet équilibre.
Proposition 5.1.
• L’origine est un équilibre asymptotiquement stable de x ′ = Ax si et seule-
ment si toutes les valeurs propres de A sont de partie réelle strictement
négative, i.e. Rn = E s .
• Si A a au moins une valeur propre de partie réelle strictement positive,
alors l’origine n’est pas un équilibre stable de x ′ = Ax.
Ces deux propriétés sont importantes car, comme nous allons le voir dans
la section suivante, elles se généralisent au cas non linéaire.
Notons que l’origine peut être un équilibre stable mais non asymptotique-
ment stable. C’est une situation que l’on rencontre quand A a des valeurs
propres de partie réelle nulle, par exemple quand A est antisymétrique (voir
proposition 3.4 et la discussion qui suit). On a représenté gure 5.1 des por-
traits de phase dans R2 correspondant à une matrice antisymétrique (cas a)
et une autre dont les valeurs propres ont une partie réelle < 0 (cas b).
Remarquons enn que l’on peut donner une condition nécessaire et su-
isante de stabilité :
l’origine est un équilibre stable de x′ = Ax si et seulement si toutes les
valeurs propres de A sont de partie réelle négative ou nulle et si pour toute
valeur propre de partie réelle nulle, les multiplicités algébrique et géométrique
coïncident, (c’est-à-dire Rn = E s + E c et AE c est diagonalisable dans C).
140
5.2 La stabilité par la linéarisation
x2 x2
y1 y2 y1 y2
x1 x1
Cas a. Équilibre stable mais non Cas b. Équilibre asymptotiquement
asymptotiquement stable stable
Fig. 5.1. Exemples de portraits de phase stables pour f (x) = Ax avec A M2 (R).
Le cas ane
Considérons maintenant un champ de vecteurs ane f (x) = Ax + b sur
Rn , où A Mn (R) est une matrice et b Rn un vecteur. Un équilibre de
l’équation
x′ (t) = Ax(t) + b
est un point x0 qui vérie Ax0 + b = 0 (noter qu’un tel point n’existe que
si b Im A). En remplaçant b par −Ax0 , on réécrit l’équation diérentielle
sous la forme
d
(x(t) − x0 ) = A(x(t) − x0 )
dt
Ainsi la stabilité et la stabilité asymptotique d’un équilibre de l’équation
ane x′ (t) = Ax(t) + b sont équivalentes respectivement à celles de l’origine
pour l’équation linéaire y ′ (t) = Ay(t).
5.2 La stabilité par la linéarisation
Soit x0 un équilibre de l’équation diérentielle (5.1). Nous allons montrer
dans les deux théorèmes suivants que l’étude des valeurs propres de la ma-
trice Df (x0 ) permet généralement de caractériser la stabilité de l’équilibre.
Théorème 5.1. Si toutes les valeurs propres de Df (x0 ) sont de partie réelle
strictement négative, alors x0 est un équilibre asymptotiquement stable.
141
5 Stabilité des équilibres
Remarque 5.2. Contrairement au cas des équations linéaires, la condition
donnée dans ce théorème est susante mais pas nécessaire. Prenons par
exemple l’équation y ′ (t) = −y 3 (t) dans R. L’équilibre 0 ne satisfait pas la
condition du théorème puisque Df (0) = 0. En revanche c’est un équilibre
asymptotiquement stable puisque la solution valant y0 6= 0 en t = 0 est
signe(y0 )
y(t) = , t ≥ 0,
2t + y12
0
qui est décroissante et converge vers 0 quand t → +∞.
*Démonstration. Pour simplier, on se ramène par translation à x 0 = 0. D’après l’hypothèse,
il existe α > 0 tel que −α est strictement supérieur à la partie réelle de toute valeur propre de
Df (0). D’après un résultat classique d’algèbre linéaire, il existe alors un produit scalaire 〈·, ·〉 α
sur Rn tel que
〈Df (0)x, x〉α ≤ −α‖x‖2α , ∀x Rn ,
où ‖ · ‖α est la norme associé au produit scalaire 〈·, ·〉α (le résultat est clair quand Df (0) est
diagonalisable, sinon il se montre en utilisant la décomposition de Jordan–Chevalley, voir [4, th.
1.4.3]).
Or, par dénition de la diérentielle,
〈f (x), x〉α = 〈Df (0)x, x〉α + o(‖x‖2α )
Ainsi, pour x susamment proche de 0, disons ‖x‖ < , on obtient
α
〈f (x), x〉α ≤ − ‖x‖2α
2
B Prenons maintenant un point v 6= 0 vériant ‖v‖ < et notons x(t) = φt (v) la solution
issue de v. On peut choisir un temps t0 > 0 susamment petit pour que ‖x(t)‖ < pour tout
t [0, t0 ]. La fonction t 7→ ‖x(t)‖α est dérivable (car x(t) 6= 0 ∀t), et
d 〈x′ (t), x(t)〉α 〈f (x(t)), x(t)〉α α
‖x(t)‖α = = ≤ − ‖x(t)‖α (5.2)
dt ‖x(t)‖α ‖x(t)‖α 2
Ceci implique d’abord que ‖x(t)‖α est décroissante : x(t) reste donc connée dans le compact
‖x‖α ≤ ‖v‖α , ce qui entraîne que x(·) est dénie pour tout t > 0 (proposition 4.2). D’autre part,
l’équation ci-dessus peut se réécrire
d α
ln ‖x(t)‖α ≤ − ,
dt 2
ce qui implique, après intégration,
α
‖x(t)‖α ≤ e− 2 t ‖v‖α
Finalement, on a montré que, si ‖v‖ < , alors φt (v) reste dans Bα (0, ) (la boule de rayon
pour la norme ‖ · ‖α ) et tend vers 0, ce qui montre que 0 est un équilibre asymptotiquement
stable. t
u
En complément de cette condition susante de stabilité asymptotique,
on dispose d’une condition susante de non stabilité, dont on trouvera la
preuve dans [2] ou [5].
142
5.2 La stabilité par la linéarisation
Théorème 5.2. Si Df (x0 ) a au moins une valeur propre de partie réelle
strictement positive, alors l’équilibre x 0 n’est pas stable.
Remarque 5.3. Dans le cas où n = 2, il est très pratique d’utiliser le déter-
minant et la trace de Df (x0 ) pour caractériser le signe des parties réelles
de ses valeurs propres (voir la remarque 2.6). Conjugué aux deux théorèmes
précédents, cela donne les critères suivant, très simples à utiliser :
• si det Df (x0 ) < 0, ou det Df (x0 ) > 0 et tr Df (x0 ) > 0, alors l’équilibre
x0 n’est pas stable ;
• si det Df (x0 ) > 0 et tr Df (x0 ) < 0, alors l’équilibre x0 est asymptotique-
ment stable.
Il est important de noter que les réciproques des théorèmes 5.1 et 5.2
sont fausses, comme le montre l’exemple ci-dessous. La stabilité d’un équili-
bre n’est donc pas forcément déterminée par le linéarisé. Nous allons en-
suite introduire une classe d’équilibres pour lesquels les réciproques des
théorèmes 5.1 et 5.2 sont vériées.
Exemple 5.1. Considérons deux équations diérentielles dans R 2 ,
2 2
2 2
x 2 − x (x
1 1 + x ) x 2 + x (x
1 1 + x )
x′ = f (x) = 2
et x′ = g(x) = 2
,
−x1 − x2 (x21 + x22 ) −x1 + x2 (x21 + x22 )
où x = (x1 , x2 ). Ces deux équations ont pour unique équilibre 0. Leurs
linéarisés en 0 sont égaux,
0 1
Df (0) = Dg(0) = ,
−1 0
et ont pour valeurs propres ±i, dont la partie réelle est évidemment nulle!
Cependant l’équilibre 0 est asymptotiquement stable dans le premier cas
alors qu’il n’est pas stable dans le deuxième.
En eet, posons ρ(x) = x21 + x22 . Si x(·) est une solution de l’équation
x′ = f (x), alors
d
ρ x(t) = 2(x1 x′1 + x2 x′2 ) = −2ρ2 x(t)
dt
Ainsi ρ x(t) = ‖x(t)‖2 est décroissant et tend vers 0 quand t → +∞, ce
qui implique que 0 est asymptotiquement stable pour l’équation x ′ = f (x).
De même, si x(·) est une solution de l’équation x′ = g(x), on obtient
143
5 Stabilité des équilibres
d
ρ x(t) = 2ρ2 x(t)
dt
Dans ce cas, ρ x(t) = ‖x(t)‖2 tend vers l’inni (et le fait même en temps
ni, phénomène d’explosion), ce qui implique que l’équilibre 0 n’est pas stable
pour l’équation x′ = g(x).
Équilibres hyperboliques
Dénition 5.4. Un équilibre x0 est dit hyperbolique si toutes les valeurs
propres de Df (x0 ) ont une partie réelle non nulle.
Les équilibres hyperboliques jouent un rôle important en pratique puisque,
comme nous l’avons vu à la n de la section 2.4, la classe des matrices hy-
perboliques est ouverte et dense dans Mn (R).
D’après les deux théorèmes précédents, la stabilité d’un équilibre hyper-
bolique x0 est totalement caractérisée par le signe des parties réelles des
valeurs propres de Df (x0 ).
Corollaire 5.1. Un équilibre hyperbolique est soit asymptotiquement stable
(si les valeurs propres de Df (x0 ) sont toutes de partie réelle négative), soit
non stable.
Ainsi, un équilibre hyperbolique x0 est stable (resp. asymptotiquement
stable) si et seulement si 0 est un équilibre stable (resp. asymptotiquement
stable) pour l’équation linéarisée en x0 ,
y ′ (t) = Df (x0 ) · y(t) (5.3)
On a en fait beaucoup plus : les portraits de phase du système et de son
linéarisé ont la même allure car ils sont topologiquement équivalents (voir
Hartman [6, th. 7.1]).
Théorème 5.3 (Hartman–Grobmann). Soit x0 un équilibre hyperbolique.
Notons φLt : y 7→ etDf (x0 ) y le ot du linéarisé en x0 . Alors il existe un homéo-
morphisme h : Vx0 → V0 , où Vx0 et V0 sont des voisinages respectivement de
x0 et 0 dans Rn , tel que
φLt h(x) = h φt (x) ,
partout où ces expressions ont un sens.
144
5.3 Fonctions de Lyapunov
On utilisera ce résultat en particulier pour dénombrer les orbites stables et
instables en un équilibre. On dit qu’une orbite O est une orbite stable (resp.
une orbite instable) en un équilibre x̄ si, pour tout x O, on a φ t (x) → x̄
quand t → +∞ (resp. quand t → −∞). Le théorème d’Hartman–Grobmann
implique que les orbites stables et instables en x0 sont les images par h−1
des orbites stables et instables en 0 du linéarisé. Or, d’après le théorème 2.7,
l’ensemble des orbites stables d’un système linéaire x′ = Ax est exactement
égal à l’espace stable E s de A, de même que l’ensemble des orbites instables
est égal à E u . On sait ainsi que l’ensemble des orbites stables (resp. instables)
en x0 est l’image par h−1 de l’espace stable (resp. instables) du linéarisé.
Par exemple, si l’espace stable du linéarisé est de dimension un, il est
composé de trois orbites, deux demi-droites et 0 lui-même. Il n’y a donc, en
plus de l’équilibre, que deux orbites stables en l’équilibre x 0 .
5.3 Fonctions de Lyapunov
Il existe une autre approche que la linéarisation pour obtenir des résultats
de stabilité. Commençons par donner un exemple qui illustre l’idée générale.
Champs de gradient
Un champ de gradient est un champ de vecteurs de la forme
f (x) = −V (x),
où V : Ω ⊂ Rn → R est une fonction de classe C 2 (de façon à ce que f soit de
classe C 1 ). Rappelons que V (x) désigne le gradient de V en x, c’est-à-dire
l’unique vecteur de Rn vériant
DV (x) · v = 〈V (x), v〉, ∀v Rn
Quand le produit scalaire 〈·, ·〉 est le produit scalaire euclidien sur R n , le
gradient s’écrit en coordonnées comme V (x) = ( ∂x ∂V
1
∂V
(x), , ∂xn
(x)).
Un équilibre x0 de ce champ de vecteur est un point critique de V , i.e.
V (x0 ) = 0. Un équilibre peut donc être un minimum local, un maximum
local, ou un point selle, mais nous allons voir que seuls les minima locaux
peuvent être des équilibres stables.
La dynamique associée à un champ de gradient possède en eet une pro-
priété qui la rend assez
simple.
Si x(·) est une solution de l’équation diéren-
tielle x (t) = −V x(t) , alors
′
145
5 Stabilité des équilibres
d[ ]
V x(t) = DV x(t) · x′ (t) = −‖V x(t) ‖2 , (5.4)
dt
pour tout t dans l’intervalle de dénition de x(·). Ainsi V x(t) est soit
constante, et dans ce cas x(t) ≡ x0 est un point critique, soit strictement
décroissante. Intuitivement, ceci signie que toute solution tend à se rap-
procher d’un minimum, et donc (nous le montrerons plus loin) que :
• si un équilibre x0 n’est pas un minimum local (i.e. x0 est un maximum
local ou un point selle), alors x0 n’est pas un équilibre stable ;
• si x0 est un minimum local strict, alors x0 est un équilibre stable.
Fonctions de Lyapunov
Considérons maintenant une équation diérentielle autonome quelconque
x′ (t) = f x(t) , (5.1)
associée à un champ de vecteurs f : Ω ⊂ Rn → Rn de classe C 1 . L’exemple
des champs de gradient suggère d’introduire la dénition suivante.
Dénition 5.5. Soient x0 un équilibre de (5.1), U ⊂ Ω un voisinage de x 0
et L : U → R une fonction continue. On dit que L est une fonction de
Lyapunov pour (5.1) en x0 si :
(a) L(x) > L(x0 ) pour x U , x 6= x0 (x0 est un minimum strict de L sur
U) ;
(b) pour tout x U , la fonction t 7→ L φt (x) est décroissante.
Si de plus L satisfait
(c) pour tout x U , x 6= x0 , la fonction t 7→ L φt (x) est strictement
décroissante,
on dit que L est une fonction de Lyapunov stricte pour (5.1) en x 0 .
Quand L est de classe C 1 , les conditions (b) et (c) sont impliquées respec-
tivement par les conditions suivantes :
(b)′ 〈L(x), f (x)〉 ≤ 0 pour tout x U ;
(c)′ 〈L(x), f (x)〉 < 0 pour tout x U , x 6= x0 .
Théorème 5.4. Si l’équation diérentielle (5.1) admet un fonction de Lya-
punov en un équilibre x0 , alors x0 est un équilibre stable. Si de plus la fonction
de Lyapunov est stricte, alors x0 est asymptotiquement stable.
146
5.3 Fonctions de Lyapunov
*Démonstration. Soit L : U → R la fonction de Lyapunov. Quitte à remplacer la fonction
L(x) par L(x) − L(x0 ), on suppose que L(x0 ) = 0. Et quitte à remplacer U par une boule fermée
centrée en x0 , on le suppose compact. Pour tout > 0, il existe alors α > 0 tel que l’ensemble
Uα = x U : L(x) ≤ α est inclus dans la boule ouverte B(x0 , ) (en eet, sinon il existe
une suite de points xn U en dehors de B(x0 , ) vériant lim L(xn ) = 0 ;U étant compact, xn a
alors un point d’accumulation x̄ 6= x0 , qui doit vérier L(x̄) = 0, ce qui est impossible d’après la
propriété (a)).
Or, d’après la propriété (b) de L, pour tout x Uα , la solution φt (x) est connée dans Uα ;ceci
montre la stabilité de l’équilibre x0 .
B Supposons maintenant que L est une fonction de Lyapunov stricte. D’après ce qui précède,
on peut choisir un réel α > 0 tel que Uα soit inclus dans l’intérieur de U . Notons que Uα est
compact (fermé car L est continue et borné
car inclus dans U ). Considérons un point x U α
diérent de x0 . La fonction t 7→ L φt (x) étant strictement décroissante et minorée par 0, elle a
une limite ` quand t → +∞. D’autre part, Uα étant compact, il existe une suite tn , tn → +∞,
telle que φtn (x) est convergente. Notons x̄ la limite de cette dernière suite. Par continuité de L,
x̄ vérie
L(x̄) = lim L φtn (x) = lim L φt (x) = `
tn →∞ t→∞
De plus, pour tout s > 0, on a
L φs (x̄) = lim L φs+tn (x) = `,
tn →∞
ce qui montre que s 7→ L φs (x̄) ≡ L(x̄) n’est pas décroissante, et donc, d’après la propriété (c)
de L, que x̄ = x0 .
Ainsi, le seul point d’accumulation de φt (x) est x0 , ce qui montre que limt→∞ φt (x) = x0
pour tout x dans le voisinage Uα de x0 . L’équilibre x0 est donc asymptotiquement stable. t
u
Étant donné un équilibre asymptotiquement stable x0 , on appelle bassin
d’attraction l’ensemble des points x Ω tels que φt (x) → x0 quand t → +∞.
Par dénition de la stabilité asymptotique, le bassin d’attraction contient un
voisinage de x0 . Une question importante en pratique est de déterminer la
taille de ce bassin, voire le bassin lui-même. Le domaine de dénition d’une
fonction de Lyapunov stricte, si il en existe une, donne des éléments de
réponse à cette question.
Théorème 5.5. Considérons une équation diérentielle (5.1) dénie sur
Rn . Supposons qu’elle admette en un équilibre x 0 une fonction de Lyapunov
stricte L : Rn → R telle que
‖x‖ → ∞ ⇒ L(x) → ∞ (5.5)
Alors le bassin d’attraction de x0 est Rn tout entier. On dit dans ce cas que
l’équilibre x0 est globalement asymptotiquement stable.
*Démonstration. Soit x Rn et α = L(x). La condition (5.5) implique que Uα = y Rn :
L(y) ≤ α est borné, et donc compact. On montre alors que limt→∞ φt (x) = x0 exactement de
la même façon que dans la preuve du théorème 5.4. t
u
147
5 Stabilité des équilibres
Remarque 5.4. La preuve ci-dessus peut être trivialement adaptée au cas où
le domaine de dénition est un ouvert Ω et non Rn tout entier. La condi-
tion (5.5) sur la fonction de Lyapunov stricte L : Rn → R doit simplement
être remplacée par :
x → ∂Ω ⇒ L(x) → ∞
Plus généralement, si L : U → R est une fonction de Lyapunov stricte en
x0 et P ⊂ U est un sous-ensemble compact de Ω positivement invariant par
le ot (i.e. φt (P ) ⊂ P pour tout t ≥ 0), alors P est inclus dans le bassin
d’attraction de x0 . Par exemple, les ensembles de niveau x U : L(x) ≤
pour susamment petit sont compacts et positivement invariants, donc
inclus dans le bassin d’attraction.
Exemples d’application
a. Champs de gradient
Reprenons le cas d’un champ de gradients f (x) = −V (x). Supposons
que x0 soit un minimum local strict de V , c’est-à-dire l’unique minimum
de V sur un voisinage U de x0 . La fonction V restreinte à U est bien une
fonction de Lyapunov en x0 , la propriété (b)′ étant toujours satisfaite d’après
la formule (5.4). Donc x0 est bien un équilibre stable.
b. Champ de force conservatif
Considérons un objet de masse m soumis à une force dérivant d’un potentiel
V (x). L’évolution de l’état x Rn de l’objet au cours du temps est régi par
le principe fondamental de la dynamique :
mx′′ (t) = −V x(t) ,
que l’on réécrit ′
x x′ (t)
(t) =
x′ − m1 V x(t)
Autrement dit, (x, x′ ) est solution de l’équation diérentielle dans R2n
1
(x, v)′ (t) = f (x, v)(t) , où f (x, v) = v, − V (x)
m
Un équilibre de cette équation diérentielle est un point (x 0 , 0) R2n où x0
est un point critique du potentiel V (x).
148
5.3 Fonctions de Lyapunov
Supposons que x0 soit un minimum local strict de V et cherchons une
fonction de Lyapunov. Essayons à partir de l’énergie totale du système :
1
E(x, v) = m‖v‖2 + V (x)
2
En posant L(x, v) = E(x, v), on obtient une fonction qui satisfait
la propriété
(a) d’une fonction de Lyapunov. De plus, comme L(x, v) = V (x), mv ,
on obtient
〈L(x, v), f (x, v)〉 ≡ 0,
(c’est la conservation de l’énergie!), c’est-à-dire la propriété (b) ′ . La fonction
L est donc bien une fonction de Lyapunov en (x0 , 0), ce qui montre le résul-
tat bien connu (théorème de Lagrange) : si l’énergie potentielle V (x) a un
minimum local strict en x0 , l’équilibre (x0 , 0) est stable.
Remarque 5.5.
• L’équilibre (x0 , 0) ne peut pas être asymptotiquement stable : le long
d’une solution quelconque (x, v)(·) 6≡ (x0 , 0), la fonction de Lyapunov
L(x, v) est constante, elle ne peut donc tendre vers L(x0 , 0), ce qui im-
plique que (x, v)(t) ne peut pas tendre vers (x0 , 0).
• L’approche par linéarisation n’aurait pas permis de conclure ici car (x 0 , 0)
n’est pas un équilibre hyperbolique (exercice : le montrer).
c. Champ de vecteur linéaire
Considérons une équation diérentielle linéaire
x′ (t) = Ax(t), x Rn ,
et supposons que toutes les valeurs propres de A sont de partie réelle stricte-
ment négative. On a vu (proposition 5.1) que dans ce cas l’origine est un
équilibre asymptotiquement stable. Cherchons une fonction de Lyapunov
pour cette équation en 0. On pose
∫ ∞
L(x) = ‖esA x‖2 ds
0
D’après la proposition 2.3, si − < 0 est strictement plus grand que les
parties réelles de toutes les valeurs propres de A, alors
‖esA x‖ ≤ Ce−αs ‖x‖, ∀s ≥ 0, ∀x Rn
149
5 Stabilité des équilibres
Ainsi L(x) est dénie par une intégrale convergente. Montrons que c’est une
fonction de Lyapunov stricte en 0. La propriété (a) est clairement satisfaite.
Montrons maintenant la propriété (c)′ . On calcule d’abord la diérentielle
de L par diérentiation sous le signe somme :
∫ ∞ ∫ ∞
sA 2
DL(x) · v = D ‖e x‖ · v ds = 2 〈esA x, esA v〉 ds
0 0
Calculons alors 〈L(x), Ax〉 = DL(x) · (Ax) pour x 6= 0 :
∫ ∞
〈L(x), Ax〉 = 2 〈esA x, esA Ax〉 ds
∫ ∞0
d sA 2
= ‖e x‖ ds
0 dt
= −‖x‖2 < 0,
ce qui montre que L est une fonction de Lyapunov stricte en 0.
d. Nouvelle preuve du théorème 5.1
Considérons un équilibre x0 de l’équation diérentielle
x′ (t) = f x(t) ,
et supposons que toutes les valeurs propres de Df (x0 ) sont de partie réelle
strictement négative. Nous allons montrer que l’équation admet une fonc-
tion de Lyapunov stricte en x0 , ce qui donnera une nouvelle preuve du
théorème 5.1.
Quitte à faire une translation, on suppose x0 = 0 et on pose
∫ ∞
L(x) = ‖esDf (0) x‖2 ds
0
(c’est-à-dire, d’après le paragraphe précédent, que L est la fonction de Lya-
punov associée à l’équation linéaire y ′ (t) = Df (0) · y(t)). La propriété (a)
d’une fonction de Lyapunov est bien vériée. Remarquons d’autre part que
f (x) = Df (0) · x + o(‖x‖)
En utilisant le paragraphe précédent, on obtient
〈L(x), f (x)〉 = 〈L(x), Df (0) · x〉 + 〈L(x), o(‖x‖)〉
∫ ∞
2
= −‖x‖ + 2 〈esDf (0) x, esDf (0) o(‖x‖)〉 ds
0
150
5.4 Exercices corrigés
Le terme dans la dernière intégrale est un o(‖x‖2 ), donc pour ‖x‖ susam-
ment petit, x 6= 0, on obtient
1
〈L(x), f (x)〉 ≤ − ‖x‖2 < 0,
2
c’est-à-dire la propriété (c)′ . La fonction L est donc une fonction de Lyapunov
stricte en x0 = 0, ce qui montre que cet équilibre est asymptotiquement
stable.
5.4 Exercices corrigés
Exercice 5.1. L’analyse des circuits électriques RLC conduit à des équa-
tions diérentielles sur R2 du type
di
L = v − h(i),
dt
(5.6)
dv
C = −i,
dt
où h : R → R est une fonction de classe C 1 . Les variables v et i sont
respectivement un voltage et une intensité et les constantes positives L et C
une résistance et une capacité. L’énergie du système est E(i, v) = 12 (Li2 +
Cv 2 ).
1. Déterminer l’équilibre de l’équation (5.6) et discuter sa stabilité en fonc-
tion de h′ (0).
2. Supposons que h vérie xh(x) > 0 pour x 6= 0. Montrer que l’équilibre
est asymptotiquement stable et déterminer son bassin d’attraction.
Corrigé de l’exercice 5.1.
1. L’équilibre est le point i = 0, v = h(0). Le linéarisé de l’équation diéren-
tielle en ce point est y ′ (t) = Ay(t), où
′
h (0) 1
−
L L
A=
1
− 0
C
Remarquons que det A = 1(LC) > 0. Les valeurs propres de A ont donc
des parties réelles de même signe, qui est aussi le signe de tr A = −h′ (0)L
(d’après la remarque 2.6). On en conclut que :
151
5 Stabilité des équilibres
• si h′ (0) > 0, l’équilibre est asymptotiquement stable ;
• si h′ (0) < 0, l’équilibre n’est pas stable ;
• si h′ (0) = 0, l’équilibre n’est pas hyperbolique, on ne peut rien dire en
utilisant le linéarisé.
2. Notons d’abord que l’hypothèse sur h implique h(0) = 0. L’équilibre est
donc l’origine. Essayons de montrer que l’énergie E(i, v) = 12 (Li2 + Cv 2 ) est
une fonction de Lyapunov stricte en 0. On a déjà :
• 0 est un minimum strict de E ;
• dEdt
= −ih(i) < 0 si i 6= 0.
On a donc montré que, le long d’une trajectoire x(t) = (i(t), v(t)), la fonction
E(x(t)) est strictement décroissante tant que i(t) 6= 0. Or, si x(t) n’est pas
identiquement nulle, les instants t0 où i(t0 ) = 0 sont isolés puisqu’alors
i′ (t0 ) = v(t0 ) 6= 0. Ainsi dE
dt
< 0 presque partout le long d’une trajectoire ;on
en déduit que E(x(t)) est strictement décroissante.
Par conséquent la fonction E : R2 → R est une fonction de Lyapunov stricte
en 0, ce qui montre que 0 est un équilibre asymptotiquement stable. Comme
de plus E(x) → ∞ quand ‖x‖ → ∞, le bassin d’attraction de 0 est R2 tout
entier.
Exercice 5.2.
Modèle micro-économique. Dans un modèle d’économie de pure accu-
mulation, on ne fait pas apparaître explicitement le travail, toute production
étant accumulée. Le modèle est alors caractérisé par les fonctions de produc-
tion des biens et par les coecients de dépréciation des capitaux. Considérons
par exemple un modèle comportant deux biens capitaux, 1 et 2. On note Y i la
quantité de bien i produite et ki la quantité de bien i entrant comme capital
dans la production. Les fonctions de production sont de la forme
Y1 = λ1 k1α1 k2β1 ,
Y2 = λ2 k1α2 k2β2 ,
où les coecients λi , i et i appartiennent à [0, 1]. Le coecient de dépré-
ciation du capital i est un réel ρi [0, 1]. L’équation du système est donc
′
k 1 = Y 1 − ρ1 k 1 ,
′
k 2 = Y 2 − ρ2 k 2
Pour éviter des calculs fastidieux, on donne ci-dessous une équation diéren-
tielle dont les solutions présentent les mêmes caractéristiques dynamiques
que celles de ce système, mais dont l’étude est plus simple. On encourage
152
5.4 Exercices corrigés
cependant le lecteur courageux à reprendre les calculs, une fois l’exercice
résolu, pour les adapter au vrai système.
Considérons l’équation diérentielle
′
k1 = k2 k1 − k13 ,
k2′ = k1 k2 − k23 ,
qui résulte d’un modèle micro-économique simplié, les variables k 1 et k2
pouvant représenter des stocks de capitaux. On étudie l’évolution des stocks
de capitaux, que l’on suppose tous deux strictement positifs (à justier).
1. Déterminer l’équilibre du système dans ]0, +∞[2 .
2. Étudier sa stabilité par linéarisation.
3. Étudier le portrait de phase dans ]0, +∞[2 : on montrera que toute solu-
tion de l’équation diérentielle a une limite puis que le bassin d’attraction
de l’équilibre est tout ]0, +∞[2 .
Corrigé de l’exercice 5.2.
1. L’équation diérentielle s’écrit k ′ (t) = f k(t) , avec k = (k1 , k2 )
]0, +∞[2 et ( )
(k2 − k12 )k1
f (k) =
(k1 − k22 )k2
Remarquons d’abord que f1 (k) = 0 sur l’axe Ok2 et que f2 (k) = 0 sur l’axe
Ok1 ;l’orbite d’un point sur l’axe Ok1 est donc contenue dans Ok1 , de même
pour Ok2 . Il est donc impossible de traverser un axe, ce qui implique que,
si les capitaux k1 et k2 sont positifs à l’instant initial, ils le restent au cours
du temps.
Un équilibre satisfait f (k) = 0. Or
f1 (k) = 0 ⇒ k2 = k12 et f2 (k) = 0 ⇒ k1 = k22 ,
c’est-à-dire que le seul équilibre dans ]0, +∞[2 est
k̄ = (1, 1)
2. Calculons la diérentielle du champ f :
k2 − 3k12 k1 −2 1
Df (k) = ⇒ Df (k̄) =
k2 k1 − 3k22 1 −2
153
5 Stabilité des équilibres
f1 = 0
k2
C B
f2 = 0
k̄
D A
k1
Fig. 5.2. Isoclines de f (k)
Comme det Df (k̄) = 3 > 0 et tr Df (k̄) = −4 < 0, les deux valeurs propres
de la matrice ont des parties réelles strictement négatives. On en conclut que
k̄ est un équilibre asymptotiquement stable.
3. Séparons le quadrant positif en 4 régions, comme indiqué sur la gure 5.2.
Nous allons d’abord montrer que toute solution de l’équation diérentielle
est dénie sur [0, +∞[ et a une limite quand t → +∞.
Considérons d’abord la région D. Sur les bords de D, excepté en k̄, le champ
de vecteurs f est dirigé vers l’intérieur de D. Autrement dit, si k ∂D,
k 6= k̄, le ot φt (k) de f appartient à D pour t > 0 susamment petit. La
région D est donc positivement invariante par le ot, i.e. φ t (D) ⊂ D.
Prenons alors une solution k(·) sur [0, +∞[ dont la condition initiale k(0)
D. Elle est contenue dans D, où f1 et f2 sont positives, donc k1 (t) et k2 (t)
sont croissantes. On en déduit que k(·) est incluse dans le compact k1 ≥
k1 (0), k2 ≥ k2 (0) ∩ D̄, ce qui implique qu’elle est dénie sur tout [0, +∞[, et
que ses coordonnées k1 (·) et k2 (·) y sont croissantes : k(t) a donc une limite
dans ce compact quand t → ∞.
Le même raisonnement vaut pour la région B : elle est positivement invari-
ante et toute solution k(·) contenue dans cette région a des coordonnées
décroissantes : k(·) est donc dénie sur tout [0, +∞[ et k(t) a une limite
dans B̄ quand t → ∞.
Considérons maintenant une solution k(·) dont la condition initiale k(0)
appartient à la région A. Il y a deux possibilités :
154
5.4 Exercices corrigés
• soit la solution k(·) sort de A : elle entre alors soit dans B, soit dans D,
et on est ramené à l’étude précédente ;
• soit k(·) reste dans A : les coordonnées k1 (·) et k2 (·) sont alors respec-
tivement décroissantes et croissantes, toutes les deux bornées : pour tout
t ≥ 0 où k(t) est dénie, on a k1 (t) ≤ k1 (0), k2 (0) ≤ k2 (t) et :
k1 (t) ≥ k2 (t) ≥ k2 (0) et k2 (t) ≤ k1 (t) ≤ k1 (0)
Comme ci-dessus, on en déduit d’une part que k(t) est dénie pour tout
t ≥ 0 et d’autre part que, quand t → ∞, k(t) a une limite appartenant à
]0, +∞[2 .
Le même raisonnement vaut pour la région C. On a donc montré que toute
solution de l’équation est dénie sur [0, +∞[ et a une limite dans ]0, +∞[ 2
quand t → +∞.
Or nous avons vu dans un exercice précédent (question 4. de l’exercice 4.2)
que, si une solution a une limite, cette limite est un équilibre. Ainsi, la
limite d’une solution est toujours l’équilibre k̄. Ainsi, on a montré que le
bassin d’attraction de k̄ est tout le quadrant positif.
Exercice 5.3. Dans un bassin cylindrique en verre de rayon R > 0 con-
tenant un liquide nutritif se trouvent diverses espèces de parasites pho-
totropes, c’est-à-dire se dirigeant vers la lumière. Chaque espèce est car-
actérisée par sa vitesse de déplacement v > 0.
Pour séparer ces diverses espèces, on place le récipient sur un plateau
tournant à la vitesse angulaire > 0 et on dispose à proximité une source
lumineuse xe. Dans un repère (O, x, y) xe du plan où O est le centre du
cylindre, les équations du mouvement de l’espèce dont la vitesse de déplace-
ment est v sont :
R−x
x′ = −y + v ,
(R − x)2 + y 2
y
y ′ = x − v ,
(R − x)2 + y 2
la source lumineuse étant au point de coordonnées (R, 0).
On suppose que v < R.
1. Montrer que l’équation diérentielle admet un unique point d’équilibre,
dont les coordonnées (x∗ = r cos θ, y∗ = r sin θ) satisfont
v r
r= et cos θ =
R
155
5 Stabilité des équilibres
On posera ρ = (R − x∗ )2 + y∗2 dans les calculs.
2. Montrer que P∗ est un équilibre asymptotiquement stable.
3. On admettra que P∗ est globalement asymptotiquement stable. Comment
séparer les diérentes espèces de parasites?
Corrigé de l’exercice 5.3.
1. Si (x∗ , y∗ ) est un point d’équilibre on a par dénition
R − x∗ y∗
y∗ = v x∗ = v
ρ ρ
On a donc
2 2 2 (R − x∗ )2 + y∗2
r =v ,
ρ2
soit r = αv . De même si on fait le quotient des deux équations précédentes
on trouve
R
tg θ + cotg θ = ,
r sin θ
et donc cos θ = Rr . Comme sin θ est positif ceci détermine parfaitement θ.
2. Le linéarisé autour de l’équilibre P∗ a pour équation Y ′ = AY , où
(R − x∗ )2 1 (R − x∗ )y∗
v( 3
− ) − + v
ρ ρ ρ3
A = DF (P∗ ) = 2
(R − x∗ )y∗ y∗ 1
+v v( 3 − )
ρ3 ρ ρ
Le déterminant det A = 2 est positif alors que la trace tr A = − vρ est
négative. Par conséquent (voir remarque 2.6) l’équilibre est toujours asymp-
totiquement stable.
3. On peut séparer les espèces puisque deux v diérents donnent deux P ∗
distincts qui sont tous deux globalement attractifs. Il sut de plonger une
épuisette au bon endroit...
Exercice 5.4. Reprenons le modèle prédateur/proie de Volterra, déjà étudié
dans l’exercice 4.2 : ′
x (a − by)x
=
y (f x − c)y
156
5.4 Exercices corrigés
1. Déterminer les équilibres de cette équation dans R2 et discuter leur sta-
bilité, d’abord en étudiant le linéarisé, puis en cherchant si nécessaire une
fonction de Lyapunov.
Une des hypothèses du modèle prédateur/proie de Volterra est que, en
l’absence d’interactions, la population des proies augmente indéniment
alors que les prédateurs disparaissent totalement. Ceci n’est pas très vraisem-
blable. Une hypothèse plus satisfaisante est que, en l’absence d’interactions
toujours, les populations obéissent à une loi logistique,
x′ = (a − px)x, y ′ = −(c + qy)y,
où p, q > 0 sont des constantes. On obtient de cette façon un nouveau modèle
prédateur/proie,
{ ′
x (t) = a − by(t) − px(t) x(t),
(5.7)
y ′ (t) = − c + f x(t) − qy(t) y(t)
On fera ici l’hypothèse que p est petit, et donc que cf < ap.
2. Déterminer les équilibres de cette équation dans (R+ )2 et étudier leur
stabilité.
3. Déterminer le bassin d’attraction du seul équilibre asymptotiquement sta-
ble (x̄, ȳ) appartenant à (R+ )2 .
Indication: par analogie avec le modèle de Volterra, on cherchera une fonction
de Lyapunov sous la forme
x x y y
L(x, y) = K1 x̄ − log − 1 + K2 ȳ − log −1
x̄ x̄ ȳ ȳ
Corrigé de l’exercice 5.4.
1. Notons F (x, y) = (a − by)x, (f x − c)y le champ de vecteurs déni par
l’équation de Volterra. Les équilibres de l’équation (c’est-à-dire les zéros de
F ) sont 0 et z̄ = (cf, ab). Calculons la diérentielle de F :
a − by −bx
DF (x, y) =
fy fx − c
Les linéarisés autour des équilibres 0 et z̄ ont donc pour matrice, respective-
ment,
a 0 0 −bx̄
DF (0) = et DF (z̄) =
0 −c f ȳ 0
157
5 Stabilité des équilibres
Les valeurs propres de DF (0) sont a et −c : a étant positif, ceci montre que
l’équilibre 0 n’est pas stable (donc a fortiori pas asymptotiquement stable).
Les valeurs propres de DF (z̄) sont imaginaires pures, on ne peut donc rien
en conclure sur la stabilité de l’équilibre z̄. On va alors chercher une fonction
de Lyapunov : soit V la fonction trouvée à la question 2. de l’exercice 4.2,
V (x, y) = (f x − c log x) + (by − a log y),
et posons L(x, y) = V (x, y) − V (z̄). La fonction L : ]0, +∞[2 → R est une
fonction de Lyapunov (non stricte) pour l’équation de Volterra en z̄ car :
• L(z̄) = 0 et L(x, y) > 0 pour tout (x, y) 6= z̄ dans ]0, +∞[2 , puisque z̄ est
un minimum strict de V sur ]0, +∞[2 ;
• L est constante le long des solutions de l’équation.
On en conclut que l’équilibre z̄ est stable. En revanche il n’est pas asymp-
totiquement stable, puisque, toute solution non triviale étant périodique et
contenue dans une ligne de niveau de L(x, y), elle ne peut tendre vers z̄
(c’était de toute façon évident sur le portrait de phase).
2. Notons G(x, y) = (a − px − by)x, (−c + f x − qy)y le champ de vecteur
dénissant l’équation (5.7). Les équilibres de l’équation sont les solutions de
G(x, y) = 0, c’est-à-dire de :
px + by = a ou x = 0,
f x − qy = c ou y = 0
Ce système a quatre solutions
:
px1 + by1 = a,
• z1 = (x1 , y1 ) vériant
f x1 − qy1 = c ;
• z2 = (ap, 0) ;
• z3 = (0, −cq) ;
• l’origine.
L’hypothèse cf < ap entraîne que z1 (R+ )2 , ce qui est aussi le cas pour
z2 et 0. En revanche z3 n’appartient pas à (R+ )2 .
Étudions maintenant la stabilité des trois équilibres de (R + )2 , i.e. z1 , z2 et
0, en utilisant que la diérentielle de G est :
a − 2px − by −bx
DG(x, y) =
fy −c + f x − 2qy
• En z1 : la diérentielle de G vaut
−px1 −bx1
DG(z1 ) = ,
f y1 −qy1
158
5.4 Exercices corrigés
dont la trace est −(px1 + qy1 ) < 0 et le déterminant (pq + f b)x1 y1 > 0.
Les valeurs propres de cette matrice sont donc de partie réelle négative,
ce qui entraîne que z1 est un équilibre asymptotiquement stable.
• En z2 : la diérentielle de G vaut
−a −(ab)p
DG(z2 ) = ,
0 −c + (f a)p
dont les valeurs propres sont −a et −c + (f a)p. Comme cf < ap, la
deuxième valeur propre est positive, c’est-à-dire que l’équilibre z 2 n’est
pas stable.
• En 0: la diérentielle de G vaut
a 0
DG(0) = ,
0 −c
dont les valeurs propres sont a et −c. L’équilibre 0 n’est donc pas stable.
3. On a vu que le seul équilibre asymptotiquement stable de G est z 1 . On sait
déjà que son bassin d’attraction est inclus dans le quadrant positif ]0, +∞[ 2 ,
puisque, comme pour l’équation de Volterra, les axes Ox et Oy sont in-
variants par le ot de G (c’est-à-dire que toute solution dont une valeur
appartient à un de ces axes est contenue dedans).
On va chercher à montrer que le bassin d’attraction de z1 est en fait tout le
quadrant positif. Commençons par trouver une fonction de Lyapunov stricte
pour G en z1 dont le domaine de dénition soit ]0, +∞[2 . Par analogie avec
la question 1, on va chercher cette fonction de Lyapunov L :]0, +∞[2 → R
sous la forme :
x x y y
L(x, y) = K1 x1 − log − 1 + K2 y1 − log −1
x1 x1 y1 y1
(notez que, quand p = q = 0, on retrouve la fonction de Lyapunov pour
l’équation de Volterra en prenant K1 = f , K2 = b).
Calculons d’abord le gradient et la hessienne de L :
x1
K1 (1 − xx1 ) 2 K1 x 2 0
L(x, y) = , L(x, y) =
K2 (1 − yy1 ) 0 K2 yy12
Si K1 et K2 sont positifs, L est une fonction strictement convexe (hessienne
dénie positive) dont l’unique minimum est z1 (le zéro du gradient).
159
5 Stabilité des équilibres
Montrons maintenant que l’on peut choisir K1 et K2 positifs de façon à ce
que L soit strictement décroissante le long des solutions de (5.7), ou plutôt
tels que
〈L(x, y), G(x, y)〉 < 0 pour tout (x, y) 6= z1
En notant G = (G1 , G2 ), on a
x1 y1
〈L(x, y), G(x, y)〉 = K1 (1 − )G1 (x, y) + K2 (1 − )G2 (x, y)
x y
G1 (x, y) G2 (x, y)
= K1 (x − x1 ) + K2 (y − y1 )
x y
Or a = px1 + by1 et c = f x1 − qy1 , ce qui permet d’écrire
G1 (x, y) G2 (x, y)
= −p(x − x1 ) − b(y − y1 ) et = f (x − x1 ) − q(y − y1 )
x y
Ainsi,
〈L(x, y), G(x, y)〉 =
− K1 p(x − x1 )2 − K2 q(y − y1 )2 + (−bK1 + f K2 )(x − x1 )(y − y1 )
En prenant par exemple K1 = f et K2 = b, on obtient
〈L(x, y), G(x, y)〉 = −f p(x − x1 )2 − bq(y − y1 )2 < 0 pour tout(x, y) 6= z1
On a donc trouvé une fonction de Lyapunov L stricte en z1 dénie sur tout
le quadrant positif. Comme de plus L(x, y) tend vers l’inni quand (x, y)
tend vers un bord du quadrant (c’est-à-dire que les lignes de niveau de L
sont des compacts du quadrant), on conclut en utilisant la remarque 5.4 que
ce quadrant est le bassin d’attraction de z1 .
Exercice 5.5. On cherche ici à analyser le phénomène de la vague solitaire,
ou soliton. Le problème est modélisé comme un long canal considéré comme
unidimensionnel. La quantité intéressante est le prol y de la surface de
l’eau, qui est une fonction du temps t et de la position x le long du canal.
Ce prol est mesuré par rapport à la hauteur h de l’eau au repos. Il doit
satisfaire l’équation aux dérivées partielles dite de Korteweg–de Vries,
∂y g ∂ 3 2 σ ∂ 2y
=− hy + y + , (5.8)
∂t h ∂x 4 2 ∂x2
où g est la constante de gravitation et σ > 0 est une constante (qui dépend
de h, de g et de la tension supercielle).
On appelle soliton une solution y(t, x) de l’équation aux dérivées partielles
telle que :
160
5.4 Exercices corrigés
• y(t, x) = z(s), où s = x − vt, v étant une constante (c’est la vitesse de la
vague) ;
• z(s) et toutes ses dérivées tendent vers 0 quand s → ±∞ (la surface de
l’eau est au repos loin du soliton).
Le but de l’exercice est de mettre en évidence l’existence de telles solution
et de préciser la vitesse et l’amplitude de la vague.
1. Montrer qu’un soliton z(s) vérie
3
σz ′′ (s) = bz(s) − z 2 (s), (5.9)
2
où b est une constante.
√
Quitte à remplacer s par s σ, on suppose dans la suite σ = 1. On note f
le champ de vecteurs sur R2 déni par l’équation (5.9).
2. Déterminer les équilibres de f et discuter leur stabilité en utilisant la
méthode de linéarisation. Que peut-on dire sur l’existence de solitons?
3. Trouver une constante du mouvement, c’est-à-dire une fonction L : R2 →
R constante le long des solutions de f .
4. Montrer que, si b < 0, il n’y a pas de soliton.
5. Supposons b > 0. Montrer qu’il existe un unique soliton, tracer son orbite
et déterminer son amplitude.
Corrigé de l’exercice 5.5.
1. Pour une fonction y(t, x) = z(s), où s = x − vt, les dérivées partielles
s’écrivent ∂y
∂t
= −vz ′ (s) et ∂x
∂y
= z ′ (s). L’équation (5.8) de Korteweg-de Vries
s’écrit donc :
′ g d 3 2 σ ′′
−vz (s) = − hz(s) + z (s) + z (s) ,
h ds 4 2
ou encore √
d h 3 2
′′
2(h − v )z(s) + z (s) + σz (s) = 0
ds g 2
La quantité 2(h − v hg )z(s) + 32 z 2 (s) + σz ′′ (s) est donc indépendante de
s. Les conditions aux limites impliquent qu’elle est nulle, ce qui donne
l’équation (5.9), avec √
h
b = 2(v − h)
g
161
5 Stabilité des équilibres
2. Le champ de vecteurs sur R2 associé à l’équation est
x2
f (x) =
bx1 − 32 x21
Ce champ a deux équilibres : 0 et x̄ = ( 2b
3
, 0).
Calculons le linéarisé autour de chacun des équilibres. On a
0 1 01 0 1
Df (x) = ⇒ Df (0) = et Df (x̄) =
b − 3x1 0 b0 −b 0
Les valeurs propres du linéarisé en 0 sont donc
±i b si b ≤ 0, ± b si b ≥ 0,
et celles du linéarisé en x̄ sont
± b si b ≤ 0, ±i b si b ≥ 0
Ainsi, pour b > 0, 0 est un équilibre non stable, et on ne peut pas conclure
pour x̄, qui n’est pas hyperbolique. Inversement, pour b < 0, x̄ n’est pas
stable et 0 n’est pas hyperbolique.
Qu’en conclure pour l’existence de solitons? On sait que pour un soliton
z(s), la solution (z(s), z ′ (s)) de x′ = f (x) tend vers 0 quand s → ±∞. Pour
qu’un soliton existe, il faut donc qu’il existe une solution de x ′ = f (x) qui
tende vers 0 en ±∞.
Quand b < 0, la linéarisation ne nous apprend rien. Quand b > 0 en re-
vanche, 0 est un équilibre hyperbolique. D’après le théorème 5.3 d’Hartman–
Grobmann, on sait alors que, au voisinage de 0, le portrait de phase de
x′ = f (x) est topologiquement équivalent à celui de l’équation linéarisée :
puisque celle-ci a une valeur propre positive et une négative, il y a que 2
solutions qui tendent vers 0 en +∞, et 2 en −∞. Il est donc possible qu’il
existe des solitons, mais pas plus de 2! Remarquons que si les valeurs propres
du linéarisé avaient été toutes deux de même signe, on aurait pu conclure
qu’il n’y avait pas de solitons.
3. Il faut trouver L telle que f (x)T L(x) ≡ 0, c’est-à-dire
∂L 3 ∂L
x2 (x) + (bx1 − x21 ) (x) = 0
∂x1 2 ∂x2
x21 x22
On peut prendre par exemple L(x) = 2
(x1 − b) + 2
.
162
5.4 Exercices corrigés
4. Soit x(·) = (z(·), z ′ (·)) une solution de x′ = f (x) associée à un soliton
z(·). On sait que L(x(s)) est une constante, et, vu les conditions aux limites
des solitons, cette constante est L(0) = 0. Ainsi l’orbite de x(·) est contenue
dans
x R2 : L(x) = 0
Or, quand b < 0, 0 est un point isolé de cette courbe de niveau (c’est un
minimum local). La seule solution tendant vers 0 en ±∞ est donc la solution
triviale x(t) ≡ 0.
Il n’y a donc pas de solitons pour b < 0.
5. Si b > 0, la courbe de niveau x R2 : L(x) = 0 est de la forme
de la gure 5.3. Les branches du demi-plan gauche étant innies, on voit
x2(t)
2
–2 –1 0 1 2 3 4
x1(t)
–2
–4
Fig. 5.3. Ensemble L(x) = 0
qu’une solution x(·) associée à un soliton doit être contenue dans la boucle
du demi-plan de droite. Il reste à montrer qu’il existe une solution parcourant
l’ensemble de la boucle (privée de l’origine).
Soit v = (b, 0) le point d’intersection de la boucle avec l’axe horizontal et
x(·) la solution maximale issue de v en t = 0. Elle est dénie sur tout R (car
contenue dans la boucle, qui est compacte). Puisque f (v) = (0, −b2), la
demi-orbite x(]0, ∞[) est dans la partie de la boucle où x2 < 0 : la fonction
x1 (t) y est ainsi décroissante et positive, elle admet donc une limite. De plus,
x′1 (t) étant non nulle, sur cette partie de la boucle x2 (t) est fonction de x1 (t)
et admet également une limite. Donc x(t) a une limite quand t → ∞ : cette
163
5 Stabilité des équilibres
limite étant forcément un équilibre (voir exercice 4.2) ce ne peut être que 0.
Le même raisonnement s’applique quand t → −∞.
Ainsi, x(·) est une solution qui tend vers 0 quand s → ±∞ (toutes les autres
s’obtiennent à partir de celle-là par une translation du temps). Sa coordon-
née x1 (s) = z(s) est alors un soliton. On sait de plus que son amplitude
maximale, obtenue pour x2 = 0, est égale à b.
En résumé, on a montré que, pour toute vitesse de propagation v telle que
b > 0, c’est-à-dire
v > gh,
il existe un soliton dont l’amplitude maximale est
√
h
b = 2(v − h)
g
Exercice 5.6 (non corrigé). On considère un modèle de dynamique de
population de la forme :
{ ′
x1 = (1 − x2 − 2x1 )x1 ,
′
x R2 (5.10)
x2 = (x1 − 1)x2 ,
On note φt le ot de cette équation diérentielle.
1. Montrer que le quadrant positif Q = x R2 : x1 ≥ 0, x2 ≥ 0
est invariant (on dit qu’un ensemble U est invariant si toute solution x(·)
vériant x(0) U est incluse dans U ).
2. Déterminer les équilibres de (5.10) dans R2 et étudier leur stabilité.
3. Déterminer les orbites stables non triviales de l’équilibre 0 et montrer qu’il
n’y en a qu’une contenue dans Q.
4. Montrer que, pour tout A > 1, la région QA = x Q : x1 ≤ 1, x2 ≤ A
est positivement invariante: si x QA , φt (x) QA pour tout t ≥ 0 tel que
φt (x) existe.
5. Montrer que, pour tout x Q, il existe un temps ni t1 [0, ∞[, tel que
φt1 (x) appartient à l’ensemble Q∞ = x Q : x1 ≤ 1.
6. En déduire que, si x Q, φt (x) est déni pour tout t ≥ 0.
7. Montrer que toutes les solutions de (5.10) dans l’intérieur de Q qui ont
une limite quand t → +∞ convergent vers le même point.
164
5.4 Exercices corrigés
8. Montrer que toutes les solutions de (5.10) dans Q ont une limite quand
t → +∞. Dessiner le portrait de phase de l’équation dans Q.
Exercice 5.7 (non corrigé).
Considérons l’équation diérentielle dans R2 dénie par
{ ′
x1 = x1 (1 − x1 − 2x2 )
x′2 = x2 (1 − 2x1 − x2 )
1. Déterminer les équilibres de cette équation et étudier leur stabilité. Indi-
quer combien d’orbites stables possède chaque équilibre.
2. Supposons que, pour tout x (R+ )2 , φt (x) existe pour tout t ≥ 0 et a
une limite quand t → ∞. Dessiner l’allure du portrait de phase dans (R + )2 .
3. Justier l’hypothèse de la question précédente.
Exercice 5.8 (non corrigé). On considère l’équation diérentielle dans R2
{ ′
x1 = x21 − x22 ,
(5.11)
x′2 = 2x1 x2
1. Trouver l’unique équilibre de (5.11) et étudier sa stabilité par linéarisation.
2. Montrer que si une solution x(t) est dénie et admet une limite quand
t → ∞ (ou t → −∞), cette limite est l’équilibre de (5.11).
Pour tout réel a, on note Ca le cercle centré en (0, a) passant par l’origine,
Ca = x R2 : Va (x) = 0, où Va (x) = x21 + (x2 − a)2 − a2
3. a) Montrer que, si x(·) est solution de (5.11), alors y(t) = Va (x(t)) est
solution d’une équation diérentielle de la forme y ′ (t) = (t)y(t)
b) En déduire que, si v Ca , alors l’orbite de v est contenue dans Ca .
4. Soient v = (v1 , v2 ) tel que v2 6= 0, et a l’unique réel tel que v Ca .
a) Montrer que la solution maximale xv (·) est dénie sur tout R.
b) Montrer que xv (·) a une limite en +∞ et en −∞.
c) Quelle est l’orbite de v?
5. Soit v = (v1 , 0). Calculer xv (·) et donner son l’intervalle de dénition.
6. Dessiner le portrait de phase de (5.11). L’équilibre est-il stable?
7. On dénit Ω comme R2 privé de l’ensemble x = (x1 , 0) : x1 6= 0.
Pour l’équation (5.11) restreinte à Ω, l’équilibre est-il stable? Est-il asymp-
totiquement stable?
165
6
Commande des systèmes – Une introduction à
l’automatique
Les systèmes dynamiques que nous avons vu jusqu’à maintenant étaient des
systèmes isolés : le comportement d’une solution est complètement déterminé
par la donnée de sa condition initiale. Nous allons considérer maintenant des
systèmes dont on peut modier le comportement au cours du temps. Il s’agit
des systèmes dits commandés, qui sont au cœur de l’automatique. Nous ne
présentons ici qu’une introduction à ce domaine. On pourra se référer à [7]
pour une présentation approfondie.
6.1 Systèmes commandés
L’objet de l’automatique est l’étude des systèmes sur lesquels on peut agir
par le biais d’une commande, le système pouvant être un système mé-
canique (moteur, robot, drone, satellite), un processus chimique (réacteur,
colonne de distillation), un circuit électrique ou électronique, un phénomène
physique, etc. D’un tel système résulte une relation entrée/sortie où l’entrée
u y
Système
u représente la commande, c’est-à-dire le moyen d’action sur le système, et
la sortie y représente ce que l’on observe du système, généralement sous la
forme de mesures.
Le but de l’automaticien est double :
6 Commande des systèmes
• analyser le comportement du système, que l’on connaît via la sortie y, en
fonction de l’entrée u qu’on lui impose ;
• synthétiser les lois de commande à imposer en entrée an d’obtenir des
comportements répondant à certaines spécications.
Pour ce faire, la méthode la plus générale est d’utiliser une description interne
du système, c’est-à-dire une modélisation mathématique du phénomène qu’il
représente. Il s’agit de l’approche par représentation d’état.
Nous considérons donc que le système au temps t est décrit par son état
x(t) et on modélise l’évolution du vecteur x(t) au cours du temps par un
système commandé
′
x (t) = f (t, x(t), u(t)),
(Σ)
y(t) = g(t, x(t), u(t))
Remarquons que nous avons fait ici un certain nombre d’hypothèses sur
le système considéré, par exemple qu’il est déterministe (par opposition
aux systèmes aléatoires, représentés par des équations diérentielles stochas-
tiques) et en temps continu (par opposition au temps discret). D’autre part,
nous nous limiterons ici au cas où les grandeurs que nous considérons, l’état,
l’entrée et la sortie, sont de dimension nie. Typiquement, pour chaque in-
stant t, x(t) est un vecteur de Rn , u(t) un vecteur de Rm et y(t) un vecteur
de Rp .
Précisons enn la signication de l’équation x′ (t) = f (t, x(t), u(t)). Une
fonction u(t), dénie sur un intervalle [0, τ ], avec τ > 0, est appelée une
loi de commande. À une loi de commande u(·) est associée une équation
diérentielle ordinaire
x′ (t) = fu (t, x(t)), t [0, τ ], (6.1)
où on a noté fu (t, x) = f (t, x, u(t)). Ainsi, une fonction x(·) est solution
de l’équation diérentielle commandée x ′ (t) = f (t, x(t), u(t)) si il existe une
loi de commande u(·) telle que x(·) est solution de l’équation diérentielle
x′ (t) = fu (t, x(t)). Nous y revenons dans la section 6.2.
Les premiers problèmes que l’on est amené à se poser en automatique
portent d’une part sur l’analyse du comportement dynamique d’un système
et d’autre part sur la synthèse de lois de commande. En ce qui concerne le
premier point, les questions sont les suivantes :
Commandabilité Est-il possible de trouver une commande u(·) qui amène
le système, initialement dans l’état x(0), dans un état v quelconque au
temps t = τ ?
168
6.2 Linéarisation des systèmes
Observabilité La connaissance de y(t) et de u(t) pour tout t [0, τ ]
permet-elle de déterminer l’état x(·) pour tout t [0, τ ] (ou, ce qui est
équivalent, l’état initial x(0))?
Pour la synthèse de lois de commande, les premières questions sont :
Planication de trajectoires Si la réponse à la question de la command-
abilité est positive, comment trouver une commande u(·) qui amène le
système, initialement dans l’état x(0), dans un état v donné au temps
t = τ?
Stabilisation Comment construire une commande u(·) (et est-ce possible?)
qui stabilise asymptotiquement le système (Σ) autour d’un équilibre x 0 ,
c’est-à-dire telle que, pour toutes conditions initiales x(0), on ait
lim x(t) = x0 ?
t→+∞
À ces problèmes il faudrait ajouter celui de la synthèse d’observateurs : en
cas de réponse positive à la question de l’observabilité, comment déterminer
l’état x(·) à partir de la connaissance de y(·) et de u(·)? Nous aborderons
cette question dans l’exercice 6.7.
Ces diérentes questions n’ont pas de réponses dans un cadre général.
Mais nous allons voir dans la section suivante qu’il est raisonnable, au moins
localement, de se restreindre à des systèmes de commande linéaires. C’est
donc dans ce cadre, celui de l’automatique linéaire, que nous traiterons en-
suite les problèmes d’analyse et de synthèse de lois de commande.
6.2 Linéarisation des systèmes
Commençons par préciser ce qu’est une solution d’un système de commande.
On considère donc une équation diérentielle commandée
x′ (t) = f (x(t), u(t)), (6.2)
où l’état x(·) est à valeurs dans un ouvert Ω de Rn , la commande u(·)
à valeurs dans un ouvert U de Rm et f est une application continue de
Ω × U dans Rn . Comme au chapitre 4, nous nous restreignons aux systèmes
autonomes pour simplier la présentation, la généralisation aux équations
commandées dépendant du temps étant assez aisée.
Il est important de préciser à quelle classe de fonctions appartiennent les
lois de commande u(·). En pratique, celles-ci peuvent en eet être extrême-
ment irrégulières, en particulier discontinues (par exemple, si l’action sur le
169
6 Commande des systèmes
système se fait au moyen d’un interrupteur). La classe choisie doit donc être
susamment large pour représenter ces comportements, et en même temps
permettre d’assurer l’existence de solutions de l’équation (6.1). Nous sup-
poserons donc qu’une loi de commande u(·) est une fonction dénie sur un
intervalle [σ, τ ] (dépendant de u(·)) et à valeurs dans U , qui est mesurable
et essentiellement bornée, c’est-à-dire dans l’espace L ∞ ([σ, τ ], U ).
Remarque 6.1. L’introduction des espaces L∞ , un peu abrupte, est nécessaire
pour énoncer correctement les deux résultats à venir. Son utilisation se limite
cependant à la présente section. De plus, le lecteur peu familier avec la
théorie de la mesure peut suivre sans problème le reste de cette section
en remplaçant l’espace L∞ ([σ, τ ], U ) par celui des fonctions de [σ, τ ] → U
continues par morceaux.
Avec une telle classe de lois de commande, l’équation (6.1) ne rentre
plus dans le cadre des équations étudiées au chapitre 4 ;en particulier, t 7→
f (x, u(t)) n’est a priori pas continue. Il nous faut donc redénir ce qu’est une
solution d’une telle équation et donner un résultat qui généralise le théorème
de Cauchy–Lipschitz.
Fixons une loi de commande u(·) L∞ ([σ, τ ], U ). On appelle solution de
l’équation diérentielle x′ (t) = f (x(t), u(t)) sur un sous-intervalle I de [σ, τ ],
une fonction lipschitzienne x(·) : I → Ω telle que
∫ t
x(t) = x(t0 ) + f (x(s), u(s))ds, pour tous t, t0 I
t0
En particulier, la solution x(·) satisfait x′ (t) = f (x(t), u(t)) pour presque
tout t I. D’autre part, comme au chapitre 4, on dit qu’une solution est
maximale si elle n’admet pas de prolongement à un intervalle strictement
plus grand (voir dénition 4.1).
Avec ces dénitions, on a la généralisation suivante du théorème de
Cauchy–Lipschitz, dont on pourra trouver une preuve dans [8] ou [7, Lem.
2.6.2].
Théorème 6.1 (d’existence et unicité des solutions maximales).
Supposons f de classe C 1 sur Ω × U et xons des données initiales v Ω
et t0 R. Alors, pour toute commande u(·) L∞ ([t0 , τ ], U ), il existe une
unique solution maximale x(·) de x′ (t) = f (x(t), u(t)), dénie sur un inter-
valle I inclus dans [t0 , τ ] et contenant t0 , telle que
x(t0 ) = v
170
6.2 Linéarisation des systèmes
Pour simplier, on considérera toujours des intervalles de temps de
la forme [0, τ ]. Pour un point v Ω et une loi de commande u(·)
L∞ ([0, τ ], U ), on notera alors xv,u(·) (·) la solution maximale de
′
x (t) = f (x(t), u(t)),
x(0) = v
On peut aussi dénir une application généralisant la notion de ot : pour
t [0, τ ], on pose
Φt (v, u(·)) = xv,u(·) (t),
quand c’est possible, c’est-à-dire quand t appartient à l’intervalle de déni-
tion de xv,u(·) (·) (cet intervalle étant de la forme [0, τ ′ [, 0 < τ ′ ≤ τ ).
Une fois établi le résultat d’existence et d’unicité, on peut s’intéresser à la
dépendance d’une solution par rapport d’une part aux conditions initiales et
d’autre part à la loi de commande. Comme pour les équations diérentielles
ordinaires, cette dépendance s’obtient grâce au système linéarisé.
Théorème 6.2. Supposons f de classe C 1 sur Ω × U et considérons une
solution x̄(·) : [0, τ ] → Ω ⊂ Rn de (6.2) associée à la commande ū(·)
L∞ ([0, τ ], U ). On note v̄ = x̄(0).
Alors il existe un voisinage de (v̄, ū(·)) dans Ω × L∞ ([0, τ ], U ) sur lequel,
pour tout temps t [0, τ ], l’application Φt est dénie. De plus Φt est de
classe C 1 sur ce voisinage et sa diérentielle est :
∀ (v, u(·)) Rn × L∞ ([0, τ ], Rm ), DΦt (v̄, ū(·)) · (v, u(·)) = x(t),
où x(·) est la solution de
{ ′
x (s) = Dx f x̄(s), ū(s) · x(s) + Du f x̄(s), ū(s) · u(s), s [0, τ ],
x(0) = v
Rappelons que Dx f (x, u) désigne la diérentielle partielle de f par rapport à
x, c’est-à-dire la diérentielle de l’application partielle x 7→ f (x, u) ;de même
Du f (x, u) désigne la diérentielle partielle de f par rapport à u.
Ce théorème apparaît comme une généralisation de la formule (4.7) sur les
équations dépendant d’un paramètre et peut se prouver de façon similaire,
avec cependant des dicultés techniques supplémentaires (voir par exem-
ple [7, Th. 1] pour une preuve). Il montre que, autour d’une solution donnée,
l’étude des solutions d’une équation diérentielle commandée se ramène à
l’étude d’une équation commandée linéaire. Introduisons alors la notion de
système linéarisé.
171
6 Commande des systèmes
Dénition 6.1. Soit x̄(·) : [0, τ ] → Ω une solution de (6.2) associée à la
commande ū(·) L∞ ([0, τ ], U ). Le système linéaire
x′ (t) = Dx f x̄(t), ū(t) · x(t) + Du f x̄(t), ū(t) · u(t), t [0, τ ]
où x(t) Rn est l’état et u(t) Rm est la commande, est appelé système
linéarisé de (6.2) autour de (x̄(·), ū(·)).
Un cas particulier très intéressant est celui où le système est linéarisé
autour d’un couple d’équilibre, c’est-à-dire d’un couple (x 0 , u0 ) dans Ω × U
tel que f (x0 , u0 ) = 0. L’état x0 est alors une solution stationnaire de (6.2)
associée à la commande constante u0 et le système linéarisé de (6.2) autour
de (x0 , u0 ) est linéaire et autonome, i.e. de la forme :
x′ (t) = Ax(t) + Bu(t), A = Dx f (x0 , u0 ), B = Du f (x0 , u0 )
Si de plus le système a une sortie y(t) = g(x(t), u(t)) avec g de classe C 1 ,
le comportement de celle-ci au voisinage de y0 = g(x0 , u0 ) dépend du terme
du premier ordre y(t), où
y(t) = Cx(t) + Du(t), C = Dx g(x0 , u0 ), D = Du g(x0 , u0 )
Ainsi, quitte à linéariser autour d’un couple d’équilibre, nous nous lim-
iterons dans la suite à l’étude des systèmes commandés linéaires
et autonomes, soit
{ ′
x (t) = Ax(t) + Bu(t),
(Σ) t [0, τ ],
y(t) = Cx(t) + Du(t),
où A Mn (R) est une matrice carrée, B Mn,m (R), C Mp,n (R) et
D Mp,m (R) sont des matrices non nécessairement carrées et la commande
u(·) est à valeurs dans Rm .
6.3 Commandabilité (relation entrée/état)
Soit un système commandé (Σ) linéaire et autonome. Seule nous intéresse
ici la relation entre l’entrée et l’état, nous n’aurons donc besoin que de
l’équation diérentielle commandée dans Rn
x′ (t) = Ax(t) + Bu(t), t [0, τ ], (6.3)
172
6.3 Commandabilité (relation entrée/état)
où A Mn (R), B Mn,m (R) et la commande u(·) est à valeurs dans Rm .
Étant donné x0 Rn , on dit qu’un état v Rn est atteignable en temps
τ à partir de x0 si il existe une loi de commande u : [0, τ ] → Rm telle
que x(τ ) = v, x(·) étant la solution de (63) satisfaisant x(0) = x0 . On
note A(τ, x0 ) l’ensemble des états atteignables à partir de x0 en temps τ ,
c’est-à-dire }
x(·) solution de (Σ)
A(τ, x0 ) = x(τ ) :
t.q. x(0) = x0
Le point de départ de l’étude des systèmes linéaires autonomes est la
formule de variation de la constante, qui est une conséquence directe du
théorème 3.3.
Proposition 6.1. Soient u(·) une commande et x0 Rn . L’unique solution
de x′ (t) = Ax(t) + Bu(t) valant x0 à l’instant t = 0 est
∫ t
x(t) = etA x0 + e(t−s)A Bu(s)ds
0
Notons en particulier que, si x(0) = 0,
∫ t
x(t) = e(t−s)A Bu(s)ds, (6.4)
0
et que cette expression dépend linéairement de la loi de commande u(·).
Il résulte de cette proposition que l’ensemble A(τ, 0) est un espace vecto-
riel, et que l’ensemble A(τ, x0 ) est l’espace ane eτ A x0 + A(τ, 0). L’ensemble
des points atteignables à partir de x0 est donc complètement caractérisé par
l’ensemble Aτ = A(τ, 0).
Dénition 6.2. On dit que le système (Σ) est commandable en temps τ
si Aτ = Rn , ou, de façon équivalente, si tout état de R n est atteignable en
temps τ à partir de n’importe quel autre.
Nous allons chercher maintenant à caractériser algébriquement la com-
mandabilité. Ceci passe par la détermination de l’ensemble A τ .
Théorème 6.3. L’espace Aτ est égal à l’image de la matrice (n × nm)
C := B AB · · · An−1 B ,
dite matrice de commandabilité.
173
6 Commande des systèmes
Remarque 6.2. L’image de C est l’espace vectoriel R(A, B) ⊂ Rn engendré
par les Ai Bz, i 0, , n − 1, z Rm :
R(A, B) = VectAi Bz : i = 0, , n − 1, z Rm
La première conséquence de ce résultat est que Aτ est indépendant du
temps τ . Notons que ce ne serait évidemment pas le cas si nous avions choisi
des commandes bornées. La deuxième conséquence est que la dimension de
Aτ est égale au rang de la matrice de commandabilité. On obtient ainsi un
critère de commandabilité algébrique, et donc en général facile à vérier.
Corollaire 6.1 (Critère de commandabilité de Kalman). Le système
(Σ) est commandable si et seulement si la matrice de commandabilité est de
rang n.
Démonstration du Théorème 6.3. Montrons déjà que Aτ ⊂ R(A, B). Pour cela observons
que, par dénition, si v appartient à Aτ il existe une loi de commande u : [0, τ ] → Rm telle que
∫ τ
v= e(τ −s)A Bu(s)ds
0
D’après le théorème de Cayley–Hamilton, la matrice A annule son polynôme caractéristique. Or
ce polynôme est un polynôme normalisé (i.e. dont le coecient de plus haut degré égale 1) de
degré n, ce qui implique que An est combinaison linéaire de I, , An−1 . Par conséquent, pour
tout entier i ≥ 0, Ai est combinaison linéaire de I, , An−1 et laisse donc invariant l’espace
vectoriel
R(A, B) = VectAi Bz : i = 0, , n − 1, z Rm
D’autre part, pour tout s [0, τ ], l’exponentielle e(τ −s)A admet le développement
(τ − s)k Ak
e(τ −s)A = I + (τ − s)A + · · · + + ···
k!
L’exponentielle e(τ −s)A laisse donc également invariant l’espace R(A, B). Nous avons ainsi montré
que e(τ −s)A Bu(s) R(A, B) pour tout s [0, τ ] et par conséquent
∫ τ
e(τ −s)A Bu(s)ds R(A, B)
0
Ainsi Aτ ⊂ R(A, B).
B Montrons l’inclusion réciproque. Il sut pour cela de démontrer A ⊥ ⊥
τ ⊂ R(A, B) . Soit donc
w R orthogonal à Aτ ;le vecteur w est ainsi orthogonal à l’état w̃ que l’on peut atteindre au
n
temps τ par la commande
u(t) = B T (e(τ −t)A )T w
La formule (6.4) montre que
∫ τ
w̃ = e(τ −s)A BB T (e(τ −s)A )T w ds,
0
et, puisque 〈w̃, w〉 = 0, on obtient
174
6.3 Commandabilité (relation entrée/état)
∫ τ ∫ τ T
0 = 〈w, e(τ −s)A BB T (e(τ −s)A )T w ds〉 = (e(τ −s)A B)T w (e(τ −s)A B)T w ds,
0 0
ce qui est équivalent à
∀s [0, τ ], (e(τ −s)A B)T w = 0
Dérivons cette égalité par rapport à s une fois, puis deux fois,. . . Il vient successivement
(e(τ −s)A AB)T w = 0, (e(τ −s)A A2 B)T w = 0, (e(τ −s)A An−1 B)T w = 0,
soit, pour s = τ ,
B T w = 0, (An−1 B)T w = 0
Ceci implique que, pour tout j 0, , n − 1 et tout z Rm ,
0 = 〈z, (Aj B)T w〉 = 〈Aj Bz, w〉,
c’est-à-dire w R(A, B)⊥ . L’inclusion R(A, B) ⊂ Aτ est donc démontrée. u
t
Planication de trajectoires
Le critère de Kalman nous permet de décider s’il est possible d’atteindre
un état v Rn quelconque en temps τ . Le cas échéant, il est naturel de
se demander comment atteindre v, c’est-à-dire comment exhiber une com-
mande uv (·) qui amène de l’état 0 à l’instant 0 à l’état v à l’instant τ . C’est
le problème de la planication des trajectoires. Pour les systèmes linéaires
et autonomes, ce problème se résout facilement à partir de la preuve du
théorème précédent.
Théorème 6.4. Soit G la matrice de Mn (R) dénie comme
∫ τ
G= e(τ −s)A BB T (e(τ −s)A )T ds
0
Alors
Im G = Aτ
De plus, si (Σ) est commandable, alors G est bijective et la commande ū(·) :
[0, τ ] → Rm dénie par
T
ū(s) = e(τ −s)A B G−1 v,
amène le système de l’état x(0) = 0 au temps t = 0 à l’état x(τ ) = v au
temps t = τ .
Démonstration. Montrons déjà le premier point. Pour w Rn ,
∫ τ ∫ τ
(τ −s)A (τ −s)A T
Gw = e T
BB (e ) w ds = e(τ −s)A Buw (s)ds,
0 0
où on a posé
175
6 Commande des systèmes
uw (s) = B T (e(τ −s)A )T w (6.5)
La formule (6.4) montre alors que Im G est l’ensemble des états atteignables au temps τ par des
commandes de la forme (6.5). Mais dans la démonstration du théorème précédent, nous avons
justement démontré que l’orthogonal de cet ensemble est inclus dans l’orthogonal de R(A, B).
Par conséquent
R(A, B) ⊂ Im G
Mais Im G ⊂ Aτ et comme, d’après le théorème précédent, Aτ = R(A, B), on a
Im G = R(A, B)
B Le deuxième point est une conséquence de ce qui précède. t
u
La commande ū(·) jouit en outre d’une propriété remarquable, celle de
minimiser un coût.
Théorème 6.5. Si u(·) est une commande qui amène le système de l’état
x(0) = 0 en t = 0 à x(τ ) = v en t = τ , on a
∫ τ ∫ τ
2
‖u(s)‖ ds ≥ ‖ū(t)‖2 ds
0 0
En d’autres termes, la commande ū(·) est celle qui minimise l’énergie
∫
1 τ
E(u) = ‖u(s)‖2 ds
2 0
Ce résultat est un premier pas en direction d’un domaine tenant à la fois
de l’automatique et de l’optimisation, la théorie de la commande optimale.
On trouvera une très bonne introduction en français à ce domaine dans [8].
Démonstration. Calculons
∫ τ 〈 〉
E(ū + (u − ū)) = E(ū) + (e(τ −s)A B)T G−1 v, u(s) − ū(s) ds + E(u − ū)
∫0 τ
〈 〉
= E(ū) + G−1 v, e(τ −s)A B u(s) − ū(s) ds + E(u − ū)
0
Par ailleurs, les trajectoires associées aux commandes u(·) et ū(·) ayant les mêmes extrémités 0
et v, on a, d’après la proposition 6.1,
∫ τ
e(τ −s)A B u(s) − ū(s) ds = 0 ;
0
par conséquent pour tout u du type considéré
E(u) ≥ E(ū)
t
u
176
6.4 Observabilité (relation état/sortie)
6.4 Observabilité (relation état/sortie)
Considérons à nouveau un système commandé linéaire autonome
{ ′
x (t) = Ax(t) + Bu(t),
(Σ) t [0, τ ],
y(t) = Cx(t) + Du(t),
où A Mn (R), B Mn,m (R), C Mp,n (R) et D Mp,m (R). Le problème
de l’observabilité est le suivant : connaissant y(t) et u(t) pour tout t [0, τ ]
(τ > 0), est-il possible de déterminer la condition initiale x(0)?
Commençons par deux remarques :
• la connaissance de x(0) est équivalente à celle de x(t) pour tout t [0, τ ]
puisque d’après la formule de variation de la constante, on a
∫ τ
tA
x(t) = e x(0) + e(τ −s)A Bu(s)ds,
0
le deuxième terme du membre de droite de l’égalité précédente étant
supposé connu ;
• on peut supposer D = 0 et B = 0 puisque l’on connaît u(·).
Il sut donc d’étudier le problème de l’observabilité pour le système
réduit ′
x (t) = Ax(t),
(Σ0 ) : t [0, τ ],
y(t) = Cx(t),
c’est-à-dire que l’on se ramène à l’étude de y(t) = CetA x0 .
Appelons espace d’inobservabilité Iτ du système (Σ0 ) l’ensemble des con-
ditions initiales x(0) Rn pour lesquelles la solution y(t) est identiquement
nulle sur [0, τ ], i.e.
}
la solution de (Σ 0 )
I τ = x0 R n :
avec x(0) = x0 vérie y(t) ≡ 0
Dénition 6.3. Le système commandé (Σ) est dit observable si l’espace
d’inobservabilité de (Σ0 ) est réduit à 0.
Le résultat élémentaire suivant montre que cette dénition correspond
bien à la question que l’on s’était posée initialement.
Proposition 6.2. Si le système (Σ) est observable, la connaissance de y(·)
sur [0, τ ] détermine de façon univoque x(0).
177
6 Commande des systèmes
Démonstration. Si ce n’était pas le cas il existerait deux vecteurs distincts x 0 et x̃0 dans Rn
tels que
CetA x0 = CetA x̃0 ,
ce qui entraînerait CetA (x0 − x̃0 ) = 0, c’est-à-dire x0 − x̃0 Iτ . D’après la dénition de
l’observabilité, ceci implique x0 = x̃0 . u
t
Il existe un critère très simple permettant de déterminer si un système
est observable.
Théorème 6.6 (Critère d’observabilité de Kalman). L’espace d’inob-
servabilité du système (Σ0 ) est le noyau de la matrice (np × n)
C
CA
O = ..
.
CAn−1
Autrement dit, le système (Σ) est observable si et seulement si ker O = 0.
Démonstration. D’après le théorème de Cayley–Hamilton (c’est un argument que nous avons
déjà utilisé dans la démonstration du théorème 6.3), pour tout t [0, τ ],
CetA Vect(C, CA, , CAn−1 )
Par conséquent, si
CAj v = 0, j = 0, , n − 1, (6.6)
on a Ce v = 0, c’est-à-dire que v est dans l’espace d’inobservabilité de (Σ0 ). Mais la condi-
tA
tion (6.6) est équivalente au fait que v ker O. Nous avons donc démontré que ker O est inclus
dans l’espace d’inobservabilité de (Σ0 ).
B Réciproquement, supposons que pour tout t [0, τ ], CetA v = 0. Alors, en dérivant j fois
l’égalité précédente en t = 0 (0 ≤ j ≤ n − 1), il vient
∀0 ≤ j ≤ n − 1, CAj v = 0,
ce qui signie que v ker O. L’inclusion réciproque est démontrée. t
u
Remarque 6.3. Si l’on compare le théorème précédent avec le théorème 6.3
on s’aperçoit que le système (Σ) est observable si et seulement si le système
dual
(Σ̃) : z ′ (t) = AT z(t) + C T u(t)
est commandable (prendre la transposée de la matrice O).
178
6.5 Stabilisation
6.5 Stabilisation
Nous avons utilisé jusqu’à maintenant des lois de commande u(t) dépen-
dant uniquement du temps. C’est ce que l’on appelle de la commande en
boucle ouverte : la loi de commande est xée au départ, à t = 0, et est
appliquée indépendamment du comportement du système. En particulier le
problème de la planication de trajectoires, dont la solution est donnée par
le théorème 6.4, se pose en terme de commande en boucle ouverte. Les lim-
itations de ce type de loi de commande sont cependant assez évidentes : la
moindre erreur sur les données (la condition initiale par exemple) ne pourra
être prise en compte. Par exemple une commande en boucle ouverte sur une
voiture donnerait ceci : pour suivre une ligne droite, positionnez vos roues
dans l’axe, tenez bien votre volant, et fermez les yeux. . .
Pour réguler le système, il faut faire appel à un autre type de loi de
commande u(t) = v(t) + K(y(t)), dite commande en boucle fermée, qui tient
compte à tout moment de l’information disponible en sortie pour déterminer
la commande.
Boucle ouverte: Boucle fermée:
u = u(t) u = v(t) + K y(t)
v(t) y(t)
u(t) y(t) Système
Système +
K y(t)
Généralement, les commandes en boucle fermée que l’on utilise dépendent
directement de l’état du système : u(t) = v(t) + K(x(t)). On parle alors de
commande par retour d’état. Notez que ces lois ont aussi leur inconvénient :
elles nécessitent la connaissance de l’état x(t), ce qui peut être impossible,
ou très coûteux.
Intéressons-nous maintenant au problème de la stabilisation d’un système
commandé (Σ) : le but est de construire une loi de commande par retour
d’état qui amène le système à l’origine, quel que soit le point de départ.
Comme dans les sections précédentes, nous nous plaçons dans le cadre des
systèmes linéaires autonomes, et on suppose l’état connu à tout instant (i.e.
y = x). Autrement dit, (Σ) se réduit à l’équation diérentielle commandée
(Σ) : x′ (t) = Ax(t) + Bu(t) (6.7)
179
6 Commande des systèmes
Dénition 6.4. Le système commandé (Σ) est dit asymptotiquement sta-
bilisable par retour d’état s’il existe une loi de commande u(t) = K(x(t))
telle que l’origine soit un équilibre globalement asymptotiquement stable de
l’équation diérentielle
x′ (t) = Ax(t) + BK(x(t)),
appelée équation ou système bouclé. Autrement dit, toute solution x(t) de
cette équation bouclée tend vers 0 quand t → +∞ indépendamment de la
condition initiale (voir chapitre 5).
Nous allons chercher le retour d’état sous la forme d’une fonction linéaire
de l’état, c’est-à-dire u(t) = Kx(t) avec K Mm,n (R) (une telle loi est
appelée loi proportionnelle). Dans ce cas, l’équation diérentielle dont il faut
montrer la stabilité asymptotique est
x′ (t) = Ax(t) + BKx(t) = (A + BK) x(t)
Or nous savons (proposition 5.1) qu’une telle équation diérentielle admet 0
pour équilibre asymptotiquement stable si et seulement si la matrice A+BK
a toutes ses valeurs propres de parties réelles strictement négatives. Existe-
t-il K Mm,n (R) telle que la matrice A + BK satisfasse cette condition? Le
résultat d’algèbre linéaire suivant, dont nous donnons la démonstration en
annexe en B.4 permet de répondre à cette question.
Théorème 6.7 (de placement des pôles). Si A, B satisfait le critère de
Kalman, alors, pour tout réel ρ, il existe une matrice K M m,n (R) telle que
toute valeur propre de A + BK a une partie réelle inférieure à ρ.
Par conséquent, si un système (Σ) est commandable, il existe une matrice
K Mm,n (R) telle que toutes les valeurs propres de A + BK ont une partie
réelle négative.
Corollaire 6.2. Si le système (Σ) est commandable, il est asymptotiquement
stabilisable par retour d’état proportionnel.
6.6 Exercices corrigés
Exercice 6.1 (Stabilisation d’un pendule inversé). On s’intéresse au
problème de stabilisation d’un pendule unidimensionnel autour de son équili-
bre instable, par exemple un balai dans un plan posé sur le manche. On agit
180
6.6 Exercices corrigés
sur le balai en déplaçant son point de contact le long d’une droite, l’axe
Oz. En supposant que notre commande est l’accélération u de ce point de
contact, la dynamique du balai est régie par l’équation suivante :
d2 g u
2
= sin − cos ,
dt l l
où est l’angle du balai avec la verticale.
m
α
1. Écrire l’équation du mouvement comme un système de commande (pré-
ciser son entrée et son état).
2. Linéariser le système autour de l’équilibre correspondant à la position
verticale : ( = 0, u = 0). Vérier que, en l’absence de commande, cet
équilibre n’est pas stable pour le système non linéaire.
3. Montrer que le système linéarisé est commandable.
4. Proposer un retour d’état proportionnel qui permet de stabiliser asympto-
tiquement le système linéarisé. Peut-on également stabiliser asymptotique-
ment le système d’origine?
5. On suppose maintenant que seule la mesure de est disponible. Le sys-
tème linéarisé est-il observable ? Est-il stabilisable asymptotiquement par
un retour de sortie (de la forme u = k, k R)? Est-il stabilisable?
181
6 Commande des systèmes
Corrigé de l’exercice 6.1.
1. En prenant pour état x = (, ′ ) et pour commande u, on obtient
( ′
)
x′ (t) = g u = f (x, u)
sin − cos
l l
2. L’équilibre correspondant à ( = 0, u = 0) est (x = 0, u = 0). L’équation
linéarisée autour de cet équilibre est donc :
x′ (t) = Ax(t) + Bu(t),
où
01 0
A = Dx f (0, 0) = g , B = Du f (0, 0) =
l
0 − 1l
Le système sans commande est le système autonome x′ = f (x, 0), dont le
linéarisé en 0 est x′ =
Ax. Puisque A a une valeur propre positive (ses
valeurs propres sont ± l ), l’équilibre n’est pas stable.
g
0 − 1l
3. La matrice de commandabilité C = est de rang 2, le système
− 1l 0
est donc commandable.
Prenons
4. une commande par retour d’état u(t) = Kx(t), avec K =
k1 k2 . Les solutions associées à ce type de commande sont les solutions de
l’équation diérentielle
0 1
x′ (t) = (A + BK)x(t), A + BK = g−k1 k2
l
− l
Les valeurs propres de A + BK sont les solutions de
k2 k1 − g
PA+BK (λ) = λ2 + λ+ = 0
l l
En choisissant k1 et k2 on peut obtenir n’importe quelles valeurs pour les co-
ecients de ce polynôme, c’est-à-dire que l’on peut obtenir n’importe quelles
valeurs pour les valeurs propres λ. Par exemple, on peut choisir
k1 = (g + 1)l, k2 = 2l,
et donc −1 comme valeur propre double de A + BK. L’équilibre 0 est alors
asymptotiquement stable pour l’équation linéaire x′ (t) = (A + BK)x(t).
182
6.6 Exercices corrigés
Si on applique maintenant une commande u = Kx au système d’origine,
on obtient l’équation diérentielle bouclée x′ = f (x, Kx), dont le linéarisé
en 0 est x′ = (A + BK)x. Cette dernière étant asymptotiquement stable,
l’équation bouclée est elle-aussi asymptotiquement stable.
5. On rajoute maintenant au système linéarisé une observation :
(t) = Cx(t), où C = 1 0
La matrice d’observabilité est O = I2 , le système est donc observable.
Prenons une
commande
par retour de sortie u(t) = k1 (t) = KCx(t),
où K = k1 0 . Les solutions associées à ce type de commande sont les
solutions de l’équation diérentielle x′ (t) = (A + BKC)x(t). Les valeurs
propres de A + BKC sont les racines du polynôme
k1 − g
PA+BKC (λ) = λ2 +
l
Il est impossible d’avoir deux valeurs propres de partie réelle < 0. Le système
n’est donc pas stabilisable asymptotiquement. En revanche on peut obtenir
deux valeurs propres complexes conjuguées de partie réelle nulle, par exemple
±i (il sut de prendre k1 = (g + 1)l). Les solutions de x′ (t) = (A +
BKC)x(t) sont alors de la forme
cos t − sin t
x(t) = x(0),
sin t cos t
l’équilibre 0 est donc stable pour cette équation linéaire.
Remarque 6.4. Dans ce dernier cas, le balai oscille autour de sa position
d’équilibre, sans amortissement des oscillations. Cela correspond à ce que
peut faire un « actionneur » humain, qui peut évaluer à vue d’œil mais
pas ′ .
Exercice 6.2. La position d’un train sur une voie est repérée par sa position
x (t) et son accélération est commandée par la relation
d2 x
= u (6.8)
dt2
1. Écrire l’équation (68) sous la forme d’un système de commande
X ′ = AX + Bu
183
6 Commande des systèmes
2. Montrer que le système est commandable.
3. Montrer qu’en se restreignant à des commandes u (t) = ±1 constantes
par morceaux, le système reste commandable.
Corrigé de l’exercice 6.2.
1. En prenant pour état X = (x, x′ ), on obtient
0 1 0
X ′ (t) = X(t) + u(t)
00 1
01
2. La matrice de commandabilité C = est de rang 2, le système est
10
donc commandable.
3. À partir d’un point X0 = (x0 , x′0 ) R2 , la trajectoire du système associée
à la loi de commande u ≡ +1 a pour équation x′′ = 1, c’est-à-dire x′ x′′ = x′ ,
et en intégrant
1 ′ 2
(x (t) − x′20 ) = x(t) − x0
2
De même, l’équation de la trajectoire associée à la loi de commande u ≡ −1
est
1 ′ 2
(x (t) − x′20 ) = −x(t) + x0
2
Les orbites des ces deux trajectoires sont des paraboles couchées orientées
en sens inverse (voir la gure 6.1).
Fig. 6.1. Trajectoires dans le plan de phase
Donnons-nous maintenant un autre point X1 dans R2 . Il est clair que l’une
des paraboles issues de X0 doit couper l’une des paraboles issues de X1 :
184
6.6 Exercices corrigés
il sut alors de suivre les trajectoires correspondantes pour obtenir une
solution amenant le système de l’état X0 à l’état X1 . Le système est donc
commandable.
Exercice 6.3. On modélise un satellite en orbite par un système plan com-
posé d’une roue à inertie de masse M et de moment d’inertie J, et d’une
barre rigide de masse m et de longueur l. La barre symbolise un télescope
que l’on désire aligner sur une étoile xe. À l’aide d’un moteur, la roue à in-
ertie peut appliquer sur l’extrémité xe de la barre un couple u, permettant
ainsi de commander le système. On désigne par θ l’angle que fait la barre
par rapport à une direction xe, et par ω la vitesse angulaire de la roue à
inertie. On ne mesure que θ.
Les équations régissant la dynamique du système sont
u u
θ′′ = , ω′ = −
ml2 J
ω m, l
θ
J, M u
Fig. 6.2. Satellite avec télescope
1. Préciser l’état, l’entrée et la sortie et écrire le système commandé associé.
2. Montrer que ce système n’est ni commandable, ni observable.
3. Montrer qu’il existe une constante du mouvement (c’est-à-dire une fonc-
tion constante le long de toute solution du système).
4. En déduire que l’ensemble des états atteignables à partir d’une condition
initiale donnée, en temps quelconque, est un espace ane dont on donnera
l’équation.
Corrigé de l’exercice 6.3.
1. L’état est x = (θ, θ ′ , ω), la sortie y = θ et l’entrée u, ce qui donne le
système de commande suivant :
185
6 Commande des systèmes
010 0
x = 0 0 0 x + u ml1 2 ,
′ y = 1 0 0 x
000 − J1
2. La matrice de commandabilité est
0 ml1 2 0
C = ml1 2 0 0
− J1 0 0
Elle est de rang 2, donc le système n’est pas commandable. D’autre part la
matrice d’observabilité est
100
O = 0 1 0 ,
000
qui est de rang 2, donc le système n’est pas observable.
3. Le moment cinétique ξ = Jω + ml 2 θ′ reste constant le long de toute
solution puisque dξ
dt
ξ(t) = 0.
4. Faisons le changement de coordonnées linéaire (θ, θ ′ , ξ) = P x, où
1 0 0
P = 0 1 0
0 ml2 J
Dans ces coordonnées, le système de commande satisfait
′
θ 01 θ 0
′ = ′ +u 1 , ξ ′ = 0
θ 00 θ ml2
Le système de commande en (θ, θ ′ ) est commandable, la matrice de com-
mandabilité associée étant de rang 2. L’ensemble des points atteignables à
partir d’une condition initiale (θ0 , θ0′ , ξ0 ) est donc l’espace ane d’équation
ξ = ξ0 . Remarquons que le système réduit en (θ, θ ′ ) est également observ-
able.
Exercice 6.4. On considère le système de commande dans R3
x′ (t) = Ax(t) + bu(t),
où u(·) est une commande à valeurs réelles,
186
6.6 Exercices corrigés
1 −a 1 1
A= 1 0 0 et b = 0 ,
−2 a −2 −1
le paramètre a étant un réel. On a vu dans l’exercice 2.3 que 0 n’est jamais
un équilibre asymptotiquement stable pour A.
1. Montrer que le système n’est pas commandable et donner l’équation de
A(τ, 0), l’ensemble atteignable en temps τ à partir de 0. Peut-on savoir
a priori si le système est asymptotiquement stabilisable par retour d’état
proportionnel?
2. Proposer des coordonnées y = P x dans lesquelles A(τ, 0) a pour équation
y3 = 0 et écrire le système dans les coordonnées y.
3. Montrer que le système est asymptotiquement
stabilisable par un retour
y
d’état proportionnel de la forme u = K 1 .
y2
4. Quelle est l’équation dans les coordonnées y de A(τ, v), l’ensemble at-
teignable en temps τ à partir d’un point v?
Corrigé de l’exercice 6.4.
1. La matrice de commandabilité
1 0 −a
C= 0 1 0
−1 0 a
est de rang 2, donc le système n’est pas commandable. De plus, A(τ, 0) =
Im C, c’est-à-dire
1 0
A(τ, 0) = Vect
0 , 1 = x R3 : x1 + x3 = 0
−1 0
Le seul résultat connu est que, si le système est commandable, alors il est
stabilisable par retour d’état proportionnel. Comme le système n’est pas
commandable, on ne peut rien dire a priori.
2. Il sut de choisir des coordonnées y = P x telles que y3 = x1 + x3 , par
exemple
y 1 = x 1 , y2 = x 2 , y 3 = x 1 + x 3
187
6 Commande des systèmes
Dans ces coordonnées, le système s’écrit :
y1′ = x′1 = −ay2 + y3 + u,
y2′ = x′2 = y1 ,
y3′ = x′1 + x′3 = −y3 ,
ou encore y ′ = Āy + ub̄, où
0 −a 1 1
Ā = P AP −1 = 1 0 0 et b̄ = P b = 0
0 0 −1 0
3. On réécrit le système par blocs :
A1 A2 b
′
y = y+u 1
0 −1 0
où A1 M2 (R), A2 M1,2 (R) et b1 R2 . De plus, on vérie aisément
que le système dans R2 associé à A1 et b1 est commandable. Il existe donc
une matrice K M2,1 (R) telle que A1 + Kb1 n’a que des valeurs propres
y
négatives. Appliquons alors le retour d’état u = K 1 sur le système
y2
précédent, on obtient l’équation diérentielle linéaire
A 1 + Kb1 A 2
y′ = y,
0 −1
dont la matrice n’a que des valeurs propres négatives. Le système est donc
asymptotiquement stabilisé par ce retour d’état.
Il s’agit en fait d’un résultat général : si les modes non commandables (ici la
coordonnée y3 ) correspondent à des valeurs propres à partie réelle négative,
alors le système est stabilisable par retour d’état.
4. Soit w = P v les coordonnées de v. En coordonnées y, la formule de
variation de la constante permet d’écrire :
A(τ, v) = eτ Ā w + A(τ, 0)
Puisque A(τ, 0) = y3 = 0, on a
A(τ, v) = y R3 : y3 = (eτ Ā w)3
Vue la forme de Ā, on a clairement (eτ Ā w)3 = e−τ w3 , et donc
A(τ, v) = y R3 : y3 = e−τ w3
188
6.6 Exercices corrigés
Exercice 6.5. On considère un système de commande
x′ (t) = Ax(t) + u(t)b,
où x(t) Rn , A Mn (R), b Rn et u(t) R.
1. Soit k ≤ n le rang de la matrice de commandabilité C. Montrer que les k
premières colonnes de la matrice C sont linéairement indépendantes.
2. Montrer qu’il existe une matrice P GLn (R) telle que
A1 A2 b̄
P −1 AP = , P −1 b = ,
0 A3 0
où A1 Mk (R) et b̄ Rk vérient le critère de commandabilité de Kalman.
3. Donner, dans les coordonnées y = P −1 x, l’équation de l’ensemble des
points atteignables à partir de 0 en temps quelconque.
Corrigé de l’exercice 6.5.
1. Soit C = b Ab · · · An−1 b la matrice de commandabilité. Si, pour un
entier i 1, , n − 1, Ai b est combinaison linéaire de b, , Ai−1 b, alors
Ai+1 b aussi, ainsi que tout Aj b pour j ≥ i. La matrice C étant de rang k,
ceci implique que b, , Ak−1 b sont linéairement indépendants.
2. Soient bk+1 , , bn des vecteurs de Rn qui complètent b, , Ak−1 b en une
base de Rn et notons P la matrice de GLn (R) dont les vecteurs colonnes
sont b, , Ak−1 b, bk+1 , , bn . On a
−1 A1 A2 −1 b̄
P AP = , P b= ,
0 A3 0
avec
0 ··· 0 a1
1 0 · · · 1
0 a2 0
0 a3
A1 = 0 1 · · · et b̄ = ..
.. . . .. .
. . .
0
0 ··· 1 ak
La
matrice de
commandabilité du système réduit correspondant à (A 1 , b̄) est
b̄ · · · A1 b̄ = Ik . Elle satisfait donc le critère de Kalman.
k−1
189
6 Commande des systèmes
3. Dans les coordonnées y, que l’on écrit y = (ȳ, z) avec ȳ Rk et z Rn−k ,
le système s’écrit
ȳ ′ = A1 ȳ + A3 z + ub̄,
z ′ = A3 z
On appelle z la partie ingouvernable (ou non commandable) du système. À
partir de la condition initiale y(0) = 0, on obtient directement z(·) ≡ 0 et
y(·) est solution du système commandable
ȳ ′ = A1 ȳ + ub̄
L’ensemble des points atteignables à partir de 0 est donc le sous-espace
vectoriel z = 0 de dimension k.
Exercice 6.6. Une voiture commandée en vitesse est modélisée de la façon
suivante : ′
x v cos θ
y ′ = v sin θ
θ′ w
où les commandes v et w sont les vitesses linéaires et angulaires (voir g-
ure 6.3).
y w v
Fig. 6.3. Modèle de la voiture
1. Montrer que le système est commandable, par exemple par des comman-
des constantes par morceaux (v, w) = (0, ±1) ou (±1, 0).
190
6.6 Exercices corrigés
2. Écrire le linéarisé du système autour d’une trajectoire X(t) = (x, y, θ)(t)
correspondant à une commande (v(t), w(t)).
3. Le linéarisé autour d’une trajectoire correspondant à (v, w) ≡ (0, 0) est-il
commandable?
4. Même question pour le linéarisé autour d’une trajectoire correspondant à
(v, w) ≡ (v0 , 0), où v0 est une constante non nulle.
Corrigé de l’exercice 6.6.
1. Il sut de montrer que l’on peut amener la voiture de l’origine à une
conguration (x, y, θ) quelconque. Or ceci peut être réalisé par la commande
suivante :
• faire pivoter la voiture jusqu’à ce que son axe pointe vers (x, y), à l’aide
d’une commande (v, w) = (0, ±1) ;
• amener la voiture en ligne droite jusqu’à la position (x, y), en utilisant la
commande (v, w) = (1, 0) ;
• refaire pivoter la voiture jusqu’à ce qu’elle soit orientée selon l’angle θ, à
l’aide d’une commande (v, w) = (0, ±1).
2. L’équation commandée s’écrit X ′ (t) = f X(t), u(t) , où X = (x, y, θ),
u = (v, w) et
v cos θ
f (X, u) = v sin θ
w
L’équation linéarisée autour d’une solution X(·) associée à une commande
u(·) est
X ′ (t) = A(t)X(t) + B(t)u(t),
où
0 0 −v(t) sin θ(t)
A(t) = DX f X(t), u(t) = 0 0 v(t) cos θ(t) ,
00 0
cos θ(t) 0
B(t) = Du f X(t), u(t) = sin θ(t) 0
0 1
3. Quand u(·) ≡ 0, la solution X(·) satisfait θ ′ = 0, c’est-à-dire θ(·) ≡ θ(0).
Les fonctions matricielles A(·) et B(·) sont maintenant constantes : A(·) ≡ 0
et B(·) = B0 .
Le système linéarisé s’écrit donc X ′ (t) = B0 u(t) et n’est pas commandable,
car le critère de Kalman n’est pas satisfait : rang C = rang B0 = 2 < 3.
191
6 Commande des systèmes
4. Toute solution X(·) associée au contrôle (v, w) ≡ (v0 , 0) satisfait x(t) =
tv0 cos θ(0) + x(0), y(·) = tv0 sin θ(0) + y(0) et θ(·) ≡ θ(0). Les fonctions
matricielles A(·) et B(·) sont encore une fois constantes :
0 0 −v0 sin θ(0) cos θ(0) 0
A = 0 0 v0 cos θ(0) , B = sin θ(0) 0
00 0 0 1
En revanche le critère de Kalman est satisfait, le système est donc command-
able.
Exercice 6.7 (Observateur asymptotique). Soit un système de com-
mande ′
x (t) = Ax(t) + Bu(t),
(Σ)
y(t) = Cx(t),
où x(·) est à valeurs dans Rn , y(·) dans Rp et u(·) dans Rm (et donc A
Mn (R), B Mn,m (R) et C Mp,n (R)). On suppose ce système observable.
On considère un second système, appelé observateur,
′
x̂ (t) = Ax̂(t) + Bu(t) − K y(t) − ŷ(t)
ŷ(t) = C x̂(t)
où x̂(t) Rn , ŷ(t) Rp et K Mn,p (R), qui est couplé au précédent :
l’entrée (u(·), y(·)) de l’observateur est constituée de l’entrée et de la sortie
du système (Σ).
Le but de l’exercice est de montrer que l’on peut choisir l’observateur de
telle sorte que son état x̂(t) approxime l’état x(t) de (Σ).
1. Donner l’équation diérentielle satisfaite par l’erreur e(t) = x(t) − x̂(t).
2. Montrer que le système dual,
x′ (t) = AT x(t) + C T v(t),
est commandable (l’entrée v(·) est ici à valeurs dans Rp ).
3. Montrer que l’on peut choisir la matrice K de telle sorte que e(t) → 0
quand t → +∞. On montrera de plus que, ρ > 0 étant xé, on peut choisir
K de telle sorte que ‖e(t)‖e−ρt → 0 quand t → +∞.
Corrigé de l’exercice 6.7.
1. Puisque e′ (t) = x′ (t) − x̂′ (t), on obtient
e′ (t) = (A + KC)e(t)
192
6.6 Exercices corrigés
2. La matrice de commandabilité du système dual est
T T T
C A C · · · (AT )n−1 C T ,
et est égale à O T , où O est la matrice d’observabilité de (Σ). Cette matrice
O étant de rang n (le système (Σ) est observable), O T aussi et le système
dual est commandable.
3. Il sut de montrer que l’on peut choisir K tel que les valeurs propres de
A+KC soient toutes négatives et inférieures à −ρ−1 : on aura alors ‖e(t)‖ ≤
C‖e(0)‖e−(ρ+1)t d’après la proposition 2.3, c’est-à-dire ‖e(t)‖e−ρt → 0. Or
les valeurs propres de A+KC sont également celles de AT +C T K T auxquelles
on peut donner les valeurs que l’on veut en choisissant bien K puisque le
système dual est commandable (voir le théorème 6.7).
Exercice 6.8. Considérons le système de commande dans Rn
x′ (t) = Ax(t) + Bu(t), t [0, ∞[, (6.9)
où les lois de commande u : [0, ∞[→ Rm sont choisies bornées. On suppose
que toutes les valeurs propres de A Mn (R) sont de partie réelle stricte-
ment négative (on peut toujours faire cette hypothèse quand le système est
commandable, quitte à introduire une composante de retour d’état dans les
commandes).
1. Montrer que, si x(·) est une solution de (6.9) associée à un contrôle u(·),
alors ‖x(t) − xu (t)‖ → 0 quand t → ∞, où
∫ ∞
u
x (t) = esA Bu(t − s)ds
0
Une telle fonction est appelée régime stationnaire.
2. Prenons u(t) = sin(ωt)ej (ej est le j-ème vecteur de la base canonique de
Rm ). Calculer le régime stationnaire associé et montrer qu’il est de la forme
a1 (ω) sin(ωt + θ1 (ω))
xu (t) = ..
.
an (ω) sin(ωt + θn (ω))
Relaxons les hypothèses sur A : on suppose maintenant que toutes les solu-
tions de x′ (t) = Ax(t) sont bornées pour t R+ .
193
6 Commande des systèmes
3. Prenons par exemple un système (6.9) avec n = 2, m = 1 et une matrice
A M2 (R) de valeurs propres λ = i et λ̄ = −i. Les solutions de ce sys-
tème associées à une commande sinusoïdale u(t) = sin(ωt) sont-elles bornées
(discuter selon la valeur de ω)?
4. Plus généralement, pour une matrice A vériant l’hypothèse ci-dessus,
à quelle condition les solutions de (6.9) associées à une commande u(t) =
sin(ωt)ej sont-elles toutes bornées?
Corrigé de l’exercice 6.8.
1. Toute solution du système associée à u(·) satisfait
∫ t
tA
x(t) = e x(0) + e(t−s)A Bu(s)ds
∫0 t
= etA x(0) + eτ A Bu(t − τ )dτ
∫0 ∞ ∫ ∞
= etA x(0) + eτ A Bu(t − τ )dτ + eτ A Bu(t − τ )dτ,
t 0
où on a prolongé u en une fonction de R dans R en posant u(t) = 0 pour
t < 0. Puisque etA tend vers 0 quand t → ∞ et que u est bornée, on a bien
‖x(t) − xu (t)‖ → 0.
2. On va calculer le régime stationnaire correspondant à u(t) = eiωt ej , il
sura ensuite de prendre la partie imaginaire. On a
∫ ∞ ∫ ∞
u sA iω(t−s) iωt
x (t) = e Be ej ds = e es(A−iωI) bj ds
0 0
iωt −1
=e (iωI − A) bj ,
bj étant la j-ème colonne de la matrice B. Ceci peut se réécrire
xu (t) = eiωt Fj (iω),
où Fj (iω) = (iωI − A)−1 bj . En écrivant
a1 (ω)eiθ1 (ω)
Fj (iω) =
..
. ,
an (ω)eiθn (ω)
puis en prenant la partie réelle de xu (t), on obtient la conclusion.
194
6.6 Exercices corrigés
Remarque 6.5. La matrice F (iω) dont les vecteurs colonnes sont les Fj (iω)
est appelée matrice de réponse en fréquence. Elle joue un grand rôle dans
l’approche fréquentielle de l’automatique. Dans ce cadre les fonctions a i (ω)
sont appelées réponses en amplitude et les fonctions θi (ω) décalages de phase.
3. Comme dans la question précédente, on prend une commande complexe,
u(t) = eiωt (la partie imaginaire de la solution correspondante est la solu-
tion associé à la commande u(t) = sin(ωt)). Les solutions du système de
commande associées à cette loi de commande sont de la forme :
∫ t ∫ t
x(t) = etA x(0) + esA bu(t − s)ds = etA x(0) + eiωt es(A−iωI) bds
0 0
Vues les hypothèses sur A, le terme etA x(0) est toujours borné. Intéressons-
nous à l’autre, que l’on note J.
Si ω 6= , la matrice A − iωI est inversible et on a donc
J = eiωt (A − iωI)−1 (et(A−iωI) − I)b
Les valeurs propres de (A − iωI) sont i(± − ω) : l’exponentielle et(A−iωI)
est donc bornée, ainsi que J.
Si ω = , les valeurs propres de la matrice A − iωI sont 0 et −2i. Écrivons
alors C2 comme la somme directe ker(A − iωI) ⊕ ker(A + iωI) et b = b1 + b2
dans cette décomposition. On a donc
es(A−iωI) b = b1 + e−2isα b2 ,
ce qui implique
iαt eiαt −2iαt
J = te b1 − (e − 1)b2
2i
Si b1 6= 0, ce terme J est non borné quand t → +∞. Les solutions x(t)
sont donc également non bornées, et ce indépendamment de leur condition
initiale x(0). C’est le phénomène classique de résonance.
4. Vu les hypothèses, les valeurs propres de la matrice A sont soit de partie
réelle < 0, soit de partie réelle nulle et dans ce cas multiplicités algébriques
et géométriques coïncident. Si toutes les valeurs propres sont nulles ou de
partie réelle < 0, toutes les solutions sont bornées. Sinon, il existe au moins
une paire de valeurs propres ±i et on est ramené à l’analyse de la question
précédente.
195
6 Commande des systèmes
Exercice 6.9 (non corrigé). Rappelons une conséquence du théorème 6.4:
si le système
x′ = Ax + Bu, x Rn ,
est commandable, alors pour tout v Rn il existe un unique contrôle uw (·)
de la forme T
uw (s) = B T eA(τ −s) w, s [0, τ ] ,
avec w ≤ C v, qui amène de l’état x (0) = 0 à l’état x(τ ) = v.
Notons Bn (0, 1) la boule de Rn de centre 0 et de rayon 1 et considérons
une application de classe C 1
f : Bn (0, 1) × Bm (0, 1) −→ Rn
(x, u) 7−→ f (x, u),
telle que f (0, 0) = 0. On pose
A = Dx f (0, 0) Mn×n (R) ,
B = Du f (0, 0) Mn×m (R)
1. Montrer qu’il existe > 0 tel que, pour tout w ≤ , le problème de
Cauchy ′
x = f (x, uw ) ,
(6.10)
x (0) = 0,
admet une solution unique sur [0, τ ].
2. Notons φ l’application :
w Rn , w ≤ −→ C 0 ([0, τ ] , Rn )
w 7−→ la solution de (610)
Montrer que φ est de classe C 1 et calculer Dφ (w = 0).
3. Montrer que si la paire (A, B) est commandable alors il existe un ̃ > 0
tel que pour tout v Rn , v ≤ ̃ il existe un contrôle uw (s) déni sur [0, τ ]
tel que la solution de (610) vérie x (τ ) = v.
4. En déduire le résultat suivant.
Soit un système ẋ = f (x, u) dans Rn tel que f (0, 0) = 0. Si le linéarisé
autour de la solution identiquement nulle est commandable, alors le système
est commandable dans un voisinage de 0.
196
6.6 Exercices corrigés
Exercice 6.10 (non corrigé). Le mouvement d’un satellite autour de son
centre de gravité est régi par les équations d’Euler :
J ω ′ = (J2 − J3 )ω2 ω3 + u1 ,
1 1
J2 ω2′ = (J3 − J1 )ω3 ω1 + u2 , (6.11)
J3 ω3′ = (J1 − J2 )ω1 ω2 + u3 ,
où ω = (ω1 , ω2 , ω3 ) est la vitesse angulaire, J1 , J2 , J3 sont les moments prin-
cipaux d’inertie et u = (u1 , u2 , u3 ) les couples exercés par les moteurs.
1. Supposons u ≡ 0. Montrer que l’origine ω = 0 est un équilibre stable
mais pas asymptotiquement stable (on pourra chercher une constante du
mouvement).
2. On choisit maintenant un contrôle par retour d’état de la forme u i =
−ki ωi , i = 1, 2, 3, où chaque ki est un réel > 0. Montrer que l’origine est un
équilibre globalement asymptotiquement stable (c’est-à-dire que son bassin
d’attraction est R3 tout entier).
Exercice 6.11 (non corrigé). On considère le système commandé dans R2
{ ′
x 1 = x1 − x 2 ,
x′2 = (x1 − x2 )(1 − 2 cos x1 ) + sin(2x1 ) − u cos x2 ,
le contrôle u(·) étant à valeurs dans R.
1. Supposons d’abord u ≡ 0. Montrer que x = 0 est un équilibre de l’équation
diérentielle ainsi obtenue et étudier sa stabilité.
2. Montrer que le linéarisé du système autour de l’équilibre (x = 0, u = 0)
est : { ′
y1 = y1 − y2 ,
(6.12)
y2′ = y1 + y2 − v,
où y est l’état et v est le contrôle.
Dans la suite de l’exercice, on se restreint à l’étude du système linéarisé (6.12).
3. Montrer qu’il est possible de stabiliser (6.12) au moyen d’un retour d’état
proportionnel.
Supposons maintenant que la sortie du système est y2 .
4. Avec cette sortie, le système (6.12) est-il observable?
197
6 Commande des systèmes
5. On utilise une commande de la forme v = ky2 , avec k R.
a) Existe-t-il une valeur de k pour laquelle l’origine est un équilibre asymp-
totiquement stable ou, à défaut, stable?
b) On suppose k ≥ 0. En fonction de la valeur de k, donner l’allure du
portrait de phase en justiant le dessin.
198
A
Espaces vectoriels normés et théorèmes du
point xe
Nous rassemblons dans ce chapitre divers rappels sur les espaces vectoriels
normés et leur topologie, ainsi que sur le théorème du point xe de Picard
et ses conséquences. Pour ce dernier résultat, et pour les notions basiques de
topologie, nous nous plaçons dans le cadre des espaces métriques, que nous
introduisons maintenant.
A.1 Topologie des espaces métriques
Un espace métrique (A, d) est un ensemble A muni d’une distance d, c’est-à-
dire d’une fonction d : A × A → R+ qui est symétrique, qui vérie l’inégalité
triangulaire, et qui est telle que d(x, y) = 0 si et seulement si x = y.
Rappelons les premières notions de topologie sur un espace métrique
(A, d).
• Boule: la boule ouverte B(x0 , r) de centre x0 A et de rayon r > 0 est
l’ensemble des v A tels que d(v, x0 ) < r.
• Ouvert: un ouvert U de A est un ensemble tel que, pour tout point
x0 U , il est possible de trouver un r > 0 dépendant de x0 et une boule
B(x0 , r) incluse dans U . On appelle topologie associée à d l’ensemble de
tous les ouverts de A.
• Continuité: une application f entre deux espaces métriques (A, d) et
(A′ , d′ ) est continue si la pré-image f −1 (U ) de tout ouvert U de (A′ , d′ ) est
un ouvert de (A, d) ;de façon équivalente, f est continue si d(f (a), f (b)) →
0 quand d(a, b) → 0.
Introduisons enn la notion importante d’espace complet ;c’est dans ce
type d’espace que l’on peut obtenir des théorèmes de point xe.
A Espaces vectoriels normés et théorèmes du point xe
Dénition A.1. Un espace métrique (A, d) est dit complet si toute suite de
Cauchy an de A vériant par dénition
∀ > 0, ∃N N, ∀n, m ≥ N, d(an , am ) < ,
converge vers un a A.
A.2 Espaces vectoriels normés
Une classe importante d’espaces métriques est celle des espaces vectoriels
normés. Un espace vectoriel sur R (resp. C) est dit normé s’il existe une
application ‖ · ‖E : E → R+ vériant les trois propriétés suivantes :
(i) pour tous v, w E on a ‖v + w‖E ≤ ‖v‖E + ‖w‖E ;
(ii) pour tout v E et tout λ R (resp. C), ‖λv‖E = λ‖v‖E ;
(iii) pour v E l’égalité ‖v‖E = 0 est équivalente à v = 0.
Nous dirons alors que ‖ · ‖E est une norme et que (E, ‖ · ‖E ) est un espace
vectoriel normé.
Si E est un espace vectoriel de dimension nie, toutes les normes que l’on
peut y dénir sont équivalentes : si ‖ · ‖1 , ‖ · ‖2 sont deux normes sur E, il
existe une constante C > 0 pour laquelle
∀v E, C −1 ‖v‖1 ≤ ‖v‖2 ≤ C‖v‖1
Topologie
Un espace vectoriel normé est naturellement muni d’une distance,
dE (v, w) = ‖v − w‖E
Il hérite donc de la topologie de l’espace métrique (E, dE ). Il est clair que
deux normes équivalentes dénissent la même topologie (c’est-à-dire la même
famille d’ouverts). Ainsi, sur un espace vectoriel E de dimension nie, toutes
les normes induisent la même topologie. Il sera inutile en général dans ce cas
de préciser la norme que l’on utilise.
On appelle espace de Banach un espace vectoriel normé E tel que l’espace
métrique (E, dE ) est complet.
200
A.3 Théorèmes du Point Fixe
Norme d’opérateur
Quand f est une application linéaire entre deux espaces vectoriels normés
E et F , la continuité de f est équivalente au fait qu’il existe une constante
C ≥ 0 telle que, pour tout v E,
‖f (v)‖F ≤ C‖v‖E
Dans ce cas, l’ensemble des C ≥ 0 pour lesquels l’inégalité précédente est sat-
isfaite admet un minimum qui s’appelle la norme d’opérateur de f , que nous
noterons ‖f ‖E,F ou ‖f ‖Lc (E,F ) ou encore (noter l’ambiguïté de la notation)
‖f ‖. Il est facile de voir que
‖f (v)‖F
‖f ‖ = sup et ‖f (v)‖F ≤ ‖f ‖ ‖v‖E
v∈E ‖v‖E
v6=0
Si E est un espace vectoriel de dimension nie, toute application linéaire
sur E est continue. En particulier, la norme d’opérateur est bien dénie pour
de telles applications linéaires.
Espaces produits
Si (E, ‖ · ‖E ) et (F, ‖ · ‖F ) sont deux espaces vectoriels normés, l’espace
produit E × F des couples (u, v), u E, v F muni de la norme
‖(u, v)‖ = ‖(u, v)‖E×F = ‖u‖E + ‖v‖F ,
(vérier que c’en est une) est un espace vectoriel normé. En fait les normes
suivantes sont toutes équivalentes (vériez-le) :
‖(u, v)‖ = ‖u‖E + ‖v‖F ,
‖(u, v)‖ = max(‖u‖E , ‖v‖F ),
1
‖(u, v)‖ = (‖u‖pE + ‖v‖pF ) p , (p ≥ 1)
A.3 Théorèmes du Point Fixe
Soient (A, d) et (A′ , d′ ) deux espaces métriques.
Dénition A.2. Soit k ≥ 0 un réel. Nous dirons qu’une application φ : A →
A′ est k-lipschitzienne si, pour tous points x, y A,
d′ (φ(x), φ(y)) ≤ k d(x, y)
Une application φ : A → A est dite contractante si elle est k-lipschitzienne
pour un certain k < 1.
201
A Espaces vectoriels normés et théorèmes du point xe
Une application lipschitzienne est donc continue. Dans les applications
que nous aurons à traiter, A sera souvent un ensemble fermé d’un espace
vectoriel normé E muni de la distance
dE (x, y) = ‖x − y‖E
Une application k-lipschitzienne φ : A → A vérie alors
‖φ(x) − φ(y)‖E ≤ k ‖x − y‖E ,
mais φ n’est pas nécessairement linéaire.
Théorème A.1 (du point xe de Picard). Soit (A, d) un espace métrique
complet et φ : A → A une application contractante. Alors φ admet un unique
point xe x A (i.e. φ(x) = x). Pour tout x0 A, la suite φi (x0 ) converge
vers x.
Démonstration. Soit φ : A → A une application contractante, c’est-à-dire ρ-lipschitzienne
avec 0 ≤ ρ < 1. Montrons déjà l’unicité par l’absurde : si φ(x1 ) = x1 , φ(x2 ) = x2 on a
d(x1 , x2 ) = d(φ(x1 ), φ(x2 )) ≤ ρd(x1 , x2 ),
ce qui entraîne, vu que ρ < 1, d(x1 , x2 ) = 0.
B Montrons à présent l’existence. Choisissons x0 A et posons xk = φk (x) (où φk désigne
l’itéré k-ème de φ). Le fait que φ soit ρ-contractante montre que, pour k ≥ 1,
d(xk+1 , xk ) = d(φ(xk ), φ(xk−1 )) ≤ ρd(xk , xk−1 ),
et par conséquent, en itérant cette inégalité,
d(xk+1 , xk ) ≤ ρk d(x1 , x0 )
L’inégalité triangulaire assure donc que, pour tout p ≥ 1,
p
∑
d(xk+p , xk ) ≤ d(xk+j , xk+j−1 )
j=1
p
∑
≤( ρk+j−1 )d(x1 , x0 )
j=1
1 − ρp
≤ ρk d(x1 , x0 )
1−ρ
d(x1 , x0 )
≤ ρk ,
1−ρ
ce qui montre que la suite est de Cauchy. L’espace étant complet, la suite (x k ) converge donc vers
un point x A. En faisant k → ∞ dans l’identité φ(xk ) = xk+1 on obtient φ(x) = x, c’est-à-dire
l’existence du point xe et également la dernière partie du théorème. t
u
Il existe aussi une version du théorème du point xe à paramètre qui nous
sera utile dans la prochaine section.
202
A.4 Conséquence pour l’inversion locale et les fonctions implicites
Théorème A.2. Soient A un espace complet, Λ un espace métrique (non né-
cessairement complet) et 0 ≤ ρ < 1. Supposons que φ : A × Λ → A soit une
application continue et que, pour tout λ Λ, l’application φ(·, λ) : A → A
soit ρ-contractante. Alors, pour tout λ Λ il existe un unique point xe x(λ)
de φ(·, λ) et l’application x(·) : Λ → A est continue.
Démonstration. Dénissons E comme étant l’ensemble des fonctions continues de Λ dans A.
Muni de la norme de la convergence uniforme ‖ · ‖C 0 , c’est un espace complet.
B Dénissons alors f : E → E par f (x(·)) = φ(x(·), ·) : c’est une application ρ-contractante (c’est
pratiquement immédiat, vue la dénition de la norme ‖ · ‖C 0 ). Le théorème s’applique donc et
fournit une unique application x(·) telle que f (x(·)) = x(·), c’est-à-dire, du fait de la dénition
de f , la conclusion recherchée. t
u
Si l’on veut obtenir des résultats sur la dépendance C k par rapport au
paramètre, il faut faire des hypothèses de diérentiabilité sur φ. Cependant
dans ce cadre il est plus simple d’utiliser le théorème des fonctions implicites
(voir la section 1.4), dont nous donnons la preuve dans la section suivante.
A.4 Conséquence pour l’inversion locale et les fonctions
implicites
Cette section est consacrée à la preuve des théorèmes d’inversion locale et
des fonctions implicites. Nous allons les établir dans le cadre des espaces
de Banach. Dans ce contexte, Lc (E, F ) désigne l’ensemble des applications
linéaires et continues entre les espaces de Banach E et F et la notion de
diérentiabilité est celle donnée dans la dénition 1.6.
Rappelons d’autre part un résultat important (mais dicile), le théorème
de Banach (voir [9, ch.II]) : si E et F sont des espaces de Banach et si
f Lc (E, F ) est bijective, alors sa réciproque f −1 appartient à Lc (F, E). On
dit dans ce cas que f est inversible ou encore que f est un isomorphisme.
En dimension nie, on retrouve les notions habituelles d’inversibilité puisque
toute application linéaire est continue.
Théorème A.3 (d’inversion locale). Soient E, F deux espaces de Ba-
nach et f : E → F une application de classe C k (k ≥ 1) sur un voisinage
de a E. On suppose que Df (a) Lc (E, F ) est bijective.
Alors il existe un ouvert V ⊂ E contenant a et un ouvert W ⊂ F con-
tenant f (a), tels que f est une bijection de V dans W = f (V ) dont l’inverse
f −1 : W → V est de classe C k . Autrement dit, f est un C k -diéomorphisme
de V dans W (voir la dénition 1.4).
203
A Espaces vectoriels normés et théorèmes du point xe
Pour prouver ce théorème, nous avons besoin d’un premier résultat reliant
les notions d’homéomorphisme et de diéomorphisme.
Proposition A.1. Un homéomorphisme f : U → V est un C k -diéomor-
phisme si et seulement si f est de classe C k et, pour tout x U , Df (x)
Lc (E, F ) est bijective.
Démonstration. Notons d’abord qu’une des implications est immédiate : si f est un C k -
diéomorphisme, alors par dénition f est un homéomorphisme de classe C k et, comme nous
l’avons déjà vu (remarque 1.4, point 3), Df (x) est bijective pour tout x. Il nous reste à montrer
l’implication réciproque. Soit donc f un homéomorphisme de classe C k tel que Df (x) est bijective
pour tout x.
Pour y = f (x) V et h F susamment petit, posons xh = f −1 (y + h). On a alors
h = f (xh ) − f (x) = Df (x) · (xh − x) + o(‖xh − x‖), et donc
f −1 (y + h) − f −1 (y) = xh − x = (Df (x))−1 · h − (Df (x))−1 · o(‖xh − x‖) (A.1)
Montrons d’abord que cette expression implique que f −1 est diérentiable, de diérentielle égale
à (Df (x))−1 . Pour cela, il sut de montrer que (Df (x))−1 · o(‖xh − x‖) est un o(‖h‖) puisque
(Df (x))−1 appartient à Lc (F, E).
Notons d’abord que, comme xh tend vers x quand h tend vers 0 (puisque f −1 est continue)
et comme ‖(Df (x))−1 ‖−1 est un réel positif, on a, pour h susamment petit,
‖o(‖xh − x‖)‖ 1
≤ ‖(Df (x))−1 ‖−1
‖xh − x‖ 2
Prenons la norme de l’égalité (A.1) et utilisons la majoration ci-dessus :
‖xh − x‖ ≤ ‖(Df (x))−1 ‖ ‖h‖ + ‖(Df (x))−1 ‖ ‖o(‖xh − x‖)‖
1
≤ ‖(Df (x))−1 ‖ ‖h‖ + ‖xh − x‖
2
Au total,
‖xh − x‖ ≤ 2‖(Df (x))−1 ‖ ‖h‖,
ce qui implique qu’un o(‖xh − x‖) est aussi un o(‖h‖). Il résulte alors de l’égalité (A.1) que
f −1 (y + h) − f −1 (y) = (Df (x))−1 · h + o(‖h‖),
c’est-à-dire que f −1 est diérentiable en y et que
Df −1 (y) = (Df (x))−1 = [Df ◦ f −1 (y))]−1
Comme Df est de classe C k−1 , cette dernière égalité établit, en utilisant le théorème de compo-
sition et le fait que l’inverse d’une application C l est C l , que f −1 est de classe C k .
t
u
Nous sommes maintenant en mesure de montrer le théorème d’inversion
locale.
Démonstration du théorème A.3. Notons b = f (a). Puisque [Df (a)]−1 existe, f réalisera
un C k -diéomorphisme d’un voisinage de a sur un voisinage de b si et seulement si l’application
f0 (·), dénie par
f0 (u) = Df (a)−1 · (f (a + u) − b),
204
A.4 Conséquence pour l’inversion locale et les fonctions implicites
réalise un C k -diéomorphisme d’un voisinage de 0 E sur un voisinage de 0 E. Remarquons
que f0 est de classe C k et que l’on a
f0 (0) = 0, Df0 (0) = Id
B Posons alors pour u, v dans un voisinage de 0 E,
f˜v (u) = v + (u − f0 (u)),
et observons que f0 (u) = v si et seulement si f˜v (u) = u, c’est-à-dire si et seulement si f˜v admet u
pour point xe. Vérions donc que f˜v est contractante dans un voisinage de 0 pour v susamment
petit. Soient > 0 susamment petit et u1 , u2 dans la boule fermée Bf (0, ) de centre 0 et de
rayon :
‖f˜v (u1 ) − f˜v (u2 )‖ = ‖(id − f0 )(u1 ) − (id − f0 )(u1 )‖,
et, d’après le théorème des accroissements nis,
‖(id − f0 )(u1 ) − (id − f0 )(u1 )‖ ≤ sup ‖D(id − f0 )‖ ‖u1 − u2 ‖ ;
w∈B(0,δ)
mais comme Df0 (·) est continue sur un voisinage de 0 et que Df0 (0) = Id on a, pourvu que
soit assez petit,
1
sup ‖D(id − f0 )(w)‖ ≤ ,
w∈Bf (0,δ) 2
et l’application f˜v est 1
2
-contractante sur Bf (0, ). On a en particulier (faire u2 = 0)
1
‖f˜v (u1 ) − v‖ ≤ ‖u1 ‖,
2
et donc
1
‖f˜v (u1 )‖ ≤ ‖v‖ +
,
2
ce qui prouve que si ‖v‖ ≤ 2, f˜v envoie Bf (0, ) dans elle-même. Les conditions d’application
du théorème du point xe sont vériées et f˜v admet donc un unique point xe uv dans Bf (0, ).
En outre, comme f˜v (·) est continue en v, les hypothèses du théorème du point xe à paramètre
sont vériées et on en déduit que l’unique point xe uv obtenu précédemment dépend continûment
de v.
B Tout ceci montre que f0 réalise un homéomorphisme d’un voisinage de 0 E sur un voisinage
de 0 E. D’après la proposition A.1, f0 est donc un C k -diéomorphisme d’un voisinage de 0 E
sur un voisinage de 0 E, ce qui prouve que f est un C k -diéomorphisme d’un voisinage de a
sur un voisinage de b. t
u
Le théorème des fonctions implicites s’obtient comme un corollaire du
théorème d’inversion locale. Rappelons d’abord son énoncé.
Théorème A.4 (des fonctions implicites). Soient E, F et G des espaces
de Banach, U un ouvert de E × F , et f : U ⊂ E × F → G une application de
classe C k . Supposons que f vérie f (a, b) = 0 et que Dy f (a, b) Lc (F, G)
soit bijective.
Alors il existe V ⊂ E (voisinage ouvert de a), W ⊂ F (voisinage ouvert
de b), avec V × W ⊂ U , et une application ϕ : V → W de classe C k , unique,
telle que
(x V, y W et f (x, y) = 0) ⇐⇒ (x V et y = ϕ(x))
205
A Espaces vectoriels normés et théorèmes du point xe
Démonstration. On applique le théorème d’inversion locale à l’application C k dénie sur un
voisinage de (a, b) E × F par φ(x, y) = (x, f (x, y)), qui prend ses valeurs dans un voisinage
de (a, 0) E × G. Calculons sa diérentielle Dφ(a, b) Lc (E × F, E × G) en (a, b). Pour tout
(x, y) E × F , en utilisant une notation matricielle, on a
( )( )
IdE 0 x
Dφ(a, b) · (x, y) = ,
Dx f (a, b) Dy f (a, b) y
qui a une forme triangulaire et qui est inversible puisque par hypothèse D y f (a, b) Lc (F, G) l’est.
On peut donc appliquer le théorème d’inversion locale : φ réalise un diéomorphisme de classe
C k d’un voisinage de (a, b) dans un voisinage de (a, 0) et, vue la forme de φ, le diéomorphisme
inverse φ−1 est de la forme
φ−1 (x, z) = x, g(x, z) ,
où g est de classe C k d’un voisinage de 0 à valeurs dans un voisinage de b. On a donc
(x, y) = x, g x, f (x, y) ,
pour tout (x, y) dans un voisinage de (a, b) et par conséquent, pour (x, y) dans ce voisinage,
f (x, y) = 0 ⇔ y = g(x, 0)
Ceci termine la preuve du théorème des fonctions implicites. t
u
206
B
Formes normales des systèmes commandables
Le but de cette annexe est de donner des formes normales pour les systèmes
linéaires autonomes, c’est-à-dire des systèmes particuliers auxquels on peut
se ramener moyennant un changement linéaire de coordonnées. L’intérêt de
ces formes normales est qu’elles permettent de traiter de façon très ecace
le problème de la stabilisation (section 6.5). On verra en particulier la preuve
du théorème 6.7.
L’idée directrice est de se ramener à des systèmes scalaires d’ordre n où la
commande est justement la dérivée d’ordre le plus élevé. Nous commençons
donc par donner une caractérisation des équations diérentielles d’ordre n.
B.1 Équations diérentielles scalaires d’ordre n
Un classe particulière d’équations diérentielles est celle issue des équations
scalaires d’ordre supérieur à un. Dans le cas linéaire autonome, une équation
scalaire d’ordre n, où n est un entier supérieur à 1, s’écrit
y (n) + a1 y (n−1) + · · · + an y = 0, (B.1)
où y(·) est à valeurs dans R et a = (a1 , , an ) Rn . L’équation diérentielle
associée est l’équation linéaire suivante sur Rn :
0 1 0
.. . . . . . . ..
′ . .
x = Aa x, Aa = ,
0 0 1
−an −an−1 −a1
obtenue en choisissant comme état x = (y, y ′ , , y (n−1) ). Le polynôme car-
actéristique de la matrice Aa est très facile à calculer. On a en eet
B Forme normale des systèmes commandables
PAa (λ) = det(λI − Aa ) = λn + a1 λn−1 + · · · + an ,
comme on le voit par récurrence en développant la dernière colonne du déter-
minant (faire le calcul). Remarquons que les coecients de ce polynôme sont
les mêmes que ceux de l’équation (B.1), ce qui est très utile en pratique.
Une question naturelle est alors la suivante : étant donnée une équation
diérentielle linéaire autonome x′ = Ax, peut-on la considérer comme is-
sue d’une équation scalaire d’ordre n, quitte à eectuer un changement de
coordonnées linéaire?
Reformulons la question : rappelons d’abord qu’un changement de co-
ordonnées linéaire z = P x, P GLn (R), transforme l’équation x′ = Ax
en z ′ = P AP −1 z, c’est-à-dire que la matrice A dénissant l’équation dif-
férentielle est remplacée par sa conjuguée P AP −1 . On dit d’ailleurs que
z ′ = P AP −1 z est conjuguée à x′ = Ax par P . La question ci-dessus
devient ainsi : étant donnée une matrice A de polynôme caractéristique
PA (λ) = λn + a1 λn−1 + · · · + an , est-elle conjuguée à la matrice Aa ?
Remarque B.1. Notons que si A est conjuguée à une matrice Aa , toutes ses
valeurs propres ont une multiplicité géométrique égale à 1. En eet, si λ
est valeur propre de A, elle l’est aussi de Aa , avec la même multiplicité
géométrique e = dim kerC (λI − Aa ) ;or
λ −1 0
.. . . . . ..
λI − Aa =
. . . .
0 λ −1
an an−1 λ + a1
est de rang n − 1, ses n − 1 premières lignes étant clairement linéairement
indépendantes, ce qui implique e = 1.
Il est alors clair que toute matrice ne peut être conjuguée à une matrice
Aa . Prenons par exemple une matrice qui est diagonalisable et qui a des
valeurs propres multiples (I par exemple!). La diagonalisabilité implique
que les multiplicités algébriques et géométriques coïncident, c’est-à-dire que
ces dernières ne sont pas toutes égales à 1. Une telle matrice ne peut donc
pas être conjuguée à une matrice Aa .
Pour répondre à la question précédente, on introduit la notion de vecteur
cyclique.
Dénition B.1. Un vecteur v Rn tel que (v, Av, , An−1 v) est une base
de Rn s’appelle un vecteur cyclique pour A.
208
B.1 Équations diérentielles scalaires d’ordre n
Pour tout a Rn , la matrice Aa admet en pour vecteur cyclique (comme
d’habitude, (e1 , , en ) désigne la base standard de Rn ) puisque :
Aa en = en−1 − a1 en ,
A2a en = en−2 + combinaison linéaire de (en−1 , en ),
..
.
An−1
a en = e1 + combinaison linéaire de (e2 , , en )
Remarquons par ailleurs que, si v est vecteur cyclique pour une matrice A,
alors P v est cyclique pour P AP −1 . Ainsi, si une matrice A est conjuguée à
Aa , A admet un vecteur cyclique.
Proposition B.1. L’équation x′ = Ax est conjuguée à une équation scalaire
d’ordre n (c’est-à-dire que A est conjuguée à une matrice A a ) si et seulement
si A admet un vecteur cyclique.
Démonstration de la proposition B.1. Soit A une matrice de polynôme caractéristique
PA (λ) = λn + a1 λn−1 + · · · + an . On a déjà montré plus haut que, si A est conjuguée à Aa ,
elle admet un vecteur cyclique. Il reste à montrer la réciproque : supposons donc que v soit un
vecteur cyclique de A. On cherche à construire une base (f1 , , fn ) dans laquelle A prend la
forme Aa , ce qui est équivalent aux équations
Afn = fn−1 − a1 fn ,
.. (B.2)
.
Af2 = f1 − an−1 fn ,
Af1 = −an fn (B.3)
On sait d’autre part que fn sera alors vecteur cyclique. Dénissons donc les vecteurs fn , , f1
par fn = v et
fn−1 = Afn + a1 fn ,
..
.
f1 = Af2 + an−1 fn ,
de façon que le système (B.2) soit vérié. La famille (f1 , , fn ) est génératrice puisque
Vect(fn ) = Vect(v),
Vect(fn , fn−1 ) = Vect(v, Av),
..
.
Vect(fn , fn−1 , , f1 ) = Vect(v, Av, , An−1 v)
= Rn ,
et par conséquent c’est une base de Rn . Il ne reste plus qu’à vérier que (B.3) est satisfaite.
Calculons successivement
209
B Forme normale des systèmes commandables
Af1 = A2 f2 + an−1 Afn
= A2 (Af3 + an−2 fn ) + an−1 Afn
= A3 f3 + an−2 A2 fn + an−1 Afn
..
.
= An fn + a1 An−1 fn + · · · + an−1 Afn
Or, d’après le théorème de Cayley–Hamilton, on a An fn + a1 An−1 fn + · · · + an fn = 0, ce qui
implique Af1 = −an fn . La matrice A s’écrit donc sous la forme Aa dans la base (f1 , , fn ), ce
qui prouve la proposition. t
u
Remarque B.2. On voit dans la preuve précédente que, pour tout vecteur
cyclique v de A, on peut construire une base (f1 , , fn ), avec v = fn , dans
laquelle A est sous la forme Aa .
B.2 Forme normale : cas m = 1
Équations commandées d’ordre n
Ajoutons maintenant une commande à l’équation (B.1). On obtient ainsi
une équation commandée scalaire d’ordre n linéaire et autonome :
y (n) (t) + a1 y (n−1) (t) + · · · + an y(t) = u(t), (B.4)
où la commande u(·) est à valeurs dans R. En posant x = (y, y ′ , , y (n−1) ),
cette équation s’écrit sous forme d’un système commandé dans Rn ,
x′ = Aa x + Bu, où B = en
Ce système est commandable : en eet, on a vu dans la section précé-
dente que B = en est un vecteur cyclique pour Aa , ce qui implique
rang(B, AB, , An−1 B) = n. Le critère de Kalman est donc satisfait.
On cherche maintenant à stabiliser cette équation par retour d’état pro-
portionnel. On choisit donc une commande de la forme u= Kx, où K est
une matrice ligne. En notant k = K T Rn , on a u = ni=1 ki y (n−i) et le
système bouclé s’écrit comme une équation d’ordre n,
y (n) (t) + (a1 − k1 )y (n−1) (t) + · · · + (an − kn )y(t) = 0
La matrice associée est Aa + BK = Aa−k de polynôme caractéristique
PAa−k (λ) = λn + (a1 − k1 )λn−1 + · · · + (an − kn ). Il est donc clair que l’on
peut choisir comme on veut les coecients de ce polynôme, donc ses valeurs
propres. La procédure est très simple:
210
B.2 Forme normale : cas m = 1
• choisir λ1 , , λn tels que λ1 , λ2 = λ̄1 , . . . , λ2s−1 , λ2s = λ̄2s−1 sont com-
plexes et λ2s+1 , , λn sont réels ;
• former Q(λ) = (λ − λi ) = λn + b1 λn−1 + · · · + bn ;
• poser ki = ai − bi pour i = 1, , n.
On obtient ainsi une matrice Aa + BK dont les valeurs propres sont
λ1 , , λn . En particulier le choix de valeurs propres à partie réelle < 0
permet de stabiliser asymptotiquement le système.
Remarquons que si on prend, dans l’équation commandée (B.4), une com-
mande comportant un terme en retour d’état de la forme u(t) = v(t)+aT x(t),
l’équation devient :
y (n) = v,
c’est-à-dire un pur intégrateur. Cette forme réduite s’appelle la forme de
Brunovsky de (B.4).
Lien avec la commandabilité : cas m = 1
Considérons un système commandé linéaire dans Rn ,
x′ (t) = Ax(t) + Bu(t), t [0, τ ],
où A Mn (R), B Rn et la commande u(·) est à valeurs dans R. Dans
le même esprit que dans la section B.1, on se pose la question suivante : ce
système peut-il être considéré, à changement de coordonnées près, comme
une équation commandée d’ordre n?
Remarquons d’abord qu’un changement de coordonnées linéaire z = P x,
P GLn (R), transforme le système x′ = Ax + Bu en z ′ = P AP −1 z + P Bu.
On dit que ces deux systèmes sont des systèmes conjugués l’un à l’autre par
P.
Lemme B.1. Si le système x′ = Ax + Bu, avec u(·) à valeurs dans R, est
commandable, alors il est conjugué à une équation commandée d’ordre n : il
existe P GLn (R) et a Rn tels que
0
..
P AP −1 = Aa et P B = .
0
1
Démonstration. Puisque le système est commandable, il satisfait le critère de Kalman :
rang(B, AB, , An−1 B) = n. Le vecteur B est donc cyclique pour A.
D’après la proposition B.1, A est conjuguée à Aa et, d’après la remarque B.2, on peut choisir
la matrice de changement de coordonnées P de façon à ce que ce P B soit le dernier vecteur de
base dans les nouvelles coordonnées. Le lemme est donc démontré. t
u
211
B Forme normale des systèmes commandables
On peut, en plus du changement de coordonnées de matrice P , modier
la commande en y ajoutant un retour d’état, u = v + Kx. Un choix adapté
de K (précisément K = aT P avec les notations de la proposition) met ainsi
le système x′ = Ax + Bu sous forme de Brunovsky.
Corollaire B.1. Si le système x′ = Ax+Bu, avec u(·) à valeurs dans R, est
commandable, alors il existe un changement de coordonnées et de commande
z = P x,
P GLn (R), K M1,n (R),
u = v + Kx,
qui met le système sous forme de Brunovsky
y (n) = v,
où z = (y, y ′ , , y (n−1) ).
B.3 Forme normale : cas général
Généralisons maintenant ce qui précède au cas où l’entrée u n’est plus de
dimension un. On considère donc un système dans Rn ,
x′ (t) = Ax(t) + Bu(t), t [0, τ ],
où A Mn (R), B Mn,m (R) et la commande u(·) est à valeurs dans Rm .
Théorème B.1. Soit un système commandé x′ = Ax + Bu dans Rn dont la
commande u est de dimension m. Supposons que le système est commandable
et que rang(B) = m. Alors ce système est conjugué à un système z ′ =
Ãz + B̃u tel que :
• Ã est de la forme :
Aa1 0 0
. .
0 Aa2 . . ..
à = . . . + B̃ K̃, (B.5)
.. . . . . 0
0 0 Aam
où K̃ Mm,n (R), et, pour 1 ≤ i ≤ m, Aai Mni (R) avec n1 + · · · + nm =
n;
212
B.3 Forme normale : cas général
• B̃ est de la forme :
B̃1 0 0 0
.. ..
0 B̃2 .
B̃i = . Rni
B̃ = . .. , où (B.6)
.. . 0 0
0 0 B̃m 1
Corollaire B.2. Si le système x′ = Ax + Bu, avec une commande u de di-
mension m, est commandable et si rang(B) = m, alors il existe un change-
ment de coordonnées et de commande
z = P x,
P GLn (R), K Mm,n (R),
u = v + Kx,
qui met le système sous forme de Brunovsky
(n1 ) (nm )
y1 = v 1 , , ym = vm ,
(n1 −1) (n −1)
où z = (y1 , , y1 , , ym , , ym m ).
Démonstration du corollaire. D’après le théorème B.1, il existe un changement de coordon-
nées z = P x tel que le système s’écrit en coordonnées z comme z ′ = Ãz + B̃u. En prenant une
commande de la forme u = w − K̃z, on obtient m systèmes découplés à une commande :
zi′ = Aai z + B̃i wi , zi Rni , i = 1, , m
Il sut alors de prendre wi = vi + (ai )T zi pour conclure. t
u
Prouvons maintenant le théorème.
Démonstration du théorème B.1. Soient (v1 , , vm ) des vecteurs de Rn formant une base
de Im B. Considérons les matrices
Ck = B AB · · · Ak−1 B Mn,km (R), k = 1, , n
En particulier, C1 = B et Cn est la matrice de commandabilité, qui est de rang n puisque le
système x′ = Ax + Bu est supposé commandable. Remarquons que Im Ck+1 = Im Ck + A Im Ck .
Quitte à réordonner les vecteurs v1 , , vm , on peut donc trouver une suite d’entiers positifs,
m1 = m ≥ · · · ≥ mn ≥ mn+1 = 0,
tels que, pour tout k = 1, , n, les vecteurs
v1 , , vm1 , Av1 , , Avm2 , , Ak−1 v1 , , Ak−1 vmk , (B.7)
forment une base de Im Ck . Associons à tout i 1, , m l’entier ni tel que mni +1 < i ≤ mni .
Les vecteurs vi , , Ani −1 vi font partie de la base (B.7) de Im Cn et
ni +1 mk
ni
∑∑
A vi = aik,j Ak−1 vj
k=1 j=1
213
B Forme normale des systèmes commandables
Dénissons alors, pour i = 1, , m, les vecteurs fni i , , f1i par fni i = vi et
ni mk
∑ ∑
fli = Ani −l vi − aik,j Ak−1−l vj , l = 1, , ni − 1
k=l+1 j=1
Remarquons d’abord que l’ensemble des vecteurs fli ainsi construits forme une base de Rn . De
plus, leurs images par A vérient :
Afni = fni −1 + combinaison linéaire de (fn1 , , fnm ),
i i 1 m
..
.
Af2i = f1i + combinaison linéaire de (fn11 , , fnmm ),
Af1i = combinaison linéaire de (fn11 , , fnmm )
Puisque fn11 , , fnmm est une base de Im B, on obtient que, dans la base
f11 , , fn11 , , f1m , , fnmm ,
le système x′ = Ax + Bu s’écrit sous la forme z ′ = Ãz + B̃u. t
u
B.4 Démonstration du théorème 6.7 de placement des
pôles
Considérons d’une part un système dans Rn ,
x′ (t) = Ax(t) + Bu(t), où u(·) est à valeurs dans Rm ,
que nous supposons commandable, et d’autre part un réel ρ.
Remarquons d’abord que, si rang(B) = s < m, il existe une matrice
G Mm,s (R) telle que BG soit de rang s. En particulier, ceci implique que
rang BG ABG · · · An−1 BG = rang B AB · · · An−1 B
En se limitant aux commandes de la forme u(·) = Gũ(·), où ũ(·) est à valeurs
dans Rs , on se ramène à étudier le système
x′ = Ax + BGũ,
qui est également commandable. Quitte à faire cette réduction, nous sup-
posons donc dans la suite que le rang de B est égal à la dimension m de la
commande u.
D’après le corollaire B.2, il existe un changement de coordonnées et de
commande
214
B.4 Démonstration du théorème 6.7
z = P x,
P GLn (R), K Mm,n (R),
u = v + Kx,
qui met le système sous forme de Brunovsky
(n1 ) (nm )
y1 = v1 , , ym = vm ,
(n −1) (n −1)
où z = (y1 , , y1 1 , , ym , , ym m ). Pour chaque indice i = 1, , m,
choisissons la commande vi sous la forme :
(n1 −1)
vi = −k1i y1 − · · · − kni 1 −1 y1 ,
où les coecients k1i , , kni 1 −1 sont choisis de façon à ce que le polynôme
λni + k1i λni −1 + · · · + kni i −1 ,
n’ait que des valeurs propres à partie réelle inférieure à ρ (on peut choisir le
coecients du polynôme selon la procédure page 210). Remarquons que la
commande ainsi construite est de la forme v = K ′ z.
En résumé, on a construit une commande u = K̃x, où K̃ = K ′ P + K,
telle que la matrice A + B K̃ est conjuguée par P à la matrice :
Ak1 0 0
. .
0 Ak2 . . ..
Ãk = . . .
.. . . . . 0
0 0 Ak m
dont toutes les valeurs propres sont de partie réelle inférieure à ρ puisque
son polynôme caractéristique est :
PÃb = (λn1 + k11 λn1 −1 + · · · + kn1 1 −1 ) · · · (λnm + k1m λnm −1 + · · · + knmm −1 )
Le théorème 6.7 est démontré.
215
Bibliographie
1. H. Cartan. Calcul Diérentiel: I-Calcul Diérentiel Dans Les Espaces De Banach; II-
Équations Diérentielles (Cours De Mathématiques II). Hermann & Cie, Éditeurs, 1967.
2. Morris W. Hirsch, Stephen Smale, and Robert L. Devaney. Dierential equations, dynamical
systems, and an introduction to chaos. Elsevier/Academic Press, Amsterdam, third edition,
2013.
3. C. Viterbo. Systèmes Dynamiques et Équations diérentielles. École Polytechnique, 2004.
4. P. G. Ciarlet. Introduction à l’Analyse Numérique Matricielle Et Optimisation. Masson, 1988.
5. F. Laudenbach. Calcul Diérentiel et Intégral. Éditions de l’École Polytechnique, Palaiseau,
2000.
6. P. Hartman. Ordinary Dierential Equations. John Wiley & Sons, 1964.
7. E. D. Sontag. Mathematical control theory: deterministic systems. Springer-Verlag New York,
Inc., New York, NY, USA, 1990.
8. E. Trélat. Contrôle optimal. Mathématiques Concrètes. Vuibert, Paris, 2005. Théorie &
applications.
9. N. Bourbaki. Espaces Vectoriels Topologiques: Chapitres 1 a 5. Hermann, 1953.
Index
Notations diérentiable sur un ouvert . . . . . . . . . . . . . 5
Dk f (a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 lipschitzienne . . . . . . . . . . . . . . . . . . . . . . 7, 201
Df (a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 localement lipschitzienne . . . . . . . . . . . . . . 103
E s , E u , E c . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 automatique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
Ej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
Iv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 B
L(E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 bassin d’attraction . . . . . . . . . . . . . . . . . . . . . . 147
L∞ ([σ, τ ], U ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 boucle fermée . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
Lc (E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 201 boucle ouverte . . . . . . . . . . . . . . . . . . . . . . . . . . 179
PA (λ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
RA (t, s) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 C
Γλi ou Γi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 champ de gradient . . . . . . . . . . . . . . . . . . . . . . 145
Mn (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 champ de vecteurs . . . . . . . . . . . . . . . . . . . . . . 101
Φt (v, u(·)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 complet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
Πλi ou Πi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 changement de coordonnées . . . . 45, 132, 208
∂f
∂xi
ou ∂xi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 commandabilité . . . . . . . . . . . . . . . . . . . . . . . . . 172
GLn (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 commutateur de matrices . . . . . . . . . . . . . . . . 73
V (x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 critère de Kalman . . . . . . . . . . . . . . . . . . 174, 178
Ox . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
‖ · ‖C 0 , ‖ · ‖C 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 D
‖ · ‖E,F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 dérivée
φt (x), φ(t, x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 directionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
t− , t+ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3, 7
A(τ, x0 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 diéomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 12
Iτ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 diérentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
End(E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 k-ème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
d’une composition . . . . . . . . . . . . . . . . . . . . . . 5
A de l’inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
application partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
k fois diérentiable . . . . . . . . . . . . . . . . . . . . . . 8 seconde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 distance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
contractante . . . . . . . . . . . . . . . . . . . . 7, 34, 201 durée de vie d’une solution . . . . . . . . . . . . . . 106
de classe C 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
de classe C k . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 E
de Poincaré . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 ensemble
diérentiable . . . . . . . . . . . . . . . . . . . . . . . . 1, 15 atteignable . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Index
invariant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 de commandabilité . . . . . . . . . . . . . . . . . . . 173
positivement invariant . . . . . . . . . . . 148, 164 diagonalisable . . . . . . . . . . . . . . . . . . 47, 49, 58
entrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 hyperbolique . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
équation diérentielle jacobienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
ane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 nilpotente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
autonome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 modèle prédateur-proie . . . . . . . . . . . . . . . . . 123
linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 multiplicité
linéaire autonome . . . . . . . . . . . . . . . . . . . . . . 43 algébrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
non autonome . . . . . . . . . . . . . . . . . . . . . . . . 102 géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43, 80
scalaire d’ordre n . . . . . . . . . . . . . . . . . . . . . 207 N
équation linéarisée . . . . . . . . . . . . . . . . . . . . . . 115 norme
équilibre . . . . . . . . . . . . . . . . . . . . . . . . . . . 139, 172 ‖ · ‖C 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
asymptotiquement stable . . . . . . . . . . . . . 140 ‖ · ‖C 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
globalement asymptotiquement stable . 147 d’opérateur . . . . . . . . . . . . . . . . . . . . . 6, 15, 201
hyperbolique . . . . . . . . . . . . . . . . . . . . . . . . . 144
stable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 O
espace observabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
d’inobservabilité . . . . . . . . . . . . . . . . . . . . . . 177 orbite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
de Banach . . . . . . . . . . . . . . . . . . . . . . . . 14, 200 instable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
indiérent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 périodique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
instable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 stable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
stable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
espace métrique . . . . . . . . . . . . . . . . . . . . . . . . . 199 P
complet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 planication des trajectoires . . . . . . . . . . . . 175
espaces vectoriels normés . . . . . . . . . . . . . . . 200 polynôme caractéristique . . . . . . . . . . . . . . . . . 47
état atteignable . . . . . . . . . . . . . . . . . . . . . . . . . 173 portrait de phase . . . . . . . . . . . . . . . . . . . . 60, 111
explosion en temps ni . . . . . . . . . . . . . . . . . . 107 problème de Cauchy . . . . . . . . . . . . . . . . . . . . 102
exponentielle de matrice . . . . . . . . . . . . . . 22, 45
R
F réduction de Jordan–Chevalley . . . . . . . . . . . 49
ot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 résolvante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
fonction de Lyapunov . . . . . . . . . . . . . . . . . . . 146 redressement . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
stricte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 retour d’état . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
forme de Brunovsky . . . . . . . . . . . . . . . . 211–213
forme de Jordan–Chevalley . . . . . . . . . . . . . . . 50 S
formule solution
de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . 9, 16 d’une équation commandée . . . . . . . . . . . 170
du ot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 d’une équation diérentielle autonome 101
d’une équation diérentielle linéaire . . . . 77
G maximale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 sortie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
sous-espace
H caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . 48
homéomorphisme . . . . . . . . . . . . . . . . . . . . . . . . 12 caractéristique réel . . . . . . . . . . . . . . . . . . . . . 53
propre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
L suite de Cauchy . . . . . . . . . . . . . . . . . . . . . 14, 200
lemme de Gronwall . . . . . . . . . . . . . . . . . . . . . 108 système
loi de commande . . . . . . . . . . . . . . . . . . . . . . . . 168 asymptotiquement stabilisable . . . . . . . . 180
bouclé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
M commandé . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
matrice commandable . . . . . . . . . . . . . . . . . . . . . . . . . 173
220
Index
linéarisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 de Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . 9, 16
observable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 des accroissements nis . . . . . . . . . . . . . . 6, 16
système fondamental de solutions . . . . . . . . 81 des fonctions implicites . . . . . . . . . . . . 13, 205
du point xe de Picard . . . . . . . . . . . . . . . 202
T topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
théorème
d’existence et unicité globales . . . . . . . . . . 78 V
d’Hartman–Grobmann . . . . . . . . . . . . . . . . 144 valeur propre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
d’inversion locale . . . . . . . . . . . . . . . . . . 11, 203 variation de la constante . . . . . . . . . . . . . . . . . 86
de Banach . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 vecteur
de Cauchy–Lipschitz . . . . . . . . . . . . . . . . . . 102 cyclique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
de Cayley–Hamilton . . . . . . . . . . . . . . . . . . . 48 propre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
de décomposition des noyaux . . . . . . . . . . 48 vitesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
de Floquet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
de Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 W
de placement des pôles . . . . . . . . . . . . . . . . 180 wronskien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
221