0% ont trouvé ce document utile (0 vote)
36 vues69 pages

Introduction aux Équations Différentielles

Ce document est un cours d'introduction aux équations différentielles ordinaires et aux systèmes dynamiques, abordant des théorèmes fondamentaux tels que l'existence, l'unicité, le prolongement et la dépendance continue des solutions. Il traite également des aspects dynamiques, y compris les points d'équilibre et leur stabilité, en démontrant des principes comme la linéarisation et les théorèmes de Liapunov. Les sections sont organisées en chapitres détaillant des concepts clés et des théorèmes associés aux équations différentielles et à leur comportement asymptotique.

Transféré par

amkatv2
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • sous-ensembles invariants,
  • existence de solution,
  • linéarisation,
  • équations différentielles liné…,
  • systèmes de Lorentz,
  • unicité,
  • systèmes autonomes,
  • invariance,
  • systèmes dissipatifs,
  • comportement asymptotique
0% ont trouvé ce document utile (0 vote)
36 vues69 pages

Introduction aux Équations Différentielles

Ce document est un cours d'introduction aux équations différentielles ordinaires et aux systèmes dynamiques, abordant des théorèmes fondamentaux tels que l'existence, l'unicité, le prolongement et la dépendance continue des solutions. Il traite également des aspects dynamiques, y compris les points d'équilibre et leur stabilité, en démontrant des principes comme la linéarisation et les théorèmes de Liapunov. Les sections sont organisées en chapitres détaillant des concepts clés et des théorèmes associés aux équations différentielles et à leur comportement asymptotique.

Transféré par

amkatv2
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Thèmes abordés

  • sous-ensembles invariants,
  • existence de solution,
  • linéarisation,
  • équations différentielles liné…,
  • systèmes de Lorentz,
  • unicité,
  • systèmes autonomes,
  • invariance,
  • systèmes dissipatifs,
  • comportement asymptotique

Table des matières

ou
hin
1 Existence et unicité de la solution 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Existence locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Prolongement et solution maximale . . . . . . . . . . . . . . . . . . 11
Ou
1.4 Dépendance continue de la solution . . . . . . . . . . . . . . . . . . 16
1.5 Equation différentielle en dimension finie . . . . . . . . . . . . . . . 20
1.5.1 Théorème de Cauchy-Peano . . . . . . . . . . . . . . . . . . . 20
1.5.2 Fonction de lyapunov et solution globale . . . . . . . . . . . 24
A.

1.6 Complement sur l’existence de solutions . . . . . . . . . . . . . . . . 27

2 Equations différentielles linéaires et affines 31


2.1 Existence de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . 31
f.

2.2 Equation fondamentale et famille d’évolution. . . . . . . . . . . . . 33


Pro

2.3 Formule de la variation de la constante et problème semilinéaire . . 35


2.4 Le cas autonome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5 Le calcule de l’exponentielle d’une matrice A et application . . . . . 41

3 Stabilité et comportement asymptotique des solutions 48


3.1 Equation différentielle linéaire . . . . . . . . . . . . . . . . . . . . . . 48
3.2 Stabilité de Liapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Principe de linéarisation . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.4 Principe d’invariance de la Salle (1965) . . . . . . . . . . . . . . . . . 61

1
3.4.1 l’ensemble limite des trajectoires et ses propriétés . . . . . . 61
3.4.2 Principe d’invariance de la Salle . . . . . . . . . . . . . . . . 67

ou
hin
Ou
f. A.
Pro

2
Abstract

ou
Ce cours est une introduction aux équations différentielles ordinaires et sys-

hin
tèmes dynamiques. On commence par démontrer quelques théorèmes fonda-
mentaux concernant le problème de Cauchy abstrait : existence, unicité, prolon-
gement et dépendance continue par rapport à la donnée initiale.
Ou
On continue par considérer l’aspect dynamique des équations différentièlles
et introduire la notion de points d’équilibres et leurs effets sur la dynamique
des solutions. Pour la stabilité des points d’équilibres, on démontre le principe
de linéarisation ainsi que les théorèmes de Liapunov et celui d’invariance de La
Salle pour la stabilité des points d’équilibres.
f. A.
Pro

3
Chapitre 1

ou
Existence et unicité de la solution

1.1 Introduction
hin
Soient E un espace de Banach E et I un intervalle ouvert de R. On appelle une
Ou
équation différentielle ordinaire d’ordre n, toute équation de la forme :

F (t, x (t), x 0 (t), . . . , x (n) (t)) = 0, t ∈ I (∗)

où x (·) est une fonction définie sur I à valeurs dans E, x ( p) est la p-ème dérivée
de x et F est une application définie convenablement.
A.

Toute équation différentielle ordinaire d’ordre n peut être reformulée sous forme
de système d’équations différentielles ordinaires d’ordre 1 dans un espace conve-
nable. En effet : on pose x1 (t) = x 0 (t), . . . , xn−1 (t) = x (n−1) (t) ; et donc (∗) s’écrit :
f.




 x 0 ( t ) = x1 ( t )
0

 x1 ( t ) = x2 ( t )
Pro




..
.



 0
x n −2 ( t ) = x n −1 ( t )



 F (t, x (t), . . . , x 0
n−1 , xn−1 ( t )) = 0.

Où simplement, pour

X (t) = (X1 (t), . . . , Xn (t))T = ( x (t), x1 (t), . . . , xn−1 (t))T ∈ En ,

alors X (·) satisfait dans En l’équation differentielle d’ordre 1 suivante

F (t, X (t), X 0 (t)) = 0,

4
avec
X10 (t) − X2 (t)
 
 .. 
.
F (t, X (t), X 0 (t)) = 
 
.
Xn0 −1 (t) − Xn (t)
 
 
F (t, X1 (t), X2 (t), . . . , Xn (t), Xn0 (t))

Exemples 1.1.1 Soit l’équation différentielle d’ordre 2.

ou
x 00 (t) + 2x 0 (t) + t sin( x (t)) = 0. (∗)

On pose

hin
F : R4 → R
( a, b, c, d) 7→ d + 2c + a sin(b).
Alors (∗) peut s’écrire sous la forme

F (t, x (t), x 0 (t), x 00 (t)) = 0.


Ou
!
x ( t )
Soient u(t) = x 0 (t) et y(t) = .
u(t)
(
x 0 (t) = u(t)
Donc (∗) ⇔
A.

u0 (t) = −2u(t) − t sin( x (t)).


Autrement
y0 (t) = G (t, y(t)) (∗∗)
f.

avec
Pro

G : R × R2 → R2
( a, (b, c)) 7→ (c, −2c − a sin(b)).
Ou bien
F (t, y, y0 ) = y0 − G (t, y) = 0.

1.2 Existence locale


Soient Ω un ouvert d’un espace de Banach E, J un intervalle de R, f : J × Ω →
E une fonction continue, t0 ∈ J et x0 ∈ Ω. On considère l’équation différentielle

5
sous forme abstraite suivante :
(
x 0 (t) = f (t, x (t))
(1.2.1)
x ( t0 ) = x0 .

(1.2.1) est aussi nomée problème de Cauchy abstrait.


Définition 1.2.1 Pour t0 ∈ I ⊂ J,
1- x : I → Ω est dite solution locale de (1) si, x (t) est différentiable sur I et satisfait

ou
(1.2.1).
2- x : I → Ω est dite solution integrale locale de (1.2.1) si x est continue et pour tout
t ∈ I on a

hin
Z t
x ( t ) = x0 + f (s, x (s))ds.
t0

Proposition 1.2.1 Toute solution locale x est une solution integrale locale de (1.2.1). Inver-
Ou
sement, si f est continue, alors toute solution integrale locale de (1.2.1) est une solution locale
sur I.
Preuve. L’implication directe est triviale. Pour l’implication inverse, soit x solu-
tion integrale de (1.2.1), en particulier x est continue aussi f (·, x (·)) est continue
Z t
A.

et la fonction x (t) = x0 + f (s, x (s))ds est différentiable sur I avec


t0

x 0 (t) = f (t, x (t)). 2


f.

Définition 1.2.2 f est dite localement lipschitzienne par rapport à la deuxième variable, si et
seulement si, pour tout (t1 , x1 ) ∈ J × Ω ; ils existent I ouvert de J, Ω1 ouvert de Ω et k > 0
Pro

avec (t1 , x1 ) ∈ I × Ω1 tels que

| f (t, x ) − f (t, y)| ≤ k| x − y|; pour tous t ∈ I et x, y ∈ Ω1 .

Lemme 1.2.1 Si f est de classe C1 sur J × Ω ; alors f est localement lipschitzienne.

Preuve : Exercice 2
On aura besoin du résultat suivant pour démontrer les théorèmes d’existence
de solution pour (1.2.1).

6
Théorème 1.2.1 (Théorème du point fixe de Cauchy 1922) :
Soient ( A, d) un espace métrique complet et T : A → A une application strictement contrac-
tante (i.e) :

il existe δ < 1 tel que pour tout ( x, y) ∈ A × A; on a d( T ( x ), T (y)) ≤ δd( x, y).

Alors T admet un seul point fixe x ∗ dans A. (i.e Tx ∗ = x ∗ ).

ou
Preuve. Soit la suite récurrente
(
x0 ∈ A
xn+1 = Txn ,

hin
pour un x0 fixé dans A. On montre que ( xn )n est bien définie et qu’elle est de
Cauchy dans A.
On a, x0 ∈ A. Par récurence, supposons que xn ∈ A, alors xn+1 = Txn ∈ A.
Ainsi xn ∈ A pour tout n ∈ N, et ( xn )n est bien définie.
Ou
Soit m > n, on a
| x m − x n | = | x m − x m −1 + x m −1 + · · · + x n +1 − x n |
≤ | xm − xm−1 | + · · · + | xn+1 − xn |. (∗)
A.

D’autre part pour k ∈ N, on a

| xk+1 − xk | = | Txk − Txk−1 | ≤ δ| xk − xk−1 |


..
.
f.

| x2 − x1 | = | Tx1 − Tx0 | ≤ δ| x1 − x0 |.
Pro

Produit des égalitées terms à terms et après simplification on trouve que

| x k +1 − x k | ≤ δ k | x 1 − x 0 | .

On remplace dans (∗) pour obtenir

| xm − xn | ≤ (δm−1 + · · · + δn )| x1 − x0 |
1 − δm−n
= δn | x1 − x0 |
1 − δ
δn n,m→∞
≤ | x1 − x0 | −−−−→ 0.
1−δ
7
Ainsi ( xn )n est de Cauchy dans A qui est un complet. Par suite ( xn )n converge
vers x ∗ ∈ A.
Or T est continue (elle est contractante). Donc

x ∗ = lim xn+1 = lim Txn = T lim xn = Tx ∗ .


n→∞ n→∞ n→∞

Ce qui démontre que Tx ∗ = x ∗ .

ou
Pour l’unicité, soit a un point fixe de T dans A. On a

| a − x ∗ | = | Ta − Tx ∗ | ≤ δ| a − x ∗ |.

hin
Donc (1 − δ)| a − x ∗ | ≤ 0. pour δ < 1. D’où a = x ∗ . 2
L’hypothèse suivante est fréquement utilisée par la suite :
(H1 ) : f est continue et localement lipschitzienne par rapport à la deuxième
variable.
Ou
Théorème 1.2.2 (Picard-Lipschitz) :
Supposons (H1 ), alors il existe α > 0 et une fonction unique x : [t0 − α, t0 + α] → Ω de
classe C1 solution locale de (1.2.1) :
(
x 0 (t) = f (t, x (t)) ; t ∈ [t0 − α, t0 + α]
A.

(1.2.1)
x ( t0 ) = x0 ,

Preuve. Puisque f est continue, donc x est solution de (1) sur I = [t0 − α, t0 + α],
si et seulement si, pour tout t ∈ I on a x (t) ∈ Ω et
f.

Z t
Pro

x ( t ) = x0 + f (s, x (s))ds.
t0

On a (t0 , x0 ) ∈ J × Ω, donc il existe a > 0 et r > 0 tels que Ia = [t0 − a, t0 + a] ⊂ J,


B̄( x0 , 2r ) ⊂ Ω et

| f (t, x ) − f (t, y)| ≤ k| x − y| pour tout t ∈ Ia et x, y ∈ B̄( x0 , 2r ).

Soit M = sup{| f (t, x )| ; (t, x ) ∈ Ia × B̄( x0 , 2r )} < ∞. En effet, on a

| f (t, x ) − f (t, x0 )| ≤ k| x − x0 |; ∀(t, x ) ∈ Ia × B̄( x0 , 2r )

8
Donc | f (t, x )| ≤ k2r + | f (t, x0 )|. Comme Ia est compact, par suite

M = sup{| f (t, x )| ; (t, x ) ∈ Ia × B̄( x0 , 2r )} ≤ 2kr + sup | f (t, x0 )| < ∞


t ∈ Ia

r 1
Soit α > 0 , α < a , α < M ,α< k
On considère Γ = C ( Iα , E) est un espace de Banach muni de la norme infinie

k x k∞ = sup | x (t)|.

ou
t∈ Iα

Soient x¯0 (t) = x0 ∀t ∈ Iα , F = B̄Γ ( x¯0 , r ).


Soit H : F → F l’application définie pour x ∈ F par

hin
Z t
( Hx )(t) = x0 + f (s, x (s))ds, ∀t ∈ Iα .
t0

On a H est bien définie, en effet, pour x ∈ F, on a Hx est continue et


Ou
Z t
|( Hx )(t) − x0 | ≤ | f (s, x (s))ds| ≤ αM < r, ∀t ∈ Iα .
t0

Ce qui implique que H est bien définie de F dans lui même.


Maintenant, on montre que H est strictement contractante sur F. Soient x, y dans
A.

F et t ∈ Iα on a
Z t
|( Hx )(t) − ( Hy)(t)| = | [ f (s, x (s)) − f (s, y(s))]ds|
t0
f.

Z t
≤ [ f (s, x (s)) − f (s, y(s))]|ds
Pro

t0

Z t
≤ k | x − y|∞ ds
t0
≤ αkk x − yk∞
Donc
k Hx − Hyk∞ ≤ αkk x − yk∞ .
Puis que αk < 1, donc H est une contraction stricte sur F. D’après le théorème de
point fixe de Cauchy, H admet un point fixe unique x dans F. Par construction x

9
est une solution integrale locale (continue) de (1.2.1) et par suite c’est une solution
locale de (1.2.1).
Pour l’unicité de la solution x sur Iα , soit y une solution de (1.2.1) sur Iα et on
considère les ensembles suivants :

A− = {t ∈ [t0 − α, t0 ] ; x (t) 6= y(t)} et A+ = {t ∈ [t0 , t0 + α] ; x (t) 6= y(t)}

Par l’absurde, on suppose que A+ 6= ∅, et puisque il est minoré par t0 , on note

ou
t1 = inf( A+ ). (1.2.2)

hin
Par continuité de x et y, on obtient que x (t1 ) = y(t1 ) ∈ B̄Γ ( x¯0 , r ), et on peut
1
choisir 0 < δ < k tel que y(t) ∈ B̄E ( x0 , 2r ). En utilisant la version intégrale de
(1.2.1) pour t ∈ [t1 , t1 + δ], on trouve que
Rt
Ou
| x (t) − y(t)| = | t ( f (s, x (s)) − f (s, y(s)))ds|
Rt1
≤ t | f (s, x (s)) − f (s, y(s))|ds
R t1
≤ t k| x (s) − y(s)|ds
1
≤ kδ sup | x (s) − y(s)|
t1 ≤ s ≤ t1 + δ
A.

Donc
sup | x (s) − y(s)| ≤ kδ sup | x (s) − y(s)|.
t1 ≤ s ≤ t1 + δ t1 ≤ s ≤ t1 + δ
f.

Puisque kδ < 1, on déduit que


Pro

x (t) = y(t) = 0, ∀t ∈ [t1 , t1 + δ].

Ceci contredit (1.2.2). D’où A+ = ∅ et de même on montre que A− = ∅. ce qui


prouve l’unicité de la solution x sur Iα . 

Théorème 1.2.3 (Unicité globale)


Supposons (H1 ). Si x1 et x2 sont deux solutions de (1.2.1) sur un intervalle I avec x1 (t1 ) =
x2 (t1 ) pour un t1 ∈ I, alors
x1 (t) = x2 (t), ∀t ∈ I.

10
Preuve. On considère l’ensemble

A = {t ∈ I / x1 (t) = x2 (t)} ,

On a A est non vide car il contient t1 . De plus A est fermé par continuité de x1 et
x2 .
Montrons que A est un ouvert. En effet, soit t2 ∈ A, et on considère :
(

ou
x 0 (t) = f (t, x (t)) t ∈ I.
(1.2.3)
x ( t2 ) = x1 ( t2 ) = x2 ( t2 ).
D’après le théorème d’existence locale (Picard- Lipschitz) il existe α > 0 tel que x̄

hin
est une solution unique de (1.2.3) sur [t2 − α, t2 + α] ⊂ I.
Or x1 /[t2 −α,t2 +α] et x2 /[t2 −α,t2 +α] sont aussi solution de (1.2.3) sur [t2 − α, t2 + α].
Donc ∀t ∈ [t2 − α, t2 + α] : x1 (t) = x2 (t) = x̄ (t).
Ainsi
Ou
[t2 − α, t2 + α] ⊂ A.
Par consequent A est à la fois ouvert et fermé non vide de I. Or, I est connexe,
donc A = I. Ce qui démontre le théorème. 
A.

1.3 Prolongement et solution maximale


Théorème 1.3.1 Soient (H1 ) et x une solution de l’équation
f.

(
x 0 (t) = f (t, x (t)) t ∈ ] a, b[ ⊂ J,
(1.3.1)
x ( t0 ) = x0 .
Pro

1- Si lim x (t) existe et égale à x1 ∈ Ω, alors il existe δ > 0 et y solution de (1.3.1) sur
t→b−
] a, b + δ[ avec x = y/]a,b[ .
2- Si lim x (t) existe et égale à x1 ∈ Ω, alors il existe δ > 0 et y solution de (1.3.1) sur
t→ a+
] a − δ, b[ avec x = y/]a,b[ .

Preuve. 1- Soit l’équation


(
y0 (t) = f (t, y(t)) t ∈ J,
(1.3.2)
y ( b ) = x1 .

11
D’après Theorem 1.2.2, l’équation (1.3.2) admet une solution locale y définie sur
un intervalle [b − δ, b + δ] . Soit la fonction
(
x (t) Si t ∈ ] a, b[
z(t) =
y(t) Si t ∈ [b, b + δ[ .

z est continue sur ] a, b + δ[, et pour tout t ∈] a, b[, on a

ou
Z t
z ( t ) = x ( t ) = x0 + f (s, z(s))ds.
t0

Pour t = b, on a

hin
Z r Z b
z(b) = x1 = lim x (t) = x0 + lim f (s, z(s))ds = x0 + f (s, z(s))ds.
r →b+ r → b t0 t0

Et pour t ∈]b, b + δ[, on a


Ou
Rt
z ( t ) = x1 + bRf ( s, z ( s )) ds
t
= z(b) + b f (s, z(s))ds
Rb Rt
= x0 + t0 f (s, z(s))ds + b f (s, z(s))ds
Rt
= x0 + t0 f (s, z(s))ds.
A.

Ce qui démontre que z est une solution integrale de (1.3.1) sur ] a, b + δ[ qui est
continue. Par conséquent z est solution de (1.3.1) sur ] a, b + δ[.
De même on procède pour (2). 
f.

Définition 1.3.1 Une solution x de (1.2.1) est dite maximale, s’elle est définie sur le plus
Pro

grand intervalle possible Imax dans J. Autrement dit, si y est solution de (1.2.1) sur un inter-
valle I, alors I ⊆ Imax .

Théorème 1.3.2 Sous les mêmes hypothèses, l’équation (1.2.1) admet une seule solution
maximale définie sur ]α, β[

12
Théorème 1.3.3 Sous l’hypothèse (H1 ). Si f est bornante (i.e f transforme un borné de
R × Ω dans un borné de E).
Soit x la solution maximale de l’équation (1.2.1) définie sur ]α, β[. Alors
a) β = +∞, si non (β < +∞) on aura nécessairement

lim | x (t)| = +∞ ou bien lim x (t) ∈ Ω.


t→ β− t→ β−

ou
b) α = −∞, si non on aura nécessairement

lim | x (t)| = +∞ ou bien lim x (t) ∈ Ω.


t→α+ t→α+

hin
Preuve. a) Supposons que β est fini. Si limt→ β− | x (t)| < ∞, en particulier, ∃ M > 0
tel que | x (t)| ≤ M∀t ∈ [t0 , β[.
Puis que x 0 (t) = f (t, x (t)); t ∈ [t0 , β[ et f est bornante, donc
Ou
| x 0 (t)| ≤ sup | f (t, x )| < ∞.
(t,x )∈[t0 ,β]× B̄(0,M)∩Ω

Ainsi, x est uniformément continue sur [t0 , β[, par conséquent lim x (t) = x1
t→ β−
existe dans E. (Exercice).
A.

Indication : Soit tn → β, ( x (tn ))n est de Cauchy. Donc x (tn ) → x1 . On montre


que x1 est le même pour toute suite tn → β.
Si x1 ∈ Ω, alors x est prolongeable en une solution sur ]α, β + e[ de (1.3.1). Ce qui
est absurde du fait que x est la solution maximale.
f.

Donc, et necessairement,
Pro

lim x (t) = x1 ∈ ∂Ω. 


t→ β−

Corollaire 1.3.1 (Principe du maximum)


Supposons (H1 ), f bornante, J = R et Ω = E. Alors

soit β = +∞ ou bien limt→ β− | x (t)| = +∞.

Exemples 1.3.1 Soit le problème de Cauchy suivant


(
x 0 (t) = 1 + x2 (t) t ∈ R.
(1.3.3)
x (0) = 0.

13
On a f (t, x ) = 1 + x2 est bornante localement lipschitziènne par rapport à la deuxième
variable.
 
On vérifie que ; x (t) = tan(t) est solution de (1.3.3) sur − π2 , π2 , de plus, elle est la
solution maximale.
Théorème 1.3.4 Supposons (H1 ), J = R, Ω = E et qu’ils existent a, b > 0 tels que

| f (t, x )| ≤ a| x | + b pour tout x ∈ E et t ∈ R.

ou
Alors ∀(t0 , x0 ) ∈ R × E, l’équation
(
x 0 (t) = f (t, x (t)) t ∈ R.

hin
(1.3.4)
x ( t0 ) = x0 .

admet une solution unique définie sur R.

Pour la démonstration on aura besoin du lemme suivant.


Ou
Lemme 1.3.1 (Gronwall)
Soient u, v : [ a, b] → R+ deux fonctions continues telles que pour un c ≥ 0 on a
Z t
u(t) ≤ c + u(s)v(s)ds, ∀t ∈ [ a, b] .
A.

Alors, pour tout t ∈ [ a, b], on a Rt


v(s)ds
u(t) ≤ ce a .
Démonstration du Lemme :
f.

Soient les fonctions définies sur [ a, b] par


Pro

Z t Rt
v(s)ds
f (t) = c + u(s)v(s)ds et g(t) = ce a .
a
f (t)
Pour c > 0, on pose φ(t) = g(t)
, donc

f 0 (t) g(t) − f (t) g0 (t) u(t)v(t) g(t) − f (t)v(t) g(t) gv


φ0 (t) = 2
= 2
= 2 (u − f ) ≤ 0.
g (t) g (t) g
Donc φ est decroissante, et en particulier, pour t ∈ [ a, b], on a
f (t)
φ(t) ≤ φ( a) c à d ≤ 1.
g(t)

14
Ainsi, u(t) ≤ f (t) ≤ g(t). Et par conséquent
Rt
v(s)ds
u(t) ≤ ce a ∀t ∈ [ a, b] .
Si c = 0, on montre pour c + ε > 0 et on fait tendre ε → 0+ . 
Preuve.(Théorème 1.3.4) Soit x la solution maximale de (1.3.4) sur ]α, β[ .
Si β < +∞, puisque f est bornante sur Ω = E, alors

ou
lim | x (t)| = +∞. (1.3.5)
t→ β−

En particulier, x n’est pas bornée sur [t0 , β[ . Or, pour t ∈ [t0 , β[ on a


Rt
| x (t)| ≤ | x0 | + t | f (s, x (s))|ds

hin
0 Z t
≤ | x0 | + b ( β − t0 ) + a| x (s)|ds
Z t t0

≤ C+ v(s)| x (s)|ds∀t ∈ [t0 , β[ ,


t0
Ou
où C = | x0 | + b( β − t0 ) et v(s) = a.
Par le lemme de Gronwall, pour t ∈ [t0 , β[, on a

| x (t)| ≤ (| x0 | + b( β − t0 ))e a(t−t0 ) .


Ce qui contredit (1.3.5). Donc, necessairement β = +∞.
A.

De même on montre que α = −∞. 


Remarque 1.3.1 Les résultats du théorème 1.3.4 restent vrais si on suppose seulement

| f (t, x )| ≤ a(t)| x | + b,
f.

avec a(t) ≥ 0 et continue sur R.


Pro

Démonstration. (Exercice)
Corollaire 1.3.2 Supposons que f est k-lipschitzienne sur R × E par rapport à la 2me va-
riable :
| f (t, x ) − f (t, y)| ≤ k| x − y| ∀ x, y ∈ E, ∀t ∈ R.
Alors (
x 0 (t) = f (t, x (t)) t ∈ R.
x ( t0 ) = x0 .
admet une solution globale sur R.

15
Preuve. (Exercice)

1.4 Dépendance continue de la solution


Théorème 1.4.1 Supposons que f , g ∈ C ( J × Ω, E) et que f est lipschitzienne avec
constante de Lipschitz L > 0.
Soient x et y les solutions respectivement de

ou
( (
x 0 (t) = f (t, x (t)) t ∈ J y0 (t) = g(t, y(t)) t ∈ J.
et
x ( t0 ) = x0 . y ( t0 ) = y0 .

hin
Alors,
k f − g k ∞ L ( t − t0 )
k x ( t ) − y ( t ) k ≤ k x 0 − y 0 k e L ( t − t0 ) + (e − 1) , ∀t ∈ J.
L
Ou
Avec M :=k f − g k∞ = sup | f (t, x ) − g(t, x )|.
(t,x )∈ J ×Ω

Preuve. Soit t > t0


Z t
| x (t) − y(t)| ≤ | x0 − y0 | + | f (s, x (s)) − g(s, y(s))|ds
Zt0t
A.

≤ | x0 − y0 | + | f (s, x (s)) − f (s, y(s))| + | f (s, y(s)) − g(s, y(s))|ds


Zt0t
≤ | x0 − y0 | + L(| x (s) − y(s)| + M )ds
Zt0t
M
f.

≤ | x0 − y0 | + L(| x (s) − y(s)| + )ds


t0 L
Pro

Donc
Z t  
M M M
| x (t) − y(t)| + ≤ | x0 − y0 | + + L | x (s) − y(s)| + ds.
L L t0 L
Lemme de Gronwall implique que
 
M M
| x (t) − y(t)| + ≤ | x0 − y0 | + e L ( t − t0 ) .
L L
Donc
M
| x (t) − y(t)| ≤ | x0 − y0 |e L(t−t0 ) + (e L(t−t0 ) − 1) .
L
Le cas t < t0 est laissé à titre d’exercice. 

16
Remarque 1.4.1 Dans le théorème précédent, pour f = g, on aura que :

| x (t, t0 , x0 ) − x (t, t0 , x1 )| ≤ | x0 − x1 |e L(t−t0 ) , ∀t ∈ J

où x (t, t0 , x0 ) est la solution de (1.2.1) en t avec temps initial t0 et condition initial x0 .

Exercice 1 Etudier l’existence de solution globale de


(
x 0 (t) = sin( x (t)).

ou
x (0) = 0.

Remarque 1.4.2 Si f n’est pas localement lipschitzinne, donc, en cas d’existence d’une

hin
solution locale, on peut pas affirmer sa unicité.

Exemples 1.4.1 Soit l’equation différentielle suivante :


(
x 0 ( t ) = x ( t ).
p
Ou
(?)
x (0) = 0.

On peut vérifier que x (t) = 0 et y(t) = 14 t2 sont deux solutions différentes de (?).
p
D’autre part, on montre que f ( x ) = | x | est continue mais n’est pas localement lip-
schitzienne au voisinage de 0 (exercice).
A.

Solution d’Exercice : (
x 0 (t) =
p
x (t) = f ( x )
x (0) = 0.
f.

Par l’absurde, supposons que f est localement lipschitzienne en 0. Donc, ∃r >


Pro

0, ∃k > 0, ∀ x, y ∈ B(0, r ) : | f ( x ) − f (y)| ≤ k | x − y|.


donc ∀ x ∈ B(0, r ) : | f ( x )| ≤ k | x |.

Càd, ∀ x ∈ B(0, r ) r {0} ; 1 ≤ k x.
Ce qui est impossible. Et par conséquent, f n’est pas localement lipschitzienne en
0.
Proposition 1.4.1 La continuité seule de f ne garantie pas, en géneral, l’existence d’une
solution locale de (
x 0 (t) = f (t, x (t))
x ( t0 ) = x0 .

17
Preuve. Soit l’espace vectoriel suivant :

c0 = {( xn )n≥0 ∈ C ; lim xn = 0} .

c0 est un espace de Banach muni de la norme k( xn )k∞ = sup | xn |. (Exercice) On


n ≥0
considère l’application f définie sur c0 comme suit :

f : c0 −→ c0

ou
x = ( xn ) 7→ ( f ( x ))n = ( | xn | + n1 ).
p

On montre d’abord que f est continue sur c0 . En effet, pour un x ∈ c0 , h ∈ c0 et

hin
n ∈ N, on a
p p
|( f ( x − h))n − ( f ( x ))n | = | | xn − hn | − | xn ||.
p
≤ | h n |. (Exercice)
Ou
Donc, q q
h →0
k f ( x + h) − f ( x ) k∞ ≤ sup | hn | = k h k∞ −−→ 0.
n ≥0
D’où la continuité de f en x, pour tout x ∈ c0 .
2) Montrons que f n’est pas localement lipschitzienne au voisinage de 0. Par
A.

l’absurde, supposons que f est localement lipschitzienne sur un voisinage de 0.


Donc il doit exister e > 0 (e < 1) et k > 0 tels que

| f ( x ) − f (y)| ≤ k| x − y| ; ∀ x, y ∈ B(0, e).


f.

D’où
Pro

q q
sup | | xn | − |yn || ≤ k sup | xn − yn |.
n ≥0 n ≥0
En particulier, Pour y = 0 on aura que
q
sup | xn | ≤ k sup | xn | ; ∀ x ∈ B(0, e).
n ≥0 n ≥0

On prend ( xn ) = (eδ, 0, . . . , 0, . . . ) ∈ B(0, e) avec 0 < δ < 1.


D’après ce sui precède on a

δe ≤ keδ autrement 1 ≤ k2 eδ, et ceci pour tout δ ∈]0, 1[.

18
Ce qui pas possible. Par conséquent f n’est pas localement lipschitzienne au voi-
sinage de 0.
3) En dérnier point, on va montrer que
(
x 0 (t) = f ( x (t)).
(∗)
x (0) = 0.
n’admet pas de solution locale.

ou
Par l’absurde, supposons que (∗) a une solution locale ( x (t) = ( xn (t))n≥0 ) sur
un intervalle [−α, α] . Donc pour tout
n ≥ 0 on a

hin
1
q
xn0 (t)
= + | xn (t)| > 0, ∀t ∈ [−α, α].
n
En particulier, on obtient que xn (t) est strictement croissante sur sur [0, α] avec
1
q q
0
xn (t) = + xn (t) ≥ | xn (t)|, ∀t ∈ [−α, α].
Ou
n
Ainsi , ∀t ∈ [−α, α], on a
x 0 (t) x 0 (t)
Z t
pn ≥ 1 et 2 pn dt ≥ t.
xn (t) 0 2 xn (t)
A.

D’où
t2
q
2 xn (t) ≥ t, et xn (t) ≥ .
4
Par suite, pour tout t ∈ ]0, α], on a
f.

t2
lim | xn (t)| ≥ > 0.
n 4
Pro

Ce qui tombe en contradiction avec

lim xn (t) = 0.
n

Par conséquent (∗) n’admet pas de solution locale dans c0 .


Théorème 1.4.2 En dimension infinie, la continuité de f est insuffisante pour garantire
l’existence d’au moins une solution locale de
(
x 0 (t) = f (t, x (t)), t ∈ J; x (t) ∈ Ω
(1)
x (t0 ) = x0 ∈ Ω; t0 ∈ J.

19
1.5 Equation différentielle en dimension finie
1.5.1 Théorème de Cauchy-Peano
Théorème 1.5.1 (Cauchy-Peano 1890)
Supposons que f : J × Ω → Rn ; (Ω ⊂ Rn ) est continue.
Alors, l’équation (1) admet au moins une solution locale définie sur un intervalle
[t0 − α, t0 + α] .

ou
Preuve. Pour la démonstration, nous avons besoin du polygon d’Euler (1736).
L’idée est que pour h > 0, on approxime la solution par

hin
x (t + h) ' x (t) + h f (t, x (t)).

Soient h > 0 et (t0 , x0 ) donné dans J × Ω. Tant que (tn , xn ) ∈ J × Ω, on considère


la suite récurente suivante
Ou
tn+1 = tn + h; x n +1 = x n + h f ( t n , x n ).

On fait de même pour k ∈ Z− pour définire

tk−1 = tk − h; x k −1 = x k − h f ( t k , x k ).

Et on définit la fonction xh (t) qui joint linéairement entre 2 points (tn , xn ), (tn+1 , xn+1 )
A.

successives. C-à-d ∀t ∈ [tn , tn+1 ] :


( t n +1 − t ) t − tn
xh (t) = xn + x n +1
h h
On a J × Ω est un ouvert de R × E ( E = Rn ).
f.

Donc ∃ T > 0 et r > 0 tel que [t0 − T, t0 + T ] × B̄( x0 , r ) ⊂ J × Ω.


Pro

On pose
M= sup | f (t, x )| < ∞.
(t,x )∈[t0 − T,t0 + T ]× B̄( x0 ,r )
Maintenant on va chercher des conditions sous lesquelles le polygon d’Euler soit
bien défini sur un voisinage de t0 .
r
On choisie 0 < α < min{ T, M} (on rajoutera des conditions par la suite ) et on
note
A = [t0 − α, t0 + α] × B̄( x0 , r ).
Pour la suite de la preuve on aura besoin du lemme suivant.

20
Lemme 1.5.1 Soit n ∈ N? . Si hn = nα , le polygon d’Euler satisfait

(t, xhn (t)) ∈ A, ∀t ∈ [t0 − α, t0 + α] .

De plus pour t, s ∈ [t0 − α, t0 + α] on a

| xhn (t) − xhn (s)| ≤ M|t − s|. (1.5.1)

ou
Preuve du Lemme.
Premièrement, on montre que pour tout n ∈ N? , la fonction xhn (·) est bien définie
pour tout t ∈ [t0 − α, t0 + α]. Pour cela, il suffit de montrer que (ti , xi ) ∈ A pour

hin
tout i = 0, · · · , n. Par récurence, on a (t0 , x0 ) ∈ A, on suppose que (ti , xi ) ∈ A
pour i < n, et montrons que (ti+1 , xi+1 ) ∈ A.
On a
ti+1 = t0 + (i + 1)hn ≤ t0 + nhn = t0 + α.
Ou
De plus, on a

x i +1 = x i + h n f ( t i , x i )
= x i −1 + h n f ( t i −1 , x i −1 ) + h n f ( t i , x i )
..
.
A.

= x0 + h n f ( t0 , x0 ) + · · · h n f ( t i , x i ).

Donc
| xi+1 − x0 | ≤ |hn f (t0 , x0 )| + · · · |hn f (ti , xi )|
f.

≤ |hn M +{z · · · hn M}
Pro

i +1 f ois
≤ ( i + 1) h n M
≤ (i + 1) M nα
≤ αM ≤ r.
Donc (ti+1 , xi+1 ) ∈ A.
De même, on montre que (ti , xi ) ∈ A pour tout i = 0, −1, · · · , −n. Par suite
xhn est bien définie sur [t−n , tn ] = [t0 − α, t0 + α] avec (t, xhn (t)) ∈ A pou tout
t ∈ [t0 − α, t0 + α].
Maintenant, on démontre (1.5.1). Soit t < s ∈ [t0 − α, t0 + α], ∃i, j < N, (i ≤ j) tel

21
que
 
t ∈ [ti , ti+1 ] et s ∈ t j , t j+1 .
Donc,
| xhn (t) − xhn (s)| = |( xhn (s) − xhn (t j )) + ( xhn (t j ) − xhn (t j−1 )) + . . .
+( xhn (ti+1 ) − xhn (t))|
≤ | xhn (s) − xhn (t j )| + |hM + ·{z · · + hM} +

ou
j−i −1 fois
+| xhn (ti+1 ) − xhn (t)|
t j +1 − s s−t j
≤ | hn x j +hn x j+1 − x j | + ( j − i − 1) Mhn +
t −t t−t

hin
| xhn (t j+1 ) − j+h1n xi − hn j xi+1 |
s−t t −t
≤ ( h j ) Mhn + ( j − i − 1) Mhn + ( i+h1n ) Mhn .
≤ ((s − t j ) + ( j − i − 1)hn + (ti+1 − t)) M
≤ |s − t| M. 
Ou
Suite de la preuve du théorème.
D’après le lemme 1.5.1, la famille Bα = xhn ; hn = nα ; n ∈ N∗ est une partie de


C ([t0 − α, t0 + α] , E) De plus
Bα ⊂ B̄( x¯0 , r ),
A.

où x¯0 est la fonction constant avec x¯0 (t) = x0 et B̄( x¯0 , r ) est la boule fermé centrée
en x¯0 de rayon r.
On veut montrer que Bα est relativement compact. Pour utiliser le théorème
f.

d’Ascoli-Arzela ;
1- On montre d’abord que Bα est équicontinue (Exercice).
Pro

2- D’autre part, ∀t ∈ [t0 − α, t0 + α] { xh (t), xh ∈ Bα } est borné dans E ( dimE <


∞, donc relativement compact.
Théorème d’Ascoli-Arzela (1895) implique que Bα est relativement compact dans
C ([t0 − α, t0 + α]; E) qui est un espace de Banach muni de la norme uniforme.
Donc il doit exister une suite ( xh ϕ(n) )n∈N notée aussi ( x ϕ(n) )n∈N qui converge
dans C ([t0 − α, t0 + α] , E) (ici h ϕn = α
ϕ(n)
)
On note cette limite par x. Càd
lim sup | x ϕ(n) (t) − x (t)| = 0.
n→∞
t∈[t0 −α,t0 +α]

22
Pour finir, on montre que x satisfait l’equation integrale suivante :
Z t
x ( t ) = x0 + f (s, x (s))ds, pour t ∈ [t0 − α, t0 + α] .
t0

En effet, soit t ∈ [t0 , t0 + α]. Pour chaque n, il doit exister i ∈ {0, . . . , ϕ(n) − 1} tel
que t ∈ [ti , ti+1 ] (ti = t0 + ih ϕ(n) ). Et, on aura que
t i +1 − t
x ϕ(n) ( t ) = hn xi + t− tl
h n x i +1 .

ou
Or pour p ∈ N, on a ( x p+1 = x p + h ϕ(n) f (t p , x p )), et en utilisant un raisonement
par induction, on obtient que

hin
x ϕ(n) ( t ) = xi + ( t − ti ) f ( ti , xi )
= x i −1 + h ϕ ( n ) f ( t i −1 , x i −1 ) + ( t − t i ) f ( t i , x i )
(?) ..
.
= x 0 + h ϕ ( n ) f ( t 0 , x 0 ) + · · · + h ϕ ( n ) f ( t i −1 , x i −1 ) + ( t − t i ) f ( t i , x i ).
Ou
Puisque t 7→ (t, x (t)) est continue, elle est intégrable au sens de Riemann :
Z t
f (s, x (s))ds = h ϕ(n) f (t0 , x0 ) + · · · + h ϕ(n) f (ti−1 , x (ti−1 )) + (t − ti ) f (ti , x (ti )) + R(hn ), (??)
t0
A.

h →0
avec R(h) −−→ 0. Or f est uniformément continue sur A compact et x ϕ(n) → x,
donc

∀e > 0, ∃ N > 0 tel que pour n > N, on a : sup | f (t, x ϕ(n) (t)) − f (t, x (t))| < e.
f.

t∈[t0 −α,t0 +α]


Pro

On sait que x ϕ(n) (tin ) = xin (tin = t0 + iϕ(n)), ainsi (?) et (??) implique que
Z t
k x ϕ ( n ) ( t ) − x0 − f (s, x (s))ds k ≤ h ϕ(n) | f (t0n , x ϕ(n) (t0n )) − f (t0n , x (t0n ))| + . . .
t0
+h ϕ(n) | f (tin−1 , x ϕ(n) (tin−1 )) − f (tin−1 , x (tin−1 ))|+
(t − tin )| f (tin , x ϕ(n) (tin )) − f (tin , x (tin ))| + R(h ϕ(n) )
≤ h ϕ(n) e + · · · + h ϕ(n) e + R ( h ϕ(n) )
| {z }
i +1 fois
≤ (i + 1) ϕ(αn) e + R ( h ϕ(n) )
≤ αe + R(h ϕ(n) )&0 (n→+∞)

23
Par passage à la limite, on trouve que
Z t
x ( t ) − x0 − f (s, x (s))ds ≤ αe ceci pour tout e > 0.
t0

En faisant tendre e vers 0, on obtient que


Z t
x ( t ) = x0 + f (s, x (s))ds, pour t ∈ [t0 , t0 + α] .
t0

ou
De même, on démontre pour t ∈ [t0 − α, t0 ] . (exercice) 

hin
1.5.2 Fonction de lyapunov et solution globale
Théorème 1.5.2 Fonction de Liapunov Soit f : Rn → Rn une fonction localement Lip-
schitzienne. Supposons qu’il existe V : Rn → R (fonction de liapunov) de classe C1 tel que :
Ou
1- V ( x ) ≥ 0 ; ∀ x ∈ Rn et lim V ( x ) = +∞
k x k→∞
2-DV ( x ). f ( x ) ≤ a + bV ( x ),
alors le problème de Cauchy : (
x 0 (t) = f ( x )
(1.5.2)
A.

x ( t0 ) = x0 .
admet une solution unique sur [α, +∞[

Preuve Puisque f est localement Lipschitzienne, (1.5.2) admet une solution unique
f.

maximale définie sur un intervalle maximale ]α, β[ .


D’autre part, pour tout t ∈ [t0 , β[ ona
Pro

0
v( x (t)) = < ∇v( x (t)), x 0 (t) > = Dv( x (t)).x 0 (t)

= Dv( x (t)). f ( x (t)) ≤ a + bv( x (t)).


Z t
v( x (t)) ≤ v( x0 ) + a + bv( x (t))ds.
t0
Ainsi Z t
 
a + bv( x (t)) ≤ a + bv( x0 ) + b a + bv( x (s)) ds.
t0

24
D’après Lemme de Gronwall, on aura que

a + bv( x0 ) eb(t−t0 ) .

a + bv( x (t)) ≤

Ce qui implique

a a + bv( x0 ) b(t−t0 )
v( x (t)) ≤ − + e , ∀ t ∈ [ t0 , β [ (1.5.3)
b b

ou
alors v( x (t)) est borné sur [t0 , β[ . Par l’absurde, supposons que β < +∞. Puis
que f est localement lipschitzienne alors, donc elle est bornante (exercice). Par le
principe de maximum 1.3.1, on aura necéssairement que

Donc
t→ β−

hin
lim k x (t) k= +∞,

lim k v( x (t)) k= +∞.


Ou
t→ β−

Ce qui tombe en contradiction avec (1.5.3).Par conséquent, β = +∞. 

Proposition 1.5.1 Soit v : Rn → R une fonction de classe C2 . Le système gradient


associé est :
A.

(
x 0 (t) = −∇v( x )
(G)
x ( t0 ) = x0 .
Si limk xk→+∞ v( x ) = +∞, alors l’équation ( G ) admet une solution unique sur ]α, +∞[ .
f.

Preuve. (Exercice) 
Pro

Remarque : Pour n = 1;
(
x 0 (t) = f ( x (t))
(1.5.4)
x ( t0 ) = x0 .
Z y
Soit F (y) = f ( x )dx. Donc,
x0
(
x 0 (t) = −∇ F ( x (t))
(1.5.4) ⇔
x ( t0 ) = x0 .

25
Théorème 1.5.3 Soit H : Rn × Rn → R de classe C2 , H est la fonction Hamiltonienne
du système (Hamiltonien) associé :

0
 x (t) = ∇y H ( x, y),


(H) y0 ( x ) = −∇ x H ( x, y),

 ( x (0), y(0)) = ( x , y ).

0 0

ou
Supposons que
lim H ( x, y) = +∞, (∗)
k( x,y)k→+∞

alors ( H ) admet une solution unique sur R.

hin

Preuve. On a f ( x, y) = ∇y H ( x, y), −∇ x H ( x, y) est localement lipschitzienne,
D’où l’existence locale.
Soit ( x, y) la solution unique maximale définie sur ]α, β[
Ou
On a
d
H ( x (t), y(t)) = ∇ x H ( x (t), y(t)).x 0 (t) + ∇y H ( x, y).y0 (t)

dt
= ∇ x H ( x (t), y(t))∇y H ( x (t), y(t)) − ∇y H ( x, y)∇ x H ( x, y)
= 0. ( H ∈ C2 )
A.

Donc
H ( x (t), y(t)) = H ( x0 , y0 ) ∀t ∈ R2 . (∗∗)

Puisque f est localement lipschitzienne sur R2 , donc elle est bornante.


f.

Par l’absurde, si β < ∞, par le principe du maximum 1.3.1, on aura que


Pro

lim k ( x (t), y(t)) k = +∞.


t→ β−

D’autre part,(∗) implique que

lim H ( x (t), y(t)) = +∞


t→ β−

Contradiction avec (∗∗). Donc β = +∞.


On fait de même pour montrer que α = −∞. 
Question : Peut on affaiblir la condition (∗) ?

26
Théorème 1.5.4 Soit f : Rn → Rn localement lipschitzienne ; Supposons qu’il existe u ∈
Rn , a > 0, b > 0 tel que :

< f ( x ), x − u >≤ a − bk x k2 .

Alors le problème de Cauchy (


x 0 (t) = f ( x (t))

ou
x ( t0 ) = x0 ,
admet une solution unique sur [t0 , +∞[ .

k x − u k2 < x − u, x − u >

hin
Preuve. Soit v( x ) = =
2 2
1
v0 ( x ) =< ∇v( x ), f ( x ) >= < 2( x − u ), f ( x ) >
2
= < x − u, f ( x ) > ≤ a − bk x k2 ≤ a.
Ou
De plus, on a que
k x k→+∞
v( x ) −−−−−→ +∞ ( Exercice)

Donc les hypothèse du théorème 1.5.2 sont vérifiées et le problème de Chauchy


A.

admet une solution unique x définie sur [t0 , +∞[

Exercice 2 Etudier l’existence et l’unicité de solution globale du système d’équations


suivant (système de Lorentz) :
f.


 x10 (t) = − x1 + x2
Pro



 x 0 (t)

= − x1 x3 + x1 − x2
2


 x30 (t) = x1 x2 − x3

x1 (0) = a1 , x2 (0) = a2 x3 (0) = a3

1.6 Complement sur l’existence de solutions


Exercice 3 (Théorème d’existence globale) Soit f : R × Rn → Rn une fonction
continue et globalement lipschitzienne(∗) par rapport à la deuxième variable.

27
Montrons que ∀ x0 ∈ Rn , l’équation
(
x 0 (t) = f (t, x (t))
(1) :
x (0) = x0

admet une solution unique définie sur ]−∞, +∞[ .

(∗) (globalement lipschitzienne :

ou
∃k > 0; ∀t ∈ R, ∀ x, y ∈ Rn | f (t, x ) − f (t, y)| ≤ k| x − y|.)
Rt
Preuve. Soit x solution de (1), donc x (t) = x0 + f (s, x (s))ds (2)

hin
0
ceci pour tout t ∈ R. Soit T ∈ R.
Considérons F = C ([− T, T ] , Rn ) muni de la norme

k x k∞ = sup k x (t)k
Ou
t∈[− T,T ]

Soit
H: F → F
x 7→ H ( x ) : [− T, T ] → Rn
Z t
A.

t 7→ ( H ( x ))(t) = x0 + f (s, x (s))ds


0
H est bien définie. x est solution de (2) ssi H ( x ) = x
Soient x, y ∈ F.
f.

Z t
|( Hx )(t) − ( Hy)(t)| ≤ | f (s, x (s)) − f (s, y(s))|ds
Pro

0
Z t
≤ k | x (s) − y(s)|ds ≤ ktk x − yk∞ ∀t ∈ [− T, T ]
0

Lemme 1.6.1 H : F → F avec F est un espace métrique complet.


Si ∃n ∈ N, H n est une contractante stricte, alors H admet un point fixe unique dans F.
Par récurrence, supposons que

kn n
|( H n x )(t) − ( H n y)(t)| ≤ t k x − yk∞ .
n!

28
et montrons que

k n +1 n +1
|( H n+1 x )(t) − ( H n+1 y)(t)| ≤ t k x − yk∞ .
n + 1!
On a : ∀t ∈ [− T, T ],
Z t
|( H n+1 x )(t) − ( H n+1 y)(t)| ≤ k |( H n x )(s) − ( H n y)(s)|ds
Z0 t

ou
kn n
≤ s k x − yk∞ ds
k
0 n!
n +1
≤ (nk +1)! tn+1 k x − yk∞ .

hin
Donc
(kT )n
n n
k( H x ) − ( H y)k ≤ k x − y k ∞ ∀ n ∈ N∗
n!
(kT )n
Or lim = 0, alors il existe m > 0 tel que
n→+∞ n!
Ou
(kT )m
< 1.
m!
Donc H m est une contraction stricte.
D’après le lemme précédent H admet un seul point fixe de F qui est solution de
A.

(1) sur [− T, T ]
∗ Pour l’unicité. Soit y solution de (1) sur [− T, T ] .
On a y ∈ F donc y solution de (1) est un point fixe de H sur F. D’où y = x par
f.

unicité du point fixe


C/C : ∀ T > 0, (1) admet une seule solution sur [− T, T ] .
Pro

Donc (1) admet une solution globale unique sur R.


Autre méthode.
Si on considère ( F, k.kδ ) avec k x kδ = sup | x (t)eδt |
t∈[− T,T ]
1- Montrons que ( F, k.kδ ) est un espace de Banach.
2- Pour un choix convenable de δ,, on montre que H est une contractante stricte
dans ( F, k.kδ ).
3-Déduire que (1) admet une solution unique sur [− T, T ]
4-Déduire l’existence de solution unique définie sur R.

29
Solution
1- Soit x ∈ F on a
e|δ|t | x (t)| ≥ eδt | x (t)| ≥ e−|δ|t | x (t)|

Donc la norme k.kδ est équivalente


Or ( F, k.k∞ ) est Banach. Donc ( F, k.kδ ) est Banach ∀δ.
2-Soit x, y ∈ F

ou
Z t
|( Hx )(t) − ( Hy)(t)| ≤ | f (s, x (s)) − f (s, y(s))|ds
Z t0
≤ k | x (s) − y(s)|ds ∀t ∈ [− T, T ]

hin
0 Z
t
≤ keδs e−δs | x (s) − y(s)|ds
0 Z t
≤ k k x − ykδ e−δs ds
0
k
− ykδ (1 − e−δt )
Ou
≤ δ kx

k Hx − Hykδ ≤ δk (eδT − 1)k x − ykδ .


Soit g(δ) = δk (eδT − 1) δ ∈ R
On a lim g(δ) = 0. Donc, ∃δ0 < 0 telle que g(δ0 ) < 1.
δ→−∞
A.

Ainsi H est une contractante stricte dans ( F, k.kδ )


Donc, il existe x ∈ F unique telle que Hx = x
C-à-d x est solution de (1) sur [− T, T ] .
f.
Pro

30
Chapitre 2

ou
Equations différentielles linéaires et
affines

2.1 Existence de la solution hin


Ou
Une équation différentielle linéaire est de la forme :
(
x 0 ( t ) = A ( t ) x ( t ); t ∈ R
(2.1.1)
x (t0 ) = x0 ∈ E,
où E est un espace de Banach et A : R → L( E); est une application avec
A.

(L( E), k · k) est l’epace de Banach des applications linéaires bornées sur E muni
de la norme d’opérateur :
| Lx |
f.

k Lk = sup , ∀ L ∈ L( E).
x 6 =0 | x |
Pro

Une équation différentielle affine (linéaire non homogène) est de la forme :


(
x 0 ( t ) = A ( t ) x ( t ) + f ( t ); t ∈ R
(2.1.2)
x ( t0 ) = x0 ,
où f : R −→ E est une fonction localement intégrable.
Proposition 2.1.1 Soit A ∈ L( E). Alors
1) k Ide k = 1 où Ide est l’opérateur identité.
2) Pour tout A, B ∈ L( E) on a k AB k ≤ k A kk B k .
3) k An k ≤ k A kn .

31
k Ide x k kxk
Preuve. 1) k Ide k = sup = sup = 1.
x 6 =0 kxk x 6 =0 k x k
2) Soit x 6= 0 on a

k ABx k2 ≤ k A kk Bx k ≤ k A kk B kk x k .

Donc
k ABx k
≤ k A kk B k .

ou
kxk
Donc
k ABx k
sup ≤ k A kk B k .
x 6 =0 kxk

hin
Ainsi
k AB k ≤ k A kk B k .
3) C’est une conséquence de 2). 
Ou
Théorème 2.1.1 Si A : R → L( E) est continue, et f est continue, alors (2.1.2) admet une
et une seule solution définie sur R.

Preuve. Soit F (t, x ) = A(t) x + f (t), alors De plus F est continue sur R × E. (Exer-
cice)
A.

F est localement lipschitzienne par rapport à la deuxième variable. En effet,


soit (t, a) ∈ R × E. pour t ∈ [t1 − l, t1 + l ] et x, y ∈ B( a, 1)
On a
f.

| F (t, x ) − F (t, y)| = | A(t)( x − y)|


≤ k A(t) k | x − y|
Pro

≤ max k A ( t ) k | x − y |.
t∈[t1 −l,t1 +l ]

Donc F est localement lipschitzienne par rapport à la deuxième variable


Donc (2.1.2) admet une solution maximale x (·) sur ]α, β[ .
D’autre part, pour t ∈ R et x ∈ E, on a

| F (t, x )| ≤ | A(t) x | + | f (t)|


≤ k A(t)k| x | + | f (t)|.

32
En particulier F est une application bornante. Supposons par l’absurde que β <
+∞. Pour t ∈ [t0 , β[, on a :
Z t Z t
x ( t ) = x0 + A(s) x (s)ds + f (s)ds.
t0 t0

De plus,
Z β Z t

ou
| x (t)| ≤ | x0 | + | f (s)|ds + k A(s) k | x (s)|ds
α t0
Z β Z t
≤ | x0 | + | f (s)|ds + max k A(s) k | x (s)|ds
α t∈[α,β] α

hin
 Z β   
(Gronwall) ≤ | x0 | + | f (s)|ds exp maxt∈[α,β] k A(s) k ( β − α) < +∞
α

Donc x (·) est borné au voisinage de β, ce qui tombe en contradiction avec le


principe du maximum, et donc, β = +∞. On fait de même pour montrer α =
Ou
−∞. Par conséquent, (2.1.2) admet une et une seule solution x (·) définie sur R.

2.2 Equation fondamentale et famille d’évolution.


A.

Dans L( E), on considère l’equation différentielle suivante :



 d R(t) = A(t) ◦ R(t) ; t ∈ R; R(t) ∈ L( E)
dt (2.2.1)
 R(t ) = id .
0 E
f.

Soit
à : (R × L( E)) → L( E)
Pro

(t, R) 7→ Ã(t, R) = A(t) ◦ R.


Donc (2.2.1) s’écrit : (
R0 (t) = Ã(t, R(t)) ; t ∈ R;
(2.2.2)
R(t0 ) = id E ∈ L( E).
On a à est continue dans R × L( E) et localement lipschitziènne par rapport à la
deuxième variable. (Exercice)
Donc (2.2.2) admet une solution unique maximale. De même que dans Théorème
2.1.1, on montre que cette solution maximale est globale (définie sur R). On note

33
cette solution par R(t, t0 ).
Pour x0 ∈ E, on considère la fonction à valeurs dans E suivante

x (t) = R(t, t0 ) x0 ∈ E, ∀t ∈ R.

Alors x est différentiable avec


d
x 0 (t) = ( R(t, t0 )) x0 = A(t) ◦ R(t, t0 ) x0 = A(t)( R(t, t0 ) x0 ) = A(t) x (t).

ou
dt
Et par conséquent x (·) est la solution globale du problème de Cauchy suivant
(
x 0 ( t ) = A ( t ) x ( t ).

hin
y ( t0 ) = x0 .

Définition 2.2.1 ( R(t, s))t,s∈R est connue sous le nom : famille fondamentale ou famille
d’évolution de (2.2.1) (ou matrice fondamentale si dim( E) < ∞ ).
Ou
Propriétés 2.2.1 Pour tout r, s, t dans R, on a
1) R(r, r ) = Id E .
2) R(t, s) ◦ R(s, r ) = R(t, r ).
3) R(t, s) est inversible et R(t, s)−1 = R(s, t).
A.

Preuve.
1) Par définition, on a R(·, r ) : R → L( E) est la solution du problème de Cauchy :
f.

(
Y 0 ( t ) = A ( t )Y ( t ) .
Y (r ) = id E .
Pro

donc R(r, r ) = Id E .
2) Soit t, s ∈ R et montrons que R(t, s) ◦ R(s, r ) = R(t, r ).
Soient x0 ∈ E et y0 = R(s, r ) x0 et on pose

y(t) = R(t, s)y0 et x (t) = R(t, r ) x0 .

On considère l’équation
(?) z 0 ( t ) = A ( t ) z ( t ).

34
On a
x 0 (t) = R0 (t, r ) x0 = A(t) R(t, r ) x0 = A(t) x (t), ∀t ∈ R.
D’autre part, on voit que la fonction y(·) satisfait :

y0 (t) = A(t)y(t) ∀t ∈ R.

Puisque

ou
x (s) = R(s, r ) x0 = y0 = y(s).
Par le billet du Théorème de l’unicité globale), on déduit que

y(t) = x (t), ∀t ∈ R.

D’où
hin
R(t, s) R(s, r ) x0 = R(t, s)y0 = R(t, r ) x0 , ceci pour toutx0 ∈ E.
Par conséquent pour tout r, s, t ∈ R, on a
Ou
R(t, s) R(s, r ) = R(t, r ). 

Exercice 4 Soit R(t, s) la famille d’évolution associée à l’equation (2.2.1). Etudier la


différentiabilité de la fonction s → R(t, s).
A.

2.3 Formule de la variation de la constante et problème


semilinéaire
f.

Soit l’equation linéaire non-autonome non-homogène suivante


Pro

(
x 0 (t) = A(t) x (t) + B(t)
(2.3.1)
x ( t0 ) = x0

et R(t, s) la famille d’évolution associée à (2.2.1) (ou tout simplement à A(t)).


Théorème 2.3.1 (Formule de la variation de la constante)
Le problème de Cauchy (2.3.1) admet une solution unique x sur R donnée par la formule de
variation de la constante :
Z t
x (t) = R(t, t0 ) x0 + R(t, s) B(s)ds.
t0

35
Z t
Preuve. Soit la fonction ϕ(t) = R(t, s) B(s)ds. Alors ϕ est bien définie, déri-
t0
vable sur R et à valeurs dans E avec
Z t
dR
ϕ0 (t) = R(t, t) B(t) + (t, s) B(s)ds (Exercice)
t0 dt
Rt Rt
= B(t) + t0 A(t) R(t, s) B(s)ds = B(t) + A(t) t0 R(t, s) B(s)ds
= B ( t ) + A ( t ) ϕ ( t ).

ou
Par suite
x 0 (t) = A(t) R(t, t0 ) x0 + B(t) + A(t) ϕ(t)

= A(t) R(t, t0 ) x0 + ϕ(t) + B(t)

hin
= A ( t ) x ( t ) + B ( t ).
Donc x satisfait la 1re équation de (2.3.1).
Pour la donnée initiale, on a x (t0 ) = R(t0 , t0 ) x0 = x0 .
Soit maintenant l’équation différentielle semi-linéaire suivante :
Ou
(
x 0 (t) = A(t) x (t) + F (t, x (t))
(2.3.2)
x ( t0 ) = x0 .

Proposition 2.3.1 Supposons que F est continue localement lipschitzienne par rapport à la
A.

deuxième variable, alors la solution maximale x de (2.3.2) sur un intervalle Imax vérifie la
formule de la variation de la constante
Z t
x (t) = R(t, t0 ) x0 + R(t, s) F (s, x (s))ds, ∀t, s ∈ Imax .
f.

t0

Preuve. Déduction directe du théorème 2.3.1.


Pro

2.4 Le cas autonome


Dans le cas ou A ne dépend pas de t : A(t) = A ∈ L( E), on a le résultat
suivant.
Proposition 2.4.1 Si A ne dépend pas de t, alors,
N
( t − t0 ) n A n ( t − t0 ) n n
R(t, t0 ) = e(t−t0 ) A = ∑ n!
=
N
lim
→ ∞
∑ n! A
n ≥0 n =0

36
Preuve. Soit (φn )n∈N la suite définie par :
N
( t − t0 ) n n
φn = ∑ n! A .
n =0

On montre que (φn )n∈N est de Cauchy dnas L( E). En effet, pour n < m, on a
m
( t − t0 ) k k
|φn − φm | = | ∑ A |

ou
k = n +1
k!
m
| t − t0 | k
≤ ∑ k A kk
k = n +1
k!
m
(|t − t0 | k A k)k n,m→+∞

hin
≤ ∑ −−−−−→ 0.
k = n +1
k!

D’où (φn ) est une suite de Cauchy. Donc lim φn existe dans L( E) et e(t−t0 ) A est
bien défini pour tout t0 , t ∈ R.
Ou
D’autre part, pour |h| < 1 dans R on a,

e(t+h−t0 ) A − e(t−t0 ) A − Ae(t−t0 ) A .h =


h (t + h − t )k ( t − t0 ) k k i ( t − t0 ) k k
= ∑ 0
Ak − A −A∑ A .h
k! k! k!
A.

k ≥0 k ≥0
Ak ( t − t 0 ) k k +1
(TAF, |αk | < |h|) = ∑ k(t − t0 + αk ) .h −∑
k −1
A .h
k ≥1
k! k ≥0
k!
  k −1  Ak
= h ∑ t − t0 + α k − ( t − t 0 ) k −1
f.

k ≥1
( k − 1) !
 k −2 A k
(TAF, | β k | < |αk |) = h ∑ α k ( k − 1) t − t0 + β k
Pro

k ≥2
( k − 1) !
k Ak
= hA2 ∑ αk t − t0 + β k .
k ≥0
k!

Let
ke(t+h−t0 ) A − e(t−t0 ) A − Ae(t−t0 ) A .hk
Ih =
|h|

37
Donc
k k Akk

|h|
Ih ≤ |h|
k A k2 | α k | | t | + | t0 | + | β k |
k ≥0
(k)!
k k Akk
≤ |h|k Ak2 ∑ | t | + | t0 | + 1
(k)!
k ≥0
≤ |h|k Ak e(|t|+|t0 |+1)k Ak
2 −→ 0
h →0

D’où lim Ih = 0, par conséquence t → e(t−t0 ) A est différentiable avec

ou
h →0

d ( t − t0 ) A
e = Ae(t−t0 ) A , ∀t ∈ R.
dt

hin
Pour la condition initiale, on a (e(t−t0 ) A )/t=t0 = Id. Donc

R(t, t0 ) = e(t−t0 ) A , ∀t ∈ R. 
Corollaire 2.4.1 l’équation
Ou
(
x 0 (t) = Ax (t).
x ( t0 ) = x0
admet une solution unique sur R donnée par :

x ( t ) = e ( t − t0 ) A x 0 .
A.

De manière générale, on définit l’exponentielle d’une application linéaire bonée


comme suit :
Définition 2.4.1 Soit A ∈ L( E). L’exponentielle de A par
f.


Ak
Pro

eA = ∑ k!
.
k =0

Proposition 2.4.2 Soient A ∈ L( E) et B ∈ L( E). Alors on a


1) e0 = Id .
2) e aId = e a Id , pour tout a ∈ R.
3) Si AB = BA alors e A+ B = e A e B .
4) Si AB = BA alors BetA = etA B pour tout t ∈ R.
5) e A est inversible et (e A )−1 = e− A .
−1
6) Si P ∈ L( E) est inversible alors : e PAP = Pe A P−1 .

38
Preuve.
1) et 2) sont trivial par définition de l’exponentielle.
3) Si AB = BA alors

( A + B)k
e A+ B = ∑ k!
k =0

1 k
 
(AB=BA) j 
= ∑ ∑ j k− j
AB

ou
k =0
k! j =0
k
∞ ∞
1 .
= ∑ ∑ j!(k − j)! A j Bk− j
j =0 k = j

Aj ∞ Bk

hin
= ∑ j! k∑ k!
j =0 =0
= e A eB.

4) Comme AB = BA et par la continuité de la matrice A et de la somme on a


Ou
∞ n k k n k k
 tk Ak   t A t A
Be tA
=B ∑ = B lim ∑ = lim B ∑
k! n→∞ k! n→∞ k!
k =0 k =0 k =0

n
 tk Ak 
= lim ∑ k! B
A.

n→∞
k =0

= etA B.
5) On a e A e− A = e A− A = e0 = Id , donc e A est inversible et son inverse est e− A .
f.

6) Pour tout k ∈ N on a
Pro

( PAP−1 )k = PAP−1 PAP−1 . . . PAP−1 = PA . . . AP−1 = PAk P−1 .

Donc

n
( PAP−1 )k n
A k −1  n Ak 
∑ k!
= ∑ P k! P = P ∑ k! P−1.
k =0 k =0 k =0

Quand n → ∞ on obtient
∞ ∞
PAP−1 ( PAP−1 )k A k −1
e = ∑ =P∑ P = Pe A P−1 . 
k =0
k! k =0
k!

39
Exemples 2.4.1
1- Soit J une matrice de M2 (R) donnée par
!
0 1
J= .
−1 0
On a ! !
1 0 0 1
J2 = = I2 et J 3 = = − J.

ou
0 1 −1 0
On déduit par récurrence que J 2n = (−1)n I2 et J 2n+1 = (−1)n J. Donc

(tJ )k
etJ = ∑

hin
k =0
2k!

∞ ∞
(tJ )2k (tJ )2k+1
= ∑ + ∑ (2k + 1)!
k =0
(2k)! k =0
Ou
∞ ∞
(−1)k t2k (−1)k t2k+1
= ∑ I2 + ∑ J
k =0
(2k)! k =0
(2k + 1)!

= cos(t) I2 + sin(t) J
A.

!
cos(t) sin(t)
= .
− sin(t) cos(t)
f.

2- Considérons la matrice A ∈ M2 (R) définit par


Pro

!
a b
,
−b a
avec a, b ∈ R. Donc on a
! !
1 0 0 1
A = a + b = aI2 + bJ.
0 1 −1 0
Les matrices aI2 et bJ commutent donc
!
cos(tb) sin(tb)
etA = et(aI2 +bJ ) = etaI2 etbJ = eta .
− sin(tb) cos(tb)

40
2.5 Le calcule de l’exponentielle d’une matrice A et appli-
cation
Pour, A ∈ Mn (C), on suit les étapes suivantes :
1- On calcule le polynôme caractéristique pour déterminer les Valeurs propres et
leurs multiplicités algébriques n a .
2- On chercher les sous espaces propres pour déterniner les multiplicités géomé-

ou
triques n g .
3− Si n a = n g → A est diagonalisable A = Pdiag(λ1 , . . . , λn ) P−1
4− Si n a > n g → A s’écrit en bloc de Jordan.

hin
 
J1
  −1
A = P  J2 P

...
Ou
 
λ1 1

 ... ... 

J1 = 
 
... 

 1 
A.

λ1
 
e J1
 −1
eA = P  e J2

P .
 
...
f.

   
Pro

λ1 0 0 1
... ... ... ...
   
   
J1 =  +  = D + N.
   
... ...

 0  
  1
λ1 0
D et N commutent et donc

e D+ N = e D e N = eλ e N .

Ce qui reste de cette section est dédié aux calcules de la matrice fondamentale.
Soient A ∈ Mn (C) et λ1 , . . . , λn ses n valeurs propres réelles au complexes ( En

41
comptant les multiplicités algébriques ).

cas 1 : Si A est diagonale.


Si A est une matrice diagonale tel que
 
λ1

A= ... 
.

ou
 
λn
Alors  
λ1k

hin
Ak = 
 ... 
.
 
λkn
Ainsi
Ou
∞ ∞ tk λ1k
tk Ak tk λkn
e tA
= ∑ = ∑ diag( k! , . . . , k! ) = diag(etλ1 , . . . , etλn ).
k =0
k! k =0

Donc  
etλ1
...
A.

etA = 
 
.
 
etλn
De la même manière on montre que si A est une matrice diagonale par bloc i.e :
f.

 
A1
A=
 ... 
Pro


 
An

pour des matrices A1 , . . . , An . Alors


 
etA1
etA = 
 ... 
.
 
etAn

cas 2 : Si A est diagonalisable.


Si A est diagonalisable alors il existe une matrice inversible P = [v1 , . . . vn ] où

42
v1 , . . . , vn sont les vecteurs propres associés aux valeurs propres λ1 . . . λn , tel que

A = Pdiag(λ1 , . . . λn ) P−1 .

D’après la proposition précédente, on aura


 
etλ1
etA = P 
 ...  −1
P .
 

ou
etλn

cas 3 : Si A est un bloc de Jordan.


Si A est de la forme

hin
 
λ 1
... ...
 
 
A= .
 
...
1 
Ou

 
λ
C’est une matrice n’a qu’une valeur propre (qui est λ) de multiplicité n, donc on
a
A.

   
λ 0 0 1

 ... ...  
  ... ... 

A= +  = D+N
   
... ...

 0  
  1 

f.

λ 0
où D est une matrice diagonale et N est une matrice nilpotente avec N n−1 = 0.
Pro

Donc

N2 t n −1 N n −1
etN = In + tN + t2+···+
2 ( n − 1) !
n −1
 
1 t · · · (nt −1)!

... ... .. 
.
 
= .
 
...

 t 

1

43
D et N commutent donc
et( D+ N ) = etD etN

= etλ etN .
Ainsi
tn−1 tλ
 
etλ tetλ ··· ( n −1) !
e

... ... .. 
.
 
etA =  .

ou
 
...

 tetλ 

etλ
cas 4 : A n’est pas diagonalisable.

hin
Pour toute matrice A ∈ Mn (C) il existe une matrice de Jordan
 
Jλ1
J=
 ... 

Ou
 
Jλr

où les Jλi sont des blocs de Jordan, λi les valeurs propres de A et il existe une
matrice P inversible tel que A = PJP−1 . Dans ce cas on a
A.

 
etJλ1
etA = P 
 ...  −1
P .
 
e tJλ r
f.

Exemple
Pro

Soit le système

 x˙1 (t) = x1 (t)


(S) : x˙2 (t) = x2 (t) + x3 (t)

 x˙ (t) = 4x (t) + x (t)

3 2 3

de condition initiale x0 = (1, 1, 1)t . Ce système a la forme matricielle suivante :


(
ẋ (t) = Ax (t)
(S) :
x (0) = x0 = (1, 1, 1)t

44
avec x (t) = ( x1 (t), x2 (t), x3 (t))t , et
 
1 0 0
 
A=
 0 1 1 .

0 4 1
! !
1 0 1 1
A est une matrice diagonale par bloc tel que A = avec B = .

ou
0 B 4 1
Donc !
et 0
e At = .
0 e Bt

le polynôme caractéristique de B est


hin
PB (λ) = λ2 − 2λ − 3.
Ou
Les valeurs propres sont λ1 = −1 et λ2 = 3. Soient v1 et v2 les vecteurs propres
associer a λ1 et λ2 respectivement, donc
!
1
Av1 = λ1 v1 =⇒ v1 =
−2
A.

et !
1
Av2 = λ2 v2 =⇒ v2 = .
2
f.

Donc le polynôme de passage est


Pro

!
1 1
P=
−2 2
et son inverse est
!
1 2 −1
P −1 = .
4 2 1
Ainsi ! !
e−t 0 1 −t
2 (e + 2e3t ) 1 3t −t
4 (e − e )
etB = P P −1 = .
0 e3t −e−t + e3t 1 −t
2 (e + e3t )

45
 
et 0 0
e At 1 −t −t
 
1 3t
Donc = 
 0 2 (e + 2e3t ) 4 (e − e )
.

0 −e−t + e3t 1 −t
2 (e + e3t )

La solution est donnée par

x (t) = e At x0

ou
  
et 0 0 1
1 −t −t
  
1 3t
= 
 0 2 (e + 2e3t ) 4 (e − e )
 1 

hin
 
0 −e−t + e3t 1 −t
2 (e + e3t ) 1

 
et
Ou
1 −t
 
= 
 4e + 34 e3t .

−1 e−t + 3 e3t
2 2
Exercice.
Supposons que A ∈ Mn (R) et le poplynôme caractéristique n’est pas scindé.
A.

Dans ce cas, A possède k valeurs propres réelles λ1 , . . . , λk , et n − k valeurs propres


complexes λk+1 , . . . , λn , contant leur multiplicités algébriques, tel que λ j = a j +
ib j ; j = k + 1, . . . n.
Donc il existe une base {v1 , . . . , vk , vk+1 , uk+1 , . . . , vk+m , uk+m } de Rn avec n =
f.

2m + k et où
Pro

v j ; j = 1, . . . , k et w j = v j + iu j ; j = k + 1, . . . , n sont les vecteurs propres


généralisés de A tels que

P = [ v 1 , . . . , v k +1 , v k +1 , u k +1 , . . . v k + m , u k + m ]

est une matrice inversible et


 
Jλ1
P −1

AP =  ... 

 
Jλr

46
où Jλ j sont des blocs de Jordan donnés par
 
λj 1

 ... ... 

Jλ j = 
 
... 

 1 
λj

ou
pour les valeurs propres réelles λ j ; j = 1, . . . , r1 .

Et pour j = r1 + 1, . . . , r2

hin
 
Dj I2
... ...
 
 
Jλ j =   = D + N
 
...

 I2 

Ou
Dj

avec !
a j −b j
Dj =
bj aj
A.

et N est une matrice nilpotente d’ordre m. En utilisant les cas précédents, l’expo-
nentielle de Jλ j pour j = r1 + 1, . . . , r2 est donnée par

tα j
 
 Rj Rjt · · · Rj
f.

αj! 
..
 
tJλ ... ...
.
 
e j = .
Pro

...
 
Rjt
 
 
Rj
avec !
cos(tb j ) sin(tb j )
R j = etDj = eta j .
− sin(tb j ) cos(tb j )

47
Chapitre 3

ou
Stabilité et comportement asymptotique
des solutions

3.1 Equation différentielle linéaire hin


Ou
Soit (
x 0 (t) = Ax (t) ; A ∈ Mn (R)
(3.1.1)
x (0) = x0
L’ensemble des valeurs propres de A sera noté σ( A).
A.

Si A est diagonale, alors A peut s’écrire sous la forme :

P diag(λ1 , . . . , λn ) P−1

Re(λ1 ) ≥ · · · ≥ Re(λn )

où λi sont les valeurs propres comptées selon leur ordre de multiplicité algé-
f.

brique.
Pro

Soit vi le vecteur propre associé à λi .


B = {v1 , . . . , vn } forme une base de Rn .
Exercice :
Si vi est un vecteur propre de A associé à λi . alors vi est vecteur propre de e A
associé à eλi .  
C1
Soit x0 = C1 v1 + · · · + Cn vn . P−1 x0 = 
 .. 
 . 

Cn

48
On a la solution de (3.1.1) est :

x (t) = Pdiag(eλ1 t , . . . , eλn t ) P−1 x0

= C1 eλ1 t v1 + · · · + Cn eλn t vn
On a
k x (t)k = k Pdiag(eλ1 t , . . . , eλn t ) P−1 x0 k

ou
≤ k Pkk P−1 kkdiag(eλ1 t , . . . , eλn t )kk x k
On a
kdiag(eλ1 t , . . . , eλn t )k1 = k P−1 ke Re(λ1 )t ( Ex )
Si ∀i = 1, . . . , n on a Re(λi ) < 0, alors
t→+∞ hin
∀ x0 ∈ Rn , k x (t, x0 )k −−−−→ 0 exponentiellement.
Ou
Dans ce cas, le système (3.1.1) est dit stable.

Définition 3.1.1 Une matrice A est dite stable si et seulement si :

∀λ ∈ σp ( A), Re(λ) < 0


A.

Exercice 5 Supposons que A est une matrice stable, Montrer qu’il existe M ≥ 1 et
α > 0 tels que
ketA k ≤ Me−αt ; ∀t ≥ 0.
f.

Remarque 3.1.1 Si 0 = Re(λ1 ) > Re(λ2 ≥ · · · ≥ Re(λn ), alors


Pro

C0 v0 eλ0 t + · · · + Cn vn eλn t = C0 v0 .

lim x (t, x0 ) = lim
t→+∞ t→+∞

Exemples 3.1.1 Soit l’équation :



0
 x1 ( t ) = x2 + − x3 ; x1 (0) = α


x20 (t) = x1 + x3 ; x2 (0) = β (3.1.2)

 x 0 (t) = − x + x ; x (0) = γ.

3 1 2 3

49
   
α 0 1 −1
   
On note x0 =   β  et A =  1 0 1

.

γ −1 1 0
Donc (3.1.2) à la forme matricielle suivante :
(
x 0 (t) = Ax (t)
x (0) = x0 .

ou
1/ Calcule des valeurs propres :
det( A − λI3 ) = −λ3 + 3λ − 2 = (−λ + 1)2 (−λ − 2).
Donc les valeurs propres sont : λ1 = −2, λ2 = 1; λ3 = 1.

hin
2/ Calcule des vecteurs propres :
  


 1 

 
E−2 = Ker ( A + 2I3 ) = Vect v1 =  −1   .

Ou

1

 

    


 1 0 

   
E1 = Ker ( A − I3 ) = vect v2 = 
 1  , v3 =  −1   .
  

A.

0 1

 

Calcule de la solution :  
4
 
Pour x0 = 3v1 + v2 + 2v3 = 
 0 , on a

f.

5
Pro

x (t, x0 ) = e−tA x0 = etA 3v1 + v2 + 2v3




= 3etA v1 + etA v2 + 2etA v3


= 3e−2t v1 + et (v2 + 2v3 )
Pour t >> 1 assez grand,
x (t, x0 ) ' et (v2 + 2v3 )

et
lim k x (t, x0 )k = +∞.
t→+∞

50
Si on s’interesse à la proportion de chaque compartiment xi , on calcule la limite
 
1
−t −3t
 
e x (t, x0 ) = lim 3e v1 + (v2 + 2v3 ) = v2 + 2v3 =  3

t→+∞
2

C’est le phénomène de croissance exponentielle asynchronique.


Discussion : Si x (t) présente la distribution d’une quantité (Population totale selon les

ou
susceptibles infectés et vaccinés ...).
La quantité totale est : xtot = x1 (t) + x2 (t) + x3 (t). Pour t >> 1, la population est
asymptotiquement constamment distribuée selon le scénario suivant :

hin

1 1
 1+3+2 = 6 = 16.66% de la quantité est en classe 1


3 1
 1+3+2 = 2 = 50% de la quantité est en classe 2
 2 = 1 = 33.33% de la quantité est en classe 3

6 3
Ou
Définition 3.1.2 Si A admet une valeur propre à partie réelle strictement positive, alors
(3.1.1) est dit instable (ou simplement A est instable).

3.2 Stabilité de Liapunov


A.

Soit le problème de Cauchy suivant :


(
x 0 (t) = f ( x (t)) ; t ∈ R
(3.2.1)
f.

x (0) = x0 .
Pro

f : Ω ⊂ Rn → Rn de classe C1
On a (3.2.1) admet une solution maximale unique x (t, x0 ) sur ]α, β[ alors :
- Soit β < ∞ et lim| x (t, x0 )| = +∞
- Ou bien β = +∞, et dans ce cas, on va s’intéresser à l’étude de comportement
de la solution.
L’étude du comportement asymptotique des solutions s’intitule dans le cas où
β = +∞.
Définition 3.2.1 x̄ ∈ Ω est dit point d’équilibre de (3.2.1), si f ( x̄ ) = 0.
Dans ce cas, pour x0 = x̄, x (t, x̄ ) = x̄ est une solution stationnaire de (3.2.1) définie sur R.

51
Définition 3.2.2 1- Un point d’équilibre est dit stable si ∀v ouvert qui contient x̄ ; il existe
O ouvert avec x̄ ∈ O tel que pour tout x0 ∈ O, on a

x (t, x0 ) ∈ v , ∀t ≥ 0.

2- x̄ est dit asymptotiquement stable si ∃δ > 0 tel que ∀ x0 ∈ B( x̄, δ) on a lim x (t, x0 ) = x̄
  t→+∞

3- L’ensemble x0 ∈ Ω/ lim x (t, x0 ) = x̄ est appelé le basin d’attraction de x̄.

ou
t→+∞

Exercice 1 :
Soit le système (

hin
x 0 (t) = −y
(∗)
y0 = x
1/ Résoudre explicitement (∗)
2/ Etudier la stabilité du point d’équilibre (0, 0).
Ou
Solution : 2/ Pour déterminer les points d’équilibres de (∗), on résout l’équation
(
−y = 0
⇔ x = 0 et y = 0
x=0
(∗) admet un seul point d’équilibre (0, 0) (point d’équilibre trivial).
A.

Etude de stabilité de (0, 0) :


(0, 0) est asymptotiquement stable ssi ∃δ > 0 tq si
x02 + y20 < δ; on a lim x2 (t) + y2 (t) = 0 autrement lim R(t) = 0 avec
t→+∞ t→+∞
f.

R(t) = 2 2
x ( t ) + y ( t ).
On a
Pro

R0 (t) = 2x (t) x 0 (t) + 2y(t)y0 (t) = −2x (t)y(t) + 2y(t) x (t) = 0 ∀t

Donc ∀( x0 , y0 ) ∈ R2 R(t) = R(0) = x02 + y20 = cte.


Donc, (0, 0) n’est pas asymptotiquement stable.
Pour la stabilité, soit O un ouvert qui contient (0, 0)

Donc, ∃δ > 0 tel que Bk k2 (0, 0), δ ⊂ O

Par suite ∀( x0 , y0 ) ∈ Bk.k2 (0, 0), δ on a :
q q
k x (t), y(t) k2 = x (t) + y(t) = x02 + y20 = k x0 , y0 k2 ≤ δ.
 
2 2

52
 
C-à-d x (t), y(t) ∈ Bk.k2 (0, 0), δ ⊂ O
C/C : (0, 0) est un point d’équilibre stable.
Exercice 1. Soit le système suivant :
(
x 0 (t) = −y(t)
y0 (t) = 2x (t).

Dans ce cas on prend R( x, y) = 2x2 + y2 . Donc R0 (t) = ( R( x (t), y(t)))0 = 0.

ou
R( x, y) définit une norme dans R2 , de même que dans
p
Puisque |( x, y)| =
l’exercice 1, on montre que le point d’équilibre n’est pas asymptotiquement stable
mais il est stable.

hin
Remarque. Les courbes dans R2 avec equation R( x, y) = cte sont nomées courbes
de niveau.
En d’autres termes, si une telle courbe de niveau existe, alors pour toute condi-
Ou
tion initiale qui lui appartient, la solution ne quitte pas cette courbe de niveau.

Exemples 3.2.1 Soit le système


(
x 0 (t) = −y − x ( x2 + y2 ) = f 1 ( x, y)
(∗∗)
y0 (t) = x − y( x2 + y2 ) = f 2 ( x, y)
A.

Soit f = ( f 1 , f 2 ). les points d’équilibres de (∗∗) est l’ensemble des solutionq de :


(
f 1 ( x, y) = 0
f.

f 2 ( x, y) = 0
Pro

On observe que (0, 0) est un point d’équilibre de (∗∗).


Pour R(t) = x2 (t) + y2 (t), on a ;

R0 (t) = 2x (t) x 0 (t) + 2y(t)y0 (t).


= −2xy − 2x2 ( x2 + y2 ) + 2xy − 2y2 ( x2 + y2 )
= −2( x 2 + y2 )2
= −2R2 (t).

Donc
dR
Z Z
= −2 dt.
R2
53
Autrement
−1 1
= −2t + c =⇒ R(t) = .
R 2t + c
Or pour t = 0, on a R(0) = x02 + y20 = R0 , et on trouve que c = R10 .
Par suite
R0 t→+∞
R(t) = −−−−→ 0.
2R0 t + 1
En particulier ; la solution maximale est bornée sur son intervalle maximale ]0, β[ . Donc

ou
β = +∞.

De plus, (0, 0) est un point d’équilibre asymptotiquement stable, en effet

hin
q
lim k( x (t), y(t))k2 = lim R(t) = 0.
t→+∞ t→+∞

Avec un bassin d’attraction B = R2 .


Ou
Interprétation géométrique :
Soit V ( a, b) = a2 + b2
Donc R(t) = V ( x (t), y(t)) et R0 (t) =< ∇V ( x (t), y(t)), f ( x, y) >.
On a ∀( a, b) ∈ R2 , < ∇V ( a, b), f ( a, b) >= −2( a2 + b2 )2 < 0.
A.

Autrement,
d 
V ( x (t), y(t)) =< ∇V ( x (t), y(t)), ( x (t), y(t))
dt
=< (2x (t), 2y(t)), ( x 0 (t), y0 (t)) >
f.

2
= −2 V ( x (t), y(t)) < 0.
Pro

Ceci partout, sauf l’origine. Donc, le champ de vecteur f ( x, y) est dirigé dans la
direction dans laquelle V décroit. C-à-d vers l’intérieur des courbes de niveau.
Théorème 3.2.1 Soit x̄ un point d’équilibre pour (3.2.1).
Soient U un voisinage de x̄ et V : U → R une fonction de classe C1 tels que :
1 − V ( x̄ ) = 0 et V ( x ) > 0; ∀ x ∈ U r { x̄ } .
·
2 − V ( x ) =< ∇V ( x ), f ( x ) >≤ 0 ∀ x ∈ U,
alors, x̄ est stable.
·
Si de plus ∀ x ∈ U r { x̄ } on a V ( x ) < 0, alors x̄ est asymptotiquement stable.

54
Remarque 3.2.1 La condition 1/ peut être remplacée par :
1’/ x̄ est un minimum local V.
En effet, il suffit de prendre Ṽ au lieu de V où

Ṽ ( x ) = V ( x ) − V ( x̄ ) > 0 si x 6= x̄ avec Ṽ ( x̄ ) = 0.

Preuve du théorème : Soient O un ouvert avec x̄ ∈ O ⊂ U et ε > 0 tel que

ou
B̄( x̄, ε) ⊂ O.

On prend

hin
m = min {V ( x ) ; k x k = ε} > 0. (3.2.2)

Par continuité de V, on peut trouver 0 < δ < ε tel que

V ( x ) < m ; ∀k x k < δ.
Ou
On montre maintenant, que pour tout x0 ∈ B( x̄, δ) on a

x (t, x0 ) ∈ O.

En effet, par l’absurde, supposons qu’il existe t2 > 0 tel que x (t2 ) ∈
/ O, en parti-
A.

culier x (t2 ) ∈
/ B̄( x̄, ε).
Par continuité de V, il doit exister t1 ∈]0, t2 [ tel que k x (t1 )k = ε. D’une part on a
V̇ ≤ 0, alors
f.

V ( x (t1 )) ≤ V ( x0 ) < m.

Or k x (t1 )k = ε, ce qui tombe en contradiction avec (3.2.2).


Pro

Donc, x (t) ∈ B( x̄, ε) ⊂ O. D’où la stabilité de x̄.


Supposons maintenant de plus que :
·
V ( x ) < 0. ∀ x ∈ U r { x̄ } . (3.2.3)

Sous les même notation ci-dessus, soit x0 ∈ B( x̄, δ) et montrons que

lim x (t, x0 ) = x̄.


t→+∞

Si non, par absurde, supposons qu’il existe x0 ∈ B( x̄, δ) tel que :

55
lim x (t, x0 ) s’elle existe n’est pas x̄.
t→+∞

Autrement limt→+∞ k x (t, x0 ) − x̄ k = l > 0.


Donc, il existe (tn ) % +∞; tel que lim k x (tn , x0 ) − x̄ k = l > 0.
n→+∞
Or { x (tn , x0 ); n ∈ N} ⊂ B̄( x̄, r ) est compact, il doit exister une sous suite

x (tnk , x0 ) −→ y 6= x̄.

ou
Par continuité de V on aura que

V ( x (tnk , x0 )) & V (y) > 0.

hin
Soient la trajectoire x (t, y) et T > 0. La continuité de la solution par rapport à la
condition initiale avec Principe de prolongement implique aue

x ( T, y) = x ( T, lim x (tnk , x0 )) = lim x ( T, x (tnk , x0 )) = lim x ( T + tnk , x0 ).


k→∞ k→∞ k→∞
Ou
Comme V ( x ( T + tnk , x0 )) est une suite croissante, on aura que

V ( x ( T + tnk , x0 )) ≥ V (y); ∀k

On fait tendre k −→ +∞ on obtient que :


A.

V ( x ( T, y)) ≥ V (y) = V ( X (0, y)).


Soit φ( T ) = V ( x ( T, y)), alors
f.

V ( x ( T, y)) − V ( x (0, y))


φ0 (0) =< ∇V (y), f (y) >= lim ≥ 0.
Pro

T →0+ T
Ce qui absurde. Donc, ∀ x0 ∈ B( x̄, δ), necessairement on a

lim x (t, x0 ) = x̄.


t→+∞

D’où x est un point d’équilibre asymptotiquement stable. 


Exercice
Soit le système : (
x 0 (t) = y
y0 (t) = − x3 − x2 y.

56
Etudier la stabilité de (0, 0) en utilisant la fonction de Lyapunov suivante :

x 4 y2
V ( x, y) = + .
4 2
Solution : On a V est de classe C1
V (0, 0) = 0 et V ( x, y) > 0. ∀( x, y) 6= (0, 0).

ou
!
f 1 ( x, y)
f ( x, y) =
f 2 ( x, y)

hin
V 0 =< ∇V ( x, y), f ( x, y) > = x3 . f 1 ( x, y) + y. f 2 ( x, y)
= x3 y + y(− x3 − x2 y) = x3 y − yx3 − x2 y2
= − x 2 y2 ≤ 0
Ou
Donc (0, 0) est stable.
Exercice. (Système fortement dissipatif)
Soit : (
x 0 (t) = f ( x (t))
x (0) = x0
A.

Supposons que f est fortement dissipative :

< x, f ( x ) > ≤ −µ| x |2 ; µ > 0, ∀ x ∈ Rn . (3.2.4)


f.

Si f (0) = 0 alors, 0 est un point d’équilibre asymptotiquement stable.


Solution : Posons
Pro

1
V ( x ) = | x |2 .
2
On a V (0) = 0 et V ( x ) > 0 ∀ x 6= 0. De plus, V est de classe C1 sur Rn , avec

DV ( x ).h = 2 < x, h >, pour tout x, h ∈ Rn

D’où
·
V ( x ) = DV ( x ) f ( x ) =< ∇V ( x ), f ( x ) >
= 2 < x, f ( x ) >
≤ −2µ| x |2 .

57
Ainsi, pour x 6= 0, on a

DV ( x ). f ( x ) ≤ −2µ| x |2 < 0.

D’après le théorème de stabilité de Liapunov, on déduit que, 0 est un point d’équi-


libre asymptotiquement stable.
De plus, si on pose ϕ(t) = V ( x (t)), alors ϕ satisfait

ou
ϕ0 (t) ≤ −4µϕ(t).

Or, pour x0 6= 0, on aura ϕ(t) > 0 pour tout t ∈ R et

hin
ϕ0 (t)
≤ −4µ
ϕ(t)
D’où,
Z ϕ(t) Z t

Ou
≤ −4µ ds, ∀t ≥ 0.
ϕ (0) ϕ 0
Ou bien
ϕ(t) ≤ ϕ(0)e−4µt , ∀t ≥ 0.

Autrement
A.

t→+∞
| x (t, x0 )| ≤ | x0 |e−2µt −−−−→ 0. (convergence exponentielle)

Plus précisement, on dit que 0 est exponentiellement asymptotiquement stable.


f.

Ici le bassin d’attraction est Rn .


Pro

Exercice 6 On peut affaiblir l’hypothèse (3.2.4) et la remplacer par :

∃α > 0, tel que < x, f ( x ) >≤ −µ| x |α , ∀ x.

3.3 Principe de linéarisation


Soit le système semi-linéaire suivant :

x 0 (t) = Ax (t) + g(t, x )


(3.3.1)
x (0) = x0 .

58
tel que


 A matrice n × n
g : R × Rn → Rn continue,



( H1 ) :

 localement lipschitzienne par rapport à la deuxième variable
g(t,x ) x →0


g(t, 0) = 0 ∀t ≥ 0 et −−→ 0 uniformément par rapport à t.


kxk

Exemples 3.3.1 Transformation linéaire.

ou
Soit l’équation
x 0 (t) = f ( x (t)); t ∈ R,

hin
où f est localement lipschitzienne sur Rn avec f ( x̄ ) = 0.
Supposons que f est de classe C1 au voisinage de x. Après dévelopement limité de f au
voisinage de x, il exixte une fonction R définie sur Rn , telle que

f ( x ) = J f ( x̄ )( x − x̄ ) + R( x − x̄ ) ∀ x ∈ v( x̄ )
Ou
où J f ( x̄ ) est la matrice jacobienne de f en x et
R( x − x̄ )
lim = 0.
x → x̄ k x − x̄ k
A.

On pose e(t) = x (t) − x̄, et on obtient que

e0 (t) = x 0 (t) = f ( x ) = J f ( x̄ )e(t) + r (e(t))


r (y)
f.

avec J f ( x̄ ) est une matrice et lim → 0.


y →0 k y k
Pro

Théorème 3.3.1 Sous l’hypothèse ( H1) si 0 est un point d’équilibre asymptotiquement


stable pour x 0 (t) = Ax (t). Alors 0 est un point d’équilibre (localement) asymptotiquement
stable pour (3.3.1).
Preuve. A stable, alors il existe M ≥ 1 ; α > 0 tq

ketA k ≤ Me−αt ; ∀t ≥ 0.

D’après la formule de la variation de la constante, on a :


Z t
At
x ( t ) = e x0 + e A(t−s) g(s, x (s))ds.
0

59
Comme g(t, x ) = o (k x k) alors pour 0 < e < α, il existe δ > 0 tq
e
k g(t, x )k ≤ k x k ∀t ∈ R, ∀ x ∈ B(0, δ).
M
Pour x0 ∈ B(0, δ
M ), On montre que

∀t ≥ 0, | x (t, x0 )| < δ.

ou
Par l’absurde, supposons qu’il existe t1 > 0 tel que

k x (t1 , x0 )k > δ.

hin
Posons
t0 = inf {t > 0; | x (t, x0 )| > δ} .

La continuité de x, implique que


Ou
k x (t0 , x0 )k = δ et que k x (t, x0 )k ≤ δ, ∀t < t0 .

Pour t ∈ [0, t0 ] on a :
Z t
At
| x (t, x0 )| ≤ ke x0 k + ke A(t−s) kk g(s, x (s))kds.
A.

0
Z t
−αt e
≤ Me k x0 k + Me−α(t−s) k x (s)kds
0 M
Parsuite,
f.

Z t
e | x (t, x0 )| ≤ Mk x0 k + e
αt
eαs k x (s, x0 )kds
Pro

0
Lemme de Gronwall, implique que

eαt | x (t)| ≤ M| x0 |eet ; ∀t ∈ [0, t0 ]

et
| x (t)| ≤ δe(e−α)t ; ∀t ∈ [0, t0 ]
En particulier, pour t = t0 , on aura que

| x (t0 )| ≤ δe(e−α)t0 < δ.

60
Ce qui tombe en contradiction avec | x (t0 )| = δ.
Par conséquent, ∀ x0 ∈ B(0, δ
M) on a

x (t, x0 ) ∈ B(0, δ) ∀t ∈ [0, β[ .

D’où, par le billet du principe du maximum, on aura anecessérement que x est


une solution sur [0, +∞[. De plus

ou
t →0
| x (t, x0 )| ≤ δe(e−α)t −−→ 0.

Ce qui démontre que 0 est un point d’équilibre localement asymptotiquement

hin
stable pour (3.3.1). 

Corollaire 3.3.2 Principe de linéarisation


Soit (
x 0 (t) = f ( x )
Ou
(3.3.2)
x (0) = x0 ,
où f : Rn → Rn est une application de classe C1 . Supposons que f ( x̄ ) = 0, et soit
A = J f ( x̄ ). Alors :
Si A est stable (∀λ ∈ σp ( A), Re(λ) < 0), alors x̄ est localement asymptotiquement
A.

stable pour (3.3.2).

3.4 Principe d’invariance de la Salle (1965)


f.

3.4.1 l’ensemble limite des trajectoires et ses propriétés


Pro

Soit l’équation : (
x 0 (t) = f ( x (t)) t ∈ R
(3.4.1)
x (0) = x0 ∈ Ω
f supposée localement lipschitzienne sur Ω ⊂ Rn .

61
Définition 3.4.1 1/ On dit que M ⊂ Ω est positivement invariant par (3.4.1) si, ∀ x0 ∈ M
on a
∀t ≥ 0, x (t, x0 ) ∈ M
2/ On dit que M ⊂ Ω est négativement invariant par (3.4.1) si ∀ x0 ∈ M on a

∀t ≤ 0; x (t, x0 ) ∈ M

ou
3/ M ⊂ Ω est dit invariant si :

∀ x0 ∈ M, on a x (t) ∈ M, ∀t ∈ R

hin
Définition 3.4.2 Soit x0 ∈ Ω; et x (t, x0 ) la solution de (3.4.1)
- L’orbite positive γ+ ( x0 ) est le connexe γ+ ( x0 ) = { x (t, x0 ); t ≥ 0}
- L’orbite négative γ− ( x0 ) est γ− ( x0 ) = { x (t, x0 ); t ≤ 0}
- L’orbite : γ( x0 ) = γ+ ∪ γ− .
Ou
Définition 3.4.3 Soit x0 ∈ Ω, l’ensemble ω_limite ω ( x0 ) est donné par
n→+∞
n o
ω ( x0 ) = z ∈ Ω/∃tn → +∞; x (tn , x0 ) −−−−→ z
A.

-L’ensemble α_limite est :


n→+∞
n o
α( x0 ) = z ∈ Ω/∃tn → −∞; x (tn , x0 ) −−−−→ z
f.

Remarque 3.4.1 Si x̄ ∈ Ω est un point d’équilibre asymptotiquement stable,


alors ∃e > 0 tq ∀ x0 ∈ B( x̄, e) on a
Pro

ω ( x0 ) = { x̄ }

L’objectif de ce qui suit est d’étudier la propriété réciproque de la remarque 3.4.1.


Autrement, à partir des propriétés de ω ( x0 ), que peut on dire sur le comporte-
ment asymptotique des solutions ?

Propriétés 3.4.1 Soit x0 ∈ Ω tq γ+ ( x0 ) est borné.


Alors, ω ( x0 ) est non vide, compact, connexe invariant par (3.4.1)

62
On peut exprimer cette proposition comme suite :
1-ω ( x ) est un ensemble fermé non vide.
2- Si y ∈ ω ( x0 ) ⇔ ∀t on a y ∈ ω ( x (t, x0 ))
3- Si y ∈ ω ( x0 ) =⇒ ∀t on a x (t, y) ∈ ω ( x0 ). (invariance)
4-Si y ∈ ω ( x0 ) =⇒ ω (y) ⊂ ω ( x0 ).
5- ω ( x0 ) est connexe.
Preuve. Soit tn % +∞, on a { x (tn , x0 ); n ∈ N} est borné dans Rn donc il est re-

ou

lativement compact. Par suite, il existe une sous-suite x (tnk ) k∈N de ( x (tn ))n∈N
qui converge vers un point y. Donc y ∈ ω ( x0 ). Ce qui implique que

hin
ω ( x0 ) 6= ∅.

Soit x0 ∈ Ω, alors ω ( x0 ) ⊂ γ+ ( x0 ) borné. Donc ω ( x0 ) est compact.


Maintenant, on montre que ω ( x0 ) est fermé. On a
\
Ou
ω ( x0 ) = γ + ( P ). (3.4.2)
P∈γ+ ( x 0)

En effet, soient P ∈ γ+ ( x0 ) et y ∈ ω ( x0 ), donc ∃tn % +∞ tq


n→+∞
x (tn , x0 ) −−−−→ y.
A.

Or P ∈ γ+ ( x0 ), donc y = x (t̃, x0 ) pour un t̃ ∈ R+ .


Donc, ∃n0 ∈ N tq tn0 > t̃.
Pour n ∈ N on pose sn = tn0 +n − t̃, doù
n→+∞
f.

x (sn , P) = x (tn0 +n − t̃, x (t̃, x0 )) = x (tn0 +n , x0 ) −−−−→ y

Parsuite,
Pro

y ∈ γ + ( P ).
Et
\
ω ( x0 ) ⊂ γ+ ( P)
P ∈ γ + ( x0 )
\
Inversement, pour y ∈ γ+ ( P), autrement :
P ∈ γ + ( x0 )
Pour tout t ≥ 0 , pour tout n ∈ N∗ , on a
 
+ 1
6= ∅.
\
γ ( x (t, x0 )) B y, (3.4.3)
n

63
Pour n = 0, on prend t0 = 0.
Pour l’étape suivante n = 1, on a
 
+ 1
6= ∅.
\
γ ( x (t0 + 1, x0 )) B y,
1
Donc, il existe au moins un r1 > 0 tel que
1

ou
x (r1 , x (t0 + 1, x0 )) ∈ B(y, ).
1
Autrement
1
x (r1 + t0 + 1, x0 ) = x (r1 , x (t0 + 1, x0 )) ∈ B(y, ).

hin
1
Et, on pose t1 = t0 + 1 + r1 .
Par récurence on construit l’élément de la suite tn+1 comme suit :
D’après (3.4.3), on a
Ou
 
+ 1
6= ∅
\
γ ( x (tn + 1, x0 )) B y,
n+1
Donc il existe au moins un rn+1 > 0 tel que
1
A.

x (rn+1 + tn + 1, x0 ) = x (rn+1 , x (tn + 1, x0 )) ∈ B(y, ).


n+1
Et tn+1 sera donné par
t n +1 = t n + 1 + r n +1 .
f.

Donc (tn ) est strictement croissante et tend vers +∞. De plus,


Pro

1
∀n ∈ N∗ , on a x (tn , x0 ) ∈ B(y, ).
n
D’où lim x (tn , x0 ) = y, et
y ∈ ω ( x0 ).

Par conséquent
\
ω0 ( x 0 ) = γ + ( P ).
P ∈ γ + ( x0 )

Ainsi ω0 ( x0 ) est un fermé borné (compact) non vide de Rn .


2- 3- et 4- sont à titre d’éxercice.

64
5- Montrons que ω ( x0 ) est connexe.
Par l’absurde, si non, il doit exister U1 et U2 deux ouverts disjoints tq

U1 ∩ ω ( x0 ) 6= ∅ et U2 ∩ ω ( x0 ) 6= ∅ avec ω ( x0 ) ⊂ U1 ∪ U2 .

Soient z1 ∈ U1 ∩ ω ( x0 ) et z2 ∈ U2 ∩ ω ( x0 ).
Or

ou
ω0 ( x0 ) = ∩t∈R γ+ ( x (t, x0 )).

Donc ∃ N ∈ N tq
γ+ ( x ( N, x0 )) ⊂ U1 ∪ U2 .

hin
Si non,
∀n ∈ N, γ+ ( x (n, x0 )) * U1 ∪ U2 . (∗)
Donc, il existe une suite (δn ) % ∞ telle que
Ou
x (δn , x0 ) ∈
/ U1 ∪ U2 , ∀n ∈ N.

Par compacité de { x (δn , x0 )¯; n ∈ N}; il existe une sous suite x (δkn , x0 ) telle que

lim x (δkn , x0 ) = ξ ∈ ω ( x0 ).
A.

/ U1 ∪ U2 ( (U1 ∪ U2 )C est un fermé). Ce qui tombe en


D’autre part on a, ξ ∈
contradiction avec ω ( x0 ) ⊂ U1 ∪ U2 .
Et par suite
f.

∃ N ∈ N, tq γ+ ( x ( N, x0 )) ⊂ U1 ∪ U2 .
Pro

Soit
C = { x (t, x0 ); t ≥ N } ⊂ U1 ∪ U2 .
Il est claire que C est connexe. D’autre part,
(
z1 ∈ ω ( x0 ) U1 =⇒ z1 ∈ γ+ ( x (n, x0 )) ∩ U1
T

z2 ∈ ω ( x0 ) ∩ U2 =⇒ z2 ∈ γ+ ( x (n, x0 )) ∩ U2 .

Donc
γ+ ( x (n, x0 )) ∩ U1 6= ∅ et γ+ ( x (n, x0 )) ∩ U2 6= ∅.

65
Donc C ⊂ U1 ∪ U2 ; U1 ∩ U2 = ∅; C ∩ U1 6= ∅ et C ∩ U2 6= ∅.
Absurde car C est connexe.
C/C : ω ( x0 ) est connexe.
3- Soit y ∈ ω ( x0 ). On montre que ∀t ∈ R :

x (t, y) ∈ ω ( x0 ).

Pour y ∈ ω ( x0 ), donc il existe tn % +∞ tq : lim x (tn , x0 ) = y.


n→+∞

ou
Pour T ∈ R, par la continuté par rapport à la condition initiale, on a :
x ( T, y) = x ( T, lim x (tn , x0 ))
n→+∞

hin
= lim x ( T, x (tn , x0 ))
n→+∞
= lim x (tn + T, x0 ).
n→+∞

Donc x ( T, y) ∈ ω ( x0 ). Par conséquent, ω ( x0 ) est invariant par l’équation


Ou
différentielle.
4- Soit y ∈ ω ( x0 ), (3) implique que, γ+ (y) ⊂ ω ( x0 ).
Comme ω ( x0 ) est fermé, donc

ω ( y ) ⊂ γ + ( y ) ⊂ ω ( x0 ). 
A.


Remarque 3.4.2 Si ω ( x0 ) ⊂ x1 , . . . , x p Alors ∃i0 ∈ {1, . . . , p} tq

ω ( x 0 ) = { x i0 } .
f.

Proposition 3.4.1 Si ω ( x0 ) = {l } ; alors lim x (t, x0 ) = l.


t→+∞
Pro

Preuve. Par absurde, supposons que lim x (t, x0 ) s’elle existe ne peut pas
t→+∞
être l.
Autrement
lim | x (t, x0 ) − l | = α > 0.
t→+∞

Parsuite, il existe une suite tn % +∞ tq lim | x (tn , x0 ) − l | = α.


n→+∞ 
Or ( x (tn , x0 ))n est une suite borné, donc il existe une sous-suite x (tnk , x0 ) k
telle que
lim x (tnk , x0 ) = l¯ ∈ E.
k→+∞

66
Ainsi l¯ ∈ ω ( x0 ) avec

|l¯ − l | = lim | x (tnk , x0 ) − l | = α > 0.


k→+∞

Ce qui contredit ω ( x0 ) = {l } . 

3.4.2 Principe d’invariance de la Salle

ou
Théorème 3.4.1 (Principe d’invariance de la Salle)
Soient K un sous-ensemble compact positivement invariant et O un ouvert tel que
K ⊂ O. Supposons qu’on a une fonctionnelle v : O → R de classe C1 telle que

hin
V 0 ( x ) =< ∇v( x ), f ( x ) >≤ 0 ; ∀ x ∈ K.

Soit E l’ensemble des parties de K tq : V 0 ( x ) = 0


Si M est le plus grand sous-ensemble positivement invariant de E. Alors
Ou
∀ a ∈ K; ω ( a) ⊂ M.

Preuve. Soit x (t, x0 ) une solution commençant en x0 ∈ K. Donc

x (t) ∈ K, ∀t ≥ 0.
A.

On a v est continue sur K compact, donc v atteint sa borne inférieur sur


K.
Soit ϕ x (t) = v( x (t)). Donc ϕ x est décroissante minorée sur [0, +∞[.
f.

Ainsi
lim ϕ x (t) = inf ϕ x (t) = c ∈ R.
Pro

t→+∞ t∈[0,+∞)

De plus ∀y ∈ ω ( x0 ) ⊂ K, on a :

v(y) = c.

Or ω ( x0 ) est positivement invariant par (3.4.1), Donc

ϕy (t) = v( x (t, y)) = c , ∀t ≥ 0, ∀y ∈ ω ( x0 ).

D’où
ϕ0y (t) =< ∇v( x (t, y)), f ( x (t, y)) >= 0 ∀t ≥ 0.

67
Pour t = 0, pour tout y ∈ ω ( x0 ), on aura que

V 0 (y) =< ∇v(y), f (y) >= 0.

Ainsi ω ( x0 ) ⊂ E et ω ( x0 ) est positivement invariant. Par conséquent

ω ( x0 ) ⊂ M. 
Remarque 3.4.3 Ce théorème généralise le théorème de stabilité de Liapunov.

ou
Exemples 3.4.1 Soit
x 0 (t) = y

( E) :
y0 = − x3 − x2 y
Soit la fonction de Liapunov

v( x, y) =
x 4 y2
4
+
2
hin
Ou
associée au point d’équilibre (0, 0).
En effet, v(0, 0) = 0; v( x, y) > 0 ∀( x, y) 6= (0, 0) et

v0 ( x, y) = − x2 y2 ≤ 0 ∀( x, y) ∈ R2 .
A.

Donc (0, 0) est un point


n d’équilibre stable de ( E).o
4 y 2
Soient R > 0 et K = ( x, y) ∈ R2 / x4 + 2 ≤ R .
Pour ( x0 , y0 ) ∈ K, on a :
f.

ϕ0 (t) = − x2 (t)y2 (t) ≤ 0.


Pro

Donc ϕ est & et


y2 ( t ) x 2 ( t ) y20 x02
ϕ(t) = + ≤ ϕ (0) = + ≤ R.
2 4 2 4
D’où pour tout t ≥ 0, on a ( x (t), y(t)) ∈ K. Alors, K est compact positivement
invariant par ( E). Soit

E = ( x, y) ∈ K; tq v0 ( x, y) = − x2 y2 = 0


E = {0} × R ∪ R × {0} ∩ K.


68
Soit M le plus grand sous-ensemble positivement invariant de E ( M ⊂ E).
En ( x0 , 0) 6= (0, 0) dans E, on a y0 (0) = − x3 (0) 6= 0
Alors ∃t0 tq ∀t ∈ ]0, t0 [ y(t) 6= 0(∗) et

( x (t), y(t)) ∈
/ E, ∀t ∈ ]0, t0 [ .

De même pour la condition initiale (0, y0 ) 6= (0, 0) dans K on a x 0 (0) = y(0) 6=


0

ou
Donc il existe t0 tel que ∀t ∈ ]0, t0 [, on a

x (t) 6= 0 et ( x (t), y(t)) ∈


/ E, ∀t ∈ ]0, t0 [ .(∗∗)

hin
(∗) et (∗∗) implique que M ⊂ {(0, 0)}. Donc
M = {(0, 0)} .

D’où,
Ou
∀( x0 , y0 ) ∈ K, ω (( x0 , y0 )) ⊂ {(0, 0)} .
On sait que ω (( x0 , y0 )) est non vide, donc

ω (( x0 , y0 )) = {(0, 0)}
A.

Par conséquent, pour tout R > 0, et ( x0 , y0 ) ∈ K, on a ω (( x0 , y0 )) = {(0, 0)}.


Autrement, pour tout ( x0 , x0 ) ∈ R2 , on a

lim ( x (t), y(t)) = (0, 0).


f.

t→+∞

Finalement, (0, 0) est un point d’équilibre globalement asymptotiquement stable.


Pro

69

Vous aimerez peut-être aussi