0% ont trouvé ce document utile (0 vote)
25 vues70 pages

Equations Diff

Ce document est un cours sur les équations différentielles destiné aux étudiants de L3, rédigé par Thomas Delzant. Il couvre des sujets tels que les équations linéaires, les champs de vecteurs autonomes et les méthodes de résolution, avec des exemples pratiques et des exercices. La structure du document inclut une introduction, des sections théoriques et des exercices pour renforcer l'apprentissage.

Transféré par

quahargneni223
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
25 vues70 pages

Equations Diff

Ce document est un cours sur les équations différentielles destiné aux étudiants de L3, rédigé par Thomas Delzant. Il couvre des sujets tels que les équations linéaires, les champs de vecteurs autonomes et les méthodes de résolution, avec des exemples pratiques et des exercices. La structure du document inclut une introduction, des sections théoriques et des exercices pour renforcer l'apprentissage.

Transféré par

quahargneni223
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Equations différentielles.

Cours de L3.
Thomas DELZANT
Email: delzant@[Link]
Table des matières

Prologue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Bibliographie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1. Qu’est ce qu’une équation différentielle ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2. Le problème de Cauchy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1. Exemple. Un modèle d’épidémie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3. Quelques grands principes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1. Un théorème d’existence et d’unicité (Cauchy-Lipschitz). . . . . . . . . . . . . . . . . . . . . . 11
1.3.2. Equation autonome en dimension 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.3. Mise sous forme intégrale. Continuité par rapport à la donnée initiale. . . . . . . . . . . . . 13
1.3.4. Réduction de l’ordre d’une équation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4. Exercice du chapitre 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2. Equations linéaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1. Généralités. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
dx
2.1.1. Le système linéaire d’équations dt = A(t)x + B(t) . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.2. L’équation différentielle scalaire d’ordre n en une variable. . . . . . . . . . . . . . . . . . . . 17
2.2. La dimension 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
dx
2.2.1. L’équation dt = ax + b(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
dx
2.2.2. L’équation dt
= a(t) x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
dx
2.2.3. L’équation dt
= a(t) x + b(t). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3. L’équation homogène à coefficients constants. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.1. Position du problème et équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.2. Matrices diagonales, changement de base. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.3. Exponentielle d’une matrice. EDO linéaire à coefficients constants. . . . . . . . . . . . . . . 20
2.3.4. Réduction d’un endomorphisme sur C, décomposition de Dunford et calcul de exp tA. . 22
2.3.5. Cas de la dimension 2 à coefficients réels : portraits de de phase. . . . . . . . . . . . . . . . . 23
Cas 1. Deux v.p. imaginaires conjuguées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Cas 2. Deux valeurs propres réelles !1 ! !2, et a est diagonalisable. on a encore 3 cas prin-
cipaux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Cas 3. Deux valeurs propres réelles confondues !1 = !2 = !, et A n’est pas diagonalisable.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.6. Equation linéaire d’ordre n à coefficients constants. . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4. Equation linéaire avec second membre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4.1. Système linéaire à coefficients constants et second membre variable. . . . . . . . . . . . . . . 26
2.4.2. Equation scalaire d’ordre n à coefficients constants et second membre . . . . . . . . . . . . . 26
2.4.3. Exemple : l’équation x !! + ax ! + bx = c(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4.4. Cas particulier ou le second membre est un quasi-polynôme de la forme q(t)ert . . . . . . . 27
2.4.5. Le cas particulier du degré 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.6. Battements et résonance : l’oscillateur harmonique forcé. . . . . . . . . . . . . . . . . . . . . . 28
2.5. Coefficients variables : matrice fondamentale, et wronskien. . . . . . . . . . . . . . . . . . . . . . . 32
2.5.1. Equation sans second membre : la matrice fondamentale. . . . . . . . . . . . . . . . . . . . . . 32
2.5.2. Equation avec second membre : variation de la constante. . . . . . . . . . . . . . . . . . . . . 33
[Link]. L’équation x !! + a(t)x ! + b(t)x = c(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.5.3. Wronskien et théorème de Liouville. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.6. Méthodes de résolution des équations linéaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.6.1. Equation scalaire d’ordre n dont on connait une solution : réduction de l’ordre . . . . . . . 34
2.6.2. * Séries entières : méthode de la série majorante. . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7. Exercices du chapitre 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.7.1. Généralités 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.7.2. Dimension 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.7.3. Equation homogène à coefficients constants. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.7.4. Equation à coefficients constants avec second membre. . . . . . . . . . . . . . . . . . . . . . . 38

5
6 Table des matières

2.7.5. Coefficients variables. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39


2.7.6. Méthodes de résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3. Champs de vecteurs autonomes, équation y ! = f (x, y). . . . . . . . . . . . . . . . . 43
3.1. Flot d’un champ de vecteur, orbites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2. Portrait de phase. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.1. Portrait de phase. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.2. Dérivée d’une fonction, intégrale première. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3. écriture différentielle, séparation des variables, intégrale première. . . . . . . . . . . . . . . . . . . 45
3.3.1. Courbe intégrale, trajectoire, orbite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.2. Ecriture différentielle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.3. Séparation des variables. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4. Changement de variables. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.1. Changement de variables dans l’équation " = 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.2. Coordonnées polaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.3. Equations homogènes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4.4. Redressement des champs de vecteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.5. Etude qualitative d’un champ de vecteur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.5.1. Sortie de tout compact. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.5.2. Points d’équilibre : partie linéaire et stabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.6. Système à un degré de liberté : espace des phases et applications. . . . . . . . . . . . . . . . . . . . 50
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.7. Exercices du chapitre 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.7.1. Orbite et flot. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7.2. Portrait de phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7.3. Courbes intégrales, séparation des variables. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7.4. Changement de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7.5. Points d’équilibre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.7.6. Système à un degré de liberté. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4. Aspects qualitatifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.1. Lemme de Grönwall. Solutions approchées. Schéma d’Euler. . . . . . . . . . . . . . . . . . . . . . . 61
4.1.1. Lemme de Grönwall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.1.2. Solutions approchées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.1.3. Schéma d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2. Convergence uniforme, théorème de Cauchy-Lipschitz. . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.2.1. Convergence uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.2.2. Théorème de Cauchy-Lipschitz. Première méthode. . . . . . . . . . . . . . . . . . . . . . . . . 64
4.2.3. Méthode de Picard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.3. Régularité des solutions. Linéarisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.3.1. Dépendance des conditions initiales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.3.2. Variation par rapport à un paramètre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.4. Exercices du chapitre 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.4.1. Lemme de Grönwall. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.4.2. Euler et Picard. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.4.3. Convergence uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.4.4. Dépendance par rapport à la condition initiale. . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
Annexe A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
Schéma d’Euler pour le modèle SIR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Portait de phase d’un champ de vecteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Prologue

Il s’agit d’un premier cours sur les équations différentielles, destinés aux étudiants de L3. Il existe une
bibliographie très importante sur ce sujet, sur laquelle nous nous sommes appuyés pour faire le cours, en
particulier les livres de Coddington, Arnold et Reinhard qui sont écrits dans un esprit très différent, mais
qui sont très complémentaires. Les exercices sont tirés du livre de Reinhard, des livres de Démidovitch
et Filippov, et des exemples venant de la physique sont pris dans les livres de Feynman, Landau-Lifshitz.
Le volume limité de ce cours (20 heures de cours) ne permet pas d’aller très loin. En particulier nous ne
traitons pas des méthodes numériques, du problème de la stabilité structurelle des solutions, des solutions
périodiques, de la théorie de Poincaré Bendixson, de l’équation d’Euler-Lagrange, ni de plein d’autres
sujets accessibles à des étudiants de L3. Les simulations numériques ont été faites avec Octave (scripts en
appendice) qui est la version gratuite de Mathlab. Le lecteur n’aura pas de mal à en faire avec Python.

Bibliographie.

V.I. Arnold. Equations différentielles ordinaires. Mir Moscou 1974


E.A. Coddington. Ordinary differential equations. Dover
H. Reinhard. Equations différentielles. Gauthier-Villars 1982

B. Démidovich. Recueil d’exercices et de problèmes d’analyse mathématique. Mir Moscou 1977, Ellipses
1994
A. Filippov. Recueil de problèmes d’équations différentielles. Mir Moscou 1977

Pour aller plus loin.


E.A Coddington, N. Levison. Theory of ordinary differential equations. McGraw-Hill 1984
W. Walter. Ordinary Differential Equations; GTM. Springer 1998.

7
Chapitre 1
Introduction

There is only one precise way of presenting the laws, and that is by means of differential equations.
They have the advantage of being fundamental and, so far as we know, precise. If you have learned the
differential equations you can always go back to them. There is nothing to unlearn.
R.P. Feynman1

1.1. Qu’est ce qu’une équation différentielle ?


! # $
dx " dx d 2 x
C’est une équation de la forme f t, x, d t = 0, ou peut être f t, x, dt , dt2 = 0,

Où f est une fonction définie sur un ouvert Ω de R ! Rn ! R n, ou peut être R ! Rn ! R n ! Rn, ou


bien R ! Cn ! C n .

On cherche une fonction x(t) à valeurs dans Rn ou Cn, dérivable ou deux fois dérivable, telle que à
chaque instant, on ait
! dx "
f t, x(t), dt (t) = 0

Définition 1.1.1. Une solution de l’équation différentielle est une fonction! x dérivable" définie sur un
dx
intervalle
! ouvert I de R et à valeur dans R n telle que pour tout t de I, t, x(t), dt est dans Ω et
dx "
f t, x, dt = 0

Remarque 1.1.1. On dit aussi « équation différentielle ordinaire, en abrégé EDO, par comparaison avec
des équations faisant intervenir des dérivées partielles, comme l’équation de la chaleur, ou l’équation des
ondes, par exemple.

Définition 1.1.2. Une courbe intégrale est une courbe paramétrée par une solution, mais dont on oublie
le paramétrage.

zn
Exemple 1.1.1. On rappelle que l’application exponentielle C → C est définie ez = Σ∞
0 n!
Elle satisfait ea+b = ea ! eb.
Si t est réel eit = cos(t) + i sin(t)
e a+ib=ea ! (cos(b) + i sin(b))
ez = 1 + z + o(z) (quand z tend vers 0).
dz
Elle est la clef pour étudier les équations différentielles en général et l’équation dt
= a.z en particulier.
dz
On cherche ici les fonctions x: I → C telles que dt
= a.z

Théorème 1.1.1. La fonction z(t) = z0 ea (t−t0) est l’unique une solution de l’équation différentielle telle
que z(t0) = z0

Démonstration. z(t + h) = z0 ea (t −t0)+ah = z(t) eah = z(t)(1 + a h + o(h)) donc z est dérivable en tout
point et z !(t) = a.z(t)
Si z(t) est une autre solution, z(t) ! e−a( t−t0) satisfait z ! = 0 donc z est de la forme Cea(t−tà) et C = z0
en évaluant en t0 "

1. Feynman R.-P., Leyton R.-B., Sand M. Lectures on Physics, 1967. Pour les paresseux il y a une excellente traduction
en français publiée chez Dunod.

9
10 Introduction

On voit aussi que si Re(a) > 0 et t → +∞ z tend vers ∞ et par contre si Re(a) < 0 z(t) tend vers 0
quand t tend vers +∞.

Un cas intéressant est la cas ou a = i" est imaginaire pur. La solution est x0ei!(t−t0), qui est périodique
2"
de période ! .

En général, les courbes intégrales sont des spirales logarithmiques qui tournent autour de l’origine.

Il se trouve qu’on a pu résoudre explicitement cette équation, mais très souvent ça n’est pas le cas.
Néanmoins, nous allons essayer d’étudier les problèmes disons fondamentaux.

dx
Nous allons étudier les problèmes dit d’évolution où la vitesse dt
s’exprime en fonction de la position
x et du temps t . Alors l’équation devient :
dx
dt
= f (t, x)
dx
On dit que l’équation est résolue (sous entendu par rapport à dt
). Dans se cours, nous n’étudierons
que des équations de cette forme.
dx
Très souvent x est un point de l’espace, et t le temps dt est alors un vecteur vitesse et il est commode
de représenter le champ de vecteurs f (t, x) dans le plan ou dans l’espace si x ∈ R2 ou x ∈ R3.

Exemple 1.1.2. Le vent est un champ de vecteurs qui dépend du temps. On peut se demander la
trajectoire d’une montgolfière, qui se laisse porter par le vent sans rien faire et alors on étudie l’équation
dx
dt
= #v (x, t)

Définition 1.1.3. Dans le cas où f ne dépend pas d temps t on dit que l’équation est autonome. On écrit
dx
dt
= f (x).

1.2. Le problème de Cauchy.


Le problème de Cauchy est une liste de plusieurs questions que l’on peut résumer à « peut on prédire
l’avenir ? ». ! dx "
1. Etant fixée une « donnée initiale (t0, x0)l’équation différentielle f t, x, d t = 0 a t elle une solution
telle que que x(t0) = x0
2. Sur quel intervalle de temps ]t1, t2[ est elle définie ?
3. Cette solution est elle unique ?

On peut y ajouter un problème tout aussi intéressant. Comment cette solution se comporte elle ?

1. Exemple. Un modèle d’épidémie.


On a une épidémie dans une population. On « divise » la population en trois sous-populations S , I , R qui
sont trois fonctions du temps t : ainsi S est le nombre de gens n’ayant pas été atteints par le virus, I le
nombre de personne infectées à la date t, et R le nombre de personnes guéries (ou mortes).

Bien sûr S , I , R sont des nombres entiers, on y pense comme à des fonctions continues du temps, de
S I R
sorte que S + I + R = N est une constante. On introduit souvent x = N , y = N , z = N pour exprimer le
nombre de personnes susceptibles d’être infectée ou infectée en termes de proportion.

En 1927, Kermack and McKendrick 1.2.1 proposent le modèle suivant

dS I.S
dt
= %β N
dR
dt
= γI
dI I.S
dt
= β N % γI

1.2.1. Voir N. Bacaer Mathématiques et épidémies, Cassini 2021 pour avoir une idée globale de la vision contemporaine
du sujet.
1.3 Quelques grands principes 11

La première équation dit que le nombre de personnes qui attrapent le virus est proportionnel au produit
du nombre de personnes malades par le nombre de gens susceptibles d’attraper le virus1.2.2 .
La seconde que, chaque jour, le nombre de personnes guéries (ou mortes) est proportionnel au nombre
de malades. La dernière, résulte des deux premières équations.

 
dx  
 dt  −β x.y
Il est plus facile d’écrire notre équation 


dy
dt
 =  β y − γz ,
 


où x, y, z ∈ [0, 1] sont les proportions de
dz γy
dt

gens respectivement susceptibles d’attraper le virus, infectées ou guéries.

Il est important de constater que même sur cette équation très simple et qui ne reflète probablement
pas du tout la réalité, on ne peut pas trouver de solution explicite. Une bonne méthode est d’utiliser des
schéma numériques pour comprendre à quoi ressemblent les solutions. Cela dépend de façon importante
des paramètres.

On voit sur la figure suivante un « pic épidémique » au bout de 70 jours pour une certaine épidémie
quand β = 0.2, γ = 0.1 alors que le pic est atteint au bout de [Link] si β = 0.3, γ = 0.07 (le virus est plus
contagieux, et les gens guérissent moins vite).
β dx
En fait, le nombre r0 = γ joue un rôle très important, en effet dz
= %r0 x, de sorte que x = exp % r0 z
−ln x
et donc z = r0 .1.2.3
I
A l’instant t = +∞, y = N = 0, x + z = 1, et on a donc x = exp % r0(1 % x), ce qui donne -implicitement-
le nombre de gens qui ne tomberont jamais malade.

On voit qu’un question tout aussi importante que celle posée dans le problème de Cauchy est de trouver
des solutions approchées, et de comprendre ce qui se passe quand on change un peu les paramètres. Voici
le résultat d’une simulation avec deux paramètres différents.

1.3. Quelques grands principes


1.3.1. Un théorème d’existence et d’unicité (Cauchy-Lipschitz).
Définition 1.3.1. Soit Ω & R ! R n un ouvert, et f : Ω → Rn, f (t, x) une fonction. on dit que f est
localement lipschitzienne par rapport à x si, pour tout (x0, t) de Ω, il existe un couple ε, r et un réel
k ! 0 tels que ]t0 % ε, t0 + ε[ ! B(x0, r) & Ω et 'f (t, x) % f (t, y)' # k'x % y ' pour t dans ]t0 % ε, t0 + ε[
et x, y dans B(x0, r).
1.2.2. Il s’agit d’une hypothèse de type « mélange ». On suppose que pour une personne la probabilité d p d’attraper
I
le virus entre l’instant t et l’instant t + d t est proportionnelle au nombre de gens infectés d p = β. N dt. Alors le nombre
I
de personnes infectées s’accroit de d I = S.β. N dt auquel on retranche le nombre de personnes guéries ou mortes d I =
I
βS. N dt − γI dt
1.2.3. Voir le film Contagion de Steven Soderbergh, ou Kate Winsley explique cela au tableau..
12 Introduction

On rappelle que la fonction F : Ω & Rn → Rm est de classe #C 1 si$et seulement si les dérivées partielles
∂Fj ∂F ∂F
∂xi
existent et sont continues. On note souvent ∂x la matrice ∂xji .

∂f
Exemple 1.3.1. Sif est de classe C 1 par rapport à x et si ∂x : Ω → L(R n, Rn) est continue, alors f est
localement lipschitzienne par rapport à x.
+ ∂f +
Démonstration. En effet, si k = Max x, y ∈B̄(x0,r)+ ∂x + , le théorème des accroissements finis montre que
'f (t, x) % f (t, y)' # k'x % y'. "

Théorème 1.3.1. (Cauchy-Lipschitz) Soit Ω & R ! Rn un ouvert, et f : Ω → Rn, f (t, x) une fonction
continue. On suppose que f est localement lipschitzienne par rapport à la variable x, par exemple que f est
C 1.
1. Existence. Pour toute donnée initiale (t0, x0) il existe un couple ε, r tel que ]t0 % ε, t0 + ε[ ! B(x0,
dx
r) & Ω et une fonction x: ]t0 % ε, t0 + ε[ → B(x0, r) telle que d t = f (t, x).

2. Unicité. Si y: I & R → Rn est une autre solution, alors sur l’intervalle I ∩ ]t0 % ε, t0 + ε[, x = y.

Remarque 1.3.1. Dans certains pays, ce théorème s’appelle Picard-Lindelöf. Cauchy démontre la pre-
mière version en 1821, Lipschitz en 1868, Picard en 1893 et Lindelöf en 1894. En fait Picard utilise le
théorème du point fixe repris par Lindelöf, alors que Cauchy montre la convergence du schéma d’Euler
sous l’hypothèse que la fonction est C 1. Nous donnerons les deux démonstrations, très différentes, dans le
dernier chapitre.

Pour l’instant nous admettrons ce théorème.

Définition 1.3.2. Une solution x définie sur un intervalle ]t1, t2[ est dite maximale si on ne peut pas
trouver une autre solution x̃ définie sur un intervalle strictement plus grand ]t1! , t2! [ telle que x et x̃ coïncide
en un point t0.

Grâce au théorème d’existence et d’unicité on peut démontrer

Théorème 1.3.2. Soit Ω & R ! Rn un ouvert, et f : Ω → Rn, f (t, x) une fonction continue. On suppose
que f est localement lipschitzienne par rapport à la variable x, par exemple que f est C 1. Pour toute donnée
dx
initiale (t0, x0) il existe une unique solution maximale de l’équation d t = f (t, x) telle que f (t0) = x0. !

1.3.2. Equation autonome en dimension 1.


dx
On écrit alors dt
= f (x), ou f : I & R → R. Le domaine Ω est donc ici Ω = I ! R, et le champ de vecteur
associé est f (x).

On suppose que f est de classe C 1 de sorte qu’on est dans les conditions d’application des théorèmes
d’existence et d’unicité. Pour chaque donnée initiale (t0, x0), il existe une intervalle de temps maximal sur
dx
J & R et une fonction x(t) définie sur J telle que dt = f (x).

Cette fonction J → I est soit strictement croissante, soit strictement décroissante soit constante, en effet
si sa dérivée s’annule en un point alors la solution maximale est constante.

Cette équation est autonome, donc il suffit de se concentrer sur la question de trouver la solution qui
vaut x0 à l’instant initial t = 0.

L’idée est de l’inverser et de chercher non pas une fonction x(t) mais son inverse t(x), qui satisfait
dt 1
quand à elle l’équation dx = f (x) et que l’on peut intégrer
,x du
t % t0 = x0 f (u)
.

Ainsi grâce au calcul d’une intégrale, on peut trouver l’inverse de la solution.

On peut se demander quelle est la solution maximale telle que x(0) = x0 et quel est son comportement
au borne de l’intervalle de définition. Pour cela on considère I = ]a, b[, avec peut être a = %∞, b = +∞ et
on suppose que f s’annule seulement en un nombre fini de point a1, ...an.

Si la donnée initiale est l’un des ai la solution maximale est la solution constante x(t) = ai définie sur R
1.3 Quelques grands principes 13

Sinon n se donne x0 et on distingue trois cas soit x0 ∈ ]a, a1[ soit x0 ∈ ]an, b[, soit il apparient à ]ak −1, ak[.

Dans tous deux cas, la fonction f garde un signe constant sur l’intervalle contenant x0. Pour fixer les
idées disons que f > 0 sur cet intervalle, de sorte que x(t) va être une fonction croissante tant qu’on reste
dans l’intervalle en question : partant d’un point x0, on va aller vers la droite. Posons c = b, ak suivant les cas.
,x du
On pose t1 = lim x→c x0 f (u)
(peut être que t1 = +∞). Cette limite existe dans R ∪ +∞ car c’est une
fonction croissante.

dx
Proposition 1.3.1. Alors la solution maximale de l’équation différentielle = f (x) telle que x(0) = x0
, x du dt
est définie sur l’intervalle [0, t1[, et c’est l’inverse de la fonction x0 f(u) .
On a de plus lim x(t) = c. En particulier si c = ak ∈ I, alors t1 = +∞ "
t→t1

Exemple : la cocotte minute.


dx x2 dt α
L’équation de la pression dans une cocotte minute est dt = α , que l’on écrit dx = x2 , qui est juste la
recherche d’une primitive.
# $
1 1 1 1
t=' x0 % x , et donc x(t) = 1 t = x0 ! 1 − x0 t
x0
−α α
- .
α α
cette solution est bien définie sur l’intervalle %∞, x0 , et elle explose quand t → x0 .

On voit sur cet exemple que le renseignement le plus utile est la durée pendant laquelle la solution est
bien définie.

1.3.3. Mise sous forme intégrale. Continuité par rapport à la donnée initiale.

Même si cela parait complètement idiot, il est souvent utile d’écrire l’équation différentielle :
dx
(∗) dt
= f (t, x) ; x(t0) = x0

sous forme intégrale :


,t
(∗∗) x(t) % x(t0) = t0
f (s, x(s)) ds.

ces deux formulations sont équivalentes, et si souvent la première est la plus naturelle, la seconde est
plus facile à exploiter.

Voici un exemple, où l’on étudie la dépendance par par rapport à la condition initiale.

Théorème 1.3.3. (Lemme de Grönwall) On suppose que la fonction f est globalement lipschitzienne par
rapport à x, plus précisément qu’il existe une constante k ! 0 telle que
'f (s, x) % f (s, y)' # k'x % y '

Si x et y sont deux solution de (∗) définie sur l’intervalle [t0, t]telles que x(t0) = x0 et y(t0) = y0 , alors
'x(t) % y(t)' # exp k (t % t0)'x0 % y0'
,t
Démonstration. D’après (∗∗), on a 'x(t) % y(t)' # 'x(t0) % y(t0)' + t k'x(s) % y(s)' ds
0

,t
On pose z(t) = 'x(t) % y(t)'. Il vient z(t) # z(t0) + k t z(s)ds
0

! ,t "
On définit ϕ(t) = z(t0) + k t0 z(s)ds exp % k(t % t0). On remarque que ϕ y est dérivable et on calcule
! ,t "
ϕ !(t) = k z(t) % z(t0) % k t0 z(s)ds exp % k(t % t0) # 0, d’où le résultat. "

Ce résultat a deux corollaires. L’unicité de la solution avec une même donnée initiale, et la relative
stabilité de la solution : si on part de deux point proches, on ne s’écarte par trop à l’instant t.
14 Introduction

Théorème 1.3.4. Soit f : I ! Ω → E une fonction continue et localement lipschitzienne par rapport à x.
Alors la solution du problème de Cauchy est unique et dépend continument de la position initiale. "

Remarque 1.3.2. Nous verrons d’autres applications de cette méthode au chapitre « Le Lemme de
Grönwall ».

1.3.4. Réduction de l’ordre d’une équation.


! dx " d 2x
Souvent l’équation différentielle
# est donnée sous $ lak forme f t, x, dt
= d t2 , avec x ∈ Rn ou même (c’est
2 k −1
dx d x d x d x
rare, mais ça arrive) f t, x, dt ; dt2 , .... dtk −1 = dtk 1.3.1
/ 0
Dan ce cas, on se ramène

à une équation du premier ordre dans R2n ou Rk.N en posant X(t) = x
x"
,
x
 x"  i
dx
ou bien X(t) = 


,


si x[i] = d ti
désigne la i-ème dérivée de la fonction x.
[k −1]
x   
x1 dX x2
Notons X = 
 ,

l’équation devient dt
=
 x3


xk −1 f (t, x1, ...xk −1)

Nous verrons comment ça marche sur des exemples concrets, donnons juste un exemple l’équation de
Newton.

# (X), Newton nous dit que son


Si un corps de masse m se promène dans un champs de forces F
accélération suit la loi
d2 X # (X)
m dt2
=F

On introduit alors le vecteur vitesse, et on écrit


dX '
dV 1
#,
=V # , ce qui est un système dans R6, appelé l’espace des phases.
= mF
dt dt

1.4. Exercice du chapitre 1.


Exercice 1.4.1. Il y a deux sortes d’atome de Carbone : les C12 les plus nombreux et les C14 qui sont
radioactifs. On admet que le taux de concentration !0 de C14 est constant dans l’atmosphère (il est produit
par le rayonnement cosmique et son taux reste constant, sinon soit l’atmosphère serait totalement radioactive
et nous ne serions pas là pour en parler, soit il n’y aurait plus de C14 du tout). Ainsi tant qu’un organisme
est vivant et qu’il absorbe du carbone (si c’est une plante, par exemple) son taux de concentration en C14 est
constant égal à !0. Dès qu’il meure, comme le C14 se désintègre le taux va baisser. En fait il baisse suivant une
loi probabilité : la probabilité qu’un atome de se désintègre entre l’instant t et l’instant t + dt est dp = "dt. On
suppose que le nombre d’atomes radioactifs est petit devant le nombre total. (En fait !0 = 1, 3. 10−12), ce qui
veut dire que dans 12 gramme de carbone il y a 8.1011 atomes radioactifs).

Si ! (t) est le taux de C14 à l’instant t démontrer que ! (t + dt) ! ! (t) = !"! (t) dt.

En déduire que dt
= !"! .

Au bout de combien de temps la moitié des atomes de C14 présents à l’instant 0 ont disparu ?

Proposer un expérience de durée 1 an pour évaluer ". On trouve " = 1, 2.10−4.

Un papyrus a un taux de concentration de C14 égal à 0, 7.10−12 . Quel âge a t il ?

Supposons qu’en fait " = 1, 1.10−4 ou " = 1, 3.10−4 qu’aurait on trouvé ?

1.3.1. La très grande majorité des équations différentielles liées à la physique sont d’ordre 1 ou 2. Dans un premier
temps on peut donc supposer que k = 2

1.4 Exercice du chapitre 1. 15

Exercice 1.4.2. Un récipient contient 100 litres d’eau mélangée à du vin, à la concentration de 10%. On le
remplit à la vitesse de 5 litres par minute avec de l’eau douce et il se vide à la même vitesse. Quelle équation
différentielle satisfait la concentration de vin ? Au bout de combien de temps celle-ci est inférieure à 1%.
dx
Exercice 1.4.3. On considère l’équation différentielle (E) dt = ax + b(t), où a est une certaine constante et b
une fonction de R dans R.
On pose y(t) = x(t)e−at. Quelle équation différentielle satisfait y ?
En déduire la solution de l’équation (E) telle que x(t0) = x0
Résoudre l’équation quand b(t) = t2, a = !1.

/ 0 / 0/ 0
d x λ −! x
Exercice 1.4.4. On considère l’équation différentielle linéaire dans R2: dt y
= ! λ y
.
dz
En posant z = x + iy, écrire l’équation sous la forme complexe dt
= f (z) et la résoudre . Dessiner les solutions
quand " = 1, ω = 2π.

dx
Exercice 1.4.5. Soit f : Ω ⊂ Rn → Rn une fonction de classe C 1. On considère l’équation autonome dt
= f (x).

Rappeler pourquoi on dit que l’équation est autonome.


Démontrer que si la fonction x définie sur un intervalle ]a, b[ est une solution telle que x(t0) = x0 de cette
équation, alors la fonction y définie par y(t) = x(t ! c) est une solution définie sur $a + c, b + c%.
Si x(t) et y(t) sont deux solutions et si x(t0) = y(t1) démontrer que pour tout t, y(t) = x(t ! t1 + t0).

Exercice 1.4.6. Modèle logistique (Pierre-Francois Verhulst, 1836).

On étudie une population de mammifères dans un parc animalier. Soit N (t) le nombre de ces animaux. On
observe que si N > A il n’y a pas assez à manger et la population décroit, alors que si N < A elle a tendance à
augmenter. Verhulst (1836) a décidé de modéliser cela par l’équation
# $
dN N
(E) dt = rN 1 ! A
N
Ecrire l’équation différentielle satisfaite par x = A .

En notant que cette équation est une équation autonome de dimension 1, la résoudre explicitement.

Dessiner (peut être avec votre logiciel préféré) cette solution, en supposant que r=0,15, A=1500, N0 = 100,
1000, 10000.

Exercice 1.4.7. Soit Ω ⊂ R2 un ouvert et f : Ω → R une fonction de classe C 1. On suppose que en tout point
∂f ∂f
de Ω, l’une des deux dérivées partielles ∂x , ∂y est non nulle.

On note Cλ la courbe de niveau {(x, y) ∈ Ω: f (x, y) = "}.

0. Rappeler le théorème des fonctions implicites, et démontrer qu’au voisinage d’un point (x0, y0) tel que
∂f
∂y
/ 0 on peut décrire Cλ comme graphe d’une fonction y(x) dont on calculera la dérivée.
=

1. Soit I ⊂ R un intervalle, c: I → Ω une fonction de classe C 1 : autrement dit, c(t) = (x(t), y(t)) est une
∂f dx ∂f dy
courbe paramétrée. Démontrer que c(t) reste dans une courbe Cλ si et seulement et ∂x . dt + ∂y dt = 0

2. Démontrer que les courbes de niveau de f sont les solutions de l’équation différentielle
∂f ∂f dy ∂f ∂f
! ∂x / ∂y = dx (qu’on écrit aussi ∂x .dx + ∂y .dy = 0)

4. Ecrire une équation différentielle dont les graphes des solutions sont les hyperboles x −1 + y = " du demi
plan x > 0. Sur quel intervalle est définie la solution y(x) telle que y(x0) = y0

Exercice 1.4.8. Système


  conservatif. Une particule se promène dans un champs de forces. Newton nous dit
x
que sa position X = 


y  satisfait l’équation différentielle du second ordre.
z
d 2X %
m0 2 =F
dt
 
∂U
 ∂x 
 
% dérive d’une potentiel F
On suppose que F % = !∇U 
= ! ∂U 

∂y
 
∂U
∂z
d
On note X(t) la position à l’instant t. Montrer que X !(t) = Y (t) satisfait dt
U (X(t)) = !<∇U ,Y (t) > , et en
déduire que U (X(t)) + 1/2m < Y .Y > reste constant.
16 Introduction

% = !10m.s−2. %k , où %k est un vecteur unitaire dirigé vers


On suppose la pesanteur est un vecteur constant G
le haut. Trouver U tel que ∇U = !m0G % et en déduire à quelle hauteur un objet lancé verticalement à la vitesse
10m.s−1 va monter (on néglige les frottements de l’air).

Exercice 1.4.9. * Equation Prédateurs-Proies : Lotka 1925 Voltera 1926

Il s’agit d’une variante de l’équation logistique, ou maintenant on suppose qu’une population est non pas
régulée par une constante (la quantité de nourriture) mais par un prédateur. Dans la littérature on l’appelle
l’équation Prédateurs-Proies, ou Lynx et Lapins.
/ 0 / 0
d x −x(1 − y)
On considère l’équation dt y
= y(1 − x)
définie sur l’ouvert x > 0, y > 0.

1. Dessiner le champs de vecteur associé. On commencera par chercher ou il s’annule, ou il est vertical vers
le haut, vers le bas, horizontal à droite ou à gauche.
/ 0 / 0 / 0
x(t) x0 x(t − t1)
/
2.0Montrer que si y(t)
est la solution qui vaut y0
à l’instant t = 0, y(t − t1)
est la solution qui vaut
x0
y0
à l’instant t1.
Comme on pense à cette équation différentielle comme un champ de vecteur autonome, une solution s’appelle
une trajectoire.

3. En utilisant le théorème d’unicité montrer que deux trajectoires sont soit égales soit ne se rencontrent
jamais.

4. On note 1, 2, 3, 4 les régions (1): {x > 1, y > 1}, (2){x > 1, y < 1}(3) = {y < 1, x < 1} (4) = {x < 1, y > 1}.
Montrer que si la donnée initiale est dans la région 1 la trajectoire va d’abord rentrer dans la région 2 puis dans
la 3 et dans la 4 avant de revenir dans la région 1.

5. Soit H(x, y) = x ! ln(x) + y ! ln(y).

Démontrer que le long d’une trajectoire, la fonction H reste constante.

6. Montrer que la restriction de la fonction H à la demi-droite x ! 1, y = 1 est injective, et en déduire que la


trajectoire revient à sa position initiale.

7. En utilisant l’unicité montrer que toute trajectoire est périodique.


Chapitre 2
Equations linéaires.

2.1. Généralités.
Les deux formes des EDO linéaires.

dx
2.1.1. Le système linéaire d’équations dt
= A(t)x + B(t)
Soit E un espace vectoriel de dimension finie sur R ou C, par exemple E = R n ou Cn.

On se donne un intervalle I de R deux applications continues


A: I → L(E) + Mn(R) ou Mn(C) et B: I → E + Rn ou C n

Dans ce cas le théorème de Cauchy-Lipschitz est très simple.

Théorème 2.1.1. Pour toute donnée initiale t0 ∈ I, x0 ∈ E il existe une unique solution x(t) définie sur I
tout entier, telle que pour t = t0, x(t) = x0.

Définition 2.1.1. On dit que l’équation différentielle est « sans second membre » si B ≡ 0. On dit aussi
que l’équation est « homogène ».

Le théorème le plus important est le théorème suivant connu en physique sous le nom de principe de
superposition.
dx
Théorème 2.1.2. L’espace E des solutions de l’équation différentielle sans second membre d t = A(t)x est
un espace vectoriel de même dimension que E (donc de dimension n sur R si E = R n ou sur C si E = Cn).

Si t0 ∈ I est fixé l’application E → E qui à la solution x associe sa valeur au point t0 est un isomorphisme.

Démonstration. Si x, y sont deux solutions et si ! ∈ R est un scalaire, x + !y est encore une solution.
Ainsi E est un sous-espace de l’espace vectoriel des fonction continues C0(I , E). D’après le théorème de
Cauchy Lipschitz, l’application E → E qui à la solution x associe sa valeur au point t0 est bijective. "

dx
Théorème 2.1.3. L’espace A des solutions de l’équation différentielle avec second membre dt = A(t)x +
B(t) est un espace affine de même dimension que E dont l’espace vectoriel sous-jacent est l’espace E des
solutions de l’équation sans second membre.

Si y est une solution fixée de cette équation, toute solution s’obtient en ajoutant à y une solution de
l’équation sans second membre.

On verra plus tard la méthode dite de la variation de la constante qui permet de calculer une solution
particulière si on connait toutes les solutions de l’équation sans second membre.

2.1.2. L’équation différentielle scalaire d’ordre n en une variable.


Il s’agit de l’équation : x[n] + an−1(t)x[n−1] + ··· + a1(t)x ! + a0(t)x = b(t)

Ici, I est un intervalle de R, les ai (et b) sont des fonctions continues de I à valeurs dans R ou C, et
on cherche une fonction x n fois dérivable sur I qui satisfait cette équation.

17
18 Equations linéaires.

On peut facilement se ramener au premier cas en posant E = R n ou E = Cn et en étudiant l’équation


1

 x = y0



 dx
= y1

 dt



 d y1 = y2
dt





 d yn −2
= yn−1

 dt



 d yn −1
dt
= −an −1yn −1 − an−2yn−2 + ··· − a0y0 + b(t)
   
   
y1 0
y0 x    
    dY  y2   0 
On pose alors Y (t) = 


y1  
=
 
y1 


de sorte que dt
= 


 
+
 



Ou
   0 
yn−1 yn−1
  −an −1yn −1 − an−2yn−2 + ··· − a0 x b(t)
dY 0
s’il l’on préfère dt
= CPtY + 
 0 .

b(t)

Ici, CP (t) est la matrice compagnon du polynôme Pt(X) = a0 + a1 X + ··· + an−1X n−1 + X n.
 
0 1
 
 0 1 
 
C P =

0 1 

 0 
−a0(t) −a1(t) −an −2(t) −an −1(t)

Dans la pratique, n = 2, et on regarde l’équation :


x !! + a1(t)x ! + a0(t)x = b(t)
/ 0
La matrice associée est 0 1
−a0 −a1
et on peut écrire notre équation :
/ 0 / 0/ 0 / 0
d x 0 1 x 0
dt y
= −a0(t) −a1(t) y
+ b(t)

Remarque 2.1.1. On voit ainsi que l’équation différentielle linéaire d’ordre n en une variable est un cas
particulier de l’équation différentielle linéaire en n variables. Simplement la matrice est un peu particulière.

2.2. La dimension 1.
dx
2.2.1. L’équation dt
= ax + b(t)
Ici a est un nombre réel ou bien complexe. La fonction b est à valeurs dans R (si a ∈ R) ou dans C (si
a ∈ C). Nous dirons K.
dx
Théorème 2.2.1. L’espace vectoriel des solutions de l’équation dt
= ax, ou a ∈ K est de dimension 1. La
solution telle que x(t0) = x0 , est x(t) = x0ea(t−t0)

Démonstration. On a deux choses à voir. La fonction x(t) = x0ea(t −t0) est bien solution de l’EDO, ce
qui est facile, et nous devons vérifier que c’est la seule qui satisfait x(t0) = x0. Soit y une autre solution.
Alors ye−−a(t −t0) = z satisfait z ! = 0, donc z est constante. "
dx 2"
Exemple 2.2.1. dt
= i"x admet comme solution x(t) = ei!t, qui est périodique de période !
.

N’importe quel vecteur non nul en est une base si a =


/ 0, x(t) = x0 ea (t−t9), si a = 0, x(t) = x0.

Pour obtenir la solution générale, on adopte la méthode dite de la variation des constantes.
On cherche la solution x sous la forme x(t) = c(t)ea(t−t0), c(t0) = x0
dx dc dc ,t
Comme dt
= a.x + d t eat , il vient dt
= e−atb(t), qui se résout c(t) = x0 + t0
e−aub(u) du

au total, nous avons démontré un théorème.


! ,t "
Théorème 2.2.2. La solution de l’équation telle que x(t0) = x0 est x(t) = ea (t−t0) x0 + t e−aub(u) du .
0
2.3 L’équation homogène à coefficients constants. 19

dx
2.2.2. L’équation dt
= a(t) x
Soit a: I → R ou C une fonction continue.

On rappelle que si à un instant t0, x(t0) = 0 alors la solution est x(t) ≡ 0.


Supposons donc que pour tout t ∈ I, x(t0) = / 0. Alors la fonction x garde un signe constant et on peut
écrire l’équation sous la forme :
dx d(ln(x))
x dt
= d t = a(t), qui s’intègre facilement
# $ ,
x t
ln x = t a(u)du.
0 0

Autrement dit, nous avons démontré :

Théorème 2.2.3. Si A est une primitive de la fonction a sur l’intervalle I , la solution du problème de
dx
Cauchy d t = a(t) x, x(t0) = x0 est x(t) = x0eA(t)−A(t0).

dx
2.2.3. L’équation dt
= a(t) x + b(t).
On reprend le paragraphe précédent. On peut écrire la solution de l’équation « sans second membre », sous
la forme x(t) = CeA(t).

Pour résoudre l’équation générale, on fait varier la constante, c’est à dire qu’on cherche la solution sous
la forme x(t) = C(t)eA(t).
dx
Il vient dt
= a(t) .x + C !(t)eA(t) = a(t) x + b(t).

Ainsi la fonction x(t) est solution de notre équation différentielle si et seulement si :

C !(t) = e−A(t)b(t).

Ce qui s’intègre très facilement. Nous avons donc démontré le théorème :

Théorème 2.2.4. Si A est une primitive de a sur l’intervalle I , et C la primitive de e−A(t)b(t) telle que
C(t0) = x0 , la solution du problème de Cauchy est x(t) = C(t)eA(t)−A(t0) "

Remarque 2.2.1. Au lieu de « faire varier la constante », on peut écrire y(t) = x(t)e−A(t) et remarquer
dy
que dt = b(t). Autrement dit, on peut se ramener au cas où a(t) ≡ 0.

2.3. L’équation homogène à coefficients constants.


Dans la suite E désigne un R % espace vectoriel de dimension finie, A ∈ L(E) une application linéaire. Il
se peut que E soit un C % espace vectoriel, ce qui simplifie souvent les choses. Nous noterons K = R ou
C, en expliquant au moment utile ou se trouve la distinction.

2.3.1. Position du problème et équivalence


Il s’agit des équations :
dX
dt
= AX, où A ∈ Mn(K) ou bien A ∈ L(E), où E est un K espace vectoriel de dimension finie.

ou bien :

x[n] + an−1x[n−1] + ··· + a1 x ! + a0x = 0

Comment trouver une base de l’ensemble des solutions ? On verra en fait que le second problème est
un cas particulier du premier.

2.3.2. Matrices diagonales, changement de base.


On considère un endomorphisme A ∈ L(E).
20 Equations linéaires.

Si A est diagonalisable, de valeurs propres !1, ....!n dans la base de vecteurs propres, l’équation est
1

 d x1
= λ 1 x1
 dt



 d xn
= λ n xn
dt

On a donc n équations différentielles en dimension 1, très facile à résoudre. La solution qui vaut
x1,0, ...xn,0

pour t =

0 est donc, dans cette nouvelle base.
x1,0eλ1t
x(t) = 



xn,0eλnt

Notons ici une petite difficulté. Il se peut très bien que A soit une matrice de Mn(R) qui est diagona-
lisable dans C.

Peut être que au départ, l’endomorphisme A était donné par une matrice. On a A = P ∆P −1, où ∆ est
une matrice diagonale, et P la matrice de passage vers la base de diagonalisation. On a alors
dX
dt
= AX, et en posant Y = P −1.X, on obtient
dY
dt
= ∆Y , qui comme on l’a vu est très facile à résoudre, puis on obtient

X = P .Y , ce qui permet d’exprimer simplement X(t).

Remarque 2.3.1. Il se peut très bien que la matrice A soit dans Mn(R) mais qu’elle soit diagonalisable
dans C. Alors la matrice de passage est aussi à coefficients complexes, mais X(t) = PY (t) est une solution
de l’équation différentielle donc elle reste à coefficients réels.

/ 0 / 0/ 0
d
Exemple 2.3.1. Soit à résoudre une équation dt
x
y
= a −b
b a
x
y
, et on suppose que b =
/ 0.

On cherche d’abord les valeurs propres.


χm = (a % !)2 + b2 = (! % (a + ib))(! % (a % ib))
Puis /on calcule
0
les vecteurs propres.
/ 0 / 0 5
e+ = uv satisfait Ae+ = (a + ib) uv = a. u − bv
bu + a v
, ou bien i.b u − b v = 0
ib v + b u = 0
/ 0
e+ = 1
i
est un vecteur propre associé à !+ = a + ib.
/ 0
De même, e− = 1
−i
est un vecteur propre associé à !+ = a % ib
/ 0 / 0 / 0
i 1
Ainsi, si P = 1 1
i −i
, de sorte que P −1 = 2 −i −1
−i 1
=2 1 −i
1 i
/ 0 / 0
1
Si X(0) = x0
y0
, Y (0) = P −1.X0 = 2 x0 − iy0
x0 + i y0
 / 0 / λ t 0 
λ t λ t λ t
e + +e − e + −e −
/ 0 6 λ +t 7  x0 + y0 
1 e (x0 − iy0)  2 2i 
Alors X(t) = P .Y (t) = 1 1
i −i 2 eλ−t(x0 + i y0)
=
 / λ+ t λ−t
0 / λ t λ t0 

 e −e e + +e − 
2i
x0 + 2
x0
λ+ t λ− t λ+ t λ− t
e +e e −e
Si !± = a ± ib, 2
= cos(bt)eat, 2i
= sin(bt)eat
/ 0/ 0
cos(b t) sin(b t)
Ainsi X(t) = eat sin(bt) cost(bt)
x0
y0

dz
Remarque 2.3.2. 1. Soit z = x + iy. On voit que Az = !z, ce qui donne immédiatement dt
= a.z, ou
bien z = e(a+ib) t z0 et on obtient plus rapidement le même résultat.
2. On donnera plus tard une troisième démonstration de ce résultat.

2.3.3. Exponentielle d’une matrice. EDO linéaire à coefficients constants.


2.3 L’équation homogène à coefficients constants. 21

Rappel. Si E est un espace vectoriel normé de dimension finie sur R ou C, la norme d’une application
&Ax&
linéaire de E dans E est définie par 'A' = supx∈E −{0} &x& . Cette norme satisfait la propriété fondamen-
tale 'A.B ' # 'A'.'B ', et en particulier 'An' # 'A'n.

Si A ∈ Mn(R) ou Mn(C) il y a une autre norme n(A) = supi, j (|aij |), et on sait bien que ces deux normes
sont équivalentes. En particulier il existe une constante κ telle que les coefficients aij ,n de An satisfont
|aij ,n| # κ'An' # κ'A'n.

Cette majoration permet de montrer.

Théorème 2.3.1. Soit K = R ou C, et et f = Σ∞ n=0an z


n
une série entière de rayon de convergence
ρ à coefficients dans K. La série de Mn(K) de terme général anAn converge pour toute matrice A de
norme 'A' < ρ. Cette convergence est uniforme et définit une fonction continue (et même C ∞ ) f : B(0,
ρ) & Mn(K) → Mn(K)."
zn
Nous allons d’abord utiliser ce théorème dans la situation très spéciale où f (z) = ez = Σ∞
0 n! ,
Dans ce cas ρ = +∞, de sorte qu’on définit une application exponentielle exp: Mn(K) → Mn(K). On note
indifféremment eA ou bien exp(A). Notons GLn(K) & Mn(K) le groupe formé par les matrices inversibles.

Théorème 2.3.2. Soit A, B ∈ Mn(K) deux matrices qui commutent. Alors eA+B = eA·eB.
L’application (R, +) → (GLn(K), !) définie par ϕ(t) = exp (tA) est un homomorphisme de groupes.

Démonstration.
Ak Bl
Comme les séries de terme général k! et l! sont absolument convergentes, le théorème sur les produits
(A + B)n Ak B n−k
de Cauchy permet d’affirmer que la série de terme général n!
n
= Σk=0 ·
k! (n − k)!
est absolument conver-
gente et que
# $ # $# $
Ak B n −k ∞ A
k
∞ B
l
Σ∞ n
n=0 Σk=0 k! · (n − k)! = Σk=0 k! . Σk=0 l! = [Link]
(A + B)n Ak B n−k
Comme A et B, commutent, n!
n
= Σk=0 ·
k! (n − k)!
(binôme de Newton)
(A + B)n
Or Σ∞
n=0 n!
= eA+B "

Théorème 2.3.3. 1. Au voisinage de la matrice nulle eX = Id + X + o('X ').

L’application R → Mn(K) définie par ϕ(t) = exp (tA) est C ∞ et ϕ !(t) = A·ϕ(t)

Démonstration. Le 1. résulte immédiatement de la définition de l’exponentielle comme somme d’une


série entière. Pour le 2 calculons:
ϕ(t0 + t ) = et0 A+tA = etA.ϕ(t0) = (1 + tA + o(t))ϕ(t0)
ϕ(t0 + t ) − ϕ(t0)
Donc t
= A.ϕ(t0) + o(1) "

On a alors le théorème fondamental de la théorie des équations différentielles linéaires à coefficient


constant.

Théorème 2.3.4. Soit A ∈ Mn(K) la solution de l’équation différentielle linéaire à coefficients constants
dX
dt
= A.X telle que X(t0) = X0 est X(t) = e(t−t0)AX0

Démonstration. En effet, d’après ce qui précède, X(t) = ϕ(t).e(−t0)AX0, donc X !(t) = A.ϕ(t).e(−t0)AX0 =
A.ϕ(t). De plus X(t0) = X0 par construction. "

On a ainsi généralisé le résultat des EDO de dimension 1, mais le problème est comment calculer eA?
ce que nous allons voir au paragraphe suivant. Commençons simplement par un cas particulier très simple.

On rappelle qu’un endomorphisme est dit nilpotent si il existe un entier k tel que N k = 0. Comme le
polynôme minimal de N , X k, est de degré plus petit que la dimension on en déduit que N d = 0
22 Equations linéaires.

Théorème 2.3.5.n −1Soit N un endomorphisme nilpotent d’un espace vectoriel de dimension d. Alors exp tN =
t
Id + tN + ··· + n − 1! N n−1 est une matrice dont les coefficients sont des polynômes de degré #n % 1.

Démonstration. Résulte de la définition de etN . "

2.3.4. Réduction d’un endomorphisme sur C, décomposition de Dunford et


calcul de exp tA.
Pour résoudre l’équation différentielle, il est commode, comme on l’a vu, de trouver une base de diagonali-
sation.0 En général, un endomorphisme n’est pas diagonalisable, comme le montre l’exemple de la matrice
/
0 1
0 0
, alors on utilise la décomposition de Dunford sur C.

On rappelle qu’un endomorphisme N est dit nilpotent si il existe un entier k tel que N k = 0.

Théorème 2.3.6. Soit A ∈ End(E) un endomorphisme. On suppose que le polynôme caractéristique de A


est scindé : P = Πki=1(X % !i)νi, où les !i sont des nombres complexes distincts. Soit Ei = ker (A % !iId)νi
le sous-espace caractéristique, et Ni la restriction à Ei de A % !iId. On pose N = ⊕ Ni.
1" i" k

L’espace vectoriel E est la somme directe ⊕Ei, et l’endomorphisme A se décompose A = D + N, où


N est nilpotente (N max ni = 0), D (resp. N) est l’application linéaire diagonalisable (nilpotente) dont la
restriction à Ei est ![Link] (resp. Ni).

Ainsi, on a la décomposition A = D + N, D diagonalisable N nilpotente et D et N commutent.

La démonstration repose sur un lemme appelé le « lemme des noyaux ».

Lemme 2.3.1. Soient P , Q deux polynômes. On suppose que P et Q sont premiers entre eux, et que le
produit P ·Q annule l’endomorphisme A. Alors ker(P (A)) ⊕ ker(Q(A)) = E

Démonstration. D’après le lemme de Bézout, il existe deux polynôme U , V tels que UP + VQ = 1.


Il en résulte que P (A)(U (A)(x)) + Q(A)(V (A)(x)) = x
Donc tout élément x est la somme d’un élément de Im(P (A)) et d’un élément de Im(Q(A)). Mais
Q(A) . P (A) = 0 donc Im(P (A)) & ker(Q(A)) et de même Im(Q(A)) & ker(P (A)). Ainsi ker(P (A)) +
ker(Q(A)) = E. Si x est dans l’intersection des noyaux , comm U (A)(P (A)(x)) + V (A)(Q(A)(x)) = x , alors
x = 0. "

En appliquant le lemme par récurrence k fois, et en posant Ei = ker(A % !iId)ni on voit que E se décom-
pose E = ⊕Ei, de sorte que la restriction de Ai à Ei satisfait A = !iId + Ni, où Ni est un endomorphisme
nilpotent.

On est alors en mesure de « calculer » l’exponentielle de l’application linéaire A.

Corollaire 2.3.1. Soit A = D + N la décomposition de Dunford de A. Alors exp (t A) = exp (t D) !


(exp tN ) = exp (tN ) ! exp (tD).
 
λ1
 
Le calcul de exp (tD) est facile dans une base où D est diagonale D = P −1


λ2 
P ,

alors
 
etλ1 λn
 
expt tD=P −1


etλ2 P ,


et les coefficient de expt D sont des combinaisons linéaires de fonction
tλn
e
eλit. Si N est nilpotente, son ordre de nilpotence est inférieur ou égal à d (à cause du théorème de Cayley-
tk
Hamilton) et les coefficients de expt tN = Σ k! N k sont dons des polynômes en t de degré #d % 1. En
k" d−1
multipliant, on obtient donc.
dX
Proposition 2.3.1. Soit X(t) la solution de l’équation différentiel dt
= AX dont la valeur à l’instant 0
est X0 t. Les coordonnées de X(t) sont donc de la forme :

l
xk(t) = Σi=1 eλi(t).pi,k(t), où pi,k est un polynôme de degré νi % 1.
2.3 L’équation homogène à coefficients constants. 23

Définition 2.3.1. Une fonction de la forme Σi=1


l
eλi(t).pi,k(t) est un quasi-polynôme.

2.3.5. Cas de la dimension 2 à coefficients réels : portraits de de phase.


En dimension 2, à coefficients réels, il y a trois sortes de matrices. Les matrices diagonalisables sur R , les
matrices ayant une seule v.p. réelle mais pas diagonalisables, et les matrices ayant deux v.p. complexes
conjuguées (et donc diagonalisables sur C).

Dans chacun des cas, le calcul de l’exponentielle est facile, à condition d’avoir mis la matrice sous forme
élégante.

Il y a donc 3 grands cas, mais en fait le premier admet 3 sous-cas.

Remarque 2.3.3. Quand famille d’objets se sépare en trois sortes, deux « génériques » et une la limite,
on les appelle souvent « elliptique, hyperbolique et parabolique ». Par exemples les coniques se regroupent
en trois familles : les ellipses, les hyperboles et les paraboles. On peut déterminer la nature d’une conique
d’équation ax2 + bxy + cy 2 + ex + fy + g = 0 en étudiant le signe du discrimant 4a.c % b2
/ 0
Si on se restreint aux matrices (2, 2) de trace nulle, disons a b
c −a
on en a trois sortes : celles qui ont
deux valeurs propres réelles opposées, appelées « hyperboliques », les matrices complexes ayant un valeur
propres imaginaires pure et conjugués appelées elliptiques et les matrices conjuguées à la matrice de Jordan,
que l’on peut appeler parabolique. A titre d’exercice le lecteur pourra regarder ce que ces définitions disent
sur le déterminant qui est %a2 % bd.

Cas 1. Deux v.p. imaginaires conjuguées.

Rappelons que si u désigne un vecteur propre de A, Au = !u. $


! " # # $ ! "
Donc, comme A est réelle, Aū = ! ¯ · ū, et A u + ū = λ + λ̄ Re(u) + λ − λ̄ Im (u), A u − ū =
# $ # $ 2 2 2i 2
−λ + λ̄ λ + λ̄ ! u + ū u − ū "
2i
Re(u) + 2
Im (u). On écrit ! = a + i b, et dans la base 2
, 2i de R2, la matrice
/ 0
est a −b
b a
qui est la matrice de l’application z → !z.

On a alors expt tA.z0 = eλt z0 = eibt.eatz0, qui est la solution au problème de Cauchy.

On distingue alors trois cas.


1. Re(!) = a > 0, les orbites sont des spirales logarithmiques qui s’en vont à l’infini
2. Re(!) = a < 0 les orbites sont des spirales logarithmiques qui tendent vers 0.
3. Re(!) = a = 0 les orbites sont des cercles centrés en 0
Par ailleurs, le signe de b détermine le sens de la rotation des orbites autour de l’origine.

Le cas 1 s’appelle un foyer instable. Le cas 2 un foyer stable : il suffit de renverser le sens des orbites.
le cas 3 s’appelle un centre.

/ 0
Foyer instable. Exemple la matrice 2 1
−1 2
, !=2+i

Cas 2. Deux valeurs propres réelles !1 ! !2, et a est diagonalisable. on a encore 3 cas
principaux.

!1 > 0 > !2 : il s’agit d’un col


!1 ! !2 > 0 : il s’agit d’un noeud instable
24 Equations linéaires.

!2 # !1 < 0 : il s’agit d’un noeud stable

Il reste quelques cas limites.

!1 = 0, !2 < 0, !1 > 0, !2 = 0. La solution est y = c.e−λx

Le cas où A = 0 n’est pas passionnant.

/ 0 √ √
3+ 5 3− 5
Noeud instable. Exemple la matrice 2 1
1 1
, !1 = 2
! !2 = 2
>0

/ 0 √ √
Col . Exemple la matrice 2 1
1 −2
!1 = 5 , !2 = % 5

Cas 3. Deux valeurs/ propres


0
réelles confondues !1 = !2 = !, et A n’est pas diagonalisable.
Le dernier cas, A = 0 λ = !Id + N avec N 2 = 0 et donc
λ 1

/ 0
exp (tA) = exp t! (Id + tN) = expt t!. 1 t
0 1
ou bien x = x0 etλ + y0etλ t, y = y0etλ

/ 0
Matrice 1 1
0 1

2.3.6. Equation linéaire d’ordre n à coefficients constants.

C’est l’équation : x(n) + an−1x(n−1) + ··· + a1 x ! + a0x = 0,

Où on cherche une solution x(t) qui est une fonction réelle du temps.

Définition 2.3.2. Le polynôme X n + an−1X n−1 + ··· + a0 = P (X) est appelé polynôme caractéristique de
l’équation différentielle d’ordre n à coefficients constants x(n) + an−1x(n−1) + ··· + a1 x ! + a0x = 0
2.3 L’équation homogène à coefficients constants. 25

 
x
 
x"
On rappelle que l’astuce est de poser X =





et de remarquer que cette équation est équivalente
x[n−1]
dX
à dt
= A.X, ou A est la matrice compagnon du polynôme P .
 
0 1
 
 0 1 
CP = 


0 1



 0 
−a0 −a1 −an −2 −an −1

On a donc comme cas particulier du théorème fondamental

Théorème 2.3.7. L’ensemble E des solutions de l’équation différentielle



à coefficients

constants est un
x
 
x"
espace vectoriel de dimension n. L’application E → K n qui a x associe 



(t )
 0
est un isomorphisme
x[n −1]
d’espace vectoriel.

On verra en exercice une autre démonstration de ce résultat, comme résultat d’algèbre linéaire sur
l’espace vectoriel des quasi-polynômes.

On peut le reformuler en un théorème.

Théorème 2.3.8. Pour toute donnée initiale x0, x1, ..., xn−1 il existe une unique solution de l’équation
différentielle x(n) + an−1x(n−1) + ··· + a1 x ! + a0x = 0 telle que x(0) = x0, x !(0) = x1, ..., x[n−1](0) = xn−1

On est donc amené à calculer le polynôme caractéristique de la matrice compagnon de CP .

Théorème 2.3.9. Le polynôme caractéristique de la matrice compagnon de P est P c’est aussi son polynôme
minimal.

Démonstration. On commence par le cas des polynômes de degré 2, et des matrices(2,2). Le polynôme
caractéristique d’une matrice (2, 2) M est X 2 /% tr(M ) 0X+det(M). Donc Le polynôme P (X) = X 2 + aX + b
est le polynôme caractéristique de la matrice −b 0 1
−a
. C’est aussi son polynôme minimal : en effet soit il
a deux racines distinctes et il n’y a rien à démontrer, soit ses deux racines sont égales disons égales à !.
Dans ce second cas ce polynôme est (X % !)2, mais si son polynôme minimal était X % ! la matrice serait
diagonale ce qui n’est pas le cas;

* Le cas général est peu se faire d’une façon analogue, mais voici un argument plus abstrait. La matrice
compagnon CP est la transposée

de la matrice

de la multiplication par X dans K[X] / P dans la base
0 0 −a0
 
 1 0 −a1 
(1, X , ..., X n−1) qui est 


0 1 0 .


Il en résulte que Q(CP ) est la multiplication par Q(X) dans
 0 −an−1 
0 0 1 −an
cet anneau. SI Q1 désigne le reste de la division euclidienne de Q par P , Q(CP )1= Q1 donc si Q annule cet
endomorphisme si et seulement si P divise Q. Le polynôme minimal est donc P . et comme il est de degré n
c’est son polynôme caractéristique. "

1. Le cas complexe.

Corollaire 2.3.2. Les n fonctions (quasi-polynômes) tkeλit, k # νi, 1 # i # m forment une base de l’espace
vectoriel des solutions.

!d "
Démonstration. Ecrivant dt % !id νtk eλt = 0 si k < ν, donc les fonctions sont bien des solutions de
l’équation.
Par ailleurs on a vu que x est une combinaison linéaire de ces fonctions. Donc ce système est générateur.
Comme il a le bon cardinal c’est une base. "
26 Equations linéaires.

Remarque 2.3.4. Une démonstration abstraite d’algèbre linéaire est proposée en exercice.. Elle est basée
sur le fait que l’on recherche le noyau ker(P (D)), où P (D)D est la dérivation agissant dans l’espace vectoriel
des quasi-polynômes.

2. Le cas des coefficients réels s’en déduit très facilement

Soit P un polynôme unitaire à coefficient réel. On a donc Π = Πki=1(X % !i)νi.Πjl =1(X % µi)νj(X % µ¯j )νj ,
ou les µj sont complexe et non réels, et les !j sont réels

Une solution réelle est simplement une solution complexe qui est égal à à sa conjugué[Link] simplifier,
posons µj = 'j + i.βj

Théorème 2.3.10. Les n fonctions tkeλit, t lcos(βjt)eαit, t msin(βjt)eαit, avec 0 # k < νi, 0 # l, m # νj sont
une base de l’espace vectoriel des solutions réelles de l’équation différentielle.

2.4. Equation linéaire avec second membre.

2.4.1. Système linéaire à coefficients constants et second membre variable.


dX
On considère le système d t = AX + B(t), ou A ∈ End(E) = Mn(K) est une application linéaire constante
et B: I & R → E une fonction continue.

La méthode de la variation de la constante marche très bien.


dX
On cherche X sous la forme X(t) = etA.Y (t), alors dt = AX + etAY (t), et l’équation devient
dY , t
dt
= e−tAB(t), soit Y (t) = Y (t0) + t0 e−uAB(u) du, avec Y (t0) = e−tA X0

Théorème 2.4.1., t La solution de l’équation différentielle avec second membre telle que X(t0) = X0 est
X(t) = X0 + etA t e−uAB(u) du
0

En pratique, il arrive très souvent qu’on ne connaisse pas etA, mais une base X1, ...Xn de l’ensemble
des solutions. On cherche alors des fonctions ci(t) telles que
ΣciXi satisfasse l’équation. En reportant, on voit que Σci!Xi = B(t)
En considérant la matrice R(t) dont le colonnes sont les Xi, on obtient
R(t)C !(t) = B(t), soit C !(t) = R(t)−1B(t), ou si l’on veut C !(t) = R(%t)B(t) et on intègre.

Remarque 2.4.1. La matrice R(t) s’appelle matrice fondamentale.

2.4.2. Equation scalaire d’ordre n à coefficients constants et second membre

Nous avons vu que l’équation différentielle :


x(n) + an−1x(n−1) + ··· + a1 x ! + a0x = b(t)
dX
est un cas particulier

de (en fait se ramène à) l’équation
 dt
= A.X(t) + B(t), où A est la matrice
0 1 0
   
 0 1   0 
compagnon A =


0 1



et B(t) = 





 0   0 
-a 0 -a 1 -a n-2 -a n-1 b(t)

Donc du point de vue théorique, on peut calculer les solutions grâce à la méthode de la variation de la
constante. Mais on avait vu que (au moins si on connait les racines du polynôme caractéristique), l’équation
est plus facile à résoudre puisqu’on a une base des solutions qui sont les (tkeλi t)k <νi, ou les !i sont les racines
du polynômes caractéristique et les νi -leur multiplicités. On connait donc une matrice fondamentale.
2.4 Equation linéaire avec second membre. 27

On pourrait espérer que la méthode de la variation de la constante soit plus simple. Malheureusement,
il faut se ramener à la forme matricielle pour bien l’écrire.
 
yi
 
 yi" 
 
On considère donc notre base de l’ensemble des solution y1, ....yn. On pose Yi(t) =

 et
 on cherche
   
 
[n −1] 0
yi
 
 0 
des fonctions c1, ....cn telle que Σi=1
n
ci(t) Yi(t) = X(t) soit une solution. de l’équation X ! = AX +





 0 
b(t)

 
c1
 
 c2 
Soit Φ(t) la matrice dont les colonnes sont les Yi et C(t) la matrice 





.
 
cn

Notre équation devient X = Φ.C, donc X ! = Φ ! C + ΦC ! = AΦC + ΦC ! = AX + ΦC !

On a alors X ! = AX + B

Et on est ramené à C ! = Φ −1.B, qui en principe peut s’intégrer.

2.4.3. Exemple : l’équation x !! + ax ! + bx = c(t)

On a vu qu’il est facile de trouver une base de l’ensemble des solutions. Au moins si les deux racines
de l’équation x2 + ax + b sont distinctes, disons ! et µ, on peut prendre x1(t) = eλt, x2(t) = e µt.
6 7 6 7
eλt e µt
On écrit alors X1(t) = λe λt
, X 2(t) = µe µt , et on cherche deux fonctions, ci(t) telles que X =
6 7/ 0 / 0 / 0
λt µt
c1 X1 + c2X2 = λeeλt µeeµt c1
c2
satisfasse X ! = −b 0 1
−a
X + 0c .
6 7−1/ 0 6 7/ 0
λt µt 1 µe µt −e µt
Soit on utilise directement la 6 formule7 C ! = λeeλt µeeµt 0
c
= µ − λ −λ eλt eλt
0
c
.
c(t) −e µt
On voit qu’en fait : C = µ − λ eλt .
!
,
On est ainsi ramené à calculer deux primitives de la forme c(t)e dt avec ' = !, µ.
αt

2.4.4. Cas particulier ou le second membre est un quasi-polynôme de la forme


q(t)ert
Si le second membre de x(n) + an−1x(n−1) + ··· + a1 x ! + a0x = b(t) est de la forme tdert , ou plus
généralement q(t) = Σki=1pk(t)erk(t), ou les pi sont des polynômes2.4.1 , il y a une méthode très simple pour
trouver une solution particulière.

Théorème 2.4.2. Si le second membre est de la forme tder t, il existe une solution particulière de la forme
z(t) = er tp(t), où p est un polynôme de degré d si r n’est pas une racine du polynôme caractéristique
de l’équation sans second membre, ou bien de degré d + ν si r est une racine d’ordre ν de ce polynôme.

Par le principe de superposition, on en déduit donc.

Théorème 2.4.3. Si le second membre est de la forme Σki=1eri tqi(t), ou qi est in polynôme de degré di,
il existe une solution particulière de la forme z(t) = Σki=1eri tpi(t), ou pi est un polynôme de degré di si ri
n’est pas racine du polynôme caractéristique, et de degré dI + νi si r est une racine d’ordre νi du polynôme
caractéristique.

Démonstration. On démontre juste le premier de ces deux résultats. Soit Ek l’espace vectoriel des fonc-
tions de la forme er tq(t), où q est un polynôme de degré d + ν, ramené à sa base naturelle (1, t, ....td+ν ).ert ,
notée e1, ....ed+ν . Dans cette base la matrice de d est la matrice de Jordan :

2.4.1. Ainsi q(t) est un quasi-polynôme.


28 Equations linéaires.

 
r 1
 
 r 2 
 = ! Id + N , avec N d+ν = 0
 
 r
 
 d+ν −1 
r
Soit D l’opérateur de dérivation de E. Notre propos est de résoudre P (D) u = v, ou v est un vecteur
de l’espace engendré par e1, ...ed. On note que si ! n’est pas une racine de P la matrice est inversible, ce
qui prouve 1. Si ! est racine de P d’ordre ν, P = (X % !Id)ν Q, et Q(D) est inversible (D % !Id)ν = N ν
et P ont même image. On remarque que N < e1, ....en+ν > =<e1, ....en+ν −1 > , il en résulte que N ν <
e1, ....en+ν > =<e1, ...en > , et donc l’image de P (D) contient bien <e1, ...ed > .
"

2.4.5. Le cas particulier du degré 2.


On résume ici l’étude de ce cas particulier.

On étudie une équation différentielle de degré 2 dont le second membre est un quasi polynôme.
x !! + ax ! + bx = Σki=1qi(t)eλi t.

1. On forme le polynôme caractéristique P (X) = X 2 + aX + b.


a) Si ses deux racines !, µ sont distinctes, eλt, eµt est une base de l’espace de l’équation homo-
gène.
b) Si elles sont confondues eλt, teλt est une base de l’équation homogène.

2. Pour trouver une solution particulière, on cherche pour chaque terme qj (t)eλi t une solution xj de
l’équationx !! + ax ! + bx = qj (t)eλi t alors xj (t) sera une solution particulière de notre équation, et on
distingue trois cas :
a) !i ∈/ {!, µ} n’est pas racine du polynôme caractéristique, et dans ce cas, alors il existe une
solution de la forme pj (t)eλi(t), où p est de même degré que qi
b) !i ∈ {!, µ} est une racine simple du polynôme caractéristique, alors il existe une solution de
la forme pj (t)eλi(t), où pi est degré deg(qi) + 1
c) !i est une racine double du polynôme caractéristique,alors il existe une solution de la forme
pj (t)eλi(t), où pi est degré deg(qi) + 2.

2.4.6. Battements et résonance : l’oscillateur harmonique forcé.


Le théorème général vu au paragraphe précédent est très important dans le cas d’une équation de degré 2
dont le second membre est de la forme a cos("t + ϕ) (ou bien aei!t).

L’équation différentielle modélise alors un oscillateur harmonique forcé.

Il y a plusieurs phénomènes physiques décrit par cette équation. Les plus connus sont les circuits
électriques dit circuits L, R, C, ou alors les systèmes périodiques (ressort par exemple) que l’on amplifie
par une force d’excitation. 2.4.2

Circuit L, R, C . En gros, on a un circuit électrique composé d’une résistance, d’un condensateur, et


d’une bobine mis bout à bout. On met au borne du circuit un courant électrique de fréquence connue qui
maintient une différence de potentiel E(t) = E0 cos("t) (par exemple E0 = 220V , " = 50Hz, pour du courant
vendu par EDF), et on mesure l’intensité du courant qui passe. Si q désigne la charge de l’armature de
l’entrée du condensateur, on a :

d2 q dq 1
L dt2 + R dt + C q = E(t) = E0 cos (" t)

2.4.2. Le lecteur intéressé par des applications à la physique peut lire les chapitre 21-22-23-24 du livre Mécanique 1 de
Feynman.
2.4 Equation linéaire avec second membre. 29

Un autre exemple vient de la mécanique. On gros, on a un solide qui glisse sur une barre horizontale
et qui est fixé par un ressort a une borne. A l’aide d’un électro-aimant on exerce une force sur ce solide
de la forme F cos("t). La constante de raideur du ressort est ρ, et les forces de frottements (petites) sont
dx
proportionnelles à la vitesse %! dt . Si il n’y a pas de frottement, il n’y a pas de perte d’énergie, sinon
ça chauffe. Les équations sont donc :

d 2x dx
m dt2 + ! dt + ρ x = F cos (" t)

m est la masse de l’objet


! le coefficient de frottement (viscosité)
ρ la constante de raideur du ressort
" la fréquence de la force d’excitation, F son amplitude

Dans les deux cas , on la ramène le tout à l’équation


x !! + kx ! + ν 2x = γ0 cos (" t) ,

λ ρ
dans le cas mécanique, k = m > 0, ν 2 = m =
/ 0,
F
ν est la fréquence propre du système, γ0 = m .

Eléctricité Mécanique Abstrait


q = charge électrique x = distance ou longueur x
L = inductance de la bobine m = masse 1 n
R = resistance ! = viscosité k
C = capacité ρ = constante de raideur ν fréquence propre

L’équation caractéristique est X 2 + k X + ν 2 = 0. La somme des valeurs propres %k est #0 et leur


produit est positif. On a donc soit deux valeurs propres réelles négatives, soit deux valeurs propre complexes
conjuguées dont la partie réelle est <0. Il y a toujours amortissement du système libre (F = 0) sauf si les
deux valeurs propres sont imaginaires pure, c’est à dire si k = 0. C’est normal, si il n’y a pas de frottement
il n’y a pas de raison que le système libre s’arrête.

Pour se simplifier la vie, on étudie l’équation complexe:


d 2z dz
dt2
+ k dt + ν 2 z = γ0 ei!t

et on prendra la partie réelle de la solution.

1. Il y a des frottements (k > 0).

On cherche une solution particulière sous la forme z(t) = cei!t, il vient


γ
(%ν 2 + iνk + " 2) c = γ0, soit c = !2 − ν 20+ i k ν

On revient à la partie#réelle. $
γ
La fonction x(t) = Re !2 − ν 20+ i kν ei!t est une solution particulière de :

d 2x dx
d t2
+ k dt + ν 2 x = γ0 cos (" t)
# $
γ
Ainsi la solution générale est somme de deux termes : x(t) = x1(t) + Re !2 − ν 20+ i kν ei!t

Le premier terme n’a pas une si grande importance : par hypothèse il y a une décroissance exponentielle,
donc au bout d’un certain temps, il disparait.

On dit que le régime stationnaire est une oscillation forcée d’amplitude :


8 8 9
8 γ 8
8 !2 − ν 20+ ik ν 8 = γ0 (("2 % ν 2)2 + k2ν 2)−1
!2 − ν 2
et de phase "t % arcot kν
= "t % ν0 .
!2 − ν 2
Notons que ν0 = arcot kν
[0, π] : ce nombre s’appelle le décalage de phase.
30 Equations linéaires.

Proposition 2.4.1. Le régime stationnaire a la même fréquence que la force d’excitation. Mais elle a
!2 − ν 2
un retard de phase de ν 0 = arcot . Son amplitude est celle de la force d’excitation multipliée par
9 kν
((" 2 % ν 2)2 + k2ν 2)−1

On voit déjà que si " est très proche de ν et qu’il n’y a pas beaucoup de frottement (kν 0 1), le régime
a une grande amplitude, bien supérieure à celle de la force d’excitation. Nous allons regarder en fait le cas
limite sans frottement k = 0.

Remarque 2.4.2. Le décalage de phase entre l’oscillation forcée et la force oscillante joue un rôle impor-
tant en physique. Ce décalage permet par exemple d’expliquer l’origine de l’indice de réfraction. Quand
la lumière traverse un objet on a l’impression qu’elle ralenti. Pour les détails voir Feynman, Mécanique
tome 2, chapitre 31.

2. Il n’y a pas de frottements (k = 0).

Il y a deux cas à considérer.

1. Battements : " =
/ ν.

L’équation est donc x !! + ν 2x = γ0 cos("t). La solution de l’équation sans second membre est ρ cos (νt +
ϕ).
# $
γ γ
La solution particulière trouvée par la méthode de 1 est Re !2 − ν 20+ i k ν ei!t = !2 −0 ν 2 cos("t).

γ
La solution générale est x(t) = ρ cos(νt + ϕ) + !2 − ν 2 cos("t) .
0

Si " 1 ν ou bien " 0 ν on ne voit pas le second terme. Le premier est prépondérant, et tout se passe
comme si on n’avait pas mis de force d’excitation.
On remarque que si " est proche de ν apparaissent des valeurs de x très grande, bien plus grande que
l’amplitude de forçage : le second terme l’emporte.
2.4 Equation linéaire avec second membre. 31

γ
Pour étudier cette fonction, quand " est proche de ν, on pose a = ρ, A = !2 −0 ν 2 et on l’écrit :
! ! a "
x(t) = Re (aeiνt+ ϕ + Aei!t) = Re Aei!t 1 + A ei(ν −!) t+ ϕ
! a "
On a une onde Aei!t , dont l’amplitude est modulée par la fonction 1 + A ei(ν −!) t+ ϕ .
a ! a "
Notons que si A est petit, le module de 1 + A ei(ν −!)t+ ϕ est proche de 1, mais son argument
ν −!
varie entre 0 et 2π à la fréquence 2" (très lente). On dit qu’il y a battement :

γ0 γ
Proposition 2.4.2. L’amplitude de x(t) varie périodiquement entre !2 − ν 2
+ ρ et % !2 −0 ν 2 % ρ à la fréquence
ν −!
2"
, lente devant la fréquence " de l’oscillation.

Pour des fréquences proches de ce nombre, la partie réelle de Aei!t est nulle et l’amplitude de x(t)
devient petite. Cela permet de dessiner x(t).

γ
Si " est proche de ν, le second membre se met a osciller de façon très importante entre ± !2 −0 !2 .
0

Remarque 2.4.3. En musique, le battement est audible lorsque deux cordent vibrent à des fréquences
dont la différence est entre 0,5 et 5 hertz environ. Par exemple si on mélange un La 440 et La 441 on va
entendre des battements à la fréquence de 1Hz.

2. Résonance : " = ν.
! t " t
Une solution particulière est x(t) = Re γ0 2 ! ei!t = γ0 2 ! cos ("t), la solution générale

t
x(t) = ρ cos("t + ϕ) + γ0 2! cos("t)
On voit que l’amplitude de la solution tend linéairement vers l’infini : on dit qu’il y a résonance.
32 Equations linéaires.

2.5. Coefficients variables : matrice fondamentale, et wrons-


kien.
Dans ce paragraphe, on étudie une EDO linéaire, mais à coefficients variables.
On a donc un espace vectoriel E défini sur R ou C, souvent Rn ou Cn , un intervalle de I & R et
deux fonctions A: I → L(E), B: I → E et on étudie l’équation différentielle

dX
dt
= A(t)X + B(t)

La différence avec les coefficients constants c’est qu’on a pas, en général, de solution explicite de
l’équation (avec ou sans second membre), et donc le cours sera plus théorique, même si les résultats sont
comparables.

2.5.1. Equation sans second membre : la matrice fondamentale.


Nous noterons E l’espace vectoriel des solutions de l’équation sans second membre.

Rappelons que l’ensemble des solutions de l’équation différentielle sans second membre (quand on fait
B ≡ 0) est un espace vectoriel isomorphe à E. Plus précisément

Proposition 2.5.1. Pour tout t dans I, l’application E → E qui à la solution X associe sa valeur à l’instant
t est un isomorphisme.

Il est commode d’introduire la notion de matrice fondamentale.

Définition 2.5.1. On suppose que E = K n, et on suppose connue une base X1, ...Xn de l’ensemble des
solutions. La matrice fondamentale est l’application Φ: I → Mn(K), où Φ(t) est la matrice dont les vecteurs
colonnes sont les coordonnées des solutions Xi.

Parmi les exemples important, nous nous rappelons que l’ED scalaire d’ordre 2
x/!! + a(t)x
0
!
+ b(t)x = 0 se ramène à une équation différentielle linéaire en deux variables en posant
X = xx" .

Ainsi, si
/
x1 et 0x2 sont deux solutions indépendantes, la matrice fondamentale est :
Φ(t) = xx1" xx2"
1 2

Remarque 2.5.1. Cette matrice dépend du choix d’un système fondamental de solutions.

Proposition 2.5.2. Soit X une solution, et C0 la matrice des coordonnées de X(t0) dans la base X1, ....XN,
X = ΣciXI = Φ.C0

Il est utile de constater que la matrice fondamentale satisfait aussi une équation linéaire
2.5 Coefficients variables : matrice fondamentale, et wronskien. 33

d!
Proposition 2.5.3. dt
(t) = A(t)Φ(t).

2.5.2. Equation avec second membre : variation de la constante.


dX
On a vu au début de cours que l’espace des solutions de l’équation dt = A(t)X + B(t) est un espace
affine dont l’e.v. sous-jacent est l’espace des solutions de l’équation sans second membre.

Soit Φ la matrice fondamentale de l’équation sans second membre.


On cherche une solution X sous la forme X(t) = Φ(t)C(t). On a donc à résoudre
dX
dt
= Φ !C + ΦC ! = A(t)X + B(t) or Φ ! = A.Φ et l’équation devient
ΦC ! = B, soit C ! = Φ−1.B que l’on peut en principe intégrer.

Nous allons regarder plus en détail le cas d’une équation du second ordre.
[Link]. L’équation x !! + a(t)x ! + b(t)x = c(t)
Si on connait
/ deux 0 solutions x1, x2 de l’équation sans second membre, la matrice fondamentale est
Φ(t) = xx1" xx2" .
1 2

/ 0 / 0 / 0
On cherche alors la solution sous la forme x1 x2
x1" x2"
! c1
c2
= x
x"
/ 0 / 0/ 0 / 0
dX d
Et l’équation s’écrit dt
= dt x
x"
= 0 1
−b −a
x
x"
+ 0
c
/ 0 / 0 / 0 / 0
c1" c1"
Comme Φ ! = A.Φ, il vient Φ c2"
= 0
c
, soit c2"
= Φ−1 0
c
,

il est facile d’inverser une matrice (2, 2)


/ 0 / 0/ 0 / 0
c1" 1 x2" −x2 0 1 −c x2
c2"
= det ! −x1" x1 c
= x x" − x x" c x1
1 2 2 1

On voit apparaitre le terme det(Φ) = x1x2! % x2x1! qui va jouer un rôle très important dans la suite.

Cette quantité s’appelle le wronskien.

Théorème 2.5.1. Le wronskien w(t) de l’équation x !! + a(t)x ! + b(t)x = 0 est le déterminant de la matrice
dw
fondamentale. Il satisfait l’équation différentielle dt = %a(t) w(t)
dw d(x1x2" − x2x1" )
Démonstration. On dérive dt
= dt
= x1x2!! % x2x1!! = %a (t)w(t) "

On va voir que cette propriété s’étend pour toute les équations différentielles linéaires.

2.5.3. Wronskien et théorème de Liouville.


dX
Soit dt = A(t)X(t), une équation différentielle linéaire ou A: I & R → Kn est une application continue vers
les matrices (n, n) , ou bien une application continue I → end(E), où E est un espace vectoriel de dimension
finie sur K.

Si X1, ...Xn est une base de l’espace vectoriel des solutions, on forme la matrice fondamentale Φ(t) des
coordonnées des Xi dans une base fixée de E.

Définition 2.5.2. Le wronskien est W (t) = det(Φ(t)).


Remarque 2.5.2. Ce wronskien dépend du choix d’une base, mais seulement à une constante près. Dans
une autre base la matrice Φ serait Ψ = Φ.P , ou P est la matrice de passage de la première à la seconde et
det (Ψ) = det (Φ). constante

Théorème 2.5.2. de Liouville. Le wronskien satisfait l’équation différentielle linéaire d’ordre 1.


dW
dt
= tr(A(t))W (t)
La démonstration utilise un lemme.
34 Equations linéaires.

Lemme 2.5.1. Soit F une forme n linéaire E n → K fixée. Soit t ∈ I & R → (X1(t), ....Xn(t)) une application
dérivable. Alors f (t) = F (X1, ...Xn) est dérivable et f !(t) = Σi=1
n
F (X1, ..., Xi−1, Xi!, Xi+1, ....Xn)

Démonstration. On écrit Xi(t0 + h) = Xi(t0) + h·Xi!(t0) + o(h) et on reporte

F (X1(t), ...Xn(t)) = F (..., Xi(t0) + Xi!(t0)h + o(h), ...) = F (X1(t0), ...Xn(t0)) + h·Σi=1
n
F (X1(t0), ...,
!
Xi−1(t0), Xi (t0), Xi+1(t0), ....Xn((t0))) + o(h) "

Dans le cas particulier qui nous intéresse F est le déterminant, et on a donc


dW
dt
n
= Σi=1det (X1, ..., Xi−1, Xi!, Xi+1, ....Xn) = Σi=1
n
det (X1, ..., Xi−1, A(t)Xi, Xi+1, ....XnXi+1, ....Xn)

On sait bien que le déterminant ne dépend pas de las base dans laquelle on le calcule, et ici la base
que nous allons prendre est la base (X1, ...Xn)(t) (attention on a fixé un t pour faire le calcul). Le terme
dW
det (X1, ..., Xi−1, A(t)Xi, Xi+1, ....Xn) vaut aii, et donc on a dt = tr(A(t)) "

2.6. Méthodes de résolution des équations linéaires.

2.6.1. Equation scalaire d’ordre n dont on connait une solution : réduction de


l’ordre
Comment calculer une base de l’ensemble des solutions? Mystère, et boule de gomme : sauf dans le cas
des coefficients constants, il n’y a en général aucune méthode.

Cependant dans le cas des équations scalaire, si on connait une solution, alors on peut réduire l’ordre

On considère l’équation scalaire x(n) + an−1x(n−1) + ··· + a1 x ! + a0x = b(t).

On suppose qu’on connait une solution x1 de l’équation sans second membre. On cherche alors les
solution sous la forme y.x1.

Proposition 2.6.1. Soit J un intervalle sur lequel x1 ne s’annule pas. La fonction y.x1 satisfait x(n) +
an−1x(n−1) + ··· + a1 x ! + a0x = b si et seulement si y ! satisfait une équation différentielle linéaire d’ordre
n%1

Démonstration. On fait d’abord le cas n = 2


x !! = y !!.x1 + 2y !.x1! + y.x1!!
x ! = y !.x1 + y.x1!
x = y .x1
Donc x !! + a1 x ! + a0 x = x1(y !! + a1 y !). L’équation devient
(y !! + a 1y !) x1 = b
/ 0
En général x(m) = Σ m
k
x[k]
1 y
[m−k]
= x(m) m−1
1 y + Σk=0 ak,m(y )
! k

Quand on va calculer x(n) + an−1x(n−1) + ··· + a1 x ! + a0x, il ne restera plus de terme en y. "

Remarque 2.6.1. Le cas des coefficients constants ressemble comme une goutte d’eau au problème
suivant. On cherche les racines d’un polynôme P . Si on connait l’une d’entre elle !, alors P est divisible
P
par (X % !) et les autres racines de P sont celle de X − λ . C’est normal car les solutions de l’équation
scalaires sont les e , ou ! est une racine du polynôme caractéristique.
λt

2.6.2. * Séries entières : méthode de la série majorante.


dX
Il est fréquent qu’une équation différentielle x(n) + an−1(t)x(n−1) + ··· + a1 x ! + a0(t)x = b(t), ou bien dt =
A(t)X + B(t) ait des coefficients ai, bi (ou Ai, Bi) qui soient développables en série entière au voisinage d’un
point t0. Nous allons voir que, dans ce cas, il existe au moins une solution développable en série entière
dont le rayon de convergence est supérieur ou égal au rayon de convergence des séries définissant les ai, bi,
dX
Ai, bi. On sait bien que l’équation se ramène toujours la forme plus concise dt = A(t)X + B(t).
/ 0 / 0
dX
On peut même se ramener dt
= A(t)X, grâce à l’astuce X̃ = X
1
, Ã = A B
0 1
.
2.7 Exercices du chapitre 2. 35

Le théorème suivant est théorique, mais il va donner une méthode « pratique » pour trouver une
solution.

dX
Théorème 2.6.1. On considère l’équation différentielle d t = A(t)X , et l’on suppose que la matrice A(t) est
développable en série entière au voisinage de t0 avec un rayon de convergence R > 0, Alors pour toute donnée
initiale (t0, X0) il existe une unique solution développable en série entière de rayon de convergence !R.
Démonstration. Pour simplifier, on pose t0 = 0, et on développe la matrice A(t) en série entière :

k=0t Ak, où les Ak sont des matrices. Si on veut A(t) = A0 + A1 t + ··· + An.t + ··· +
A(t) = Σ∞ k n

On cherche une solution DSE, donc de la forme X(t) = Σ∞


k=0t Xk , les inconnues sont les Xk , et bien
k

sûr on connait X0.


dX
On écrit d’abord formellement dt
(t) = Σ∞
k=0(k + 1)tkXk+1 = X1 + 2tX2 + 3t2X3....

Et A(t).X(t) = A0X0 + (A0X1 + A1X0)t + ··· + .(Σi+ j =k AiXj ) tk

En identifiant, il vient
X1 = A0X0
2X2 = (A0X1 + A1X0)
(k + 1) Xk = (Σi+j =k AiXj )

Ce système est déjà résolu. Si jamais notre série existe, elle est simplement donnée par la formule de
Σ AiXj
récurrence : Xk+1 = i+kj =k
+1

On pose donc ça comme formule, et on va montrer que la série entière correspondante converge.

k=0t Ak et si 0 # ρ < R, on sait que la série 'An'ρ est


Si R est le rayon de convergence d’une série Σ∞ k n
c
bornée. On fixe un tel ρ. On peut donc trouver une constante c et majorer 'An' par ak = ρn .
# $
t tk c
On considère alors m(t) = c 1 + ρ + ··· + ρk + ··· + . = t
1− ρ

8 8
dx dx dt C 8 t8
Résolvons dt
= m(t).x, soit x
= c 1 − t / ρ , ou ln |x| = % ρ dln8 1 % ρ 8

La solution est x = x0e−cln(1−t/ρ) qui est développable en série entière avec un rayon de convergence ρ.
Σi+ j =k ai xj
Si on la développe, on aura x(t) = Σ∞
0 xn t et xk+1 =
k
k+1
.

+ Comme +tous les ak sont positifs, en prenant x0 = 'X0' positif, on aura tous les xi ! 0 et donc 'Xk+1' =
+ Σi+j =k AiXj + Σi+ j =k ai xj
+ k + 1 + # k + 1 = xk+1

La série des 'Xk+1' est majorée par celle des xk donc son rayon de convergence est au moins égal à ρ. "

Remarque 2.6.2. Dans la pratique on a souvent à résoudre une équation x !! + a(t)x ! + b(t)x = c(t). Ici,
les fonctions sont définies sur un intervalle I et DSE au voisinage de t0. Bien entendu, on ne cherche pas à
la résoudre sous forme vectorielle, mais on cherche à développer x sous la forme Σant n. Le théorème nous
dit que les solutions (définie sur tout I) sont développables en série entière autour de t0, avec un rayon de
convergence au moins égal au plus petit des trois rayons des séries qui définissent a, b, c.

2.7. Exercices du chapitre 2.


2.7.1. Généralités 1.
Exercice 2.7.1. On considère l’équation du second ordre dans R .
d 2x
dt2
+ ω 2x = 0
dx
On pose z(t) = dt + i ωx. Ainsi z est une fonction à valeurs dans C. Quelle équation satisfait z ? Quelle
équation satisfait z̄.

Résoudre l’équation.
36 Equations linéaires.

dx
Exercice 2.7.2. Soit dt
= A(t)x , x ∈ E , t ∈ I une équation diff. linéaire.

1. En utilisant le théorème d’existence et d’unicité, démontrer que si x1, ..., xk est une famille de solutions,
les propositions suivantes sont équivalentes :
i. Il existe un instant t0 de I tel que les vecteurs x1(t0), ...xk(t0) sont linéairement indépendants (forment
une famille libre).
ii. Dans E les vecteurs x1, ..., xk sont indépendants.
iii. Pour tout instant t de I, les vecteurs x1(t), ...xk(t) sont linéairement indépendants.

2. Même question avec « sont une famille génératrice » à la place de famille libre.

Exercice 2.7.3. On rappelle que le barycentre d’une famille de point a1, ...ak d’un espace affine affectée des
coefficients "1, ...."k (avec Σ "i = 1) est l’unique point b tel que pour tout point o, o%b = Σki=1"ioai. Si
1" i" n
dx
Soit dt = A(t)x + B(t), une équation diff. linéaire avec second membre.
Vérifier que si xi(t) est une famille de solutions telle qu’à l’instant t0, xi(t0) = ai, la fonction Σki=1"i xi est la
solution de l’équation différentielle dont la valeur à l’instant t0 est Σki=1"i ai.

Autrement dit l’ensemble des solutions de l’équation avec second membre est un espace affine.

Exercice 2.7.4. (Equation de Ricatti)

On considère l’équation différentielle linéaire en dimension 2 :


/ 0 / 0/ 0
d x a c x
dt y
= b d y
.
/ 0
x(t)
On considère une solution y(t)
et on se place dans un intervalle de temps où ni x y ne s’annule pas.
x
On pose z(t) = y . Montre que z satisfait une équation différentielle de la forme z !(t) = q2(t)z 2 + q1(t)z + q0(t).

Réciproquement, si on a une équation différentielle de la forme (R) z !(t) = q2(t)z 2 + q1(t)z + q0(t), construire
une équation différentielle linéaire (L) telle que les solutions de (R) soient précisément les quotients de deux
solutions de (L)

* Soit E un espace vectoriel de dimension n, I un intervalle de R. On se donne trois applications continues


Q, A, B de I a valeurs dans les matrices symétriques (n, n), les matrices (n, n) et le vecteur colonnes. Expliquer
dz
pourquoi l’équation de Ricatti dti = Σj qij (t)zizj + Σjaij (t)zj + bi(t) peut se ramener à l’étude d’une équation
différentielle linéaire en dimension n + 1.

2.7.2. Dimension 1.
dx dx dx
Exercice 2.7.5. Résoudre, en faisant « varier la constante » dt
! 2x = 1, dt
+ x = e t, dt
+ 3x = eit
dx
Exercice 2.7.6. On, considère l’équation L d t + Rx = E, où L, R, E sont trois constantes positives (circuit L, R).
Trouver la solution telle que x(0) = I0 est une constante positive donnée.
Quelle est la limite de x quand t → +∞?
Exercice 2.7.7.
dx
1. On considère l’équation dt
+ ax = b(t), où b est définie sur R. La constante a et la fonction b sont à valeurs
complexes.

On suppose que si t !0, |b(t)| " k, et on suppose que la partie réelle Re(a) de a est non nulle.
k
Soit x(t) la solution telle que x(0) = 0. Démontrer que |x(t)| " Re(a) (1 ! e −Re(a)t)
dx d x2
2. On considère deux équations d t1 + ax1 = b1(t), dt
+ ax2 = b2(t) ou b est définie sur R, et on suppose que
|b1(t) ! b2(t)| "k. On considère des solutions, x1, x2.
k
On suppose que x1(0) = x2(0) démontrer que |x1(t) ! x2(t)| " Re(a) (1 ! e −Re(a)t)

On montre ainsi, que si Re(a) < 0, asymptotiquement les solutions de l’équations ne dépendent pas trop du
second membre (le bruit), a condition que celui ci soit borné.

Exercice 2.7.8. Résoudre les équations suivantes.


dx
dt
+ cos(t) x = sin(2.t), ici t ∈ R.
dx x
dt
! t
= t, ici t > 0
2.7 Exercices du chapitre 2. 37

dx x
dt
+ 2 t = t3, ici t > 0

Exercice 2.7.9. On considère une fonction périodique continue a: R → C de période T .


dx
Soit x une solution non nulle de dt + ax = 0
Démontrer qu’il existe une, constante C telle que x(t + T ) = C.x(t)
T
Démontrer que C = exp ! 0 a(u) du
A quelle condition la fonction x est elle aussi périodique de période T ?
Exercice 2.7.10. * On considère deux fonctions périodiques continue a, b: R → C de période T , et b n’est pas
la fonction nulle.
dx
Soit x une solution non nulle de dt + ax = b
Démontrer que s’il existe une unique solution périodique de l’équation avec second membre, il n’y a pas de
dx
solution périodique à l’équation homogène dt + ax = 0 .

Exercice 2.7.11. Repère de Frenet et équation intrinsèque des courbes planes.

On considère, dans le plan affine euclidien orienté, une courbe paramétrée par l’abscisse curviligne (ton dit
aussi longueur d’arc), et de classe C 2 ; ainsi la courbe paramétrée est une fonction de classe C 2: M : I → E, M (s).
dM
Démontrer que le vecteur tangent %t (s) = ds
est de longueur 1.

Soit %n(s) le vecteur normal tel que %t , %n soit une repère direct. On a donc en identifiant E à C, %
n(s) = i%t(s).
démontrer qu’il existe une fonction continue κ(s) telle que :
d 't %
ds
= κ(s)n
% = iκ(s)t

En déduire que la fonction k: I → R détermine %t à une constante près.

Trouver la fonction k(σ) pour un cercle.

Démontrer que si M1 et M2 sont deux courbes paramétrées par l’abscisse curviligne et si κ1(s) = κ2(s), alors
M2 se déduit de M1 par un déplacement (isométrie directe du plan affine).

2.7.3. Equation homogène à coefficients constants.


Exercice 2.7.12.
Soit I une matrice telle que J 2 = !Id, démontrer que etJ = cos(t) Id + sin(t)J.
/ 0
a −b
Soit A = b a
= a Id + bJ. En utilisant la première question démontrer que :
etA = eta(cos(tb) Id + sin(bt)J)

Soit U un endomorphisme d’un R! ev de dimension 2 dont les deux valeurs propres sont imaginaires. Montrer
que celle-ci sont conjuguées.
/ 0
a −b
Soit " = a + ib l’une d’entre elle. Montrer qu’il existe une base dans laquelle la matrice de u est b a
et en
déduire comment calculer etU (on pourra considère un vecteur propre e de u dans C2, et poser e1 = Re(e), e2 =
Im(e).
/ 0
Exercice 2.7.13. On considère la matrice A = 0 2
1 1
. Calculer l’image du carré |x| " 1; |y | " 1 par exp A.

/ 0 / 0
0 1 4 0
Exercice 2.7.14. Soit B = 1 0
et C = 1 4
, calculer B n, C n et en déduire exp tB, exp tC.

Exercice 2.7.15. * L’application exponentielle est définie exp: Mn(C) → GLn(C) ⊂ Mn(C) .
(−1)k −1
Si H ∈ Mn(C) est une matrice de norme <1 démontrer que la série ln (Id + H) = Σ∞ k=1 k
H k. est
convergente.
1
Montrer que si M est suffisamment proche de l’identité, par exemple )M ) " 10 , )exp M ! Id) < 1
Soit M une matrice diagonalisable suffisamment proche de l’identité, démontrer que ln(exp M ) = M
1
Montrer que l’ensemble des matrices telles que )M ) " 10 et ln(exp M ) ! M = 0 est fermé.
1
Montrer que dans la boule fermée )M ) " 10 l’ensemble des matrices diagonalisables est dense.
1
En déduire que si )M ) " 10 " ln(exp M ) = M
1
Par un argument analogue démontrer que si )M ! Id) " 10 , exp (ln (M )) = M

Soit f : (R, +) → Gln(C), × un homomorphisme continu.


1
Soit α > 0 tel que si |t| " α, alors )f (t) ! Id) " 10
α α
Démontrer que si |t| " 2 et si |u| " 2 alors ln f (t + u) = ln f (t) + ln f (u)
38 Equations linéaires.

1 α
Soit n0 tel que n " 2 . # $
0 α 1
En déduire que pour tout |t| " 2 ln f (t) = [Link] f n (on pourra commencer par les réels t de la forme
#0 $
1 α 1
t = n.n . Et que si |t| " 2 , f (t) = exp tA, pour A = n0.f n
0 0
Démontrer que cette formule reste vraie pour tout t dans R.

Exercice 2.7.16. * Démontrer que si E est un espace vectoriel de dimension finie sur C, A ∈ End(E) un
endomorphisme, la décomposition de Dunford A = D + N , D diagonalisable, N nilpotente, et D et N commutent
est unique. On pourra utiliser le fait que si A commute avec une matrice D !, les sous-espace propre de D ! sont
stables par A.

Exercice 2.7.17. Soit M ∈ Mn(C) une matrice diagonalisable et ("1, ..."n) ses valeurs propres.
(X − λj )
Soit Li le polynôme de Lagrange Li(X) = Π λ −λ
.
1" j " n, j =
/i i j

1. Montrer que : exp (M ) = Σ eλiLi(M ) = Q(M ), où Q = Σ eλiLi


1" i" n 1" i" n
2. Montrer que si M ∈ Mn(R), Q ∈ R[X]

3. Si n = 2, il existe donc deux coefficients α, β tels que eM = αM + βId ; exprimer α, β en fonction des valeurs
propres de M , puis en fonction de la trace et du déterminant.

4. *Si M n’est pas diagonalisable, son polynôme minimal est de la forme Π (X ! "i)νi . En utili-
1" i" m
sant la décomposition de Dunford, montrer comment calculer exp M avec le polynômes de Sylvester, Si,k =
(X − λi)k (X − λj )
Π
(λj − λi)k 1" j " m, j =
, avec 1 " i " m, 0 " k " νi ! 1
/ i λi − λj

Exercice 2.7.18. *
On considère l’espace vectoriel complexe E des solutions de l’équation différentielle à coefficients constants
x(n) + an−1x(n−1) + ··· + a1 x ! + a0x = 0. On sait que E ⊂ C ∞(R, C) est un sous espace vectoriel. On considère
le polynôme associé P (X) = X n + an−1X n−1 + ··· + an. On sait que dim (E) = n.
d
Soit D l’opérateur de dérivation x → dt x. Démontre que E est stable par D.
Montrer que E = ker (P (D)), et que P est le polynôme minimal de la restriction D̄ de D à E
On écrit P comme produit P = Π(X ! "i)νi

Soit Ei = ker (D ! "i)νi.

Montrer que Ei est l’espace vectoriel des fonctions de la forme p(t)eλit, où p est un polynôme de degré
deg(p) " νi ! 1.

Retrouver le théorème qui décrit toutes les solutions de l’équation.


Exercice 2.7.19. Résoudre.
d 2x dx dx
dt 2
! 2 dt ! 3x = 0, x(0) = 0, dt (0) = 1
d 2x dx dx
dt 2
+ (4i + 1) dt + x = 0, x(0) = 0, dt (0) = 0
d 2x dx dx
dt 2
+ (3i ! 1) dt ! 3ix = 0, x(0) = 2, dt (0) = 1
d 2x dx dx
dt 2
+ (4 + 2i) dt + (3 + 4i) x = 0, x(0) = α, dt (0) = β

2.7.4. Equation à coefficients constants avec second membre.


Exercice 2.7.20. Particule dans un champ électro-magnétique.

Un particule de masse m et de charge q se promène dans un champ électro-magnétique constant. Elle subit
% = q. E
une force qui se décompose en F % + qV
% ∧B
% . L’équation de Newton s’écrit q. E
% + q. V % =m d V
% ∧B %.
dt
 
'
B 0
On se place

dans un système de coordonnées ou
 m
= ω


0 , % = mV
et on pose P % de sorte que l’équation est
0 1
'
dP q %
%
= ωP ∧ 
 0  + C, où C = m . E est un vecteur constant.
dt
1

Ecrire l’équation
 
sans second membre, et la résoudre. (indication quelle est la matrice de l’application linéaire
0
P % ∧
% → ωP 

0 , quelle est son exponentielle ?
1
2.7 Exercices du chapitre 2. 39

Résoudre l’équation avec second membre par la méthode de la variation de la constante.


dX % 1
% , décrire X(t).
La position X(t) satisfait dt
=V = m ·P
Exercice 2.7.21. Un projectile sort d’un canon qui tire avec un angle α par rapport à l’horizontale. Il subit donc
deux forces : la pesanteur mg % et le frottement de l’air (proportionnel à la vitesse !kv % ). On se place dans le cas
où le projectile ne va ni très haut ni très loin (ce n’est pas un missile intercontinental), de sorte que %g est constant.
[Link] l’équation différentielle satisfaite par la vitesse de ce projectile.
[Link] w% (t) = %g ∧ %v . Ecrire l’équation différentielle satisfaite par w % (t), et en déduire qu’à tout instant le
projectile reste dans le plan perpendiculaire à w % (t0) passant par la position initiale.
3. On
/ 0
se place donc dans le plan /
en question
0
rapporté à un / repère
0
orthonormé intelligent. Le vecteur %g est
!g 01 , la vitesse initiale est v0. cos α
sin α
, et le point initial est 0
h
. Intégrer l’équation.
0

Exercice 2.7.22. Résoudre


d 2x
dt 2
+ x = |t|
d 2x
dt 2
! x = |t|
d 2x
dt 2
! x = te3t
d 2x
dt 2
+ ω2x = tei!t
d 2x dx
dt 2
+ 2 dt + x = 2 + sin(t)
d2x
Quelle est la solution de l’équation dt 2 + x = b(t) qui s’annule ainsi que sa dérivée pour t = 0

Exercice 2.7.23. * Un ressort exerce une force de rappel proportionnelle à sa longueur.

1. Ecrire l’équation différentielle qui décrit le mouvement d’un petit objet accroché au bout d’un ressort
accroché au plafond. On suppose que sa vitesse initiale est verticale vers le bas, par exemple, et que l’air n’exerce
pas de frottement.

2. Même problème si on suppose que, maintenant, que le point d’attache du ressort accomplit un mouvement
oscillatoire a(t) = a0sinωt. Ici a0 est petit devant la longueur du ressort, et à l’instant initial, l’objet est au repos.
:
k
La valeur ω = m joue un rôle spécial. Lequel ?

3. Maintenant on accroche le ressort au plafond d’un ascenseur, et on suppose qu’au départ, il est fixe. Soit
v(t) la vitesse verticale de l’ascenseur, de sorte que maintenant on a l’équation
d 2x d v(t)
m dt2 = mg ! kx ! m dt
On suppose que v(t) = γt pour t ∈ [0, t0] puis v = γt0 pour t ∈ [t0, t1] et v(t) = 0 si t > t1. Quand l’ascenseur
s’arrête, quelle est l’amplitude du mouvement du ressort ?

2.7.5. Coefficients variables.


Exercice 2.7.24. 8 8
8 x1 x2 88
1. Soient x1, x2 deux fonctions de classe C 2 sur l’intervalle I. On suppose qu’en tout point w(t) = 88 x1" x2 " 8
=
/0
démontrer qu’il existe une équation différentielle x !! + a x ! + b x dont x1, x2 est une base de l’ensemble des
solutions.
2. Dire si les système suivants sont indépendants (et le cas échéant sur quel intervalle) :
t, t + 1 ; t, t2 ; et, t2,

4. Former une équation différentielle linéaire homogène dont on connait un système fondamental de
solutions.(sin(t), cos(t)) ; (et, tet) ; (t, t2).
Exercice 2.7.25. Trouver les solutions de l’équation sans second membre puis résoudre l’équation avec second
membre :
t2 x !! ! tx ! = 3t3 si t > 0

Exercice 2.7.26. Soit a une fonction continue sur I ⊂ R. On considère l’équation différentielle x !! + a(t)x = 0
et deux solutions x1, x2.
Montrer que les 0 de x1 sont des point isolés. On pourra raisonner par l’absurde et montrer que si t0 est un
point où x(t0) = 0, est n’est pas un zéro isolé de la fonction x, alors x !8(t0) = 0.
8
8 x1 x2 8
Quelle est l’équation différentielle satisfait par le wronskien w(t) = 88 8
x1" x2 " 8
?
Montrer qu’entre deux zéros de x1 il y a un zéro de x2

Exercice 2.7.27. * Soit a, b deux fonctions continues sur I ⊂ R. On considère les équations différentielles
x !! + a(t)x = 0, x !! + b(t)x = 0 et deux solutions x1, x2 de la première et la seconde équation. On suppose que b > a.
40 Equations linéaires.

8 8
8 x1 x2 8
Quelle est l’équation différentielle satisfaite par le wronskien w(t) = 88 8
x1" x2 " 8
?
Montrer qu’entre deux zéros de x1 il y a un zéro de x2

En étudiant l’équation x !! + ω2x = 0, montrer que toute solution de l’équation x !! + tx = 0 à une infinité de
zéro sur [1, +∞[. montrer qu’on peut ranger ces zéros en une suite croissante t1 < t2 < t3... telle que tn → ∞ et
tn+1 ! tn → 0
Exercice 2.7.28. Soit I ⊂ R un intervalle et A = I → Mn(R) une application continue.
dX
On suppose que pour tout t, la matrice A(t) est antisymétrique. Soit X(t) une solution de dt = A(t)·X(t).
Démontrer que la fonction )X(t))2 = <X(t), X(t) > est constante. Soit Y une autre solution. montrer que la
fonction <X(t), Y (t) > reste constante.
Soient (X1, ...Xn) la solution fondamentale telle que (Xi(0)) soit un repère orthonormé. Montrer que pour
tout t, (X1, ...Xn)(t) est un repère orthonormé, autrement dit que la solution fondamentale est orthogonale.
Exemple l’exponentielle d’une matrice antisymétrique est orthogonale.
* Réciproque ?

dX
Exercice 2.7.29. * Soit Φ(t) une solution fondamentale de l’équation différentielle linéaire d t = A(t)·X(t).
La matrice R(t, s) = Φ(t)·Φ(s)−1 appelle résolvante du système, ou monodromie de l’équation. Montrer que :
1. R(t, s) ne dépend pas du choix de la solution fondamentale.
2. R(t, u) = R(t, s)·R(s, u), et en particulier R(t, s) = R(s, t)−1dont P (t)
∂R(t, u) ∂R(t, u)
3. ∂t
= A(t)·R(t, u), ∂u
= !R(t, u)·A(u)
dX
Exercice 2.7.30. Soit X(t) une solution de l’équation différentielle linéaire dt = A(t)·X(t), et t → P (t) une
fonction à valeur dans les matrices inversibles. Trouver une équation différentielle linéaire dont P (t)·X(t) est
solution.

2.7.6. Méthodes de résolution


Exercice 2.7.31. En utilisant la méthode de la réduction de l’ordre, résoudre les équations dont on donne une
solution.
1. t > 0, t2 x !! ! 7tx ! + 15x = 0, x1(t) = t3
2. t > 0, t2x !! ! tx ! + x = 0, x1(t) = t
3. 0 < t < 1 (1 ! t2)x !! ! 2tx ! + 2x = 0 : on cherchera une solution de la forme tα.
Exercice 2.7.32. En utilisant la méthode de la réduction de l’ordre, et la méthode de variation de la constante
résoudre les équations avec second membre connaissant une solution de l’équation sans second membre.
1. t > 0, une solution de t2x !! ! 2x = 0, est x1(t) = t2, résoudre t2x !! ! 2x = 2t ! 1
2. t > 0, une solution de t2x !! ! tx ! + x = 0, est x1(t) = t résoudre t2x !! ! tx ! + x = t n

Exercice 2.7.33. Equations d’Euler homogène

C’est une équation linéaire dont le terme de degré k est un monôme de la forme aktk
1. On considère l’équation : t2x !! + atx ! + bx = f (t)
Chercher une solution sous la forme posant x = tα.

2*. Soit P (X) = X n + an−1X n−1 + ··· + .a0.


Démontrer qu’il existe un polynôme Q tel que si Q(α) = 0 la fonction tα satisfait l’équation différentielle
t n .x[n] + an−1t n−1x[n−1] + ··· + .a1.t.x ! + a0x=0
2x
Résoudre : x !! = t2
; t2 x !! + 3tx ! + x = 0

Exercice 2.7.34. * Chercher une solution développable en série entière


1. x !! ! tx ! + x = 0

2. (1 ! t2)x !! ! 2tx ! + α(α + 1)x = 0. Montrer qu’il y a une solution polynomiale..

Exercice 2.7.35. * Equations d’Euler non homogène

C’est une équation linéaire qui se ramène à une équation à coefficients constants grâce à un changement de
variables. On se place sur l’intervalle t > 0

On fait le cas d’ordre 2


On considère l’équation
(1) (at + b)2x !! + a1(at + b)x ! + a2 x = f (t)
2.7 Exercices du chapitre 2. 41

−b
On se place sur l’intervalle t > a et on pose posant at + b = es,
1. Vérifier que # 2 $
dx d x d2 x d x dx
ds
= a.e−t. dt , ds2 = a2e−2t. dt2 ! dt

2. Montrer que la fonction x(s) satisfait une équations différentielle linéaire à coefficients constants.

3. Intégrer l’équation : (t2 + 1)x !!!3(1 + t) x ! + 4x = (1 + t)3

Problème 2.7.1. ∗ Quasi-polynômes et équations différentielles linéaires à coefficients constant.

On veut donner une approche purement « algèbre linéaire » du théorème sur les équations différentielles à
coefficients constants. On considère l’espace vectoriel E des fonction C ∞ de R à valeurs dans C.

Un quasi-polynôme est une fonction de la forme f (t) = Σki=1 pi(t)eλi t, où les pi sont des polynômes. Nous
noterons F ⊂ E, le sous espace des quasi-polynômes et Fλ = F0.eλt ⊂ F (resp. Fn,λ ⊂ Fλ) le sous espace vectoriel
des quasi-polynômes de la forme p(t)eλt, où p est un polynôme resp. de degré inférieur ou égal à n ! 1.

On introduit l’application linéaire D ∈ End(E) qui est la dérivation.

Question 1. Montrer que l’application eλ: F → F qui à un quasi-polynôme q associe le produit


q(t)eλt est un isomorphime, et que eλ·eµ = eλ+ µ, et que la restriction de eλ à Fn,α est un isomorphisme vers
Fn,λ+α

Question 2. Montrer que D ! " Id= eλ ◦ D ◦ e−λ, en déduire que ker(D ! "Id)n = Fn,λ, et que(D ! "Id)[Link],λ =
Fm−n,λ, où l’on convient que Fm−n,λ = 0 si n>m. (ou détaillera le cas " = 0).

Soit P (X) = X n + an−1X n−1 + ··· + a1X + a0 un polynôme unitaire de degré n à coefficients constants.

On veut étudier l’équation différentielle sans second membre :


x[n] + an−1x[n−1] + ··· + a0x = 0

Ou on cherche x dans E, et on appelle F l’espace vectoriel des solutions.

Question 3. Montrer que F = ker(P (D)).

Question 4. Rappeler pourquoi, si P est le produit de deux polynôme A et B premiers entre eux alors
ker(A(D)) ⊕ ker(B(D)) = ker(P (D)) (avec démonstration).

Dans C, tout polynôme unitaire se décompose P = Πki=1(X ! "i)νi, ou les "i sont les racines distinctes de P
et les νi leur multiplicité.

Question 5. En déduire que F = ⊕Fνi,λi, et que les fonction eλi t.t j , avec 1 "i "k, 0 " j < νi forment une base
1" i" k
de l’ensemble des solutions. Montrer aussi que le polynôme P est le polynôme minimal de la restriction de D à
l’espace F.

Soit ν un nombre complexe qui n’est pas une racine de P et Q le polynôme Q(X) = (X ! µ)ν , de sorte que
les polynômes P et Q sont premiers entre eux.

On considère l’espace vectoriel ker((P .Q)(D)).

Question 6. En utilisant le fait que P et Q sont premier entre eux démontrer que P (D) induit un isomorphisme
de Fn, µ pour tout entier n. Autrement dit, pour tout quasi-polynôme v de Fµ, il existe un unique quasi polynôme
de Fµ tel que P (D) u = v. En déduire que l’équation différentielle
x[n] + an−1x[n−1] + ··· + a0x = tν −1e µt admet une solution de la forme p(t)e µt.

Question 7. On, écrit P (X) = Πki=1(X ! "i)νi. montrer que l’équation x[n] + an−1x[n−1] + ··· + a0x = tν −1eλ1 t
admet une solution de la forme p(t)eλ1t, ou degré de p est inférieur ou égal à ν. On pourra écrire P (D) =
(D ! "1Id)ν1Q(D), où Q(X) = Πki=1(X ! "i)νi, et utiliser les questions 2 et 6 pour démontrer que l’image de
Fm,λ1 par P (D) est Fm−n,λ si m ! ν1

Question 8. On revient à l’équation sans second membre. Soit FR ⊂ F le sous-espace vectoriel réel formé des
solutions réelles de l’équation différentielle étudiée (on ne suppose pas que les coefficients du polynôme P sont
réelles. En remarquant que FR est stable par la dérivation D, montrer que le polynôme minimal de la restriction
de D à FR est le PGCD des polynômes P et P̄ . En déduire que se sont les solutions réelles de l’équation Q(D) = 0
Chapitre 3
Champs de vecteurs autonomes, équation y ! = f (x, y).

Dans ce chapitre, on va étudier les équations différentielles du point de vue géométrique. On écrira
dX
y ! = f (x, y), ou bien dt = f (X), X dans un ouvert de Rn (en général n = 2).

L’idée principale est qu’au lieu de chercher une fonction y(x), ou X(t), qui soit la solution, on cherche
une courbe dans le plan des (x, y) (ou dans R n) qui décrit cette solution. Les deux cas particulier les plus
pertinents sont :

1. y ! = f (x, y) La solution est une fonction y(x). Comme on ne la connait pas on s’intéresse plutôt
à la forme de la courbe y(x), et à comprendre la famille de ces courbes quand on fait varier les condition
initiales.
/ 0
dX
2. dt = f (X), X dans un ouvert de Rn (le plus souvent R2). On écrit alors X = x
y
) que l’on représente
par un champ de vecteur.
dX
/
On0remarque
/
que
0
le second cas est une généralisation du premier quand on fait n = 2 dt
= f (X) s’écrit
d
dt
x
y
= 1
f (x, y)
.

Ceci dit, on va voir que si dans le cas 2 on s’intéresse juste à l’image de la courbe solution, on peut
ramener le second cas au premier :
dx dy dy b(x, y)
En fait, l’équation dt = a(x, y), dt = b(x, y) devient dx = a(x, y) si on paramètre la courbe par x, et qu’on
ne cherche pas à décrire la loi horaire, si la tangente est verticale, alors on la paramètre x(y)et l’équation
dx a(x, y)
devient dy = b(x, y) .

Ainsi, si on se limite à la dimension 2, le point 1 est la même chose que le point 2 si au lieu de chercher
les solutions, on cherche les courbes qui les supportent. Nous introduisons deux termes « flot d’un champ
de vecteurs » et « portrait de phase » pour comprendre ce qui ce passe.

3.1. Flot d’un champ de vecteur, orbites


Définition 3.1.1. Si X est un champ de vecteur défini sur un ouvert Ω de Rn, et x0 ∈ Ω, l’orbite de x0
dx
est la courbe de Rn que l’on peut paramétrer par la solution maximale de l’équation différentielle dt = X ,
x(0) = x0. On dit aussi courbe intégrale de X.

Autrement dit la solution de l’équation différentielle est une courbe paramétrée (par le temps). L’orbite
d’un champ de vecteur est une courbe, mais qui n’a pas de paramétrage particulier.

Remarque 3.1.1. Cette terminologie vient de l’astronomie ou on s’intéresse à l’orbite des planètes qui
tournent dans le ciel en suivant une équation différentielle. A ce jour, le problème des 3 corps, qui consiste à
étudier l’équation différentielle du système Soleil, Terre, Lune est toujours très mystérieux. Nous étudierons
en exercice le problème des 2 corps pour vérifier la loi de Kepler qui dit que les planètes tournent autour
du Soleil avec des orbites elliptiques (c’est faux, bien sûr, mais approximativement correct).

Définition 3.1.2. Le flot de X est la fonction ϕ: W & Ω ! R → Ω, noté ϕ(x, t), tel que si x = x0 est fixé,
dx
ϕ(x0, t) est la solution de maximale l’équation différentielle dt = X , X(0) = x

dx
Exemple 3.1.1. Si A est une matrice et on considère l’équation dt
= A.x, alors ϕ(t, x) = exp (tA).x

Le théorème d’unicité de la solution de l’équation différentielle permet de vérifier la proposition suivante.

Proposition 3.1.1. 1. Deux orbites sont soit égales soit disjointes.

43
44 Champs de vecteurs autonomes, équation y ! = f (x, y).

2. ϕ(x, t + u) = ϕ(ϕ(x, t), u).

3.2. Portrait de phase.


On fixe un ouvert Ω de Rn et une fonction X:Ω →Rn que l’on pense comme a un champs de vecteurs :
x1
 
en tout point de Ω on se donne un vecteur f


x2 


qui dépend du point.
xn

3.2.1. Portrait de phase.

Comme il s’agit d’un premier cours sur les équations différentielles, nous nous intéresserons surtout au
cas ou la dimension est 2. Pour comprendre de quoi il retourne, on dessine souvent « le » portait de phase,
qui est un dessin dans le plan qui permet de comprendre à quoi ressemblent les courbes intégrales. On
choisit beaucoup de points dans le domaine considéré, et on dessine le vecteur X(x, y) en ces points.

Par exemple on peut prendre quelques centaines de points disons (xi, yj ) avec i, j dans {1, ...20} et
dessiner le vecteur V en chacun de ces points. L’utilisation d’un logiciel est recommandé (voir en appendice
un code qui permet de faire ça sans s’épuiser).

1
 dx
= −0.3sin(y)
Equation différentielle  dt
dy
Le dessin est fait sur le domaine [%4, 4] ! [%4, 4] avec une grille
dt
= 0.2y + sin(x)
de 20 ! 20. remarquer que certaines flèches débordent de la grille initiale.

Pour dessiner un tel champs « à la main », la première chose a faire est d’identifier les points où le
champs s’annule.

Définition 3.2.1. Un point singulier, ou zéro du champs de vecteur X est un point où X(x0, y0) = 0. La
solution de l’équation différentielle associée telle que (x(0), y(0)) = (x0, y0) est évidemment constante.

3.2.2. Dérivée d’une fonction, intégrale première.

Si f : Ω % R est une fonction de classe C 1, rappelons que pour tout # point et tout $ vecteur , on a
∂f ∂f
# + o(t), où f !(x0) est la forme linéaire ∂x1 , ..., ∂xn (x0)
# ) = f (x0) + tf !(x0)v
f (x0 + tx

 
a
 1 
Proposition 3.2.1. Si X =

a
 2



est un champ de vecteur sur Ω, si f est une fonction, c(t) est une
an
dx d ∂f
solution de l’équation différentielle dt
= X(x), alors dt
n
f (c(t)) = Σi=1 ai ∂x (c(t)).
i
3.2 Portrait de phase. 45

∂f
Notation 3.2.1. On note X.f = Σi=1
n
ai ∂xi la dérivée de f selon X.

Cette fonction définie sur Ω permet d’étudier les variations de la fonction f le long des trajectoires de
X .

/ 0/ 0 / 0
Exemple 3.2.1. Soit X = a b
−b a
x
y
= a x + by
−b x + a y
un champ de vecteur linéaire dans le plan, et soit
f (x, y) = x2 + y 2.

On a X.f = (ax + by) 2x + (%bx + ay)2 y = 2a (x2 + y2) = 2af


d
On en déduit que dt
f (c(t)) = 2af (c(t)), et que f (c(t)) = eaf (c(0))t.

/ 0
Cette proposition est très utile pour étudier les courbes intégrales par exemple si X = a
b
est un champ
de vecteur et qu’on le représente dans le plan, X.(x + y ) = 2xa + 2 yb dit comment va varier le carré de
2 2

la distance à l’origine le long des solutions. Un cas particulier très important est celui où la fonction ne
varie pas.

∂f
Définition 3.2.2. On dit que la fonction f est une intégrale première de X si X.f = Σi=1
n
ai ∂x = 0.
i

dx
Proposition 3.2.2. Si f est une intégrale première de X, les solutions de l’équation dt
= X sont contenues
dans les ensembles de niveau f = cte de la fonction f .

3.2.3. Opérateur différentiel associé à un champs de vecteurs.


 
a
 1  ∂
Au champ de vecteur X = a
 2

,


on associe l’opérateur différentiel Σ ai ∂xi : si f est une fonction
1" i" n
an
∂f
de classe C 1, X.f = <X , df > = Σ ai ∂x .
1" i" n i

dx
On lit « X dérivant f ». Si x(t) est une solution de l’équation différentielle dt
= X , alors on peut
facilement calculer la variation de la fonction f (x(t)): en effet

Proposition 3.2.3. Si x(t) est une solution de l’équation différentielle la variation de la fonction f (x(t))
d
est donnée par dt f (x(t)) = (X.f ) (x(t)).
∂f
X.f = Σ ai ∂x
1" i" n i

Exemple 3.2.2. Si q(x) = <x, x > représente le carré de la distance à l’origine, X.q = 2 < X , x >
=2Σai(x)xi : on remarque que cette quantité ne dépend que de la composante radiale de X.

Notation 3.2.2. On utilise couramment la notation X = Σ ai ∂x pour désigner le champ de vecteur X.
1" i" n i

Remarque 3.2.1. C’est très pratique pour calculer X.f . Cette notation est duale à la notation " =
a1
 
Σ 'i dxi pour les formes différentielles. En fait X n’est autre que l’application x → 


a2 


et " l’appli-
1" i" n
an
∂ ∂
cation ( α1 α2 αn ).En dimension 2, on note souvent X = a ∂x + b ∂y , " = 'dx + βdy.

Ainsi à un champ de vecteur défini sur un ouvert de E 2


% Rn on associé deux objets apparemment très
2
s différents. Schématiquement :
46 Champs de vecteurs autonomes, équation y ! = f (x, y).

dx
équation dt
=X
Champ de vecteurs X: Ω & E → E 3
4
opérateur f → X.f

En coordonnées
dxi
  équation dt
= ai
a1
  3
X = a 
 2 
  4
an ∂
opérateur X = Σ ai ∂x
1" i" n i

3.3. écriture différentielle, séparation des variables, intégrale


première.

3.3.1. Courbe intégrale, trajectoire, orbite.

Soit X un champ de vecteur autonome sur un ouvert Ω & R n.

Rappelons que les mots « courbe intégrale » « trajectoire », « orbite » désignent le même objet. C’est
une courbe que l’on peut paramétrer par une solution de l’équation différentielle.

On se place dans les conditions d’existence et d’unicité (f ∈ C 1 par exemple). On peut reformuler sous
forme géométrique.

Théorème 3.3.1. Par tout point de Ω passe une unique courbe intégrale.
Si deux courbes intégrales se rencontrent en un point elle sont égales.

C’est juste une reformulation du théorème d’existence et d’unicité.

Proposition 3.3.1. Deux champs de vecteurs partout non nuls, X , Y ont les même courbes intégrales si
et seulement si ils sont proportionnels, c’est à dire qu’il existe une fonction partout non nulle f telle que
Y = f .X.

Démonstration. A faire en exercice "

Remarque 3.3.1. Cette proposition est très utile numériquement pour dessiner les courbes intégrales.
Il peut être commode (et numériquement efficace de remplace le champs de vecteur X, par le champs
X
normalisé &X & qui donne en chaque point la direction de X. Ces deux champs ont les même courbes
intégrales, mais le fait que le second soit normalisé fait qu’elle sont plus facile à numériser. Evidemment
ça marche bien loin des points où X = 0.

3.3.2. Ecriture différentielle.


Maintenant, on se place en dimension 2, et même dans un plan ramené à des coordonnées (x, y).

Au lieu d’écrire y ! = f (x, y), on écrit plutôt :

dy % f (x, y ) dx = 0

La signification est la suivante. Si c: I & R → R2 est une courbe intégrale de l’équation différentielle, et
dy dx dy dx dy
si c paramétrée c(t) = (x(t), y(t)), alors on a d t = f (x, y ) d t : en effet dx ! dt = d t .
3.4 Changement de variables. 47

Définition 3.3.1. si " = adx + bdy est une forme différentielle, une courbe intégrale de " est une courbe
paramétrée telle
/
qu’en
0
tout point la droite tangente soit dans le noyau de ". Cette tangente est donc dirigée
par le vecteur −b a

On se place au voisinage d’un point où b =


/ 0, la courbe n’est pas verticale, et localement on peut donc
la paramétrer comme fonction y(x).

Convention 3.3.1. Quand on écrit " = 0, on veut dire qu’on cherche les courbes intégrales de ". On
ne cherche pas des courbes paramétrées (des solutions) mais des objets géométriques (les trajectoires
(=orbites) d’un champ de vecteurs qui dirige ker(")).

Si " = adx + bdy. Résoudre " = 0, c’est chercher une famille de courbes (non paramétrée). Mais on pour
dy a
décrire les solutions on peut chercher une courbe paramétrée par x, et alors on étudie l’équation d x = % b ,
dx b
ou alors une courbe paramétrée par y par écrit d y = % a , on peut aussi résoudre l’équation différentielle
1
 dx
= b(x, y)

dt
dy
.
dt
= −a(x, y)

Proposition 3.3.2. On suppose b = / 0, une courbe intégrale de " paramétrée par x satisfait l’équation
dy a dx b
différentielle dx = % b . De même, si a =
/ 0 et si elle est paramétrée par y, elle satisfait dy = % a
/ 0
∂ ∂
Proposition 3.3.3. La forme a d x + b d y et le champ de vecteurs −b
a
= %b ∂ x + a ∂y ont les mêmes
courbes intégrales. Deux formes différentielles proportionnelles partout non nulles ont les mêmes courbes
intégrales. Il en est de même de deux champs de vecteurs proportionnels. "

3.3.3. Séparation des variables.


L’écriture différentielle est très intéressante si la fonction a ne dépend que de x et la fonction b que de y

Définition 3.3.2. La forme différentielle adx + bdy est à variables séparées, si la fonction a ne dépend
que de x et la fonction b que de y.

Proposition 3.3.4. Si " = a(x) d x + b(y) d y est à variables séparées, si A(x) est une primitive de a et
B(y) de b, on a alors " = d (B % A), et les courbes intégrales de " sont les courbes A(x) % B(y) = cte.

∂F
Un autre cas particulier important est le cas ou " est la différentielle d’une fonction " = dF = ∂x dx +
∂F
∂y
dy.

Théorème 3.3.2. Soit F : U & R2 → R une fonction de classe C 1. Les courbes


1 F = ! sont les courbes
 dx ∂F
∂F ∂F = − ∂y
intégrales de l’équation différentielle ∂x
dx + ∂y
dy = 0. Ou bien de l’équation 
dt
dy ∂F
dt
= ∂x

Remarque 3.3.2. On peut donc utiliser les formes différentielles pour envisager le problème inverse. Etant
donnée un famille de courbes écrire une équation différentielle dont ces courbes sont les courbes intégrales.

Remarque 3.3.3. En utilisant le théorème de Schwartz sur les dérivées seconde, on démontre que pour
∂a ∂b
que " = adx + bdy soit la dérivée d’une fonction , il est nécessaire que ∂y + ∂ x = 0, et que localement au
moins cette condition est suffisante (voir l’exercice correspondant).

3.4. Changement de variables.


Il arrive souvent qu’un problème soit posé avec un système de coordonnées mais qu’il soit plus facile
à résoudre dans un autre : un exemple typique est celui des coordonnées polaires qui sont très utiles à
résoudre certains des problèmes (par exemple l’équation du mouvement d’un objet soumis à une force
centrale, comme l’équation qui décrite le mouvement des planètes autour du soleil). Attention ici on parle
de système de coordonnées non linéaires : le changement de variable polaire est donné par les formules
48 Champs de vecteurs autonomes, équation y ! = f (x, y).

x = r cos(θ), y = r sin(θ)

En regardant ces formules ont voit qu’elles donnent les anciennes coordonnées (x, y) en fonction
des nouvelles (r, θ).

9
Remarque 3.4.1. On peut facilement exprimer r = x2 + y 2 en fonction de x, y ; par contre pour θ
y
ce n’est pas possible. Cependant, si on enlève la demi droite y = 0, x < 0, on peut poser θ = arctg x , en
y
convenant que arctg x = π /2, si y > 0 et %π /2 si y < 0. On peut aussi enlever la demi-droite x = 0, y < 0
x
et poser θ = arcotg y

On a déjà vu ça en algèbre linéaire si B = {e1, ...en}, B ! = {f1, ...fn} sont deux bases d’un espace vectoriel,
on considère souvent la matrice de passage P qui est la matrice (n, n) dont les colonnes sont  les
 coordonnées
x1
des fi dans la base B. La formule du changement de base nous dit que les coordonnées 


 d’un vecteur
  xn
x1"
dans

la base

Bs’exprime

en fonction de celle dans la base B !, disons 


 par la formule :
"
x1 x1" xn
   
 = P · 
"
xn xn
E
Cela résulte du diagramme x5 4x !
n P
R ←



← Rn

Pour nous un système de coordonnées non linéaires sur un ouvert d’un espace vectoriel est un difféo-
morphisme de cet ouvert avec un ouvert de Rn données par des fonctions x1, ...xn, et un changement de
variables non linéaire est une application ϕ: U & R n → Ω & Rn donnée par des formules de classes C 1
qui expriment les anciennes coordonnées en fonction des nouvelles.

Souvent ϕ est bijective, mais comme le montre l’exemple des coordonnées polaires ça n’est pas toujours
le cas. Pour simplifier, et comme il s’agit dé&’un premier cours sur les équations différentielles, nous nous
limitons au cas n = 2.

Un changement
/ 0
de
/
variables
0
est donc juste donnée par deux ouverts de R2, U , Ω et deux applications
de classe C 1: ϕ uv = x(u, v)
y(u, v)
(par abus on note x(u, v) la première coordonnée de ϕ(u, v) et y(u, v) la
seconde.

3.4.1. Changement de variables dans l’équation ω = 0.


/ 0 / 0
d
Etant donnée une équation différentielle dt
x
y
= a(x, y)
b(x, y)
, comment trouver une équation différen-
/ 0 / 0
d
tielle dt
u
v
= α(u, v)
β(u, v)
qui transforme précisément les solutions de la première dans celle de la seconde.

/ 0
d
On va simplifier le problème en cherchant non pas les solutions de l’équation différentielle dt
x
y
=
/ 0
f x
y
, mais simplement les courbes intégrales non paramétrées. On se rappelle que celles-ci sont les courbes
intégrales d’une forme différentielle " = adx + bdy

Pour se faire, la notation différentielle simplifie considérablement les calculs : en fait, on peut penser aux
fonctions u, v comme à des fonctions de la position (x, y) et chercher leur différentielles. De la même façon
qu’il est facile d’exprimer les anciennes coordonnées x, y en fonction des nouvelle il est facile d’exprimer
le différentielle des fonctions coordonnées dx, dy en fonction des nouvelles

Si x s’exprime comme fonction x(u, v) des variables u, v la forme d x est la différentielle d (x(u,
∂x ∂x ∂y ∂y
v)) = ∂u du + ∂v dv . De même dy est d (y(u, v)) = ∂u du + ∂v dv

Alors on peut « calculer " ».


3.4 Changement de variables. 49

/ 0 / 0
x(u, v) x(u, v) ∂x ∂x
"= a d (x (u, v)) + b d (y(u, v)), où d (x(u, v)) = du + d v (et d (y(u,
y(u, v) y(u, v) ∂u ∂v
∂y ∂y
v)) = ∂u du + ∂v
dv ) est la différentielle de la fonction x(u, v).

Tout cela semble très compliqué, mais nous allons le voir sur deux exemples.

3.4.2. Coordonnées polaires


On considère une forme différentielle " = a(x, y) dx + b (x, y) dy et on cherche à l’exprimer en coordonnées
polaires, x = r cos θ, y = r sin θ, alors " devient

η = a(r cos θ, r sin θ) (cos θdr % sin θrdθ) + b(r cos θ, r sin θ) (sin θ dr + r cos θ dθ) = (a cos θ + b sin θ) dr +
(b cos θ % a sin θ)rdθ
On écrit pour a = 1, b = 0 et a = 0, b = 1
dx = cos θdr % r sin θdθ, dy = sin θ dr + cos θrdθ

Ainsi, " = a(x, y).(cos θdr % r sin θdθ) + b(x, y).(sin θ dr + cos θrdθ)
Ou bien " = (a cos θ + b sin θ) dr + r(%a sin θ + b cos θ)dθ
y
Réciproquement, on peut exprimer dθ et dr en coordonnées euclidiennes, puisque r 2 = x 2 +y 2 et tg θ = x ,
on obtient : # $
y2 x dy − y dx
2rdr = 2xdx + 2y dy, 1 + x2 dθ = x2
et on a :
x dy − y dx x dx + y dy
dθ = x2 + y 2
, rdr = xdx + ydy, dr = 9
x2 + y 2

Exemple 3.4.1. L’équation différentielle ('x % βy) dx + (βx + 'y) dy = 0 devient 'rdr + βr 2 dθ = 0, où
dr β
encore r = % α dθ qui s’intègre en r = r0e−β/αθ, ce qui permet de tracer les courbes intégrales exprimée
en coordonnées polaires.

3.4.3. Equations homogènes


# $
dy x x
On étudie une équation homogène dx
=f y
, où f est une certaine fonction. On pose u = y et on prend
comme nouvelles variables u, x.

Les formules sont donc y = ux, x = x


# $
x
On écrit f y dx % dy = 0, et il vient f (u) dx % udx % xdu = 0, soit
dx du
(f (u) % u) dx = xdu qui est à variables séparables, car on peut l’écrire x
= f (u) − u

On peut aussi résoudre l’équation en passant en polaire f (cotg θ)(cos θdr % r sin θdθ) = sin θdr + cos θrdθ
! dr
soit f (cotg θ) cos θ % sin θ). r = (f (cotg θ) sin θ + cos θ) dθ
Sui est à variables séparables.

3.4.4. Redressement des champs de vecteurs.


Le changement de variable dans l’équation " = 0 permet seulement de regarder comment se transforment
les courbes intégrales du champ de vecteur associée, mais pas les solution de l’équation différentielle.
Regardons comment se transforme un champ de vecteur par un C 1 difféomorphisme. On rappelle la
définition de difféomorphisme.

Définition 3.4.1. Soit E , F deux espace vectoriels de même dimension, U , V deux ouvert de ces [Link]
application ϕ: U & E → V & F est un C 1 difféomorphisme si ϕ set bijective, de classe C 1 et si son inverse
ϕ−1 est aussi de classe C 1.

Remarque 3.4.2. Le théorème d’inversion locale dit qu’une application ϕ de classe C 1 est un difféomor-
phisme au voisinage d’un point x0 si et seulement si ϕ !(x0) est une application linéaire inversible.

Si X est un champ de vecteurs sur l’ouvert U et ϕ: U → V est un C 1 difféomorphisme, on peut fabriquer


l’image de X par ϕ, notée Y = ϕ∗(X), par la formule Y (y) = ϕ !(ϕ−1(y)).Xϕ−1(y)
50 Champs de vecteurs autonomes, équation y ! = f (x, y).

dx
Proposition 3.4.1. Si c(t) est la solution du problème de Cauchy dt
= X , x(t0) = x0, y(t) = ϕ(c(t)) est la
dy
solution deux problème de Cauchy dt = Y , y(t0) = ϕ(x0)

dy d dc
Démonstration. On a dt
= d t (ϕ . c(t)) = ϕ !(c(t)) dt = ϕ !(ϕ−1(ϕ(c(t)))).Xϕ−1(ϕ(c(t))) "

Grâce au théorème de différentiabilité par rapport au paramètre, nous démontrerons qu’au voisinage
d’un point x0 où le champ de vecteur Xne s’annule pas, on peu trouver un difféomorphisme
 
ϕ qui le rend
1
∂  
constant. Rappelons que ∂x1
désigne l champ de vecteurs constant X(x) = e1 =  0 




0

Théorème 3.4.1. Soit X un champ de vecteur de classe C 1 défini sur un ouvert Ω et x0 ∈ Ω. Il existe un

voisinage U de x0 et un difféomorphisme ϕ de U vers un voisinage V de 0 ∈ R tel que ϕ∗(X) = ∂x1 . "

Nous démontrerons ce résultat comme conséquence du théorème sur la dépendance différentiable de la


solution par rapport à la condition initiale, donc à la fin du cours. Mais en gros il dit qu’au voisinage d’un
point ou le champ ne s’annule pas, il peut s’étudier comme un champ constant.

3.5. Etude qualitative d’un champ de vecteur.


On se place dans un ouvert de Rn, le plus souvent n = 2 et on se donne un champ de vecteur X supposé
dx
de classe C 1. On veut étudier l’équation différentielle autonome d t = X.

3.5.1. Sortie de tout compact.


Théorème 3.5.1. Soit (t0, x0) une donnée initiale, et I = ]a, b[ & R̄ l’intervalle de temps maximal sur lequel
la solution de l’équation est définie. Alors soit b = +∞, soit b < ∞ et la solution x(t) sort de tout compact
contenu dans Ω et n’y revient jamais: pour toute partie compacte K & Ω il existe un temps t1 tel que si
t > t1 , x(t) ∈
/ K.

Démonstration. En gros l’idée est la suivante. Le théorème de Cauchy-Lipschitz dit que pour toute
donnée initiale (t0, x0), on peut trouver un ε telle que la solution qui au temps t0 vaut x0 soit définie
jusqu’à l’instant t0 + ε. Comme le champ est autonome, il est clair que ce ε ne dépend pas de t0. Une étude
attentive de la démonstration (que nous n’avons pas encore faite) montre que si x0 est fixé et si K & Ω, est
compact on peut trouver un ε qui marche pour tous les points de K. On en déduit que si une orbite arrive
dans dans K à l’instant t, alors on peut la prolonger jusqu’à l’instant t + εK . On applique ce résultat
à b % εK/2. Jamais après cet instant l’orbite ne peut se trouver dans K sinon la solution maximale serait
définie jusqu’à l’instant b + εK /2. "

3.5.2. Points d’équilibre : partie linéaire et stabilité.


Définition 3.5.1. Un point d’équilibre, ou zéro, du champ de vecteur X est un point x0 tel que X(x0) = 0.
On dit aussi point singulier ou point critique 3.5.1.
dx
Evidemment si x0 est un point d’équilibre, la seule solution de l’équation différentielle dt = X telle que
x(t0) = x0 est la solution constante. On peut alors regarder la partie linéaire de X, en effet la formule de
Taylor dit que X(x0 + x) = X !(x0).x + o(x)

Ou matriciellement
 : 
∂X1 ∂X1
 ∂x1 ∂xn   
 
  x
 1
∂X2
 .  
X(x0 + x) =    x 
ou A est une matrice qui est juste la partie
∂x1
 (x0) !  2  + o(x) = Ax + o(x),
   
 
  xn
 ∂Xn ∂Xn

∂x1 ∂x1n

linéaire de X.
dx
Une question importante est de savoir à quelle point l’équation différentielle dt
= X et l’équation linéaire
dx
dt
= A.x ont des solutions qui se ressemblent.

3.5.1. On peut regretter qu’il y ait 4 noms pour désigner la même chose, mais cela souligne l’importance de ces points.
Quand on étudie un champ de vecteur la première chose à faire est de chercher les points où il s’annule.
3.6 Système à un degré de liberté : espace des phases et applications. 51

Pour cela, on va introduire une notion importante : celle de stabilité.

Si x1 est un point du domaine de définition U de X, nous noterons x1(t) la solution de l’équation


différentielle qui vaut x1 à l’instant initial.

Définition 3.5.2. Un point d’équilibre x0 du champ de vecteur X est dit


a ) uniformément stable si
∀ε > 0, 8' > 0 tel que si 'x1 % x0' # ', alors ∀t > 0, 'x1(t) % x0' # ε.
b) asymptotiquement stable si de plus il existe un ρ > 0 tel que si 'x1' # ρ implique que la limite
lim t→+∞x1(t) existe et vaut x0.
c) uniformément asymptotiquement stable si de plus la limite précédente est uniforme, autrement dit
∀ε > 0, 8' > 0 8t1 tel que si 'x1 % x0' # ', alors ∀t > t1, 'x1(t) % x0' # ε.
d ) Si un équilibre n’est pas stable, on dit qu’il est instable.

Remarque 3.5.1. En dimension finie, et en utilisant le théorème de Heine-Borel, on vérifie que si un


équilibre est asymptotiquement stable, il est uniformément asymptotiquement stable.

Théorème 3.5.2. de Lyapunov. Soit A la partie linéaire d’un champ de vecteur au voisinage d’un point
critique x0. On suppose que toutes les valeurs propres de la matrice A ont une partie réelle strictement
négative Re(!) = %a < 0. Alors x0 est un point d’équilibre uniformément asymptotiquement stable. Mieux,
il existe une norme équivalente à la norme initiale telle que si 'x1 % x0' # ' alors 'x1(t) % x0' # 'e−a.t.

Démonstration. On se place en dimension 2, dans le cas ou il y a deux valeurs propres imaginaires pures
conjugués. Le
/
cas général
0
sera fait en [Link] suppose que x0 = (0, 0). On considère une base dans
laquelle A = −a −b
b −a
avec %a < 0. Etudions la fonction f (x, y) = x2 + y2.
a
On a X. f = (%ax % by) ! 2x + (bx % ay) 2 y + o(x)( 2 x 2
2y ) = %a(x + y 2) + (x2 + y2)o(1) # % 2 (x2 + y 2)
9
Si x2 + y 2 est plus petit qu’un certain '.
d −a
9
Ainsi, le long d’une orbite dont l’origine est dans B(0, '), on a dt (x2 + y 2) # 2
(x2 + y 2) et x2 + y 2 #
r0e−at . La distance du point à l’origine converge exponentiellement vers 0 "

On admettra le théorème suivant (Cetaev)

Théorème 3.5.3. On suppose qu’au moins une valeur propre de A a une partie réelle >0. Alors l’équilibre
n’est pas stable. "

3.6. Système à un degré de liberté : espace des phases et appli-


cations.
On va appliquer les résultats de cette section a un problème classique de la mécanique : les systèmes
conservatifs à un degré de liberté. A priori, un tel système est défini par la position x(t) à l’instant t d’un
objet. Ici x peu désigner un peu n’importe quoi : aussi bien l’altitude d’un objet qu’on a lancé en l’air
que l’angle que fait un pendule qui oscille, l’angle que fait un satellite qui tourne autour de la terre ou du
soleil, la charge mesurée au bornes d’un système électrique compliqué, l’ordonnée d’une corde de violon.
d2 x
L’équation de Newton est = f (x) , où f est une fonction (la force), et x ∈ I & R.
d t2
On a décidé que la masse est 1 pour se simplifier la vie.

On s’empresse
1 d’introduire l’espace des phases (x, y) et on considère l’équation :
 dx = y
dt
 dy
= f (x)
dt

dy f(x)
On voit bien que cette équation est à variables séparées : dx
= y
, ou bien
ydy = f (x) dx
dy dx d !1 ,x "
On écrit alors y. dt = f (x) dt et on obtient d t 2 y 2 % f (u) du = 0
1 1! dx " ,x
T = 2 y2 = 2 dt 2 s’appelle l’énergie cinétique, U = % x f (u) du l’énergie potentielle. On pose
0
52 Champs de vecteurs autonomes, équation y ! = f (x, y).

E=T +U qui est « l’énergie totale », ainsi :

Théorème 3.6.1. L’énergie totale est conservée.3.6.1


On est donc ramené à tracer les courbes de niveau de l’énergie dans l’espace des phases. Celles-ci ont
1 2
une équation très simple 2
y + U (x) = E(x, y) = Cte .
Ici, le domaine de définition est I ! R, ou I est le domaine de définition de f (donc de U ).

Il est intéressant, pour comprendre cette équation, de considérer le système physique suivant (montagne
russes). Un petit wagon roule sans frottement dans un champ de pesanteur le long d’une courbe d’équa-
tion z = U (x). On suppose que le champ de la pesanteur est constant. Son énergie potentielle est donc
exactement U (x). Le mouvement qu’elle décrit est précisément régit par l’équation donnée. On peut donc
tout prévoir sans faire aucun calcul avec un peu d’imagination. Le cas du plan incliné U (x) = %'x a été
considéré par Galilée, qui a ainsi décrit la loi de la chute des graves, ou loi de gravitation.

Les solutions de notre équation différentielle sont contenues dans les courbes de niveau de E(x, y), où
1
2
y2 + U (x) = E(x, y). Il est important de comprendre à quoi elle peuvent ressembler, mais avant tout,
regardons les points d’équilibre, ou les zéros de notre champ.

Stabilité et instabilité des points d’équilibre.

Les zéro (points d’équilibre) du champ de vecteurs sont les points de l’espace des phases où la vitesse
s’annule et’énergie potentielle U a un point critique (U !(x0) = 0). On est soit en haut soit en bas de notre
courbe avec une vitesse nulle. Evidemment si on est en bas on y reste, mais si on est en haut et qu’on
bouge un tout petit petit peu on va tomber. Voici les mathématiques qui expliquent cela.
1
On fait un DL à l’ordre 2: U (x) = U (x0) + U !(x0)(x % x0) + 2 U !!(x0)(x % x0)2 + ··· +
1 1
Ainsi, E = 2 y2 + 2 U !!(x0)(x % x0)2 + o(x % x0)2

Le comportement selon que U !!(x0) > 0 (on est à un minimum local de d’énergie potentielle) ou U !!(x0) <
0 est tout à fait différent.
1
 dx
=y
Le champ de vecteur linéarisé est facile à calculer c’est 
dt
dy
et la matrice correspondante a
= u ""(x0) x
dt

deux valeur propres dont la somme est nulle et le produit est %u !!(x0). Si
%U !!(x0) > 0 on a deux valeur
propres réelles de signes opposées et le théorème de Cetaev nous assurer que c’est un équilibre instable.
Nous verrons plus tard un peu mieux à quoi ressemble la solution. Par contre, si U !!(x0) > 0 la théorie
générale ne permet pas de conclure, car il y a deux valeurs propres imaginaires pures et opposées.

Cependant, notons que l’énergie est conservée et au voisinage de (x0, 0) on a


'((x % x0)2 + y2) # E(x, y) % E(x0, 0) # β((x % x0)2 + y2). Si la distance de (x, y) à (x0, 0) est inférieure à
: 9
α
β
.ε, alorsE(x, y) % E(x0, y0) # 'e2 de sorte que (x % x0)2 + y 2 # a. Ainsi il y a stabilité, mais comme
l’énergie est conservée, l’orbite ne peut pas arriver vers l’origine.

3.6.1. Ce qui est important ici, c’est qu’on dispose d’une fonction E(x, y) qui est conservée au court du temps. Le fait
qu’elle s’appelle énergie nous rassure, mais soulève d’autres questions : quelque chose est conservé et c’est ce quelque chose
qui nous intéresse.
3.6 Système à un degré de liberté : espace des phases et applications. 53

Proposition 3.6.1. Les points singuliers sont les couples (x0, 0), ou x est un point critique de l’énergie
potentielle. Si x0 est point critique non dégénéré de U, c’est à dire si U !!(x0) =
/ 0, alors :
Si x0 est un maximum local de l’énergie potentielle, le point singulier est un point instable.
Si x0 est un minimum local e l’énergie potentielle, (x0, 0) est stable, mais pas uniformément asympto-
tiquement.
1
Notons que E(x + x0, y) = E(x0, 0) + y 2 + 2 U !!(x0)x2 + o(x2), ce qui permet de tracer les courbes E = cte
au voisinage des points d’équilibre (x0, 0):

Si x0 est un minimum
9 d’énergie, ce sont ds courbes fermées simples très proches de l’ellipse y +
2
1 !!
2
U (x0)x2 = cte, !!
y = ± 2 ((E % U (x0))

Si x0 est un maximum d’énergie (U !!(x0) < 0), on peut écrire l’ensemble E = E(x0, 0) comme réunion
1
de deux courbes très proches ce sont des courbes très proches de l’hyperbole y 2 + 2 U !!(x0)x2 = E0.

Allure de l’espace des phases


9
Donnée une orbite, on a une expression explicite de y, très utile : y=± 2 (E % U (x))

Rien que sur cette expression, on voit que l’énergie potentielle est toujours inférieure à E, et que quand
elle atteint cette valeur, la vitesse s’annule.

On peut alors tracer les orbites dans l’espace des phases (x, y) à partir du graphe de la fonction U .
Posons I = ]a, b[, et concentrons nous sur un niveau d’énergie E0. Il s’agit de voir à quoi ressemble la courbe
E(x, y) = E0.

Niveau non critiques de l’énergie.

Soit E0 un niveau d’énergie fixé. Supposons d’abord que E0 n’est pas critique. Comme ce niveau n’est
pas critique, la vitesse ne s’annule pas le long de la courbe E(x, y) = E0, et l’orbite de (x0, y0) est toute la
composante connexe contenant (x0, y0) de cette courbe.

Regardons {x ∈ I /U (x) < E0}, comme U est continue, cet ensemble est une réunion d’intervalles ]ai, bi[
et il faut distinguer deux cas.

1.a < ai < bi < b. Notons que U (bi) = U (ai) = E0.


Proposition 3.6.2. Dans ce cas, l’orbite de (x0, v0) est la réunion Ci de deux deux graphes de fonction
9
définie sur [ai, bi]. y±(x) = ± 2 (E % U (x)) , collé le long des deux points (a1, 0) et (b1, 0) qui sont les
points ou la vitesse est nulle (et la valeur de x est extrémale)
L’orbite de
9x0 est alors une courbe fermée réunion de deux graphes de fonction
y±(x) = ± 2 (E % U (x)) .

Ce cas est particulièrement intéressant, car alors l’orbite est (x(t), y(t)) est une fonction périodique
du temps. Soient x1, x2 deux abscisses ce cette orbite On peut facilement calculer le temps mis pour
dx
9
aller de (x1, y1) à (x2, y2), par exemple pour y2 > 0 : en effet y = d t et y = 2 (E % U (x)) , ce qui donne
, x2 dx
t2 % t1 = x 9
1 2 (E − U (x))

, b1 dx
Proposition 3.6.3. Dans cette hypothèse, le mouvement est périodique et de période 2 a1
9
2 (E − U (x))
54 Champs de vecteurs autonomes, équation y ! = f (x, y).

, b1 dx
En effet le temps mis pour aller de (a1, 0) à (b1, 0) est précisément a1
9 , et on met le même
2 (E − U (x))
temps pour aller de (b1, 0) à (a1, 0)

2. a = ai et b < bi
Proposition 3.6.4. Dans ce9cas, l’orbite de (x0, v0) est la réunion Bi de deux deux graphes de fonction
définie sur ]a, bi]. y±(x) = ± 2 (E % U (x)) , joint en un point (b1, 0)
3. a = ai et b = bi
Proposition
9 3.6.5. Dans ce cas, l’orbite de (x0, v0) est le graphe de la fonction définie sur ]a, b[. y±(x) =
± 2 (E % U (x)) le choix du signe dépendant de la valeur initiale de la vitesse. Le long d’une telle trajec-
toire, la vitesse ne s’annule jamais.
Niveau critiques de l’énergie

Si E0 est un niveau critique de l’énergie (ce qui veut dire qu’il contient un point d’équilibre), pour
y2
étudier l’ensemble E(x, y) = U (x) + 2 , on note que les points d’équilibres du champs de vecteurs sont isolés
de la forme (x, 0). On note (x1, 0), (x2, 0), ....(xk , 0) les points d’équilibre contenus dans le niveau E0, c’est
à dire tels que E(xi) = E0.

Les points de minimum de U sont isolés dans l’ensemble E = E0 et nous savons déjà que ce sont des
points stables, donc le cas qui nous intéresse est celui ou les xi sont des maximas locaux de U .

Après avoir fixé le niveau d’énergie, on écrit encore l’ensemble {x ∈ R et U (x) < E0} comme réunion
d’intervalles ]ai, bi[, mais comme les xi sont des maximas locaux, il apparaissent au bord de ces intervalles :
on peut séparer les niveaux d’énergie par des intervalles de la forme ]a1, x1[ ∪ ]x1, x2[....]xk , b1[.

1. a1 > a. L’intervalle ]a1, x1[ décrit une orbite homocline (même cas avec ]x1, b1[, b1 < b) cette orbite
part d’un point instable pour y revenir en un temps infini.

2. ]x1, x2[ orbite hétérocline : elle joint deux points d’équilibres instables et met un temps infini pour
les joindre. Elle peut y retourner en un temps infini aussi.

3. ]a, x[ (cas limite) une orbite arrive à un point d’équilibre instable en un temps infini.

Période du pendule

Si on considère un pendule fixé par une barre a un point fixe, son centre de masse est quelque part disons
à la distance l entre ce point et le bout du pendule, et il décrit
! dθdes
" cercles. Si on appelle θ l’angle que fait le
1
pendule avec la verticale, son énergie cinétique est E = 2 ml2 dt 2 et son énergie potentielle est %mgl. cos θ
!1 ! dθ "2 "
Ainsi E = m ! 2
l2 dt
% g.l. cos θ
dx
Pour se souvenir de ce qu’on a fait avant, appelons x = lθ l’arc parcouru et y = dt la vitesse. On choisi
x
les unités de sorte que la masse soit 1. L’énergie potentielle est U (x) = %g.l cos l , l »énergie totale est
y2 x
E= 2
% g.l cos l

Les points d’équilibre sont les points ou x = 0(π) si x = 0(2π) il y a un équilibre stable, si x = π un
équilibre instable.
Si on part avec une vitesse nulle avec un angle θ0 < 0, x0 = lθ0 on revient à la vitesse
: , nulle pour l’angle
, lθ0 dx l θ0 dθ
opposé. L’énergie est E = %g.l cos θ0 et le temps mis est −lθ0 9 =2 g 0 9
2g.l (cos θ − cos θ0) 2(cos θ − cos θ0)
La période est le double, évidemment.
!a"
On écrit cos (a) = 1 % 2 sin2 2 ,
: ,
l θ dθ
T (θ0) = 4 g 0 0 : θ0 !θ"
sin 2 2
− sin2 2

sin (θ / 2)
dans cette intégrale, on pose sin (ϕ) = sin(θ0 / 2) , et il vient
3.7 Exercices du chapitre 3. 55

9 : !θ"
1 θ 1 1 1 θ
2
cos 2 dθ = 2 sin(θ0 /2) cos
ϕdϕ = 2 sin(θ0 /2) 1 % sin2ϕ dϕ = 2 sin2 20 % sin2 2 dϕ
: ,π : ,π : , # $
l 1 l 2 dϕ l "/2 sin 2θ0 / 2
T (θ0) = 4 g 02 θ dϕ = 4 g 0
9
2 2
=4 g 0 1+ 2
sin 2 ϕ + o(θ02) d ϕ =
cos 2 1 − sin (θ0 / 2) sin ϕ
: ! " : # $
l 1 l θ2
2π g 1 + 4 sin2(θ0 /2) + o(θ02) = 2π g 1 + 160 + o(θ02) .
: #
l
[Comme $ la fonction est paire, on peut d’ailleurs se débrouiller pour montrer qu’on a T (θ0) = 2π g
1+
θ02
16
+ o(θ03) .]

Dans cette exemple, on voit aussi une orbite hétérocline apparaitre. On part de la position d’équilibre
haute θ = %π et on arrive à θ = π en un temps infini. Evidemment cette orbite n’existe pas dans la nature,
mais la dessiner aide bien à comprendre les choses.

:
l
Remarque 3.6.1. On sait que g = 9, 81ms−2. Si un pendule fait 1 m, T0 = 2π g
vaut 2, 005 et l’angle
1
initial fait 0.2 radian au ∆T (θ0)/T (0) = 4
sin2(θ0 /2) = 0.0025.
Un pendule idéal de longue 99,5 cm « bat la
seconde » (a une période de 2 secondes). Si pour le faire fonctionner, on l’écarte de 20 cm de sa position
d’équilibre, il est un peu plus lent (+2, 5) millièmes de seconde).

3.7. Exercices du chapitre 3.


3.7.1. Orbite et flot.
/ 0 / 0
d x f (x, y)
Exercice 3.7.1. On considère une équation différentielle dt y
= X(x, y) = g(x, y)
. On considère l’orbite
C passant en un point (x0, y0) supposé non singulier. A quelle condition la tangente en (x0, y0) est elle verticale ?
fait elle un angle α avec l’horizontale ?

A quelle
/
condition
0
ce point est il un point d’inflexion de C ?/Une idée
0
pour
/
résoudre ce 0
problème :
x(t) d2 x(t) d
Si y(y) est une solution, exprimer que l’accélération 2 y(y) = dt f(x(t), y(t))
g(x(t), y(t))
est proportionnelle à
dt
la vitesse.
 
ln (2) − 2π
Exercice 3.7.2. Soit A = 2π
3 . Quelle est l’image d’un triangle (a, b, c) du plan par la valeur à l’instant
3
ln (2)
/ 0 / 0
d x
1 du flot de l’équation linéaire dt y
= A xy

Quelle est l’image Σθ de demi-droite Dθ passant à l’origine et faisant un angle θ avec l’axe des x par le flot
de ce champ de vecteurs ?

Exercice 3.7.3. Soit X un champ de vecteurs défini sur R2, et f une fonction strictement positive.

Montrer que X et f .X ont les mêmes orbites. On propose deux méthodes.


1. Paramétrer les orbites comme fonctions y(x), ou bien x(y) et écrire l’équation différentielle satisfaite par
cette fonction
2. Chercher une forme différentielle ω dont les courbes intégrales sont les orbites de X

Réciproque ?

3.7.2. Portrait de phase


Exercice 3.7.4. Pour un TP de mat-appli. Ecrire un script permettant d’afficher le portrait de phase d’une
équation différentielle du second ordre en dimension 1 ou du premier ordre dans l’espace des phases qui est de
dimension 2.
Par exemple l’équation de Liénard x !! ! µ(1 ! x2)x ! + x = 0, avec µ petit.

3.7.3. Courbes intégrales, séparation des variables.


Exercice 3.7.5. En séparant les variables, intégrer

tg(x)sin2(y)dx + cos2(x) cotg(y) dy = 0


xy ! ! y = y 2
xyy ! = 1 ! x2
56 Champs de vecteurs autonomes, équation y ! = f (x, y).

Exercice 3.7.6. Former une équation différentielle dont les solutions sont les courbes
x2 = "(x2 ! y2)
y2
1 −
y2 + x =2+λe 2

Exercice 3.7.7. On cherche les courbes C vérifiant la propriété suivante. Au point M , la normale à C en M
coupe les deux axes [Ox] et [Oy] du demi plan X > 0, y > 0 en deux points A, B tels que M soit le milieu de [A, B].
Exercice 3.7.8. Trajectoire orthogonales.
On considère une famille de courbe dépendant d’un paramètre. On cherche une famille de courbe qui rencontre
la première orthogonalement (à angle droit) en tout point.

Si la première famille est donnée par l’équation y ! = f (x, y), montrer qu’on peut définir la seconde par
−1
y"
= f (x, y)
∂f ∂f
Si elle est donnée par f (x, y) = ", montrer que l’autre est obtenue en résolvant ∂x
dy ! ∂y dx = 0

Trouver les trajectoires orthogonales à la famille d’ellipses x2 + 2y2 = "

Même question avec les hyperboles xy = ".


∂f
Si la famille est donnée par f (x, y, ") = 0, démontrer que la famille orthogonale s’obtient en résolvant ∂x
dy !
∂f
∂y
dx = 0 avec f (x, y, ") = 0
Traiter le cas des cercles (x ! a)2 + y2 = a2

Exercice 3.7.9. (Théorème de Clairault)


Soit ω = a d x + b d y une forme différentielle définie sur un ouvert Ω supposé convexe. On suppose que
∂a ∂b
∂y
! ∂x
= 0.
;
Montrer que l’intégrale F (x, y) = C ω ou C est un chemin joignant (x0, y0) à (x, y) ne dépend pas du chemin.
Indication soient γ0 et γ1 deux chemins paramétrées γi = [0, 1] → de classe C 1 joignant (x0, y0) à (x, y). On pose
d ;
γt = tγ1 + (1 ! t)γ0 ; étudier dt C ω, où Ct est le chemin paramétré par γt.
t

Montrer que dF = ω (on pourra considérer des chemins parallèles aux axes).
∂a ∂b
Réciproquement si F ∈ C 2 et dF = adx + b dy, montrer que ∂y
! ∂ x = 0.

3.7.4. Changement de variables


Exercice 3.7.10. Passer en coordonnées polaires dans les équations suivantes pour les intégrer.
9
x2 + y 2 − x
y! = y
(x2 + y 2 dx ! xydy) = 0
1
 dx
= y + x(1 − (x2 + y 2))
dt
 dy
= −x + y(1 − (x2 + y 2))
dt

Problème 3.7.1. Repère non galiléen *.

Les équations de la mécanique classique sont de la forme m % γ=F % . Elle sont supposée être écrite dans un
repère « galiléen » (ce qui ne veut rien dire d’autre qu’on suppose qu’il existe un repère de l’espace dans lequel
ces équations décrivent le mouvement d’un objet).

On rappelle qu’un repère (O, %i , %j , %k) de l’espace euclidien est la donnée d’un point base et d’un repère
orthonormé de l’espace vectoriel sous-jacent. Il arrive que le repère naturel dans lequel on fait l’expérience ne soit
pas fixe au cours du temps. Par exemple si on fait dans un train en marche, on peut voir les effet de l’accélération
du train sur les valises mal disposées au dessus de notre tête. Par ailleurs, il peut être important de se souvenir
que la terre tourne..

Nous fixons une fois pour toute un repère galiléen disons (O0, %e , f% , %g ). A chaque instant fixé, nous avons un
autre repère orthonormé+ une origine (O,%i , %j , %k), mais ce repère et cette origine dépendent du temps. On veut
savoir que devient l’équation m %
γ =F% dans ce repère « mobile ». Nous allons suivant une tradition bien établie
séparer le problème en deux parties. La première partie, seule l’origine bouge, par exemple nous sommes dans
dans un train qui se promène en ligne droite, ensuite on fixera l’origine mais en faisant tourner le repère.

   
u x
Nous noterons 


v  les coordonnées galiléennes, 


y  les coordonnées dans le repère mobile (celle de l’obser-
w z
vateur). On rappelle qu’un changement de coordonnée exprime toujours les anciennes coordonnées en fonction
des nouvelles.
3.7 Exercices du chapitre 3. 57

1. Première partie.  
a(t)
% , %j , %k) est constant mais que l’origine O(t) dépend du temps. On note 
On suppose que (i 

b(t)  les coordon-
c(t)
nées de O(t) dans le repère
 galiléen.
    
x(t) a(t) u(t)
1. Démontrer que 

    
y(t)  +  b(t)  =  v(t) 
z(t) c(t) w(t)

   
d  x(t)  d2  a(t)  %,
2. En déduire que l’équation de Newton, devient m. dt 2
 y(t)  = !m.
dt 2
 b(t)  + F qu’on écrit souvent
z(t) c(t)
d2 r % !%
m. dt2 = F α

 
x(t)

Ainsi, même en l’absence de force, le point  y(t) 
 se met à bouger.
z(t)

Remarque 3.7.1. Tout se passe comme si l’observateur subissait une force égale à l’opposée de l’accélération
de l’origine du repère: quand le train, ou un avion démarre ou décolle on est plaqué au fond de son siège.

2. Deuxième partie.    
u x
   
1. Rappel d’algèbre linéaire. On suppose que  v  et  y  sont les coordonnées d’un point dans des repères
w z
%e , f% , %g et %i , %j , %k de l’espace euclidien.
a. Qu’appelle t on matrice de passage de (e % , f% , %g )
à (i% , %j , %k ).    
u x
 
b. Soit P cette matrice démontrer que  v  = P  y 


w z
c. On suppose que les deux repère sont orthonormé. Démontrer que P .P t = P t.P = Id, et que P est ortho-
gonale.

2. On suppose maintenant que le repère (i % , %j , %k ) dépend du temps et qu’il est toujours orthonormé. On not
% , f% , %g ) à (i
O(t) la matrice de passage de (e % , %j , %k) de sorte que P (t) = O(t) est une matrice orthogonale (3, 3).

a. On suppose que l’application t → O(t) est de classe C 1. Démontrer qu’il existe une matrice antisymétrique
dO(t)
(3, 3) notée Ω(t) telle que dt = O(t).Ω(t)
  
u(t) x(t)
Soit M (t) la trajectoire d’un point dépendant du temps, 

 
v(t) ,  y(t)  les coordonnées de ce point dans
w(t) z(t)
le deux repères.
b. 
Démontrer

que6sa 
vitesse,calculée

dansle
7 repère galiléen, satisfait :
d  u(t)  d  x(t)  
x(t)

 v(t)  =O(t)  y(t)  + Ω(t) y(t) 
dt dt
w(t) z(t) z(t)
  6        7
d2  u(t)  d2  x(t)  d  x(t)  2(t)
x(t)
 !(t)
x(t)

c. En déduire que d t2
 v(t)  = O(t) d t2
 y(t)  + 2Ω(t) dt
 y(t)  + Ω  y(t)  + Ω  y(t) 
w(t) z(t) z(t) z(t) z(t)

d. Et que dans le nouveau repère, l’équation m % % s’écrit


γ =F

         
d 2  x(t)  d  x(t)  2(t)
x(t)
 !(t)
x(t)
 
a

dt2
 y(t)  + 2Ω(t) dt
 y(t)  + Ω  y(t)  + Ω  y(t)  =  b 
z(t) z(t) z(t) z(t) c

3. a. On suppose que Ω !(t)



=0, de sorte

que Ω(t) = Ω est constant, démontrer que O(t) = exp tΩ, et qu’il

x x
% tel que Ω
existe un vecteur ω 

% ∧
y = ω

 y . Le vecteur ω
% est le vecteur de rotation instantanée.
z z
b. Montrer que O(t)

n’est

autre que la rotation autour de l’axe dirigé par ω
% et d’angle t)ω).
x(t)
4. Notant %r (t) = 


y(t)  montrer que l’équation s’écrit alors
z(t)
d 2 'r d'r 1
%
d t2
%∧
+ 2ω dt
% ∧ (ω
+ω % ∧ %)
r = m .F

Remarque 3.7.2. Ainsi on remarque qu’en l’absence même d’une force extérieure (f = 0) le point se met à
2
bouger. On écrit souvent m. d 'r = F
% ! m.2ω
%∧
d'r
! m.ω
% ∧ (ω r .
% ∧ %)
dt2 dt
58 Champs de vecteurs autonomes, équation y ! = f (x, y).

dr
Le terme !m. 2ω % ∧ d t s’appelle la force de Coriolis, le second, !m. ω % ∧ r) n’est autre que la force
% ∧ (ω
dr
centrifuge : c’est la force subie à chaque instant par un enfant assis sans bouger ( dt = 0) dans un manège qui
tourne. Si ω% est constant et si le champ de force ne dépend pas de la position r mais que de t , on a « juste »
une équation différentielle linéaire du second ordre à résoudre.

3. Champ de pesanteur.
GM
Le champ de la pesanteur %g est dirigé vers le centre de la terre, et sa valeur absolue est ' &2
&r
a peu près
constante entre le haut et le bas de la tour Eiffel, donc à la latitude de 45°. La vitesse de rotation de la terre est
de 1 tour par 24 h. Un observateur regarde un objet tomber du haut de la tour Eiffel. L’équation de la chute
des corps est donc :
d 2 'r d'r
d t2
= g% ! ! 2ω
% ∧ , ou g% ! = %g ! ω
dt
% ∧ %r ) qui est a peu près constant.
% ∧ (ω

Le vecteur g% ! donne donc la direction de la verticale observée (qui est légèrement différente de la verticale
physique), nous considérerons que c’est une constante.
d'
v
Résoudre l’équation dt
% ∧ %v + %g !. On note Ω la matrice du produit vectoriel par ω
= !2ω %

Evidemment le vecteur ω% est tout petit, le temps de chute tc n’est pas très long, donc on peut poser euΩ =
Id + uΩ + 0()ω % )2)) " )ω
% )2), avec )0()ω % )2 × |tc2|
t2 t3
En déduire que si v0 = 0, on a %r = r%0 ! %g ! 2 + % )2|tc4| × )g
% ∧ %g ! + termes
en )ω
3
ω % !)
<
2h
Le temps de chute est approximativement t= g . On donne g = 10ms2. On fait descendre tout doucement
un fil a plomb du haut d’une tour de 100 m pour marquer la verticale. Après on laisse tomber une pierre. Montrer
que sa chute est déviée vers l’est et évaluer de combien.

3.7.5. Points d’équilibre.


Exercice 3.7.11. Donner un exemple de système stable, mais pas asymptotiquement stable en dimension 2.
Exercice 3.7.12. Trouver les points d’équilibre et discuter leur stabilité.
dx dx
dt
= !x(1 ! x) ; dt = 1 ! x2
1
 dx
= −2x(x − 1)(2x − 1)
dt
 dy
= −2y
dt
1
 dx
=x
Exercice 3.7.13. Etudier les orbites du système : dt
dy
et comparer au système linéarisé.
dt
= −y + x3

Exercice 3.7.14. Soit U : R2 → R une fonction de classe C 2. On étudie l’équation différentielle


 
/ 0 ∂U
dx
dt
= !∇U , où x = x1
x2
, et ∇U est le gradient de U , c’est à dire le champ de vecteur 

∂x1
∂U

.
∂x2

1. Quels sont les points d’équilibre de ce système ?

2. Démontrer que si x(t) est une solution, la fonction U (x(t)) est décroissante, et même strictement si x(0),
n’est pas un point d’équilibre.

3. On suppose maintenant que U est propre, c’est à dire que lim U (x) = +∞.
&x&→∞
dx
Démontrer que la solution du problème de Cauchy = !∇U , x(0) = x0 est définie sur R+. On pourra consi-
dt
dérer l’ensemble {x/U (x) " U (x0)} et démontrer qu’il est compact.

4.* On suppose de plus que le points critiques de la fonction U sont isolés, et on les note {x1, ...xn0}.
On veut démontrer que pour toute donnée initiale, la trajectoire x(t) converge quand t → +∞ et que sa limite
est un point d’équilibre.
= >
d
On introduit 4 notations : d = min )xi ! xj ), Ω = x / ∀i, )x ! xi) ! 10 ainsi que α = min)∇U (x)),
x∈Ω
β = max)∇U (x)).
x∈Ω
# $ # $
d d
4.a Soit x: [t1, t2] →
# Ω une$solution telle que x(t1) ∈ B xi, 10 et x(t2) ∈ B xj , 10 , mais x(]t1, t2[) ne rencontre
d
aucune des boules B xi, 10 .
2d
Démontrer que la longueur du chemin p (qui est supérieure à d ! 10 ) est inférieure à (t2 ! t1)β, et en déduire
4. d
que t2 ! t1 ! 5β

4.b En remarquant que si t ∈ [t1, t2], )∇U (x(t))) ! α, montrer que U (p(t2)) ! U (p(t1)) " ! 5β d.

4.c En déduire qu’il n’existe pas de suite tn qui tend vers l’infini telle que p(t2n) soit dans la boule centre
de rayon p1 et rayon d/10 alors que p(t2n+1) soit dans la boule de centre p2 et de rayon d/10.
3.7 Exercices du chapitre 3. 59

 
∂ 2U ∂ 2U
 ∂ x2

5. On suppose que pour tous les points critiques de U (les points où ∇U = 0) la Hessienne  est
∂ x∂ y

 ∂ 2U ∂ 2U 
∂ x∂ y ∂y2
non dégénérée (son discriminant est non nul). Discuter la stabilité des points critiques.
x2 x4 y2
6. Etudier le cas particulier U (x, y) = ! 2 + 4
+ 2
, et esquisser le portrait de phase.

Problème 3.7.2. * Soit A ∈ Mn(R) une matrice dont toutes les valeurs propres "1, ..."n (complexes),ont
une partie réelle strictement négative. On rappelle que le produit scalaire est donné par la formule <X , Y >
n
=Σi=1 xi yi
dX
1. En utilisant la forme générale des solutions de l’équation d t = A X, démontrer que la fonction
(λi +λj)t
< epx tAx, exp tAy > est une somme de , ∞fonctions de la forme pi, je
2. En déduire que pour l’intégrale 0 < exp tAx, exp tAy > dt est convergente et défini un nouveau produit
scalaire <u, v >n sur Rn défini positif. On note q(x) = <x, x >n le carré scalaire, c’est le carré d’une norme
euclidienne sur Rn.
3. Soit, ∞Y = A.x le champ de vecteur , ∞ linéaire associé à A.. Montrer que Y . q (x) = 2 < x,
A.x >n = 0 < exp tAx, A exp tAx > dt = 2 0 <x(t), x !(t) > dt = !<x, x >
4 En déduire qu’il existe un certain α > 0 tel que Y . q (x) "!αq(x) et que le long d’une orbite q(x(t)) "e −αtq(x)
5. Démontrer le cas général du Théorème de Stabilité en vous inspirant du cas particulier traité dans la
démonstration du théorème 3.

3.7.6. Système à un degré de liberté.


Exercice 3.7.15. On considère l’équation différentielle x !! + f (x) = 0
1. Ecrire l’équation dans l’espace des phases en posant y = x !
y2
2. Soit U une primitive de f , Re-démontrer que E = U + 2
est un intégrale première de cette équation

3. Dessiner côte à côte le graphe de la fonction U et quelques courbes E = cte pour les exemples suivants.

f (x) = x2n−1
f (x) = x ! x3
f (x) = 1 ! x2

Dans chacun des cas, on cherchera les positions d’équilibre (points critiques) et on discutera leur stabilité.
On décrira les orbites périodiques, homoclines et hétéroclines.

U
Exercice 3.7.16. On considère l’équation x !! = !∇U (x), ou U (x) = ! ch 2 0αx
1 2
Chercher le minimum d’énergie E = 2 x ! + U (x) et montrer que celui ci est stable.
Pour quelles valeurs de E le mouvement est il périodique ? Calculer alors sa période.

Problème 3.7.3. Champ central et problème de Kepler.3.7.1

On se place dans R3, et on se donne un champ de forces central. Conformément à la tradition nous noterons
'r
%r la position d’un point soumis à la force en question, et r = )r
% ) sa norme euclidienne, et e%r = &r
'&
.

En tout point la force F % se dirige vers l’origine, autrement dit il existe une fonction F
% (r
%) = α(x %, ou α est peut-
% )r
être positif (si l’objet est repoussé du centre), peut être négatif (il y est attiré). On étudie l’équation de Newton
d 2'r
m d t2 = F (r
%).
d 'r % reste constant au cours du temps. On le note M .k
% , où M
1 Soit %v = d t la vitesse. Montrer que m.v
% ∧ %r = M
est sa longueur et %k sa direction.

2.
% passant à l’origine.
Montrer que au cours du temps le point reste dans le plan Π perpendiculaire au vecteur M

Ainsi le mouvement reste dans un plan au cours du temps et ce plan ayant un point privilégié, il est tentant
'r
de passer en coordonnées polaires, %r (t) = r(t)eiθ(t) ce qui veut aussi dire que e%r = &r
'&
= eiθ(t)

On suppose maintenant de plus que la valeur absolue de la force ne dépend que de la distance à l’origine, de
sorte que f (r
% ) = g(r)r
%
d'
r dθ
3. Calculer d t , en coordonnées polaires et montrer que mr 2 dt = M reste constant au cours du temps (utiliser
1). C’est la loi des aires.

3.7.1. Pour plus de renseignements, voir Landau et Lifchitz, mécanique ch.3.


60 Champs de vecteurs autonomes, équation y ! = f (x, y).

1 d'r d 'r
4. L’énergie cinétique de l’objet est 2 m < .
d t dt
> combien vaut elle en coordonnées polaires ?

# $2
1 dr M2
5. On suppose que la force dérive d’un potentiel U (ρ), Montre que l’énergie totale est E = 2 m dt + 2m r 2 +
U (r). Ce qui ramène à l’étude d’un système à un degré de liberté dont l’énergie potentielle serait
M2
Ueff (r) = 2m r 2 + U (r)
α
6. On suppose maintenant que le potentiel U est le potentiel de Kepler U (r) = ! r . Dessiner cote a cote le
M2 α dr
potentiel efficace 2mr 2 ! r et les trajectoires dans l’espace des phases r, d t . En déduire que si E > 0 le mouvement
s’en va à l’infini, alors que si E < 0 l’orbite est périodique.
: !
dθ M dr 2 α" M2
7. On a d t = m r 2 et dt = m E + r ! m r2 . En déduire que
# ! $
dθ M 2 α" M 2 −1/2 1
dr
= m r 2 · m E + r ! m r2 , et intégrer grâce au changement de variables x = r
:
p M2 2EM2
Montrer que les trajectoires sont de la forme r = 1 + e. cos θ , avec p = mα , e = 1 + mα2 . Ce sont des coniques
d’excentricité e, et on retrouve bien les résultats du 6.
Chapitre 4
Aspects qualitatifs

Des aspects très important de la théorie des équations différentielle n’ont pas encore été abordés. D’abord,
comment trouver des solutions approchées (nous avons vu sur de nombreux exemples qu’il est impossible de
trouver des solutions exactes) ? Une suite de solutions approchées converge-te-elle vers une vraie solution ?
Ensuite est ce que les solutions sont stables au sens suivant : si on se trompe un peu soit sur l’équation,
soit sur la condition initiale, comment cela affecte-t-il le résultat. Les équations différentielles qui ont un
sens physique satisfont ce genre de propriété car il est impossible de connaitre avec une précision absolue
les conditions initiales, les valeurs des paramètres etc. Ce qui ne les empêchent pas de décrire de façon très
convaincante la réalité.

4.1. Lemme de Grönwall. Solutions approchées. Schéma


d’Euler.
4.1.1. Lemme de Grönwall
Le lemme de Grönwall a déjà été utilisé dans plusieurs cas particulier.

Théorème 4.1.1. Lemme de Grönwall. Soit ϕ: [0, T ] → R une fonction continue. On suppose qu’il existe
un réelle k et une fonction continue f : [0, T ] → R tels que
,t
ϕ(t) # f (t) + k 0 ϕ(u) du
,t
Alors ϕ(t) # f (t) + k 0 f (u)ek(t −u) du

Avant de passer à démonstration, on donne 3 exemples.


,t
Corollaire 4.1.1. 1. Si 0 # ϕ(t) # k 0 ϕ(u) du alors ϕ = 0. Nous avons déjà utilisé cela dans la démons-
tration de l’unicité, du Théorème de Cauchy Lipschitz.
t
2. ϕ(t) # a + k 0 ϕ(u) du, alors ϕ(t) # aekt
,t a
3. ϕ(t) # at + k 0 ϕ(u) du, alors ϕ(t) # k (ekt % 1)
,t a
4.ϕ(t) # at + b + k 0 ϕ(u) du, alors ϕ(t) # k (ekt % 1) + bekt

,t
Remarque 4.1.1. Si on dérive ϕ1(t) = f (t) + k 0 ϕ1(u) d u, alors on voit que ϕ1 satisfait l’équation
,t
ϕ1! = f ! + ϕ1, dont la solution telle que ϕ1(0) = f (0) est ϕ1 = f (t) + k 0 f (u)ek(t−u) du. On peut reformuler
ϕ(t) # ϕ1(t). Autrement, t dit le second membre de l’inégalité de Grönwall est la solution de l’équation
intégrale ϕ(t) = f (t) + k 0 ϕ(u) du.

Démonstration. Montrons d’abord le théorème.


,t
Soit Φ(t) = 0 ϕ(u) du. Alors Φ !(t) # f (t) + kΦ(t). On pose Ψ(t) = e−ktΦ, alors
,t
Ψ !(t) = e−kt(Φ ! % kΦ) # e−kt Donc Ψ !(t) # e−ktf (t), Ψ(t) # 0 f (u)e−ku du et on récupère le résultat,
, t
car Ψ(t) = e−ktΦ # 0 f (u)ek(t−u) du.

,t
Pour le corollaire, on calcule f (t) + k 0 f (u)ek(t−u) du dans les trois exemples.
,t
a + k 0 aek(t−u) du = a + ekt [%ae−ku]0t = aekt
,t ,t . −ku -t
e a
at + k 0
atek(t−u) du =IP at + ekt [%ate−ku]0t + 0
a ek(t−u) du = aekt. % k = k (ekt % 1)
0
,t a
at + b + k 0 (at + b)ek(t−u) du = bekt + k (ekt % 1).
"

61
62 Aspects qualitatifs

4.1.2. Solutions approchées.

Soit f : Ω & Rn ! R → R n une fonction, et ε > 0.


Le lemme de Grönwall va être utile pour comprendre comment fabriquer des solutions approchées à
l’équation différentielle dx
dt
= f (t, x)

A vrai dire, nous n’allons pas rechercher des fonctions dérivables partout, mais C 1 par morceau et avec
une dérivée à droite et à gauche en tout point. Ce sont les primitives de fonctions continues par morceau.
Très importantes pour nous seront les fonctions linéaires par morceau. En analyse numérique, on utilise
aussi les fonctions polynomiales par morceaux (les fonctions splines).
On garde les notations précédentes.
dx
Définition 4.1.1. Une solution ε approchée de l’équation différentielle d t = f (t, x) sur un intervalle [t0, t1]
est une fonction x(t), continue, C 1 par morceaux, dérivable à droite et à gauche en tout point telle que
+ dx +
pour tout t ∈ [t0, t1], (x1, t) ∈ Ω et + dt % f (t, x)+ # ε. En un point ou x a seulement une dérivée à droite ou
à gauche, on exige que 'xd! (t) % f (t, x)' # ε et 'xg! (t) % f (t, x)' # ε

Cette définition est importante, parce que dans la vraie vie, on ne connait pas exactement l’équation,
et même si on la connait, il n’y a aucune méthode pour en trouver une solution.

On peut se demander si les solutions approchées approchent bien les solutions, ou pas. Malheureusement
dx √ dx
sans hypothèse de régularité ça n’est pas le cas. Reprenons l’équation différentielle dt = x si x > 0, dt = 0
sinon. Avec comme condition initiale x(0) = 0. Nous avons deux solutions (exactes, donc approchées)à sur
1
[0, +∞[ x0(t) = 0 et x1(t) = 4 t2.
1
Fixons nous intervalle de temps, par exemple [0, 1] alors sur cet intervalle on a 'x1 % x0'∞ = 4 , et donc la
solution approché x1 n’approche pas du tout solution x0. Grâce au lemme de Grönwall et à la condition de
Lipschitz, nous allons démontrer que si f (t, x) est lipschitzienne par rapport à x, cela se passe un peu mieux;

Théorème 4.1.2. On suppose que la fonction f est (globalement sur Ω) k % lipschitzienne par rapport
à x, c’est à dire que 'f (t, x1) % f (t, x2)' # k'x1 % x2'. Soient x1 et x2 deux solutions ε1-approchée et
ε2 % approchée définies sur un intervalle [t0, T ]. Alors pour t ∈ [t0, T ], on a 'x1(t) % x2(t)' # 'x1(0) %
ek(t−t0) − 1
x2(0)'ek (t−t0) + (ε1 + ε2) k

+ , t ! dx dx "
+
Démonstration. On pose ϕ(t) = 'x1(t) % x2(t)' = + x1(t0) % x2(t0) + t0 dt1 % d t2 du+
,t
Ainsi, ϕ(t) # 'x1(t0) % x2(t0)' + t0
'f (u, x1) % f (u, x2)' du + (ε1 + ε2)(t % t0).

Grace à la condition de Lipschitz, comme 'x1(t0) % x2(t0)' = ϕ(t0) il vient


,t
ϕ(t) % ϕ(t0) # (ε1 + ε2) (t % t0) + k t0 ϕ(u) du
,t
ϕ(t) # ϕ(t0) + (ε1 + ε2) (t % t0) + k t ϕ(u) du
0

et le lemme de Grönwall (3-ième exemple) s’applique. "


dx
Exemple 4.1.1. On considère l’équation différentielle linéaire dt
= k·x + ε. La méthode de la variation
kt
e −1
de la constante donne comme solution x(t) = x(0)e + ε .
C’est par construction même une solution
kt
k
dx
ε approchée de la solution de l’équation dt = k·x . Elle donne le cas d’égalité dans le théorème ci-dessus
quand on prend x1 ≡ 0 la solution exacte ayant pour donnée initiale 0.
4.1 Lemme de Grönwall. Solutions approchées. Schéma d’Euler. 63

Ainsi, si on fixe un intervalle de temps[t0, t1] une solution approchée approche une solution a 2εek (t1 −t0)
près. Du point de vue numérique, le terme exponentiel est catastrophique. Notons cependant que l’inéga-
dx
lité ne peut pas être améliorée. Si on part de l’équation différentielle linéaire à coefficient constant dt = a.x,
dont la solution est x(t) = x(0)eat. Si x1(0) = ε la solution x1(t) = εeat est une solution approchée de la
solution 0. La solution approchée va diverger de la solution exponentiellement vite : en général, on ne peut
pas prédire l’avenir.

Ce problème est connu sous le nom « effet aile de papillon »: une petite erreur (ε) sur les conditions
initiales va avoir un effet très important assez rapidement. Par exemple si x mesure une distance en m,
alors f est exprimée en m.s−1 et sa constante de Lipschitz en s−1 soit en Herz. Supposons qu’elle soit de
x−y
l’ordre de 10 −2 Hz (f est presque constante f (x) = f (y) ± 100 c’est-à-dire que l’erreur relative sur la
vitesse soit de l’ordre de 1/100 par rapport à la position). Alors au bout d’un temps de 1 heure l’erreur
∆x
relative ε commise sur la position est de e36 soit 1015.

Notons néanmoins que ce problème n’apparaitrait pas, dans l’équation linéaire, pour a < 0. Il y a donc
des cas ou les solutions approchées approchent bien (en temps positif) les solutions. Nous dirons que ce
sont des solutions stables .

En faisant, ε = 0, nous « re »-démontrons l’unicité des solutions. Il n’y a rien d’étonnant, nous avions
utilisé la même démonstration dans le cas particulier ε = 0.

Corollaire 4.1.2. Sous ces hypothèses, il y a unicité de la solution sur l’intervalle [0, T ]"

4.1.3. Schéma d’Euler

La méthode d’Euler consiste à chercher une solution approchée au problème de Cauchy. On se donne
une condition initiale (t0, x0) et on cherche une solution linéaire par morceaux sur un intervalle disons [t0, T ].
T −t T −t
On divise cet intervalle en n morceaux, disons de longueur n 0 . On pose pour simplifier tk = t0 + k n 0 .

Pour construire une fonction linéaire par morceaux, on procède par récurrence. La valeur de la fonction
à l’instant t0 est x0 et sa dérivée à droite est y0 = f (t0, x0).
T − t0
On veut qu’elle soit linéaire par morceaux, alors sa valeur en t1 est x1 = x0 + n
f (t0, x0). Et on
T −t
recommence. La valeur au point tk est donc xk+1 = xk + n 0 f (tk , xk).

Malheureusement si on n’a pas fait attention il n’y a aucune raison pour que le couple (tk , xk) ne sorte
pas de Ω auquel cas le processus s’arrête. Pour cela il va falloir réduire le temps de définition de notre
solution.

Soit x0 ∈ Ω, r > 0. On suppose que K = B̄(x0, r) ! [t0, T !] & Ω et on note A = max (x,t)∈C 'f '
! r " T −t
Lemme 4.1.1. Soit T # max t0 + A , T ! . La suite x0, ...xn (finie) définie par xk+1 = xk + n 0 f (tk , xk)
est bien définie.

Définition 4.1.2. L’ensemble B̄(x0, r) ! [t0, T ] s’appelle un cylindre de sécurité.

Dans le cylindre de sécurité, on peut alors définir une fonction ϕ, continue et linéaire par morceaux en
disant que sa restriction à chaque intervalle [tk , tk+1] est linéaire, et que ϕ(tk) = xk. La pente de ϕ en
restriction à l’intervalle [tk , tk+1] est f (tk , xk).

T − t0
Définition 4.1.3. La suite de points xk+1 = xk + n
f (tk , xk) qui définit la fonction ϕ s’appelle le schéma
d’Euler.

Pour montrer que la fonction ainsi définie est bien, pour n suffisamment grand, une solution ε %
approchée, il faut rappeler le théorème de Heine-Borel.

Théorème 4.1.3. Soit f une fonction continue sur un compact. Alors f est uniformément continue : pour
ε > 0, il existe ' tel que si 'u % v ' # ' alors 'f (u) % f (v)' # ε.
64 Aspects qualitatifs

ε
Exemple 4.1.2. Si f est k % lipschitzienne, la démonstration se simplifie considérablement : on prend ' = k

Théorème 4.1.4. Si la fonction f est continue, il existe ! un Tnombre T et un entier nε tel que pour n ! nε
−t "
la fonction linéaire par morceaux ϕ: [t0, T ] telle que ϕ t0 + k n 0 = xk est une solution ε approchée de
dx
l’équation différentielle dt % f (t, x) = 0 telle que ϕ(t0) = x0.

dx
Exemple 4.1.3. Si on veut résoudre l’équation différentielle dt = x sur l’intervalle [0, t ] avec comme
! t "
condition initiale x(0) = 1, on trouve ϕn(t) = 1 + n n comme solution approchée.

Toute le mode sait bien que ϕn(t) converge vers et, mais pas très vite. Si t est fixé, on a .
# $
! t2
t " ! "
! t " t 1
n − + o(1)
1 + n n = en ln 1+ n = e n 2n2 n2
t 1
= et ! 1 % n + n2 o(1)
|ϕn − et| 1
L’erreur relative commise et
est donc de l’ordre de n
t. Le schéma d’Euler converge lente-
ment.

4.2. Convergence uniforme, théorème de Cauchy-Lipschitz.


Dans ce paragraphe, on considère une suite de solutions approchées et on se demande si elle converge vers
une solution. Avant tout il faut rappeler la notion de convergence uniforme, et de norme uniforme.

4.2.1. Convergence uniforme. On fixe un espace vectoriel normé de dimension finie (E , '.').
On sait que E est complet, c’est à dire que toute suite de Cauchy d’élément de E converge dans E. Si
I & R est un intervalle, nous considérons l’espace vectoriel Cb(I , E) des fonctions continues et bornées sur
E, muni de la norme 'x'∞ = sup'x(t)'
t∈I

Une suite de fonctions xn converge vers la fonction x∗ au sens de cette norme si et seulement si elle
converge uniformément vers x∗, c’est-à-dire qu’on a la proposition suivante.

Proposition 4.2.1. Soit (xn)n∈N une suite d’éléments de Cb(I , E) et soit x∗ ∈ Cb(I , E).On a l’équivalence
entre
i. La suite de fonctions xn converge uniformément vers x∗.
ii. 'xn % x∗'∞ tend vers 0.
iii. ∀ε > 0, 8n0 /n ! n0 , ∀x ∈ I , 'xn(t) % x∗(t)' < ε.

Un théorème très important du cours de Topologie est :

Théorème 4.2.1. Muni de sa norme '.'∞ , l’espace vectoriel Cb(I , E) est un complet.$

L’étudiant voulant réviser ce sujet est invité à faire le problème proposé en fin de chapitre.
Ce qui est important pour nous est qu’une suite uniformément de Cauchy (c’est à dire de Cauchy pour
la norme uniforme) converge uniformément vers une fonction continue.

4.2.2. Théorème de Cauchy-Lipschitz. Première méthode.


Soit Ω & I ! E un ouvert, f : Ω → E une fonction continue. On veut résoudre le problème de Cauchy
dx
dt
= f (t, x(t)), x(t0) = x0. Supposons donnée une suite xn de solutions εn-approchées.

Lemme 4.2.1. Soit T ! 0, et εn une suite qui tend vers 0.. On suppose donnée une suite (xn)n∈N de
solution εn approchée telles que xn(t0) = x0 et définie sur l’intervalle [0, T ]. Si, dans C([t0, T ], E), la suite
xn et de Cauchy elle converge uniformément vers une fonction de classe C 1 qui est solution de l’équation
différentielle.

Remarque 4.2.1. Ce qui est important ici c’est qu’a priori, la limite x∗ est simplement une fonction
continue. On doit démontrer qu’elle est C 1.
4.2 Convergence uniforme, théorème de Cauchy-Lipschitz. 65

,t
Démonstration. On écrit xn(t) = x0 + t f (u, xn(u)) du. Pour pouvoir passer à la limite il faut s’assurer
0

que sur [0, T ] la suite fn(u) = f (u, xn(u)) converge uniformément vers f (t, x∗(u)). Admettons cela un
,t
instant. En passant à la limite, on a x∗(t) = x0 + t f (u, x∗(u)) du. Il en résulte que x∗ est bien C 1 et que
0
c’est une solution de l’équation différentielle.

Nous démontrons la convergence uniforme de deux façons.


1. Si on suppose de plus que f est k-lipschitzienne par rapport à x, 'f (u, xn(u)) % f (u, x∗(u))' #
k.'xn % x∗', d’ou le résultat.

2. Le cas général est un peu plus compliqué. Soit K & Ω un petit voisinage compact du graphe de x∗.
Si sorte si n ! n0 l graphe de xn reste dans K. Comme la fonction f y est continue, elle y est uniformément
continue. Donc si ε > 0 est fixé, il existe un ' tel que si 'xn % x∗' < ' alors 'f (u, xn(u)) % f (u, x∗(u))' # ε.
Comme la suite xn converge uniformément vers x∗, alors ' étant donné, il existe un entier n0 à partir
duquel 'xn % x∗' < ' cqfd.

3. Comme f est continue sur le compact K elle y est bornée, et on peut passer à la limite en utilisant
le théorème de convergence dominée. "

On peut alors déduire le théorème de Cauchy Lipschitz.

Théorème 4.2.2. (Cauchy Lipschitz) Soit Ω & R ! Rn un ouvert, et f : Ω → Rn, f (t, x) une fonction
continue. On suppose que f est localement lipschitzienne par rapport à la variable x, par exemple que f est
C 1sur Ω. Pour toute donnée initiale (t0, x0) il existe un couple ε, r tel que [t0 % ε, t0 + ε] ! B̄(x0, r) & Ω
dx
et une fonction x: [t0 % ε, t0 + ε] → B(x0, r) telle que dt = f (t, x).

Si x1: I & R → Rn est une autre solution, alors sur l’intervalle I ∩ [t0 % ε, t0 + ε], x = x1.

Démonstration. On récolte les fruits de notre étude.

1. Comme f est « localement lipschitzienne par rapport à x, il existe un réel k ! 0, un voisinage de


(t0, x0) dans Ω V1 = {'x % x0' # r1,, 't % t0' # '1} tel que pour la restriction de f à V1 soit k lipschitzienne
! r
par rapport
" à x. Comme V1 est compact, f y est bornée par un nombre disons A. Soit t1 # max t0 + A ,
t0 + '1 . Le schéma d’Euler xn est bien défini sur l’intervalle [t0, t1]. Il existe une suite en qui tend vers
0 telle que xn soit une solution εn approchée de l’équation différentielle. D’après le lemme de Grönwall
ek(t−t0) − 1
'xn(t) % xm(t)' # (εn + εm) k
, et donc 'xn % xm'∞ # εn + εm, ce qui démontre que dans Cb[t0, t1]
la suite est de Cauchy. D’après le résultat précédent, elle converge uniformément vers une solution. On a
donc une solution sur [t0, t1] et de même on aurait un t2 < t1 et une solution sur l’intervalle [t2, t0]. L’unicité
a déjà été établie. "

Question 1. On a utilisé l’hypothèse « lipschitzienne » plusieurs fois dans la démonstration. Sauriez vous
dire ou exactement ?

4.2.3. Méthode de Picard


La méthode des approximations successive de Picard permet de démontrer l’existence d’une solution de
façon très rapide. Elle est basée sur le théorème du point fixe

Théorème 4.2.3. Soit X un espace métrique complet 0 # ! < 1 une constante et Φ: X → X une application
! contractante, c’est à dire une application !-lipschitzienne, d(Φ(x), Φ(y)) # !nd(x, y). Alors f admet
un unique point fixe x∗. Pour tout point x0 de X, ce point fixe est la limite de la suite xn = Φ(xn−1). La
λn
convergence de cette suite est exponentielle 'xn % x∗' # 1 − λ 'x1 % x0'.

Démonstration. Soit m ! n On vérifie, par récurrence que d(xn+1, xn) # !nd(x1, x0). Il en résulte que
λn
d(xm, xn) # d(x1, x0) ! 1 − λ , et que la suite est de Cauchy. Comme l’espace est complet, elle converge.
Comme Φ est continue, sa limite est un point fixe. "

On considère alors toujours notre problème de Cauchy. Soit Ω & R ! R n un ouvert, et f : Ω → R n,


f (t, x) une fonction continue. On considère une donnée initiale (t0, x0) et on cherche à résoudre l’équation
différentielle
66 Aspects qualitatifs

dx
dt
= f (t, x), x(t0) = x0
,t
On s’empresse d’écrire cette équation x(t) = x0 + t0
f (u, x(u))du.

Soit Φ est l’opérateur C([t0, t1], E) → C([t0, t1], E) « défini » par cette formule. Ainsi, une solution du
problème de Cauchy est un point fixe de Φ.

Le premier problème c’est que Φ n’est pas tout a fait défini. En effet pour que la formule ait un sens,
il faut que pour tout u ∈ [t0, t], f (u, x(u)) ∈ Ω. Si c’est le cas, par exemple si f est bien définie sur R ! E
on peut étudier Φ et ses itérées.

Le second problème est qu’on ne peut pas appliquer directement le théorème des points fixes, car Φ est
définie entre deux espaces métriques différents (et le premier n’est même pas complet en général). L’idée
va être de restreindre Φ à un cylindre de sécurité, exactement comme on l’a fait quand on a démontré qu’il
existe des solution ε approchée.

Comme f est continue il existe un voisinage de t0, x0 de la forme [t0 % ε1, t0 + ε1] ! B̄(x0, r) contenu
dans Ω tel que sur ce voisinage 'f (t, x)' # 'f (t0, x0)' + 1 = A.
! r "
On considère alors ε = min A
, ε1 de sorte que A.ε < r

Lemme 4.2.2. Si x ∈ C([[t0 % ε, t0 + ε], B̄(x0, r)]), Φ(f ) aussi.


,t
Démonstration. Φ(x)(t) % x0 = t0
f (u, x(u)) du donc 'Φ(x)(t) % x0' # A.ε # r. "

On va maintenant utiliser le fait que f est k lipschitzienne par rapport à x. On suppose évidemment
ε1 et r choisis de sorte que si x et y sont dans B̄(x0, r), 'f (t, x) % f (t, y)' # k'x % y'.
,t
On a alors (Φ(x) % Φ(y))(t) = t0
f (u, x(u)) % f (u, y(u))du, donc
'Φ(x) % Φ(y)' # k.ε.'x % y'
!k r "
Ainsi, si ε est choisi de sorte que kε = ! < 1, par exemple ε < Min 2
, A , ε1 Φ devient ! contractante.

Lemme 4.2.3. Soit ! < 1. Si ε est suffisamment petit, la restriction de Φ à C([t0 % ε, t0 + ε], B̄(x0, r)) est
une ! contraction. "

On peut alors appliquer le théorème du point fixe.

Théorème 4.2.4. Il existe un ε > 0 et une solution x au problème de Cauchy sur l’intervalle [t0 % ε, t0 + ε].
Cette solution est unique au sens suivant si x1 est une autre solution définie sur [t0 % η, t0 + η] alors
x1 et x coïncident sur [t0 % min (ε, η), t0 + min (ε, η)].

Remarque 4.2.2. On a encore fait une petite escroquerie. Il faut vérifier que C([t0 % ε, t0 + ε], B̄(x0, r))
est complet. Mais c’est un fermé dans un espace complet.

Remarque 4.2.3. On pourrait penser que la méthode des approximations successives de Picard, qui
converge exponentiellement vite, est bien plus efficace que la méthode des solutions approchées d’Euler (qui
1
converge en n ). Ce n’est qu’une impression. La méthode de Picard nous demande de calculer une intégrale
,t
t0
f (u, x(u)) du ce qui est très couteux. On peut aussi faire un mix Euler-Picard ,en subdivisant l’intervalle
t
en n morceaux et en étudiant un opérateur de la formel xN (tn) = xN −1(tn−1) + t n f (xN −1, u) du, ce qui
n−1

donne des fonctions polynomiale par morceaux de degré N . La méthode la plus célèbre pour trouver des
solutions approchées est celle de Runge et Kutta, mais il y a des centaines de méthodes adaptées à des
situations différentes.

4.3. Régularité des solutions. Linéarisation.

4.3.1. Dépendance des conditions initiales.


Soit Ω & I ! E ! U un ouvert, f : Ω → E, f (t, x) une fonction C 1. On veut étudier le problème de Cauchy
dx
dt
= f (t, x(t)), x(t0) = x quand la condition initiale varie au voisinage d’un point x0
4.3 Régularité des solutions. Linéarisation. 67

On a déjà vu la dépendance continue (grâce au Lemme de Grönwall) quand la fonction est lipschitzienne
par rapport à la seconde variable.

Notons ϕ(t, x) la solution de l’équation avec ϕ(t0, x) = x.


dϕ(t, x)
On a dt
= f (t, ϕ(t, x)).

Si tous les vents sont favorables, on peut dériver cette équation par rapport à chaque coordonnée x1 de
la position initiale, et un calcul simple montre que :
d ∂ϕ ∂f ∂ϕ
dt ∂xi
= ∂x (t, ϕ(t, x))· ∂x
i

∂f ∂ϕ
Ici, pour chaque t fixé, ∂x
(t, ϕ(t, x)) est une application linéaire de R n dans lui même, alors que ∂xi
est un vecteur colonne.
 
∂f1 ∂f1 ∂f1
 
 ∂x1 ∂xi ∂xn 
f1  
  ∂f  ∂f2 ∂f2 ∂f2 
Détaillons. Si f est la fonction 


f2 


alors ∂x
est la matrice 


∂x1 ∂xi ∂xn .


 
fn  ∂fn ∂fn ∂fn

∂x1 ∂xi ∂xn

Si donc nous fixons une solution x(t) telle que x(t0) = x0, cette équation devient une équation diffé-
rentielle linéaire définie sur l’intervalle [t0, t1]
d ∂f
dt
X = ∂x (t, x(t))·X

Définition 4.3.1. On suppose que f est de classe C 1 et on se donne une solution x(t) de l’équation
d ∂f
différentielle définie sur l’intervalle [t0, t1]. L’équation linéaire dt X = ∂x (t, x(t))·X s’appelle l’équation au
variation.

Exemple 4.3.1. On suppose que l’équation est autonome f (t, x) = f (x) est donc un champ de vecteurs.
Si x0 annule f , c’est donc un point d’équilibre, et x(t) = x0 est la solution. L’équation linéarisée est juste
d
dt
X = A·X, où A = f !(x0) est la matrice jacobienne de f . Nous avons déjà vu cette équation quand on a
étudié les positions d’équilibre.

Théorème 4.3.1. Admis. Soit Ω & R ! Rn un ouvert et f:Ω → R n une fonction de classe C m, m ! 1. Soit
t0, x0 ∈ Ω, et [t0, t1] un intervalle de temps sur lequel est défini une solution au problème de Cauchy
dx
dt
= f (t, x0(t)), x0(t0) = x0.
1. Il existe un voisinage V de x0 et une fonction ϕ(t, x) définie sur [t0, t1] qui soit solution au problème
dx
de Cauchy d t = f (t, x(t)), x(t0)=x.
∂ϕ
2. De plus ϕ est de classe C m, et d x ( (t, x0) est la valeur à l’instant t de la solution de l’équation au
d ∂f
variations dt X = ∂x (t, x0(t))·X

A vrai dire, ce théorème qui semble très difficile ne l’est pas vraiment en pratique. Si on sait que ϕ(t, x)
d ϕ(t, x)
est dérivable par rapport à x, pour calculer sa dérivée, on dérive juste l’équation dt = f (t, ϕ(t, x))

Par exemple dans le cas d’un champ de vecteurs autonome, si x0(t) est déjà une solution
dϕ(t, x) d ∂ ϕ(t, x0) ∂f ∂ ϕ(t, x )
dt
= f (ϕ(t, x)), et donc dt ∂x
= ∂x (x0(t))· ∂x 0 .

4.3.2. Variation par rapport à un paramètre


Il arrive très souvent qu’au lieu de faire varier la condition initiale, on ait une équation différentielle qui
dépende d’un paramètre, et qu’on « connaisse » une solution pour une valeur spéciale du paramètre. On
veut alors étudier ce qui se passe quand on bouge un peu le paramètre. Ceci est en fait un cas particulier
du cas précédent, quitte à rajouter une dimension. Il suffit de dire que le paramètre est (plus exactement
fait partie de) la condition initiale et qu’il reste constant.

Soit donc Ω & R ! R n ! R un ouvert et f : R ! R n ! R → Rn une fonction supposée de classe C 1

On étudie l’équation différentielle à paramètre :


68 Aspects qualitatifs

dx
dt
= f (t, x(t), !), x(t0) = x0 au voisinage d’une solution x(t, !0)
dy
En posant y = (x, !) ∈ Rn+1, on peut voir ceci comme un cas particulier de l’équation dt = f (t, y),
y(0) = (x0, !) dont la condition initiale dépend d’un paramètre. Le théorème de différentiabilité par rapport
aux paramètre s’applique, et on a juste besoin de calculer la dérivée partielle par rapport à la dernière
coordonnée du vecteur y qui se trouve être !.

Théorème 4.3.2. Soit Ω & R ! Rn ! R un ouvert et f : Ω → R n une fonction de classe C m, m ! 1. Soit


t0, x0, !0 ∈ Ω, et [t0, t1] un intervalle de temps sur lequel est défini une solution xλ0 au problème de Cauchy
dx
dt
= f (t, x0(t), !0), x0(t0) = x0.
1. Il existe un voisinage V de x0 , un η > 0 et une fonction xλ(t) définie sur [t0, t1] ! V ! ]!0 % η, !0 + η[
dx
qui soit solution au problème de Cauchy dt = f (t, xλ(t), !), xλ(t0) = x0.
∂ xλ
2. De plus ϕ est de classe C m, et dλ
(t, x0) est la valeur à l’instant t de la solution de l’équation au
d ∂ xλ ∂f ∂ xλ ∂f ∂x
variations | = (t, xλ0(t), !0). ∂λ + ∂λ (t, xλ0(t), !0) telle que ∂λλ (t0) = 0
dt ∂λ l=λ0 ∂x

Remarque 4.3.1. Ici l’équation au variation est une équation différentielle linéaire avec second membre.

Comme dans le cas du théorème précédent, ce qui est compliqué c’est de démontrer que xλ est dérivable
par rapport à !. Si on le sait, il n’y a pas de raison de se gêner : l’équation aux variations s’obtient juste
en dérivant. Mieux, si on sait que c’est C ∞, rien n’interdit de chercher un développement limité.
dx
Détaillons un exemple. On considère l’équation différentielle dt
= x + !(t + x2). avec la condition initiale
∂x
x(0) = 1. On demande de trouver ∂λλ pour ! = 0.
dx
On reporte dtλ = xλ + !(t + xλ2 )
On dérive et on fait ! = 0
d ∂ xλ ∂x ∂x dy
= ∂λλ + t + x20 = ∂λλ + t + et, soit dt = y + t + et, qui se résout par la méthode de la variation des
dt ∂λ , t
constantes. y(t) = et 0 (ue−u + 1) du. Ainsi
xλ(t) = x0(t) + !y(t) + o(!).

Une autre méthode est de chercher formellement un développement limité xλ = x0 + ! y + o(y) et de


reporter dans l’équation. On trouve évidemment la même chose.

4.4. Exercices du chapitre 4.

4.4.1. Lemme de Grönwall.


On rappelle que le cas particulier du lemme de Grönwall permet de comparer une solution exacte et une
solution ε-approchée avec le même condition initiale. Si x est une solution de l’équation différentielle
dx
dt
= f (t, x) définie sur un intervalle [t0, T ], si xε est une solution ε approchée de la même équation telle
ek(t−t0) − 1
que xε(t0) = x(t0) = x0, si f est k lipschitzienne par rapport à x, alors 'xε(t) % x(t)' # ε k
Exercice 4.4.1. Donner un exemple ou il y a égalité dans l’inégalité de Grönwall.
dx
Exercice 4.4.2. On considère l’équation différentielle dt = t + sin(x). Soit x0 la solution telle que x(0) = 0, et x1
celle pour laquelle x(0) = 0, 1 estimer le maximum de |x1(t) ! x0(t)| sur l’intervalle [0, T ]. Pour quelle t l’erreur
relative obtenue en remplaçant x1 par x0 est elle inférieure à 1%.
dx dy
On considère l’équation différentielle dt
= x ! y, dt
= t.x avec comme condition initiale, x(0) = 1, y(0) = 0.
t2 1 2
Soit xε(t) = 1 + t + 2
,
yε(t) = 2
t .
Trouver un majorant de l’erreur commise sur l’intervalle [0, 0.1] si on
remplace la solution par la solution approchée.
Exercice 4.4.3. Soient ψ et y deux fonctions continues définie sur [t0, t1] et à valeurs dans R+ et c une
constante telles que :
,t
y(t) " c + t ψ(u)y(u) du
0 ,t ,t
En posant F (t) = t ψ(u)y(u) du et en étudiant la fonction de classe c 1 G(t) = F (t)exp ! t ψ(u) du, montrer
0 0
!, t "
que y(t) "c exp t ψ(u) du
0

Soit x une solution de x !! + q(t)x = 0, où q: [0, +∞[ → R+ est une fonction croissante strictement positive (et
donc minorée par q(0).
2 ,t
Montrer que x ! + q(t)x2 = K + 0
q !(s)x2(t) dt
4.4 Exercices du chapitre 4. 69

En déduire que x est bornée

4.4.2. Euler et Picard.


dx
Exercice 4.4.4. Soit f : R → R une fonction continue. Ecrire le schéma d’Euler pour l’équation dt
= f (t),
x(t0) = x0. Que constate-t-on ? Et si on fait la méthode de Picard ?
dx
Mêmes questions avec l’équation différentielle dt
= x, x(0) = x0.

Exercice 4.4.5. (Numérique) Ecrire la méthode d’Euler pour trouver une solution approchée au problème de
Cauchy, dans les exemples suivants. On subdivise l’intervalle en 10 parties égales. On pourra faire le calcul à la
main ou avec son logiciel préféré.

x ! = x + t, x(0) = 1 pas h = 0, 1, on subdivise en 10 intervalles. Combien vaut x(1) ? et la vraie solution ?


x
x ! = ! 1 + t , x(0) = 2. Combien vaut x(1) ? Et la vraie solution ?

Exercice 4.4.6. (Numérique) S’inspirer de l’annexe A pour écrire le schéma d’Euler d’une équation différentielle,
par exemple l’équation des lynx et des lapins.
/ 0 / 0
d x x(1 − y)
dt y
= y(1 − x)
définie sur l’ouvert 2>x > 0, 2 > y > 0
 ! 
x − 1 "2
sin y
Perturber un peu cette équation avec un petit terme comme  2
! y − 1 "2  pour voir le résultat.
2
cos y

Exercice 4.4.7. Soit I ⊂ R un intervalle et A: I → Mn(R) une application continue, soit [t0, t1] ⊂ I un intervalle
dx
compact. Soit k = max t∈[t0,t1])A). On considère l’équation différentielle linéaire d t = A(t)·x. x(t0) = x00
On considère l’opérateur Φ de Picard qui défini une application affine continue C([t0, t1], Rn) par la formule
,t
Φx0(x)(t) = x0 + t A(u)x(u) du
0

1. Montrer que )Φ(x)(t) ! Φ(y)(t)) " k (t ! t0)


(t − t )n
2. Puis que )Φn(x)(t) ! Φn(y)(t)) " k n n!
0

3. En déduire qu’il existe une puissance Φn0 de Φ qui soit 1/2 contractante, et que la solution au problème
de Cauchy est bien définie et unique sur tout l’intervalle I. On vérifiera qu’une fonction est un point fixe de Φ
si et seulement si c’est un point fixe de Φn0.

4. Même question si on ne suppose plus l’équation différentielle linéaire, mais seulement globalement k
lipschitzienne; c’est à dire f : I × Rn → Rn et )f (t, x) ! f (t, y)) " k |x ! y|.

Exercice 4.4.8. Sortie de tout compact.

Soit Ω ⊂ Rn et f : Ω → Rn une fonction continue. Soit K ⊂ Ω un compact, et ε > 0. Montrer qu’il existe un
T (dépendant de ε et K) tel que pour toute donnée initiale x0 dans K, il existe une solution ε approchée de
dx
l’équation différentielle dt = f (x) telle que x(0) = x0 définie sur l’intervalle [0, T ].On suppose de plus que f est
localement lipschitzienne. Démontrer que si x0 ∈ K, et x: [0, T [ → Ω est la solution maximale du problème de
Cauchy, soit t = +∞, soit T est fini et il existe un instant t1 tel que si t > t1 x(t) ∈ / K. Autrement dit x(t) sort
de K et n’y revient jamais.

4.4.3. Convergence uniforme.


Il s’agit ici d’un exercice sur la convergence uniforme, à destination des étudiants souhaitant approfondir
leur connaissances.
Exercice 4.4.9. Soit X un ensemble et E , ).) un espace vectoriel normé complet (par exemple de dimension
finie). L’ensemble des fonctions bornées Fb(X , E) est un espace vectoriel. SI f ∈ Fb(X , E), on pose )f )∞ =
sup )f (x))
x∈X
1. Montrer, que muni de cette norme, Fb(X , E) est un espace complet.
2. On suppose de plus que X est un espace topologique (par exemple un espace métrique) et on fixe un point
x0 ∈ X. Montrer que l’ensemble des fonctions discontinues en x0 est un ouvert, et que l’ensemble des fonctions
continues en x0 est un fermé.
3. Montrer que l’ensemble des fonctions continues bornées, muni de la norme )f )∞ est un espace complet.
4. Soient fn une suite de fonctions continues et bornées sur X qui converge uniformément vers une fonction.
Montrer que cette fonctions est continue et bornée.
70 Aspects qualitatifs

4.4.4. Dépendance par rapport à la condition initiale.


Exercice 4.4.10. On veut étudier le comportement d’un système conservatif a un degré de liberté au voisinage
de sa position d’équilibre. Il satisfait l’équation différentielle
x !! = !f !(x).
On suppose que f est de classe C n, atteint un minimum non dégénéré en 0, et qu’on a un développement
limité.
f !(x) = ω2x + a2x2 + a3x3 + ··· + anxn + o(xn)

On sait que, si x(t, h) est la valeur à l’instant t de la solution de l’équation telle que x(0, h) = h, x !(0, h) = 0,
alors x est de classe C n+1 par rapport à h et, comme x0(t) = 0 on a
hn
x(t, h) = x1(t)h + ··· + xn(t) n! + hnη(t, h),
où les fonctions xi sont de classe C n ainsi que η. Pour h fixé, et pour k = 1 ou 2.
[k] [k] hn
x[k](t, h) = x1 (t)h + ··· + xn (t) n! + hnη(kt, h)

Quelle équation différentielle satisfont x1, x2 ? (on précisera les conditions initiales).

Résoudre ces équations.

Montrer qu’en général xk satisfait une équation différentielle linéaire dont le second membre est un polynôme
en x1, ....xk−1, et en déduire que xk est un quasi-polynôme.
Annexe A

Schéma d’Euler pour le modèle SIR

Le schéma d’Euler a le bon gout d’être facile à mettre en oeuvre numériquement (même si en général,
il ne converge pas très vite). Voici un exemple dans le cas du modèle SIR.

% Paramètres de l’équation
beta = 0.3; % Taux de transmission de la maladie
gamma = 0.07; % Taux de guérison de la maladie
N = 10000; % Taille de la population totale
I0 = 5; % Nombre initial d’individus infectés
R0 = 0; % Nombre initial d’individus guéris ou morts.
S0 = N - I0 - R0; % Nombre initial d’individus susceptibles de tomber malades

% Intervalle de temps
t_start = 0;
t_end = 200;
delta_t = 1;

% Initialisation
t_values = t_start:delta_t:t_end;
S_values = zeros(1, length(t_values));
I_values = zeros(1, length(t_values));
R_values = zeros(1, length(t_values));
S_values(1) = S0;
I_values(1) = I0;
R_values(1) = R0;

% Méthode d’Euler p our résoudre l’équation SIR


for i = 2:length(t_values)
dS_dt = -beta * S_values(i-1) * I_values(i-1) / N;
dI_dt = beta * S_values(i-1) * I_values(i-1) / N - gamma * I_values(i-1);
dR_dt = gamma * I_values(i-1);

S_values(i) = S_values(i-1) + delta_t * dS_dt;


I_values(i) = I_values(i-1) + delta_t * dI_dt;
R_values(i) = R_values(i-1) + delta_t * dR_dt;
end

% Représentation graphique des solutions


plot(t_values, S_values, ’-b’, ’LineWidth’, 2, t_values, I_values, ’-r’, ’LineWidth’, 2, t_values, R_values, ’-g’, ’LineWidth’, 2);
xlabel(’Temps’);
ylabel(’Nombre d”individus’);
title(’Modèle SIR en épidémiologie’);
legend(’Susceptibles (S)’, ’Infectés (I)’, ’Remis (R)’);
grid on;

text(x=90, y=5000, sprintf(’\\beta = %.2f’, beta), ’+’, 12, ’FontWeight’, ’bold’)


text(x=90, y=3000, sprintf(’\\gamma = %.2f’, gamma), ’FontSize’, 12, ’FontWeight’, ’bold’)

71
72

Portait de phase d’un champ de vecteurs.

Le script suivant permet de dessiner un champ de vecteur dans le plan à partir d’un exemple.
∂ ∂
Ici, nous prenons le champ X = (y % 0.3 sin y) ∂ x + (0.2 y + sin(x)) ∂y , ou si l’on veut l’équation diffé-
rentielle
1 :
 dx
= y − 0.3 sin y
dt
 dy
= 0.2 y + sin(x)
dt

Sur le domaine [%4, 5] ! [%2, 2]

On peut l’adapter pour dessiner n’importe quel champs pas trop compliqué donné analytiquement.

% Paramètres

x= [-4; 5];
y = [-2; 2];
num_points = 20;

function plot_phase_portrait( x, y, num_points)


[X, Y] = meshgrid(linspace(x(1), x(2), num_points), linspace(y(1), y(2), num_points));
U = Y-0.3*sin(Y);
V = 0.2*Y+ sin(X);

figure;
quiver(X, Y, U, V, ’b’);
xlabel(’x’);
ylabel(’y’);

grid on;
axis tight;

end

% Afficher le portrait de phase.


plot_phase_portrait( x, y, num_points);

Vous aimerez peut-être aussi