Equations Diff
Equations Diff
Cours de L3.
Thomas DELZANT
Email: delzant@[Link]
Table des matières
Prologue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Bibliographie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1. Qu’est ce qu’une équation différentielle ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2. Le problème de Cauchy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1. Exemple. Un modèle d’épidémie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3. Quelques grands principes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1. Un théorème d’existence et d’unicité (Cauchy-Lipschitz). . . . . . . . . . . . . . . . . . . . . . 11
1.3.2. Equation autonome en dimension 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.3. Mise sous forme intégrale. Continuité par rapport à la donnée initiale. . . . . . . . . . . . . 13
1.3.4. Réduction de l’ordre d’une équation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4. Exercice du chapitre 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2. Equations linéaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1. Généralités. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
dx
2.1.1. Le système linéaire d’équations dt = A(t)x + B(t) . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.2. L’équation différentielle scalaire d’ordre n en une variable. . . . . . . . . . . . . . . . . . . . 17
2.2. La dimension 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
dx
2.2.1. L’équation dt = ax + b(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
dx
2.2.2. L’équation dt
= a(t) x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
dx
2.2.3. L’équation dt
= a(t) x + b(t). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3. L’équation homogène à coefficients constants. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.1. Position du problème et équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.2. Matrices diagonales, changement de base. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.3. Exponentielle d’une matrice. EDO linéaire à coefficients constants. . . . . . . . . . . . . . . 20
2.3.4. Réduction d’un endomorphisme sur C, décomposition de Dunford et calcul de exp tA. . 22
2.3.5. Cas de la dimension 2 à coefficients réels : portraits de de phase. . . . . . . . . . . . . . . . . 23
Cas 1. Deux v.p. imaginaires conjuguées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Cas 2. Deux valeurs propres réelles !1 ! !2, et a est diagonalisable. on a encore 3 cas prin-
cipaux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Cas 3. Deux valeurs propres réelles confondues !1 = !2 = !, et A n’est pas diagonalisable.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.6. Equation linéaire d’ordre n à coefficients constants. . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4. Equation linéaire avec second membre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4.1. Système linéaire à coefficients constants et second membre variable. . . . . . . . . . . . . . . 26
2.4.2. Equation scalaire d’ordre n à coefficients constants et second membre . . . . . . . . . . . . . 26
2.4.3. Exemple : l’équation x !! + ax ! + bx = c(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4.4. Cas particulier ou le second membre est un quasi-polynôme de la forme q(t)ert . . . . . . . 27
2.4.5. Le cas particulier du degré 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4.6. Battements et résonance : l’oscillateur harmonique forcé. . . . . . . . . . . . . . . . . . . . . . 28
2.5. Coefficients variables : matrice fondamentale, et wronskien. . . . . . . . . . . . . . . . . . . . . . . 32
2.5.1. Equation sans second membre : la matrice fondamentale. . . . . . . . . . . . . . . . . . . . . . 32
2.5.2. Equation avec second membre : variation de la constante. . . . . . . . . . . . . . . . . . . . . 33
[Link]. L’équation x !! + a(t)x ! + b(t)x = c(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.5.3. Wronskien et théorème de Liouville. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.6. Méthodes de résolution des équations linéaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.6.1. Equation scalaire d’ordre n dont on connait une solution : réduction de l’ordre . . . . . . . 34
2.6.2. * Séries entières : méthode de la série majorante. . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.7. Exercices du chapitre 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.7.1. Généralités 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.7.2. Dimension 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.7.3. Equation homogène à coefficients constants. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.7.4. Equation à coefficients constants avec second membre. . . . . . . . . . . . . . . . . . . . . . . 38
5
6 Table des matières
Il s’agit d’un premier cours sur les équations différentielles, destinés aux étudiants de L3. Il existe une
bibliographie très importante sur ce sujet, sur laquelle nous nous sommes appuyés pour faire le cours, en
particulier les livres de Coddington, Arnold et Reinhard qui sont écrits dans un esprit très différent, mais
qui sont très complémentaires. Les exercices sont tirés du livre de Reinhard, des livres de Démidovitch
et Filippov, et des exemples venant de la physique sont pris dans les livres de Feynman, Landau-Lifshitz.
Le volume limité de ce cours (20 heures de cours) ne permet pas d’aller très loin. En particulier nous ne
traitons pas des méthodes numériques, du problème de la stabilité structurelle des solutions, des solutions
périodiques, de la théorie de Poincaré Bendixson, de l’équation d’Euler-Lagrange, ni de plein d’autres
sujets accessibles à des étudiants de L3. Les simulations numériques ont été faites avec Octave (scripts en
appendice) qui est la version gratuite de Mathlab. Le lecteur n’aura pas de mal à en faire avec Python.
Bibliographie.
B. Démidovich. Recueil d’exercices et de problèmes d’analyse mathématique. Mir Moscou 1977, Ellipses
1994
A. Filippov. Recueil de problèmes d’équations différentielles. Mir Moscou 1977
7
Chapitre 1
Introduction
There is only one precise way of presenting the laws, and that is by means of differential equations.
They have the advantage of being fundamental and, so far as we know, precise. If you have learned the
differential equations you can always go back to them. There is nothing to unlearn.
R.P. Feynman1
On cherche une fonction x(t) à valeurs dans Rn ou Cn, dérivable ou deux fois dérivable, telle que à
chaque instant, on ait
! dx "
f t, x(t), dt (t) = 0
Définition 1.1.1. Une solution de l’équation différentielle est une fonction! x dérivable" définie sur un
dx
intervalle
! ouvert I de R et à valeur dans R n telle que pour tout t de I, t, x(t), dt est dans Ω et
dx "
f t, x, dt = 0
Remarque 1.1.1. On dit aussi « équation différentielle ordinaire, en abrégé EDO, par comparaison avec
des équations faisant intervenir des dérivées partielles, comme l’équation de la chaleur, ou l’équation des
ondes, par exemple.
Définition 1.1.2. Une courbe intégrale est une courbe paramétrée par une solution, mais dont on oublie
le paramétrage.
zn
Exemple 1.1.1. On rappelle que l’application exponentielle C → C est définie ez = Σ∞
0 n!
Elle satisfait ea+b = ea ! eb.
Si t est réel eit = cos(t) + i sin(t)
e a+ib=ea ! (cos(b) + i sin(b))
ez = 1 + z + o(z) (quand z tend vers 0).
dz
Elle est la clef pour étudier les équations différentielles en général et l’équation dt
= a.z en particulier.
dz
On cherche ici les fonctions x: I → C telles que dt
= a.z
Théorème 1.1.1. La fonction z(t) = z0 ea (t−t0) est l’unique une solution de l’équation différentielle telle
que z(t0) = z0
Démonstration. z(t + h) = z0 ea (t −t0)+ah = z(t) eah = z(t)(1 + a h + o(h)) donc z est dérivable en tout
point et z !(t) = a.z(t)
Si z(t) est une autre solution, z(t) ! e−a( t−t0) satisfait z ! = 0 donc z est de la forme Cea(t−tà) et C = z0
en évaluant en t0 "
1. Feynman R.-P., Leyton R.-B., Sand M. Lectures on Physics, 1967. Pour les paresseux il y a une excellente traduction
en français publiée chez Dunod.
9
10 Introduction
On voit aussi que si Re(a) > 0 et t → +∞ z tend vers ∞ et par contre si Re(a) < 0 z(t) tend vers 0
quand t tend vers +∞.
Un cas intéressant est la cas ou a = i" est imaginaire pur. La solution est x0ei!(t−t0), qui est périodique
2"
de période ! .
En général, les courbes intégrales sont des spirales logarithmiques qui tournent autour de l’origine.
Il se trouve qu’on a pu résoudre explicitement cette équation, mais très souvent ça n’est pas le cas.
Néanmoins, nous allons essayer d’étudier les problèmes disons fondamentaux.
dx
Nous allons étudier les problèmes dit d’évolution où la vitesse dt
s’exprime en fonction de la position
x et du temps t . Alors l’équation devient :
dx
dt
= f (t, x)
dx
On dit que l’équation est résolue (sous entendu par rapport à dt
). Dans se cours, nous n’étudierons
que des équations de cette forme.
dx
Très souvent x est un point de l’espace, et t le temps dt est alors un vecteur vitesse et il est commode
de représenter le champ de vecteurs f (t, x) dans le plan ou dans l’espace si x ∈ R2 ou x ∈ R3.
Exemple 1.1.2. Le vent est un champ de vecteurs qui dépend du temps. On peut se demander la
trajectoire d’une montgolfière, qui se laisse porter par le vent sans rien faire et alors on étudie l’équation
dx
dt
= #v (x, t)
Définition 1.1.3. Dans le cas où f ne dépend pas d temps t on dit que l’équation est autonome. On écrit
dx
dt
= f (x).
On peut y ajouter un problème tout aussi intéressant. Comment cette solution se comporte elle ?
Bien sûr S , I , R sont des nombres entiers, on y pense comme à des fonctions continues du temps, de
S I R
sorte que S + I + R = N est une constante. On introduit souvent x = N , y = N , z = N pour exprimer le
nombre de personnes susceptibles d’être infectée ou infectée en termes de proportion.
dS I.S
dt
= %β N
dR
dt
= γI
dI I.S
dt
= β N % γI
1.2.1. Voir N. Bacaer Mathématiques et épidémies, Cassini 2021 pour avoir une idée globale de la vision contemporaine
du sujet.
1.3 Quelques grands principes 11
La première équation dit que le nombre de personnes qui attrapent le virus est proportionnel au produit
du nombre de personnes malades par le nombre de gens susceptibles d’attraper le virus1.2.2 .
La seconde que, chaque jour, le nombre de personnes guéries (ou mortes) est proportionnel au nombre
de malades. La dernière, résulte des deux premières équations.
dx
dt −β x.y
Il est plus facile d’écrire notre équation
dy
dt
= β y − γz ,
où x, y, z ∈ [0, 1] sont les proportions de
dz γy
dt
Il est important de constater que même sur cette équation très simple et qui ne reflète probablement
pas du tout la réalité, on ne peut pas trouver de solution explicite. Une bonne méthode est d’utiliser des
schéma numériques pour comprendre à quoi ressemblent les solutions. Cela dépend de façon importante
des paramètres.
On voit sur la figure suivante un « pic épidémique » au bout de 70 jours pour une certaine épidémie
quand β = 0.2, γ = 0.1 alors que le pic est atteint au bout de [Link] si β = 0.3, γ = 0.07 (le virus est plus
contagieux, et les gens guérissent moins vite).
β dx
En fait, le nombre r0 = γ joue un rôle très important, en effet dz
= %r0 x, de sorte que x = exp % r0 z
−ln x
et donc z = r0 .1.2.3
I
A l’instant t = +∞, y = N = 0, x + z = 1, et on a donc x = exp % r0(1 % x), ce qui donne -implicitement-
le nombre de gens qui ne tomberont jamais malade.
On voit qu’un question tout aussi importante que celle posée dans le problème de Cauchy est de trouver
des solutions approchées, et de comprendre ce qui se passe quand on change un peu les paramètres. Voici
le résultat d’une simulation avec deux paramètres différents.
On rappelle que la fonction F : Ω & Rn → Rm est de classe #C 1 si$et seulement si les dérivées partielles
∂Fj ∂F ∂F
∂xi
existent et sont continues. On note souvent ∂x la matrice ∂xji .
∂f
Exemple 1.3.1. Sif est de classe C 1 par rapport à x et si ∂x : Ω → L(R n, Rn) est continue, alors f est
localement lipschitzienne par rapport à x.
+ ∂f +
Démonstration. En effet, si k = Max x, y ∈B̄(x0,r)+ ∂x + , le théorème des accroissements finis montre que
'f (t, x) % f (t, y)' # k'x % y'. "
Théorème 1.3.1. (Cauchy-Lipschitz) Soit Ω & R ! Rn un ouvert, et f : Ω → Rn, f (t, x) une fonction
continue. On suppose que f est localement lipschitzienne par rapport à la variable x, par exemple que f est
C 1.
1. Existence. Pour toute donnée initiale (t0, x0) il existe un couple ε, r tel que ]t0 % ε, t0 + ε[ ! B(x0,
dx
r) & Ω et une fonction x: ]t0 % ε, t0 + ε[ → B(x0, r) telle que d t = f (t, x).
2. Unicité. Si y: I & R → Rn est une autre solution, alors sur l’intervalle I ∩ ]t0 % ε, t0 + ε[, x = y.
Remarque 1.3.1. Dans certains pays, ce théorème s’appelle Picard-Lindelöf. Cauchy démontre la pre-
mière version en 1821, Lipschitz en 1868, Picard en 1893 et Lindelöf en 1894. En fait Picard utilise le
théorème du point fixe repris par Lindelöf, alors que Cauchy montre la convergence du schéma d’Euler
sous l’hypothèse que la fonction est C 1. Nous donnerons les deux démonstrations, très différentes, dans le
dernier chapitre.
Définition 1.3.2. Une solution x définie sur un intervalle ]t1, t2[ est dite maximale si on ne peut pas
trouver une autre solution x̃ définie sur un intervalle strictement plus grand ]t1! , t2! [ telle que x et x̃ coïncide
en un point t0.
Théorème 1.3.2. Soit Ω & R ! Rn un ouvert, et f : Ω → Rn, f (t, x) une fonction continue. On suppose
que f est localement lipschitzienne par rapport à la variable x, par exemple que f est C 1. Pour toute donnée
dx
initiale (t0, x0) il existe une unique solution maximale de l’équation d t = f (t, x) telle que f (t0) = x0. !
On suppose que f est de classe C 1 de sorte qu’on est dans les conditions d’application des théorèmes
d’existence et d’unicité. Pour chaque donnée initiale (t0, x0), il existe une intervalle de temps maximal sur
dx
J & R et une fonction x(t) définie sur J telle que dt = f (x).
Cette fonction J → I est soit strictement croissante, soit strictement décroissante soit constante, en effet
si sa dérivée s’annule en un point alors la solution maximale est constante.
Cette équation est autonome, donc il suffit de se concentrer sur la question de trouver la solution qui
vaut x0 à l’instant initial t = 0.
L’idée est de l’inverser et de chercher non pas une fonction x(t) mais son inverse t(x), qui satisfait
dt 1
quand à elle l’équation dx = f (x) et que l’on peut intégrer
,x du
t % t0 = x0 f (u)
.
On peut se demander quelle est la solution maximale telle que x(0) = x0 et quel est son comportement
au borne de l’intervalle de définition. Pour cela on considère I = ]a, b[, avec peut être a = %∞, b = +∞ et
on suppose que f s’annule seulement en un nombre fini de point a1, ...an.
Si la donnée initiale est l’un des ai la solution maximale est la solution constante x(t) = ai définie sur R
1.3 Quelques grands principes 13
Sinon n se donne x0 et on distingue trois cas soit x0 ∈ ]a, a1[ soit x0 ∈ ]an, b[, soit il apparient à ]ak −1, ak[.
Dans tous deux cas, la fonction f garde un signe constant sur l’intervalle contenant x0. Pour fixer les
idées disons que f > 0 sur cet intervalle, de sorte que x(t) va être une fonction croissante tant qu’on reste
dans l’intervalle en question : partant d’un point x0, on va aller vers la droite. Posons c = b, ak suivant les cas.
,x du
On pose t1 = lim x→c x0 f (u)
(peut être que t1 = +∞). Cette limite existe dans R ∪ +∞ car c’est une
fonction croissante.
dx
Proposition 1.3.1. Alors la solution maximale de l’équation différentielle = f (x) telle que x(0) = x0
, x du dt
est définie sur l’intervalle [0, t1[, et c’est l’inverse de la fonction x0 f(u) .
On a de plus lim x(t) = c. En particulier si c = ak ∈ I, alors t1 = +∞ "
t→t1
On voit sur cet exemple que le renseignement le plus utile est la durée pendant laquelle la solution est
bien définie.
1.3.3. Mise sous forme intégrale. Continuité par rapport à la donnée initiale.
Même si cela parait complètement idiot, il est souvent utile d’écrire l’équation différentielle :
dx
(∗) dt
= f (t, x) ; x(t0) = x0
ces deux formulations sont équivalentes, et si souvent la première est la plus naturelle, la seconde est
plus facile à exploiter.
Voici un exemple, où l’on étudie la dépendance par par rapport à la condition initiale.
Théorème 1.3.3. (Lemme de Grönwall) On suppose que la fonction f est globalement lipschitzienne par
rapport à x, plus précisément qu’il existe une constante k ! 0 telle que
'f (s, x) % f (s, y)' # k'x % y '
Si x et y sont deux solution de (∗) définie sur l’intervalle [t0, t]telles que x(t0) = x0 et y(t0) = y0 , alors
'x(t) % y(t)' # exp k (t % t0)'x0 % y0'
,t
Démonstration. D’après (∗∗), on a 'x(t) % y(t)' # 'x(t0) % y(t0)' + t k'x(s) % y(s)' ds
0
,t
On pose z(t) = 'x(t) % y(t)'. Il vient z(t) # z(t0) + k t z(s)ds
0
! ,t "
On définit ϕ(t) = z(t0) + k t0 z(s)ds exp % k(t % t0). On remarque que ϕ y est dérivable et on calcule
! ,t "
ϕ !(t) = k z(t) % z(t0) % k t0 z(s)ds exp % k(t % t0) # 0, d’où le résultat. "
Ce résultat a deux corollaires. L’unicité de la solution avec une même donnée initiale, et la relative
stabilité de la solution : si on part de deux point proches, on ne s’écarte par trop à l’instant t.
14 Introduction
Théorème 1.3.4. Soit f : I ! Ω → E une fonction continue et localement lipschitzienne par rapport à x.
Alors la solution du problème de Cauchy est unique et dépend continument de la position initiale. "
Remarque 1.3.2. Nous verrons d’autres applications de cette méthode au chapitre « Le Lemme de
Grönwall ».
Nous verrons comment ça marche sur des exemples concrets, donnons juste un exemple l’équation de
Newton.
Si ! (t) est le taux de C14 à l’instant t démontrer que ! (t + dt) ! ! (t) = !"! (t) dt.
dτ
En déduire que dt
= !"! .
Au bout de combien de temps la moitié des atomes de C14 présents à l’instant 0 ont disparu ?
1.3.1. La très grande majorité des équations différentielles liées à la physique sont d’ordre 1 ou 2. Dans un premier
temps on peut donc supposer que k = 2
∗
1.4 Exercice du chapitre 1. 15
Exercice 1.4.2. Un récipient contient 100 litres d’eau mélangée à du vin, à la concentration de 10%. On le
remplit à la vitesse de 5 litres par minute avec de l’eau douce et il se vide à la même vitesse. Quelle équation
différentielle satisfait la concentration de vin ? Au bout de combien de temps celle-ci est inférieure à 1%.
dx
Exercice 1.4.3. On considère l’équation différentielle (E) dt = ax + b(t), où a est une certaine constante et b
une fonction de R dans R.
On pose y(t) = x(t)e−at. Quelle équation différentielle satisfait y ?
En déduire la solution de l’équation (E) telle que x(t0) = x0
Résoudre l’équation quand b(t) = t2, a = !1.
/ 0 / 0/ 0
d x λ −! x
Exercice 1.4.4. On considère l’équation différentielle linéaire dans R2: dt y
= ! λ y
.
dz
En posant z = x + iy, écrire l’équation sous la forme complexe dt
= f (z) et la résoudre . Dessiner les solutions
quand " = 1, ω = 2π.
dx
Exercice 1.4.5. Soit f : Ω ⊂ Rn → Rn une fonction de classe C 1. On considère l’équation autonome dt
= f (x).
On étudie une population de mammifères dans un parc animalier. Soit N (t) le nombre de ces animaux. On
observe que si N > A il n’y a pas assez à manger et la population décroit, alors que si N < A elle a tendance à
augmenter. Verhulst (1836) a décidé de modéliser cela par l’équation
# $
dN N
(E) dt = rN 1 ! A
N
Ecrire l’équation différentielle satisfaite par x = A .
En notant que cette équation est une équation autonome de dimension 1, la résoudre explicitement.
Dessiner (peut être avec votre logiciel préféré) cette solution, en supposant que r=0,15, A=1500, N0 = 100,
1000, 10000.
Exercice 1.4.7. Soit Ω ⊂ R2 un ouvert et f : Ω → R une fonction de classe C 1. On suppose que en tout point
∂f ∂f
de Ω, l’une des deux dérivées partielles ∂x , ∂y est non nulle.
0. Rappeler le théorème des fonctions implicites, et démontrer qu’au voisinage d’un point (x0, y0) tel que
∂f
∂y
/ 0 on peut décrire Cλ comme graphe d’une fonction y(x) dont on calculera la dérivée.
=
1. Soit I ⊂ R un intervalle, c: I → Ω une fonction de classe C 1 : autrement dit, c(t) = (x(t), y(t)) est une
∂f dx ∂f dy
courbe paramétrée. Démontrer que c(t) reste dans une courbe Cλ si et seulement et ∂x . dt + ∂y dt = 0
2. Démontrer que les courbes de niveau de f sont les solutions de l’équation différentielle
∂f ∂f dy ∂f ∂f
! ∂x / ∂y = dx (qu’on écrit aussi ∂x .dx + ∂y .dy = 0)
4. Ecrire une équation différentielle dont les graphes des solutions sont les hyperboles x −1 + y = " du demi
plan x > 0. Sur quel intervalle est définie la solution y(x) telle que y(x0) = y0
Il s’agit d’une variante de l’équation logistique, ou maintenant on suppose qu’une population est non pas
régulée par une constante (la quantité de nourriture) mais par un prédateur. Dans la littérature on l’appelle
l’équation Prédateurs-Proies, ou Lynx et Lapins.
/ 0 / 0
d x −x(1 − y)
On considère l’équation dt y
= y(1 − x)
définie sur l’ouvert x > 0, y > 0.
1. Dessiner le champs de vecteur associé. On commencera par chercher ou il s’annule, ou il est vertical vers
le haut, vers le bas, horizontal à droite ou à gauche.
/ 0 / 0 / 0
x(t) x0 x(t − t1)
/
2.0Montrer que si y(t)
est la solution qui vaut y0
à l’instant t = 0, y(t − t1)
est la solution qui vaut
x0
y0
à l’instant t1.
Comme on pense à cette équation différentielle comme un champ de vecteur autonome, une solution s’appelle
une trajectoire.
3. En utilisant le théorème d’unicité montrer que deux trajectoires sont soit égales soit ne se rencontrent
jamais.
4. On note 1, 2, 3, 4 les régions (1): {x > 1, y > 1}, (2){x > 1, y < 1}(3) = {y < 1, x < 1} (4) = {x < 1, y > 1}.
Montrer que si la donnée initiale est dans la région 1 la trajectoire va d’abord rentrer dans la région 2 puis dans
la 3 et dans la 4 avant de revenir dans la région 1.
2.1. Généralités.
Les deux formes des EDO linéaires.
dx
2.1.1. Le système linéaire d’équations dt
= A(t)x + B(t)
Soit E un espace vectoriel de dimension finie sur R ou C, par exemple E = R n ou Cn.
Théorème 2.1.1. Pour toute donnée initiale t0 ∈ I, x0 ∈ E il existe une unique solution x(t) définie sur I
tout entier, telle que pour t = t0, x(t) = x0.
Définition 2.1.1. On dit que l’équation différentielle est « sans second membre » si B ≡ 0. On dit aussi
que l’équation est « homogène ».
Le théorème le plus important est le théorème suivant connu en physique sous le nom de principe de
superposition.
dx
Théorème 2.1.2. L’espace E des solutions de l’équation différentielle sans second membre d t = A(t)x est
un espace vectoriel de même dimension que E (donc de dimension n sur R si E = R n ou sur C si E = Cn).
Si t0 ∈ I est fixé l’application E → E qui à la solution x associe sa valeur au point t0 est un isomorphisme.
Démonstration. Si x, y sont deux solutions et si ! ∈ R est un scalaire, x + !y est encore une solution.
Ainsi E est un sous-espace de l’espace vectoriel des fonction continues C0(I , E). D’après le théorème de
Cauchy Lipschitz, l’application E → E qui à la solution x associe sa valeur au point t0 est bijective. "
dx
Théorème 2.1.3. L’espace A des solutions de l’équation différentielle avec second membre dt = A(t)x +
B(t) est un espace affine de même dimension que E dont l’espace vectoriel sous-jacent est l’espace E des
solutions de l’équation sans second membre.
Si y est une solution fixée de cette équation, toute solution s’obtient en ajoutant à y une solution de
l’équation sans second membre.
On verra plus tard la méthode dite de la variation de la constante qui permet de calculer une solution
particulière si on connait toutes les solutions de l’équation sans second membre.
Ici, I est un intervalle de R, les ai (et b) sont des fonctions continues de I à valeurs dans R ou C, et
on cherche une fonction x n fois dérivable sur I qui satisfait cette équation.
17
18 Equations linéaires.
Ici, CP (t) est la matrice compagnon du polynôme Pt(X) = a0 + a1 X + ··· + an−1X n−1 + X n.
0 1
0 1
C P =
0 1
0
−a0(t) −a1(t) −an −2(t) −an −1(t)
Remarque 2.1.1. On voit ainsi que l’équation différentielle linéaire d’ordre n en une variable est un cas
particulier de l’équation différentielle linéaire en n variables. Simplement la matrice est un peu particulière.
2.2. La dimension 1.
dx
2.2.1. L’équation dt
= ax + b(t)
Ici a est un nombre réel ou bien complexe. La fonction b est à valeurs dans R (si a ∈ R) ou dans C (si
a ∈ C). Nous dirons K.
dx
Théorème 2.2.1. L’espace vectoriel des solutions de l’équation dt
= ax, ou a ∈ K est de dimension 1. La
solution telle que x(t0) = x0 , est x(t) = x0ea(t−t0)
Démonstration. On a deux choses à voir. La fonction x(t) = x0ea(t −t0) est bien solution de l’EDO, ce
qui est facile, et nous devons vérifier que c’est la seule qui satisfait x(t0) = x0. Soit y une autre solution.
Alors ye−−a(t −t0) = z satisfait z ! = 0, donc z est constante. "
dx 2"
Exemple 2.2.1. dt
= i"x admet comme solution x(t) = ei!t, qui est périodique de période !
.
Pour obtenir la solution générale, on adopte la méthode dite de la variation des constantes.
On cherche la solution x sous la forme x(t) = c(t)ea(t−t0), c(t0) = x0
dx dc dc ,t
Comme dt
= a.x + d t eat , il vient dt
= e−atb(t), qui se résout c(t) = x0 + t0
e−aub(u) du
dx
2.2.2. L’équation dt
= a(t) x
Soit a: I → R ou C une fonction continue.
Théorème 2.2.3. Si A est une primitive de la fonction a sur l’intervalle I , la solution du problème de
dx
Cauchy d t = a(t) x, x(t0) = x0 est x(t) = x0eA(t)−A(t0).
dx
2.2.3. L’équation dt
= a(t) x + b(t).
On reprend le paragraphe précédent. On peut écrire la solution de l’équation « sans second membre », sous
la forme x(t) = CeA(t).
Pour résoudre l’équation générale, on fait varier la constante, c’est à dire qu’on cherche la solution sous
la forme x(t) = C(t)eA(t).
dx
Il vient dt
= a(t) .x + C !(t)eA(t) = a(t) x + b(t).
C !(t) = e−A(t)b(t).
Théorème 2.2.4. Si A est une primitive de a sur l’intervalle I , et C la primitive de e−A(t)b(t) telle que
C(t0) = x0 , la solution du problème de Cauchy est x(t) = C(t)eA(t)−A(t0) "
Remarque 2.2.1. Au lieu de « faire varier la constante », on peut écrire y(t) = x(t)e−A(t) et remarquer
dy
que dt = b(t). Autrement dit, on peut se ramener au cas où a(t) ≡ 0.
ou bien :
Comment trouver une base de l’ensemble des solutions ? On verra en fait que le second problème est
un cas particulier du premier.
Si A est diagonalisable, de valeurs propres !1, ....!n dans la base de vecteurs propres, l’équation est
1
d x1
= λ 1 x1
dt
d xn
= λ n xn
dt
On a donc n équations différentielles en dimension 1, très facile à résoudre. La solution qui vaut
x1,0, ...xn,0
pour t =
0 est donc, dans cette nouvelle base.
x1,0eλ1t
x(t) =
xn,0eλnt
Notons ici une petite difficulté. Il se peut très bien que A soit une matrice de Mn(R) qui est diagona-
lisable dans C.
Peut être que au départ, l’endomorphisme A était donné par une matrice. On a A = P ∆P −1, où ∆ est
une matrice diagonale, et P la matrice de passage vers la base de diagonalisation. On a alors
dX
dt
= AX, et en posant Y = P −1.X, on obtient
dY
dt
= ∆Y , qui comme on l’a vu est très facile à résoudre, puis on obtient
Remarque 2.3.1. Il se peut très bien que la matrice A soit dans Mn(R) mais qu’elle soit diagonalisable
dans C. Alors la matrice de passage est aussi à coefficients complexes, mais X(t) = PY (t) est une solution
de l’équation différentielle donc elle reste à coefficients réels.
/ 0 / 0/ 0
d
Exemple 2.3.1. Soit à résoudre une équation dt
x
y
= a −b
b a
x
y
, et on suppose que b =
/ 0.
dz
Remarque 2.3.2. 1. Soit z = x + iy. On voit que Az = !z, ce qui donne immédiatement dt
= a.z, ou
bien z = e(a+ib) t z0 et on obtient plus rapidement le même résultat.
2. On donnera plus tard une troisième démonstration de ce résultat.
Rappel. Si E est un espace vectoriel normé de dimension finie sur R ou C, la norme d’une application
&Ax&
linéaire de E dans E est définie par 'A' = supx∈E −{0} &x& . Cette norme satisfait la propriété fondamen-
tale 'A.B ' # 'A'.'B ', et en particulier 'An' # 'A'n.
Si A ∈ Mn(R) ou Mn(C) il y a une autre norme n(A) = supi, j (|aij |), et on sait bien que ces deux normes
sont équivalentes. En particulier il existe une constante κ telle que les coefficients aij ,n de An satisfont
|aij ,n| # κ'An' # κ'A'n.
Théorème 2.3.2. Soit A, B ∈ Mn(K) deux matrices qui commutent. Alors eA+B = eA·eB.
L’application (R, +) → (GLn(K), !) définie par ϕ(t) = exp (tA) est un homomorphisme de groupes.
Démonstration.
Ak Bl
Comme les séries de terme général k! et l! sont absolument convergentes, le théorème sur les produits
(A + B)n Ak B n−k
de Cauchy permet d’affirmer que la série de terme général n!
n
= Σk=0 ·
k! (n − k)!
est absolument conver-
gente et que
# $ # $# $
Ak B n −k ∞ A
k
∞ B
l
Σ∞ n
n=0 Σk=0 k! · (n − k)! = Σk=0 k! . Σk=0 l! = [Link]
(A + B)n Ak B n−k
Comme A et B, commutent, n!
n
= Σk=0 ·
k! (n − k)!
(binôme de Newton)
(A + B)n
Or Σ∞
n=0 n!
= eA+B "
L’application R → Mn(K) définie par ϕ(t) = exp (tA) est C ∞ et ϕ !(t) = A·ϕ(t)
Théorème 2.3.4. Soit A ∈ Mn(K) la solution de l’équation différentielle linéaire à coefficients constants
dX
dt
= A.X telle que X(t0) = X0 est X(t) = e(t−t0)AX0
Démonstration. En effet, d’après ce qui précède, X(t) = ϕ(t).e(−t0)AX0, donc X !(t) = A.ϕ(t).e(−t0)AX0 =
A.ϕ(t). De plus X(t0) = X0 par construction. "
On a ainsi généralisé le résultat des EDO de dimension 1, mais le problème est comment calculer eA?
ce que nous allons voir au paragraphe suivant. Commençons simplement par un cas particulier très simple.
On rappelle qu’un endomorphisme est dit nilpotent si il existe un entier k tel que N k = 0. Comme le
polynôme minimal de N , X k, est de degré plus petit que la dimension on en déduit que N d = 0
22 Equations linéaires.
Théorème 2.3.5.n −1Soit N un endomorphisme nilpotent d’un espace vectoriel de dimension d. Alors exp tN =
t
Id + tN + ··· + n − 1! N n−1 est une matrice dont les coefficients sont des polynômes de degré #n % 1.
On rappelle qu’un endomorphisme N est dit nilpotent si il existe un entier k tel que N k = 0.
Lemme 2.3.1. Soient P , Q deux polynômes. On suppose que P et Q sont premiers entre eux, et que le
produit P ·Q annule l’endomorphisme A. Alors ker(P (A)) ⊕ ker(Q(A)) = E
En appliquant le lemme par récurrence k fois, et en posant Ei = ker(A % !iId)ni on voit que E se décom-
pose E = ⊕Ei, de sorte que la restriction de Ai à Ei satisfait A = !iId + Ni, où Ni est un endomorphisme
nilpotent.
l
xk(t) = Σi=1 eλi(t).pi,k(t), où pi,k est un polynôme de degré νi % 1.
2.3 L’équation homogène à coefficients constants. 23
Dans chacun des cas, le calcul de l’exponentielle est facile, à condition d’avoir mis la matrice sous forme
élégante.
Remarque 2.3.3. Quand famille d’objets se sépare en trois sortes, deux « génériques » et une la limite,
on les appelle souvent « elliptique, hyperbolique et parabolique ». Par exemples les coniques se regroupent
en trois familles : les ellipses, les hyperboles et les paraboles. On peut déterminer la nature d’une conique
d’équation ax2 + bxy + cy 2 + ex + fy + g = 0 en étudiant le signe du discrimant 4a.c % b2
/ 0
Si on se restreint aux matrices (2, 2) de trace nulle, disons a b
c −a
on en a trois sortes : celles qui ont
deux valeurs propres réelles opposées, appelées « hyperboliques », les matrices complexes ayant un valeur
propres imaginaires pure et conjugués appelées elliptiques et les matrices conjuguées à la matrice de Jordan,
que l’on peut appeler parabolique. A titre d’exercice le lecteur pourra regarder ce que ces définitions disent
sur le déterminant qui est %a2 % bd.
On a alors expt tA.z0 = eλt z0 = eibt.eatz0, qui est la solution au problème de Cauchy.
Le cas 1 s’appelle un foyer instable. Le cas 2 un foyer stable : il suffit de renverser le sens des orbites.
le cas 3 s’appelle un centre.
/ 0
Foyer instable. Exemple la matrice 2 1
−1 2
, !=2+i
Cas 2. Deux valeurs propres réelles !1 ! !2, et a est diagonalisable. on a encore 3 cas
principaux.
/ 0 √ √
3+ 5 3− 5
Noeud instable. Exemple la matrice 2 1
1 1
, !1 = 2
! !2 = 2
>0
/ 0 √ √
Col . Exemple la matrice 2 1
1 −2
!1 = 5 , !2 = % 5
/ 0
exp (tA) = exp t! (Id + tN) = expt t!. 1 t
0 1
ou bien x = x0 etλ + y0etλ t, y = y0etλ
/ 0
Matrice 1 1
0 1
Où on cherche une solution x(t) qui est une fonction réelle du temps.
Définition 2.3.2. Le polynôme X n + an−1X n−1 + ··· + a0 = P (X) est appelé polynôme caractéristique de
l’équation différentielle d’ordre n à coefficients constants x(n) + an−1x(n−1) + ··· + a1 x ! + a0x = 0
2.3 L’équation homogène à coefficients constants. 25
x
x"
On rappelle que l’astuce est de poser X =
et de remarquer que cette équation est équivalente
x[n−1]
dX
à dt
= A.X, ou A est la matrice compagnon du polynôme P .
0 1
0 1
CP =
0 1
0
−a0 −a1 −an −2 −an −1
On verra en exercice une autre démonstration de ce résultat, comme résultat d’algèbre linéaire sur
l’espace vectoriel des quasi-polynômes.
Théorème 2.3.8. Pour toute donnée initiale x0, x1, ..., xn−1 il existe une unique solution de l’équation
différentielle x(n) + an−1x(n−1) + ··· + a1 x ! + a0x = 0 telle que x(0) = x0, x !(0) = x1, ..., x[n−1](0) = xn−1
Théorème 2.3.9. Le polynôme caractéristique de la matrice compagnon de P est P c’est aussi son polynôme
minimal.
Démonstration. On commence par le cas des polynômes de degré 2, et des matrices(2,2). Le polynôme
caractéristique d’une matrice (2, 2) M est X 2 /% tr(M ) 0X+det(M). Donc Le polynôme P (X) = X 2 + aX + b
est le polynôme caractéristique de la matrice −b 0 1
−a
. C’est aussi son polynôme minimal : en effet soit il
a deux racines distinctes et il n’y a rien à démontrer, soit ses deux racines sont égales disons égales à !.
Dans ce second cas ce polynôme est (X % !)2, mais si son polynôme minimal était X % ! la matrice serait
diagonale ce qui n’est pas le cas;
* Le cas général est peu se faire d’une façon analogue, mais voici un argument plus abstrait. La matrice
compagnon CP est la transposée
de la matrice
de la multiplication par X dans K[X] / P dans la base
0 0 −a0
1 0 −a1
(1, X , ..., X n−1) qui est
0 1 0 .
Il en résulte que Q(CP ) est la multiplication par Q(X) dans
0 −an−1
0 0 1 −an
cet anneau. SI Q1 désigne le reste de la division euclidienne de Q par P , Q(CP )1= Q1 donc si Q annule cet
endomorphisme si et seulement si P divise Q. Le polynôme minimal est donc P . et comme il est de degré n
c’est son polynôme caractéristique. "
1. Le cas complexe.
Corollaire 2.3.2. Les n fonctions (quasi-polynômes) tkeλit, k # νi, 1 # i # m forment une base de l’espace
vectoriel des solutions.
!d "
Démonstration. Ecrivant dt % !id νtk eλt = 0 si k < ν, donc les fonctions sont bien des solutions de
l’équation.
Par ailleurs on a vu que x est une combinaison linéaire de ces fonctions. Donc ce système est générateur.
Comme il a le bon cardinal c’est une base. "
26 Equations linéaires.
Remarque 2.3.4. Une démonstration abstraite d’algèbre linéaire est proposée en exercice.. Elle est basée
sur le fait que l’on recherche le noyau ker(P (D)), où P (D)D est la dérivation agissant dans l’espace vectoriel
des quasi-polynômes.
Soit P un polynôme unitaire à coefficient réel. On a donc Π = Πki=1(X % !i)νi.Πjl =1(X % µi)νj(X % µ¯j )νj ,
ou les µj sont complexe et non réels, et les !j sont réels
Une solution réelle est simplement une solution complexe qui est égal à à sa conjugué[Link] simplifier,
posons µj = 'j + i.βj
Théorème 2.3.10. Les n fonctions tkeλit, t lcos(βjt)eαit, t msin(βjt)eαit, avec 0 # k < νi, 0 # l, m # νj sont
une base de l’espace vectoriel des solutions réelles de l’équation différentielle.
Théorème 2.4.1., t La solution de l’équation différentielle avec second membre telle que X(t0) = X0 est
X(t) = X0 + etA t e−uAB(u) du
0
En pratique, il arrive très souvent qu’on ne connaisse pas etA, mais une base X1, ...Xn de l’ensemble
des solutions. On cherche alors des fonctions ci(t) telles que
ΣciXi satisfasse l’équation. En reportant, on voit que Σci!Xi = B(t)
En considérant la matrice R(t) dont le colonnes sont les Xi, on obtient
R(t)C !(t) = B(t), soit C !(t) = R(t)−1B(t), ou si l’on veut C !(t) = R(%t)B(t) et on intègre.
Donc du point de vue théorique, on peut calculer les solutions grâce à la méthode de la variation de la
constante. Mais on avait vu que (au moins si on connait les racines du polynôme caractéristique), l’équation
est plus facile à résoudre puisqu’on a une base des solutions qui sont les (tkeλi t)k <νi, ou les !i sont les racines
du polynômes caractéristique et les νi -leur multiplicités. On connait donc une matrice fondamentale.
2.4 Equation linéaire avec second membre. 27
On pourrait espérer que la méthode de la variation de la constante soit plus simple. Malheureusement,
il faut se ramener à la forme matricielle pour bien l’écrire.
yi
yi"
On considère donc notre base de l’ensemble des solution y1, ....yn. On pose Yi(t) =
et
on cherche
[n −1] 0
yi
0
des fonctions c1, ....cn telle que Σi=1
n
ci(t) Yi(t) = X(t) soit une solution. de l’équation X ! = AX +
0
b(t)
c1
c2
Soit Φ(t) la matrice dont les colonnes sont les Yi et C(t) la matrice
.
cn
On a alors X ! = AX + B
On a vu qu’il est facile de trouver une base de l’ensemble des solutions. Au moins si les deux racines
de l’équation x2 + ax + b sont distinctes, disons ! et µ, on peut prendre x1(t) = eλt, x2(t) = e µt.
6 7 6 7
eλt e µt
On écrit alors X1(t) = λe λt
, X 2(t) = µe µt , et on cherche deux fonctions, ci(t) telles que X =
6 7/ 0 / 0 / 0
λt µt
c1 X1 + c2X2 = λeeλt µeeµt c1
c2
satisfasse X ! = −b 0 1
−a
X + 0c .
6 7−1/ 0 6 7/ 0
λt µt 1 µe µt −e µt
Soit on utilise directement la 6 formule7 C ! = λeeλt µeeµt 0
c
= µ − λ −λ eλt eλt
0
c
.
c(t) −e µt
On voit qu’en fait : C = µ − λ eλt .
!
,
On est ainsi ramené à calculer deux primitives de la forme c(t)e dt avec ' = !, µ.
αt
Théorème 2.4.2. Si le second membre est de la forme tder t, il existe une solution particulière de la forme
z(t) = er tp(t), où p est un polynôme de degré d si r n’est pas une racine du polynôme caractéristique
de l’équation sans second membre, ou bien de degré d + ν si r est une racine d’ordre ν de ce polynôme.
Théorème 2.4.3. Si le second membre est de la forme Σki=1eri tqi(t), ou qi est in polynôme de degré di,
il existe une solution particulière de la forme z(t) = Σki=1eri tpi(t), ou pi est un polynôme de degré di si ri
n’est pas racine du polynôme caractéristique, et de degré dI + νi si r est une racine d’ordre νi du polynôme
caractéristique.
Démonstration. On démontre juste le premier de ces deux résultats. Soit Ek l’espace vectoriel des fonc-
tions de la forme er tq(t), où q est un polynôme de degré d + ν, ramené à sa base naturelle (1, t, ....td+ν ).ert ,
notée e1, ....ed+ν . Dans cette base la matrice de d est la matrice de Jordan :
r 1
r 2
= ! Id + N , avec N d+ν = 0
r
d+ν −1
r
Soit D l’opérateur de dérivation de E. Notre propos est de résoudre P (D) u = v, ou v est un vecteur
de l’espace engendré par e1, ...ed. On note que si ! n’est pas une racine de P la matrice est inversible, ce
qui prouve 1. Si ! est racine de P d’ordre ν, P = (X % !Id)ν Q, et Q(D) est inversible (D % !Id)ν = N ν
et P ont même image. On remarque que N < e1, ....en+ν > =<e1, ....en+ν −1 > , il en résulte que N ν <
e1, ....en+ν > =<e1, ...en > , et donc l’image de P (D) contient bien <e1, ...ed > .
"
On étudie une équation différentielle de degré 2 dont le second membre est un quasi polynôme.
x !! + ax ! + bx = Σki=1qi(t)eλi t.
2. Pour trouver une solution particulière, on cherche pour chaque terme qj (t)eλi t une solution xj de
l’équationx !! + ax ! + bx = qj (t)eλi t alors xj (t) sera une solution particulière de notre équation, et on
distingue trois cas :
a) !i ∈/ {!, µ} n’est pas racine du polynôme caractéristique, et dans ce cas, alors il existe une
solution de la forme pj (t)eλi(t), où p est de même degré que qi
b) !i ∈ {!, µ} est une racine simple du polynôme caractéristique, alors il existe une solution de
la forme pj (t)eλi(t), où pi est degré deg(qi) + 1
c) !i est une racine double du polynôme caractéristique,alors il existe une solution de la forme
pj (t)eλi(t), où pi est degré deg(qi) + 2.
Il y a plusieurs phénomènes physiques décrit par cette équation. Les plus connus sont les circuits
électriques dit circuits L, R, C, ou alors les systèmes périodiques (ressort par exemple) que l’on amplifie
par une force d’excitation. 2.4.2
d2 q dq 1
L dt2 + R dt + C q = E(t) = E0 cos (" t)
2.4.2. Le lecteur intéressé par des applications à la physique peut lire les chapitre 21-22-23-24 du livre Mécanique 1 de
Feynman.
2.4 Equation linéaire avec second membre. 29
Un autre exemple vient de la mécanique. On gros, on a un solide qui glisse sur une barre horizontale
et qui est fixé par un ressort a une borne. A l’aide d’un électro-aimant on exerce une force sur ce solide
de la forme F cos("t). La constante de raideur du ressort est ρ, et les forces de frottements (petites) sont
dx
proportionnelles à la vitesse %! dt . Si il n’y a pas de frottement, il n’y a pas de perte d’énergie, sinon
ça chauffe. Les équations sont donc :
d 2x dx
m dt2 + ! dt + ρ x = F cos (" t)
λ ρ
dans le cas mécanique, k = m > 0, ν 2 = m =
/ 0,
F
ν est la fréquence propre du système, γ0 = m .
On revient à la partie#réelle. $
γ
La fonction x(t) = Re !2 − ν 20+ i kν ei!t est une solution particulière de :
d 2x dx
d t2
+ k dt + ν 2 x = γ0 cos (" t)
# $
γ
Ainsi la solution générale est somme de deux termes : x(t) = x1(t) + Re !2 − ν 20+ i kν ei!t
Le premier terme n’a pas une si grande importance : par hypothèse il y a une décroissance exponentielle,
donc au bout d’un certain temps, il disparait.
Proposition 2.4.1. Le régime stationnaire a la même fréquence que la force d’excitation. Mais elle a
!2 − ν 2
un retard de phase de ν 0 = arcot . Son amplitude est celle de la force d’excitation multipliée par
9 kν
((" 2 % ν 2)2 + k2ν 2)−1
On voit déjà que si " est très proche de ν et qu’il n’y a pas beaucoup de frottement (kν 0 1), le régime
a une grande amplitude, bien supérieure à celle de la force d’excitation. Nous allons regarder en fait le cas
limite sans frottement k = 0.
Remarque 2.4.2. Le décalage de phase entre l’oscillation forcée et la force oscillante joue un rôle impor-
tant en physique. Ce décalage permet par exemple d’expliquer l’origine de l’indice de réfraction. Quand
la lumière traverse un objet on a l’impression qu’elle ralenti. Pour les détails voir Feynman, Mécanique
tome 2, chapitre 31.
1. Battements : " =
/ ν.
L’équation est donc x !! + ν 2x = γ0 cos("t). La solution de l’équation sans second membre est ρ cos (νt +
ϕ).
# $
γ γ
La solution particulière trouvée par la méthode de 1 est Re !2 − ν 20+ i k ν ei!t = !2 −0 ν 2 cos("t).
γ
La solution générale est x(t) = ρ cos(νt + ϕ) + !2 − ν 2 cos("t) .
0
Si " 1 ν ou bien " 0 ν on ne voit pas le second terme. Le premier est prépondérant, et tout se passe
comme si on n’avait pas mis de force d’excitation.
On remarque que si " est proche de ν apparaissent des valeurs de x très grande, bien plus grande que
l’amplitude de forçage : le second terme l’emporte.
2.4 Equation linéaire avec second membre. 31
γ
Pour étudier cette fonction, quand " est proche de ν, on pose a = ρ, A = !2 −0 ν 2 et on l’écrit :
! ! a "
x(t) = Re (aeiνt+ ϕ + Aei!t) = Re Aei!t 1 + A ei(ν −!) t+ ϕ
! a "
On a une onde Aei!t , dont l’amplitude est modulée par la fonction 1 + A ei(ν −!) t+ ϕ .
a ! a "
Notons que si A est petit, le module de 1 + A ei(ν −!)t+ ϕ est proche de 1, mais son argument
ν −!
varie entre 0 et 2π à la fréquence 2" (très lente). On dit qu’il y a battement :
γ0 γ
Proposition 2.4.2. L’amplitude de x(t) varie périodiquement entre !2 − ν 2
+ ρ et % !2 −0 ν 2 % ρ à la fréquence
ν −!
2"
, lente devant la fréquence " de l’oscillation.
Pour des fréquences proches de ce nombre, la partie réelle de Aei!t est nulle et l’amplitude de x(t)
devient petite. Cela permet de dessiner x(t).
γ
Si " est proche de ν, le second membre se met a osciller de façon très importante entre ± !2 −0 !2 .
0
Remarque 2.4.3. En musique, le battement est audible lorsque deux cordent vibrent à des fréquences
dont la différence est entre 0,5 et 5 hertz environ. Par exemple si on mélange un La 440 et La 441 on va
entendre des battements à la fréquence de 1Hz.
2. Résonance : " = ν.
! t " t
Une solution particulière est x(t) = Re γ0 2 ! ei!t = γ0 2 ! cos ("t), la solution générale
t
x(t) = ρ cos("t + ϕ) + γ0 2! cos("t)
On voit que l’amplitude de la solution tend linéairement vers l’infini : on dit qu’il y a résonance.
32 Equations linéaires.
dX
dt
= A(t)X + B(t)
La différence avec les coefficients constants c’est qu’on a pas, en général, de solution explicite de
l’équation (avec ou sans second membre), et donc le cours sera plus théorique, même si les résultats sont
comparables.
Rappelons que l’ensemble des solutions de l’équation différentielle sans second membre (quand on fait
B ≡ 0) est un espace vectoriel isomorphe à E. Plus précisément
Proposition 2.5.1. Pour tout t dans I, l’application E → E qui à la solution X associe sa valeur à l’instant
t est un isomorphisme.
Définition 2.5.1. On suppose que E = K n, et on suppose connue une base X1, ...Xn de l’ensemble des
solutions. La matrice fondamentale est l’application Φ: I → Mn(K), où Φ(t) est la matrice dont les vecteurs
colonnes sont les coordonnées des solutions Xi.
Parmi les exemples important, nous nous rappelons que l’ED scalaire d’ordre 2
x/!! + a(t)x
0
!
+ b(t)x = 0 se ramène à une équation différentielle linéaire en deux variables en posant
X = xx" .
Ainsi, si
/
x1 et 0x2 sont deux solutions indépendantes, la matrice fondamentale est :
Φ(t) = xx1" xx2"
1 2
Remarque 2.5.1. Cette matrice dépend du choix d’un système fondamental de solutions.
Proposition 2.5.2. Soit X une solution, et C0 la matrice des coordonnées de X(t0) dans la base X1, ....XN,
X = ΣciXI = Φ.C0
Il est utile de constater que la matrice fondamentale satisfait aussi une équation linéaire
2.5 Coefficients variables : matrice fondamentale, et wronskien. 33
d!
Proposition 2.5.3. dt
(t) = A(t)Φ(t).
Nous allons regarder plus en détail le cas d’une équation du second ordre.
[Link]. L’équation x !! + a(t)x ! + b(t)x = c(t)
Si on connait
/ deux 0 solutions x1, x2 de l’équation sans second membre, la matrice fondamentale est
Φ(t) = xx1" xx2" .
1 2
/ 0 / 0 / 0
On cherche alors la solution sous la forme x1 x2
x1" x2"
! c1
c2
= x
x"
/ 0 / 0/ 0 / 0
dX d
Et l’équation s’écrit dt
= dt x
x"
= 0 1
−b −a
x
x"
+ 0
c
/ 0 / 0 / 0 / 0
c1" c1"
Comme Φ ! = A.Φ, il vient Φ c2"
= 0
c
, soit c2"
= Φ−1 0
c
,
On voit apparaitre le terme det(Φ) = x1x2! % x2x1! qui va jouer un rôle très important dans la suite.
Théorème 2.5.1. Le wronskien w(t) de l’équation x !! + a(t)x ! + b(t)x = 0 est le déterminant de la matrice
dw
fondamentale. Il satisfait l’équation différentielle dt = %a(t) w(t)
dw d(x1x2" − x2x1" )
Démonstration. On dérive dt
= dt
= x1x2!! % x2x1!! = %a (t)w(t) "
On va voir que cette propriété s’étend pour toute les équations différentielles linéaires.
Si X1, ...Xn est une base de l’espace vectoriel des solutions, on forme la matrice fondamentale Φ(t) des
coordonnées des Xi dans une base fixée de E.
Lemme 2.5.1. Soit F une forme n linéaire E n → K fixée. Soit t ∈ I & R → (X1(t), ....Xn(t)) une application
dérivable. Alors f (t) = F (X1, ...Xn) est dérivable et f !(t) = Σi=1
n
F (X1, ..., Xi−1, Xi!, Xi+1, ....Xn)
F (X1(t), ...Xn(t)) = F (..., Xi(t0) + Xi!(t0)h + o(h), ...) = F (X1(t0), ...Xn(t0)) + h·Σi=1
n
F (X1(t0), ...,
!
Xi−1(t0), Xi (t0), Xi+1(t0), ....Xn((t0))) + o(h) "
On sait bien que le déterminant ne dépend pas de las base dans laquelle on le calcule, et ici la base
que nous allons prendre est la base (X1, ...Xn)(t) (attention on a fixé un t pour faire le calcul). Le terme
dW
det (X1, ..., Xi−1, A(t)Xi, Xi+1, ....Xn) vaut aii, et donc on a dt = tr(A(t)) "
Cependant dans le cas des équations scalaire, si on connait une solution, alors on peut réduire l’ordre
On suppose qu’on connait une solution x1 de l’équation sans second membre. On cherche alors les
solution sous la forme y.x1.
Proposition 2.6.1. Soit J un intervalle sur lequel x1 ne s’annule pas. La fonction y.x1 satisfait x(n) +
an−1x(n−1) + ··· + a1 x ! + a0x = b si et seulement si y ! satisfait une équation différentielle linéaire d’ordre
n%1
Quand on va calculer x(n) + an−1x(n−1) + ··· + a1 x ! + a0x, il ne restera plus de terme en y. "
Remarque 2.6.1. Le cas des coefficients constants ressemble comme une goutte d’eau au problème
suivant. On cherche les racines d’un polynôme P . Si on connait l’une d’entre elle !, alors P est divisible
P
par (X % !) et les autres racines de P sont celle de X − λ . C’est normal car les solutions de l’équation
scalaires sont les e , ou ! est une racine du polynôme caractéristique.
λt
Le théorème suivant est théorique, mais il va donner une méthode « pratique » pour trouver une
solution.
dX
Théorème 2.6.1. On considère l’équation différentielle d t = A(t)X , et l’on suppose que la matrice A(t) est
développable en série entière au voisinage de t0 avec un rayon de convergence R > 0, Alors pour toute donnée
initiale (t0, X0) il existe une unique solution développable en série entière de rayon de convergence !R.
Démonstration. Pour simplifier, on pose t0 = 0, et on développe la matrice A(t) en série entière :
k=0t Ak, où les Ak sont des matrices. Si on veut A(t) = A0 + A1 t + ··· + An.t + ··· +
A(t) = Σ∞ k n
En identifiant, il vient
X1 = A0X0
2X2 = (A0X1 + A1X0)
(k + 1) Xk = (Σi+j =k AiXj )
Ce système est déjà résolu. Si jamais notre série existe, elle est simplement donnée par la formule de
Σ AiXj
récurrence : Xk+1 = i+kj =k
+1
On pose donc ça comme formule, et on va montrer que la série entière correspondante converge.
8 8
dx dx dt C 8 t8
Résolvons dt
= m(t).x, soit x
= c 1 − t / ρ , ou ln |x| = % ρ dln8 1 % ρ 8
La solution est x = x0e−cln(1−t/ρ) qui est développable en série entière avec un rayon de convergence ρ.
Σi+ j =k ai xj
Si on la développe, on aura x(t) = Σ∞
0 xn t et xk+1 =
k
k+1
.
+ Comme +tous les ak sont positifs, en prenant x0 = 'X0' positif, on aura tous les xi ! 0 et donc 'Xk+1' =
+ Σi+j =k AiXj + Σi+ j =k ai xj
+ k + 1 + # k + 1 = xk+1
La série des 'Xk+1' est majorée par celle des xk donc son rayon de convergence est au moins égal à ρ. "
Remarque 2.6.2. Dans la pratique on a souvent à résoudre une équation x !! + a(t)x ! + b(t)x = c(t). Ici,
les fonctions sont définies sur un intervalle I et DSE au voisinage de t0. Bien entendu, on ne cherche pas à
la résoudre sous forme vectorielle, mais on cherche à développer x sous la forme Σant n. Le théorème nous
dit que les solutions (définie sur tout I) sont développables en série entière autour de t0, avec un rayon de
convergence au moins égal au plus petit des trois rayons des séries qui définissent a, b, c.
Résoudre l’équation.
36 Equations linéaires.
dx
Exercice 2.7.2. Soit dt
= A(t)x , x ∈ E , t ∈ I une équation diff. linéaire.
1. En utilisant le théorème d’existence et d’unicité, démontrer que si x1, ..., xk est une famille de solutions,
les propositions suivantes sont équivalentes :
i. Il existe un instant t0 de I tel que les vecteurs x1(t0), ...xk(t0) sont linéairement indépendants (forment
une famille libre).
ii. Dans E les vecteurs x1, ..., xk sont indépendants.
iii. Pour tout instant t de I, les vecteurs x1(t), ...xk(t) sont linéairement indépendants.
2. Même question avec « sont une famille génératrice » à la place de famille libre.
Exercice 2.7.3. On rappelle que le barycentre d’une famille de point a1, ...ak d’un espace affine affectée des
coefficients "1, ...."k (avec Σ "i = 1) est l’unique point b tel que pour tout point o, o%b = Σki=1"ioai. Si
1" i" n
dx
Soit dt = A(t)x + B(t), une équation diff. linéaire avec second membre.
Vérifier que si xi(t) est une famille de solutions telle qu’à l’instant t0, xi(t0) = ai, la fonction Σki=1"i xi est la
solution de l’équation différentielle dont la valeur à l’instant t0 est Σki=1"i ai.
Autrement dit l’ensemble des solutions de l’équation avec second membre est un espace affine.
Réciproquement, si on a une équation différentielle de la forme (R) z !(t) = q2(t)z 2 + q1(t)z + q0(t), construire
une équation différentielle linéaire (L) telle que les solutions de (R) soient précisément les quotients de deux
solutions de (L)
2.7.2. Dimension 1.
dx dx dx
Exercice 2.7.5. Résoudre, en faisant « varier la constante » dt
! 2x = 1, dt
+ x = e t, dt
+ 3x = eit
dx
Exercice 2.7.6. On, considère l’équation L d t + Rx = E, où L, R, E sont trois constantes positives (circuit L, R).
Trouver la solution telle que x(0) = I0 est une constante positive donnée.
Quelle est la limite de x quand t → +∞?
Exercice 2.7.7.
dx
1. On considère l’équation dt
+ ax = b(t), où b est définie sur R. La constante a et la fonction b sont à valeurs
complexes.
On suppose que si t !0, |b(t)| " k, et on suppose que la partie réelle Re(a) de a est non nulle.
k
Soit x(t) la solution telle que x(0) = 0. Démontrer que |x(t)| " Re(a) (1 ! e −Re(a)t)
dx d x2
2. On considère deux équations d t1 + ax1 = b1(t), dt
+ ax2 = b2(t) ou b est définie sur R, et on suppose que
|b1(t) ! b2(t)| "k. On considère des solutions, x1, x2.
k
On suppose que x1(0) = x2(0) démontrer que |x1(t) ! x2(t)| " Re(a) (1 ! e −Re(a)t)
On montre ainsi, que si Re(a) < 0, asymptotiquement les solutions de l’équations ne dépendent pas trop du
second membre (le bruit), a condition que celui ci soit borné.
dx x
dt
+ 2 t = t3, ici t > 0
On considère, dans le plan affine euclidien orienté, une courbe paramétrée par l’abscisse curviligne (ton dit
aussi longueur d’arc), et de classe C 2 ; ainsi la courbe paramétrée est une fonction de classe C 2: M : I → E, M (s).
dM
Démontrer que le vecteur tangent %t (s) = ds
est de longueur 1.
Soit %n(s) le vecteur normal tel que %t , %n soit une repère direct. On a donc en identifiant E à C, %
n(s) = i%t(s).
démontrer qu’il existe une fonction continue κ(s) telle que :
d 't %
ds
= κ(s)n
% = iκ(s)t
Démontrer que si M1 et M2 sont deux courbes paramétrées par l’abscisse curviligne et si κ1(s) = κ2(s), alors
M2 se déduit de M1 par un déplacement (isométrie directe du plan affine).
Soit U un endomorphisme d’un R! ev de dimension 2 dont les deux valeurs propres sont imaginaires. Montrer
que celle-ci sont conjuguées.
/ 0
a −b
Soit " = a + ib l’une d’entre elle. Montrer qu’il existe une base dans laquelle la matrice de u est b a
et en
déduire comment calculer etU (on pourra considère un vecteur propre e de u dans C2, et poser e1 = Re(e), e2 =
Im(e).
/ 0
Exercice 2.7.13. On considère la matrice A = 0 2
1 1
. Calculer l’image du carré |x| " 1; |y | " 1 par exp A.
/ 0 / 0
0 1 4 0
Exercice 2.7.14. Soit B = 1 0
et C = 1 4
, calculer B n, C n et en déduire exp tB, exp tC.
Exercice 2.7.15. * L’application exponentielle est définie exp: Mn(C) → GLn(C) ⊂ Mn(C) .
(−1)k −1
Si H ∈ Mn(C) est une matrice de norme <1 démontrer que la série ln (Id + H) = Σ∞ k=1 k
H k. est
convergente.
1
Montrer que si M est suffisamment proche de l’identité, par exemple )M ) " 10 , )exp M ! Id) < 1
Soit M une matrice diagonalisable suffisamment proche de l’identité, démontrer que ln(exp M ) = M
1
Montrer que l’ensemble des matrices telles que )M ) " 10 et ln(exp M ) ! M = 0 est fermé.
1
Montrer que dans la boule fermée )M ) " 10 l’ensemble des matrices diagonalisables est dense.
1
En déduire que si )M ) " 10 " ln(exp M ) = M
1
Par un argument analogue démontrer que si )M ! Id) " 10 , exp (ln (M )) = M
1 α
Soit n0 tel que n " 2 . # $
0 α 1
En déduire que pour tout |t| " 2 ln f (t) = [Link] f n (on pourra commencer par les réels t de la forme
#0 $
1 α 1
t = n.n . Et que si |t| " 2 , f (t) = exp tA, pour A = n0.f n
0 0
Démontrer que cette formule reste vraie pour tout t dans R.
Exercice 2.7.16. * Démontrer que si E est un espace vectoriel de dimension finie sur C, A ∈ End(E) un
endomorphisme, la décomposition de Dunford A = D + N , D diagonalisable, N nilpotente, et D et N commutent
est unique. On pourra utiliser le fait que si A commute avec une matrice D !, les sous-espace propre de D ! sont
stables par A.
Exercice 2.7.17. Soit M ∈ Mn(C) une matrice diagonalisable et ("1, ..."n) ses valeurs propres.
(X − λj )
Soit Li le polynôme de Lagrange Li(X) = Π λ −λ
.
1" j " n, j =
/i i j
3. Si n = 2, il existe donc deux coefficients α, β tels que eM = αM + βId ; exprimer α, β en fonction des valeurs
propres de M , puis en fonction de la trace et du déterminant.
4. *Si M n’est pas diagonalisable, son polynôme minimal est de la forme Π (X ! "i)νi . En utili-
1" i" m
sant la décomposition de Dunford, montrer comment calculer exp M avec le polynômes de Sylvester, Si,k =
(X − λi)k (X − λj )
Π
(λj − λi)k 1" j " m, j =
, avec 1 " i " m, 0 " k " νi ! 1
/ i λi − λj
Exercice 2.7.18. *
On considère l’espace vectoriel complexe E des solutions de l’équation différentielle à coefficients constants
x(n) + an−1x(n−1) + ··· + a1 x ! + a0x = 0. On sait que E ⊂ C ∞(R, C) est un sous espace vectoriel. On considère
le polynôme associé P (X) = X n + an−1X n−1 + ··· + an. On sait que dim (E) = n.
d
Soit D l’opérateur de dérivation x → dt x. Démontre que E est stable par D.
Montrer que E = ker (P (D)), et que P est le polynôme minimal de la restriction D̄ de D à E
On écrit P comme produit P = Π(X ! "i)νi
Montrer que Ei est l’espace vectoriel des fonctions de la forme p(t)eλit, où p est un polynôme de degré
deg(p) " νi ! 1.
Un particule de masse m et de charge q se promène dans un champ électro-magnétique constant. Elle subit
% = q. E
une force qui se décompose en F % + qV
% ∧B
% . L’équation de Newton s’écrit q. E
% + q. V % =m d V
% ∧B %.
dt
'
B 0
On se place
dans un système de coordonnées ou
m
= ω
0 , % = mV
et on pose P % de sorte que l’équation est
0 1
'
dP q %
%
= ωP ∧
0 + C, où C = m . E est un vecteur constant.
dt
1
Ecrire l’équation
sans second membre, et la résoudre. (indication quelle est la matrice de l’application linéaire
0
P % ∧
% → ωP
0 , quelle est son exponentielle ?
1
2.7 Exercices du chapitre 2. 39
1. Ecrire l’équation différentielle qui décrit le mouvement d’un petit objet accroché au bout d’un ressort
accroché au plafond. On suppose que sa vitesse initiale est verticale vers le bas, par exemple, et que l’air n’exerce
pas de frottement.
2. Même problème si on suppose que, maintenant, que le point d’attache du ressort accomplit un mouvement
oscillatoire a(t) = a0sinωt. Ici a0 est petit devant la longueur du ressort, et à l’instant initial, l’objet est au repos.
:
k
La valeur ω = m joue un rôle spécial. Lequel ?
3. Maintenant on accroche le ressort au plafond d’un ascenseur, et on suppose qu’au départ, il est fixe. Soit
v(t) la vitesse verticale de l’ascenseur, de sorte que maintenant on a l’équation
d 2x d v(t)
m dt2 = mg ! kx ! m dt
On suppose que v(t) = γt pour t ∈ [0, t0] puis v = γt0 pour t ∈ [t0, t1] et v(t) = 0 si t > t1. Quand l’ascenseur
s’arrête, quelle est l’amplitude du mouvement du ressort ?
4. Former une équation différentielle linéaire homogène dont on connait un système fondamental de
solutions.(sin(t), cos(t)) ; (et, tet) ; (t, t2).
Exercice 2.7.25. Trouver les solutions de l’équation sans second membre puis résoudre l’équation avec second
membre :
t2 x !! ! tx ! = 3t3 si t > 0
Exercice 2.7.26. Soit a une fonction continue sur I ⊂ R. On considère l’équation différentielle x !! + a(t)x = 0
et deux solutions x1, x2.
Montrer que les 0 de x1 sont des point isolés. On pourra raisonner par l’absurde et montrer que si t0 est un
point où x(t0) = 0, est n’est pas un zéro isolé de la fonction x, alors x !8(t0) = 0.
8
8 x1 x2 8
Quelle est l’équation différentielle satisfait par le wronskien w(t) = 88 8
x1" x2 " 8
?
Montrer qu’entre deux zéros de x1 il y a un zéro de x2
Exercice 2.7.27. * Soit a, b deux fonctions continues sur I ⊂ R. On considère les équations différentielles
x !! + a(t)x = 0, x !! + b(t)x = 0 et deux solutions x1, x2 de la première et la seconde équation. On suppose que b > a.
40 Equations linéaires.
8 8
8 x1 x2 8
Quelle est l’équation différentielle satisfaite par le wronskien w(t) = 88 8
x1" x2 " 8
?
Montrer qu’entre deux zéros de x1 il y a un zéro de x2
En étudiant l’équation x !! + ω2x = 0, montrer que toute solution de l’équation x !! + tx = 0 à une infinité de
zéro sur [1, +∞[. montrer qu’on peut ranger ces zéros en une suite croissante t1 < t2 < t3... telle que tn → ∞ et
tn+1 ! tn → 0
Exercice 2.7.28. Soit I ⊂ R un intervalle et A = I → Mn(R) une application continue.
dX
On suppose que pour tout t, la matrice A(t) est antisymétrique. Soit X(t) une solution de dt = A(t)·X(t).
Démontrer que la fonction )X(t))2 = <X(t), X(t) > est constante. Soit Y une autre solution. montrer que la
fonction <X(t), Y (t) > reste constante.
Soient (X1, ...Xn) la solution fondamentale telle que (Xi(0)) soit un repère orthonormé. Montrer que pour
tout t, (X1, ...Xn)(t) est un repère orthonormé, autrement dit que la solution fondamentale est orthogonale.
Exemple l’exponentielle d’une matrice antisymétrique est orthogonale.
* Réciproque ?
dX
Exercice 2.7.29. * Soit Φ(t) une solution fondamentale de l’équation différentielle linéaire d t = A(t)·X(t).
La matrice R(t, s) = Φ(t)·Φ(s)−1 appelle résolvante du système, ou monodromie de l’équation. Montrer que :
1. R(t, s) ne dépend pas du choix de la solution fondamentale.
2. R(t, u) = R(t, s)·R(s, u), et en particulier R(t, s) = R(s, t)−1dont P (t)
∂R(t, u) ∂R(t, u)
3. ∂t
= A(t)·R(t, u), ∂u
= !R(t, u)·A(u)
dX
Exercice 2.7.30. Soit X(t) une solution de l’équation différentielle linéaire dt = A(t)·X(t), et t → P (t) une
fonction à valeur dans les matrices inversibles. Trouver une équation différentielle linéaire dont P (t)·X(t) est
solution.
C’est une équation linéaire dont le terme de degré k est un monôme de la forme aktk
1. On considère l’équation : t2x !! + atx ! + bx = f (t)
Chercher une solution sous la forme posant x = tα.
C’est une équation linéaire qui se ramène à une équation à coefficients constants grâce à un changement de
variables. On se place sur l’intervalle t > 0
−b
On se place sur l’intervalle t > a et on pose posant at + b = es,
1. Vérifier que # 2 $
dx d x d2 x d x dx
ds
= a.e−t. dt , ds2 = a2e−2t. dt2 ! dt
2. Montrer que la fonction x(s) satisfait une équations différentielle linéaire à coefficients constants.
On veut donner une approche purement « algèbre linéaire » du théorème sur les équations différentielles à
coefficients constants. On considère l’espace vectoriel E des fonction C ∞ de R à valeurs dans C.
Un quasi-polynôme est une fonction de la forme f (t) = Σki=1 pi(t)eλi t, où les pi sont des polynômes. Nous
noterons F ⊂ E, le sous espace des quasi-polynômes et Fλ = F0.eλt ⊂ F (resp. Fn,λ ⊂ Fλ) le sous espace vectoriel
des quasi-polynômes de la forme p(t)eλt, où p est un polynôme resp. de degré inférieur ou égal à n ! 1.
Question 2. Montrer que D ! " Id= eλ ◦ D ◦ e−λ, en déduire que ker(D ! "Id)n = Fn,λ, et que(D ! "Id)[Link],λ =
Fm−n,λ, où l’on convient que Fm−n,λ = 0 si n>m. (ou détaillera le cas " = 0).
Soit P (X) = X n + an−1X n−1 + ··· + a1X + a0 un polynôme unitaire de degré n à coefficients constants.
Question 4. Rappeler pourquoi, si P est le produit de deux polynôme A et B premiers entre eux alors
ker(A(D)) ⊕ ker(B(D)) = ker(P (D)) (avec démonstration).
Dans C, tout polynôme unitaire se décompose P = Πki=1(X ! "i)νi, ou les "i sont les racines distinctes de P
et les νi leur multiplicité.
Question 5. En déduire que F = ⊕Fνi,λi, et que les fonction eλi t.t j , avec 1 "i "k, 0 " j < νi forment une base
1" i" k
de l’ensemble des solutions. Montrer aussi que le polynôme P est le polynôme minimal de la restriction de D à
l’espace F.
Soit ν un nombre complexe qui n’est pas une racine de P et Q le polynôme Q(X) = (X ! µ)ν , de sorte que
les polynômes P et Q sont premiers entre eux.
Question 6. En utilisant le fait que P et Q sont premier entre eux démontrer que P (D) induit un isomorphisme
de Fn, µ pour tout entier n. Autrement dit, pour tout quasi-polynôme v de Fµ, il existe un unique quasi polynôme
de Fµ tel que P (D) u = v. En déduire que l’équation différentielle
x[n] + an−1x[n−1] + ··· + a0x = tν −1e µt admet une solution de la forme p(t)e µt.
Question 7. On, écrit P (X) = Πki=1(X ! "i)νi. montrer que l’équation x[n] + an−1x[n−1] + ··· + a0x = tν −1eλ1 t
admet une solution de la forme p(t)eλ1t, ou degré de p est inférieur ou égal à ν. On pourra écrire P (D) =
(D ! "1Id)ν1Q(D), où Q(X) = Πki=1(X ! "i)νi, et utiliser les questions 2 et 6 pour démontrer que l’image de
Fm,λ1 par P (D) est Fm−n,λ si m ! ν1
Question 8. On revient à l’équation sans second membre. Soit FR ⊂ F le sous-espace vectoriel réel formé des
solutions réelles de l’équation différentielle étudiée (on ne suppose pas que les coefficients du polynôme P sont
réelles. En remarquant que FR est stable par la dérivation D, montrer que le polynôme minimal de la restriction
de D à FR est le PGCD des polynômes P et P̄ . En déduire que se sont les solutions réelles de l’équation Q(D) = 0
Chapitre 3
Champs de vecteurs autonomes, équation y ! = f (x, y).
Dans ce chapitre, on va étudier les équations différentielles du point de vue géométrique. On écrira
dX
y ! = f (x, y), ou bien dt = f (X), X dans un ouvert de Rn (en général n = 2).
L’idée principale est qu’au lieu de chercher une fonction y(x), ou X(t), qui soit la solution, on cherche
une courbe dans le plan des (x, y) (ou dans R n) qui décrit cette solution. Les deux cas particulier les plus
pertinents sont :
1. y ! = f (x, y) La solution est une fonction y(x). Comme on ne la connait pas on s’intéresse plutôt
à la forme de la courbe y(x), et à comprendre la famille de ces courbes quand on fait varier les condition
initiales.
/ 0
dX
2. dt = f (X), X dans un ouvert de Rn (le plus souvent R2). On écrit alors X = x
y
) que l’on représente
par un champ de vecteur.
dX
/
On0remarque
/
que
0
le second cas est une généralisation du premier quand on fait n = 2 dt
= f (X) s’écrit
d
dt
x
y
= 1
f (x, y)
.
Ceci dit, on va voir que si dans le cas 2 on s’intéresse juste à l’image de la courbe solution, on peut
ramener le second cas au premier :
dx dy dy b(x, y)
En fait, l’équation dt = a(x, y), dt = b(x, y) devient dx = a(x, y) si on paramètre la courbe par x, et qu’on
ne cherche pas à décrire la loi horaire, si la tangente est verticale, alors on la paramètre x(y)et l’équation
dx a(x, y)
devient dy = b(x, y) .
Ainsi, si on se limite à la dimension 2, le point 1 est la même chose que le point 2 si au lieu de chercher
les solutions, on cherche les courbes qui les supportent. Nous introduisons deux termes « flot d’un champ
de vecteurs » et « portrait de phase » pour comprendre ce qui ce passe.
Autrement dit la solution de l’équation différentielle est une courbe paramétrée (par le temps). L’orbite
d’un champ de vecteur est une courbe, mais qui n’a pas de paramétrage particulier.
Remarque 3.1.1. Cette terminologie vient de l’astronomie ou on s’intéresse à l’orbite des planètes qui
tournent dans le ciel en suivant une équation différentielle. A ce jour, le problème des 3 corps, qui consiste à
étudier l’équation différentielle du système Soleil, Terre, Lune est toujours très mystérieux. Nous étudierons
en exercice le problème des 2 corps pour vérifier la loi de Kepler qui dit que les planètes tournent autour
du Soleil avec des orbites elliptiques (c’est faux, bien sûr, mais approximativement correct).
Définition 3.1.2. Le flot de X est la fonction ϕ: W & Ω ! R → Ω, noté ϕ(x, t), tel que si x = x0 est fixé,
dx
ϕ(x0, t) est la solution de maximale l’équation différentielle dt = X , X(0) = x
dx
Exemple 3.1.1. Si A est une matrice et on considère l’équation dt
= A.x, alors ϕ(t, x) = exp (tA).x
43
44 Champs de vecteurs autonomes, équation y ! = f (x, y).
Comme il s’agit d’un premier cours sur les équations différentielles, nous nous intéresserons surtout au
cas ou la dimension est 2. Pour comprendre de quoi il retourne, on dessine souvent « le » portait de phase,
qui est un dessin dans le plan qui permet de comprendre à quoi ressemblent les courbes intégrales. On
choisit beaucoup de points dans le domaine considéré, et on dessine le vecteur X(x, y) en ces points.
Par exemple on peut prendre quelques centaines de points disons (xi, yj ) avec i, j dans {1, ...20} et
dessiner le vecteur V en chacun de ces points. L’utilisation d’un logiciel est recommandé (voir en appendice
un code qui permet de faire ça sans s’épuiser).
1
dx
= −0.3sin(y)
Equation différentielle dt
dy
Le dessin est fait sur le domaine [%4, 4] ! [%4, 4] avec une grille
dt
= 0.2y + sin(x)
de 20 ! 20. remarquer que certaines flèches débordent de la grille initiale.
Pour dessiner un tel champs « à la main », la première chose a faire est d’identifier les points où le
champs s’annule.
Définition 3.2.1. Un point singulier, ou zéro du champs de vecteur X est un point où X(x0, y0) = 0. La
solution de l’équation différentielle associée telle que (x(0), y(0)) = (x0, y0) est évidemment constante.
Si f : Ω % R est une fonction de classe C 1, rappelons que pour tout # point et tout $ vecteur , on a
∂f ∂f
# + o(t), où f !(x0) est la forme linéaire ∂x1 , ..., ∂xn (x0)
# ) = f (x0) + tf !(x0)v
f (x0 + tx
a
1
Proposition 3.2.1. Si X =
a
2
est un champ de vecteur sur Ω, si f est une fonction, c(t) est une
an
dx d ∂f
solution de l’équation différentielle dt
= X(x), alors dt
n
f (c(t)) = Σi=1 ai ∂x (c(t)).
i
3.2 Portrait de phase. 45
∂f
Notation 3.2.1. On note X.f = Σi=1
n
ai ∂xi la dérivée de f selon X.
Cette fonction définie sur Ω permet d’étudier les variations de la fonction f le long des trajectoires de
X .
/ 0/ 0 / 0
Exemple 3.2.1. Soit X = a b
−b a
x
y
= a x + by
−b x + a y
un champ de vecteur linéaire dans le plan, et soit
f (x, y) = x2 + y 2.
/ 0
Cette proposition est très utile pour étudier les courbes intégrales par exemple si X = a
b
est un champ
de vecteur et qu’on le représente dans le plan, X.(x + y ) = 2xa + 2 yb dit comment va varier le carré de
2 2
la distance à l’origine le long des solutions. Un cas particulier très important est celui où la fonction ne
varie pas.
∂f
Définition 3.2.2. On dit que la fonction f est une intégrale première de X si X.f = Σi=1
n
ai ∂x = 0.
i
dx
Proposition 3.2.2. Si f est une intégrale première de X, les solutions de l’équation dt
= X sont contenues
dans les ensembles de niveau f = cte de la fonction f .
dx
On lit « X dérivant f ». Si x(t) est une solution de l’équation différentielle dt
= X , alors on peut
facilement calculer la variation de la fonction f (x(t)): en effet
Proposition 3.2.3. Si x(t) est une solution de l’équation différentielle la variation de la fonction f (x(t))
d
est donnée par dt f (x(t)) = (X.f ) (x(t)).
∂f
X.f = Σ ai ∂x
1" i" n i
Exemple 3.2.2. Si q(x) = <x, x > représente le carré de la distance à l’origine, X.q = 2 < X , x >
=2Σai(x)xi : on remarque que cette quantité ne dépend que de la composante radiale de X.
∂
Notation 3.2.2. On utilise couramment la notation X = Σ ai ∂x pour désigner le champ de vecteur X.
1" i" n i
Remarque 3.2.1. C’est très pratique pour calculer X.f . Cette notation est duale à la notation " =
a1
Σ 'i dxi pour les formes différentielles. En fait X n’est autre que l’application x →
a2
et " l’appli-
1" i" n
an
∂ ∂
cation ( α1 α2 αn ).En dimension 2, on note souvent X = a ∂x + b ∂y , " = 'dx + βdy.
dx
équation dt
=X
Champ de vecteurs X: Ω & E → E 3
4
opérateur f → X.f
En coordonnées
dxi
équation dt
= ai
a1
3
X = a
2
4
an ∂
opérateur X = Σ ai ∂x
1" i" n i
Rappelons que les mots « courbe intégrale » « trajectoire », « orbite » désignent le même objet. C’est
une courbe que l’on peut paramétrer par une solution de l’équation différentielle.
On se place dans les conditions d’existence et d’unicité (f ∈ C 1 par exemple). On peut reformuler sous
forme géométrique.
Théorème 3.3.1. Par tout point de Ω passe une unique courbe intégrale.
Si deux courbes intégrales se rencontrent en un point elle sont égales.
Proposition 3.3.1. Deux champs de vecteurs partout non nuls, X , Y ont les même courbes intégrales si
et seulement si ils sont proportionnels, c’est à dire qu’il existe une fonction partout non nulle f telle que
Y = f .X.
Remarque 3.3.1. Cette proposition est très utile numériquement pour dessiner les courbes intégrales.
Il peut être commode (et numériquement efficace de remplace le champs de vecteur X, par le champs
X
normalisé &X & qui donne en chaque point la direction de X. Ces deux champs ont les même courbes
intégrales, mais le fait que le second soit normalisé fait qu’elle sont plus facile à numériser. Evidemment
ça marche bien loin des points où X = 0.
dy % f (x, y ) dx = 0
La signification est la suivante. Si c: I & R → R2 est une courbe intégrale de l’équation différentielle, et
dy dx dy dx dy
si c paramétrée c(t) = (x(t), y(t)), alors on a d t = f (x, y ) d t : en effet dx ! dt = d t .
3.4 Changement de variables. 47
Définition 3.3.1. si " = adx + bdy est une forme différentielle, une courbe intégrale de " est une courbe
paramétrée telle
/
qu’en
0
tout point la droite tangente soit dans le noyau de ". Cette tangente est donc dirigée
par le vecteur −b a
Convention 3.3.1. Quand on écrit " = 0, on veut dire qu’on cherche les courbes intégrales de ". On
ne cherche pas des courbes paramétrées (des solutions) mais des objets géométriques (les trajectoires
(=orbites) d’un champ de vecteurs qui dirige ker(")).
Si " = adx + bdy. Résoudre " = 0, c’est chercher une famille de courbes (non paramétrée). Mais on pour
dy a
décrire les solutions on peut chercher une courbe paramétrée par x, et alors on étudie l’équation d x = % b ,
dx b
ou alors une courbe paramétrée par y par écrit d y = % a , on peut aussi résoudre l’équation différentielle
1
dx
= b(x, y)
dt
dy
.
dt
= −a(x, y)
Proposition 3.3.2. On suppose b = / 0, une courbe intégrale de " paramétrée par x satisfait l’équation
dy a dx b
différentielle dx = % b . De même, si a =
/ 0 et si elle est paramétrée par y, elle satisfait dy = % a
/ 0
∂ ∂
Proposition 3.3.3. La forme a d x + b d y et le champ de vecteurs −b
a
= %b ∂ x + a ∂y ont les mêmes
courbes intégrales. Deux formes différentielles proportionnelles partout non nulles ont les mêmes courbes
intégrales. Il en est de même de deux champs de vecteurs proportionnels. "
Définition 3.3.2. La forme différentielle adx + bdy est à variables séparées, si la fonction a ne dépend
que de x et la fonction b que de y.
Proposition 3.3.4. Si " = a(x) d x + b(y) d y est à variables séparées, si A(x) est une primitive de a et
B(y) de b, on a alors " = d (B % A), et les courbes intégrales de " sont les courbes A(x) % B(y) = cte.
∂F
Un autre cas particulier important est le cas ou " est la différentielle d’une fonction " = dF = ∂x dx +
∂F
∂y
dy.
Remarque 3.3.2. On peut donc utiliser les formes différentielles pour envisager le problème inverse. Etant
donnée un famille de courbes écrire une équation différentielle dont ces courbes sont les courbes intégrales.
Remarque 3.3.3. En utilisant le théorème de Schwartz sur les dérivées seconde, on démontre que pour
∂a ∂b
que " = adx + bdy soit la dérivée d’une fonction , il est nécessaire que ∂y + ∂ x = 0, et que localement au
moins cette condition est suffisante (voir l’exercice correspondant).
x = r cos(θ), y = r sin(θ)
En regardant ces formules ont voit qu’elles donnent les anciennes coordonnées (x, y) en fonction
des nouvelles (r, θ).
9
Remarque 3.4.1. On peut facilement exprimer r = x2 + y 2 en fonction de x, y ; par contre pour θ
y
ce n’est pas possible. Cependant, si on enlève la demi droite y = 0, x < 0, on peut poser θ = arctg x , en
y
convenant que arctg x = π /2, si y > 0 et %π /2 si y < 0. On peut aussi enlever la demi-droite x = 0, y < 0
x
et poser θ = arcotg y
On a déjà vu ça en algèbre linéaire si B = {e1, ...en}, B ! = {f1, ...fn} sont deux bases d’un espace vectoriel,
on considère souvent la matrice de passage P qui est la matrice (n, n) dont les colonnes sont les
coordonnées
x1
des fi dans la base B. La formule du changement de base nous dit que les coordonnées
d’un vecteur
xn
x1"
dans
la base
Bs’exprime
en fonction de celle dans la base B !, disons
par la formule :
"
x1 x1" xn
= P ·
"
xn xn
E
Cela résulte du diagramme x5 4x !
n P
R ←
←
←
←
← Rn
Pour nous un système de coordonnées non linéaires sur un ouvert d’un espace vectoriel est un difféo-
morphisme de cet ouvert avec un ouvert de Rn données par des fonctions x1, ...xn, et un changement de
variables non linéaire est une application ϕ: U & R n → Ω & Rn donnée par des formules de classes C 1
qui expriment les anciennes coordonnées en fonction des nouvelles.
Souvent ϕ est bijective, mais comme le montre l’exemple des coordonnées polaires ça n’est pas toujours
le cas. Pour simplifier, et comme il s’agit dé&’un premier cours sur les équations différentielles, nous nous
limitons au cas n = 2.
Un changement
/ 0
de
/
variables
0
est donc juste donnée par deux ouverts de R2, U , Ω et deux applications
de classe C 1: ϕ uv = x(u, v)
y(u, v)
(par abus on note x(u, v) la première coordonnée de ϕ(u, v) et y(u, v) la
seconde.
/ 0
d
On va simplifier le problème en cherchant non pas les solutions de l’équation différentielle dt
x
y
=
/ 0
f x
y
, mais simplement les courbes intégrales non paramétrées. On se rappelle que celles-ci sont les courbes
intégrales d’une forme différentielle " = adx + bdy
Pour se faire, la notation différentielle simplifie considérablement les calculs : en fait, on peut penser aux
fonctions u, v comme à des fonctions de la position (x, y) et chercher leur différentielles. De la même façon
qu’il est facile d’exprimer les anciennes coordonnées x, y en fonction des nouvelle il est facile d’exprimer
le différentielle des fonctions coordonnées dx, dy en fonction des nouvelles
Si x s’exprime comme fonction x(u, v) des variables u, v la forme d x est la différentielle d (x(u,
∂x ∂x ∂y ∂y
v)) = ∂u du + ∂v dv . De même dy est d (y(u, v)) = ∂u du + ∂v dv
/ 0 / 0
x(u, v) x(u, v) ∂x ∂x
"= a d (x (u, v)) + b d (y(u, v)), où d (x(u, v)) = du + d v (et d (y(u,
y(u, v) y(u, v) ∂u ∂v
∂y ∂y
v)) = ∂u du + ∂v
dv ) est la différentielle de la fonction x(u, v).
Tout cela semble très compliqué, mais nous allons le voir sur deux exemples.
η = a(r cos θ, r sin θ) (cos θdr % sin θrdθ) + b(r cos θ, r sin θ) (sin θ dr + r cos θ dθ) = (a cos θ + b sin θ) dr +
(b cos θ % a sin θ)rdθ
On écrit pour a = 1, b = 0 et a = 0, b = 1
dx = cos θdr % r sin θdθ, dy = sin θ dr + cos θrdθ
Ainsi, " = a(x, y).(cos θdr % r sin θdθ) + b(x, y).(sin θ dr + cos θrdθ)
Ou bien " = (a cos θ + b sin θ) dr + r(%a sin θ + b cos θ)dθ
y
Réciproquement, on peut exprimer dθ et dr en coordonnées euclidiennes, puisque r 2 = x 2 +y 2 et tg θ = x ,
on obtient : # $
y2 x dy − y dx
2rdr = 2xdx + 2y dy, 1 + x2 dθ = x2
et on a :
x dy − y dx x dx + y dy
dθ = x2 + y 2
, rdr = xdx + ydy, dr = 9
x2 + y 2
Exemple 3.4.1. L’équation différentielle ('x % βy) dx + (βx + 'y) dy = 0 devient 'rdr + βr 2 dθ = 0, où
dr β
encore r = % α dθ qui s’intègre en r = r0e−β/αθ, ce qui permet de tracer les courbes intégrales exprimée
en coordonnées polaires.
On peut aussi résoudre l’équation en passant en polaire f (cotg θ)(cos θdr % r sin θdθ) = sin θdr + cos θrdθ
! dr
soit f (cotg θ) cos θ % sin θ). r = (f (cotg θ) sin θ + cos θ) dθ
Sui est à variables séparables.
Définition 3.4.1. Soit E , F deux espace vectoriels de même dimension, U , V deux ouvert de ces [Link]
application ϕ: U & E → V & F est un C 1 difféomorphisme si ϕ set bijective, de classe C 1 et si son inverse
ϕ−1 est aussi de classe C 1.
Remarque 3.4.2. Le théorème d’inversion locale dit qu’une application ϕ de classe C 1 est un difféomor-
phisme au voisinage d’un point x0 si et seulement si ϕ !(x0) est une application linéaire inversible.
dx
Proposition 3.4.1. Si c(t) est la solution du problème de Cauchy dt
= X , x(t0) = x0, y(t) = ϕ(c(t)) est la
dy
solution deux problème de Cauchy dt = Y , y(t0) = ϕ(x0)
dy d dc
Démonstration. On a dt
= d t (ϕ . c(t)) = ϕ !(c(t)) dt = ϕ !(ϕ−1(ϕ(c(t)))).Xϕ−1(ϕ(c(t))) "
Grâce au théorème de différentiabilité par rapport au paramètre, nous démontrerons qu’au voisinage
d’un point x0 où le champ de vecteur Xne s’annule pas, on peu trouver un difféomorphisme
ϕ qui le rend
1
∂
constant. Rappelons que ∂x1
désigne l champ de vecteurs constant X(x) = e1 = 0
0
Théorème 3.4.1. Soit X un champ de vecteur de classe C 1 défini sur un ouvert Ω et x0 ∈ Ω. Il existe un
∂
voisinage U de x0 et un difféomorphisme ϕ de U vers un voisinage V de 0 ∈ R tel que ϕ∗(X) = ∂x1 . "
Démonstration. En gros l’idée est la suivante. Le théorème de Cauchy-Lipschitz dit que pour toute
donnée initiale (t0, x0), on peut trouver un ε telle que la solution qui au temps t0 vaut x0 soit définie
jusqu’à l’instant t0 + ε. Comme le champ est autonome, il est clair que ce ε ne dépend pas de t0. Une étude
attentive de la démonstration (que nous n’avons pas encore faite) montre que si x0 est fixé et si K & Ω, est
compact on peut trouver un ε qui marche pour tous les points de K. On en déduit que si une orbite arrive
dans dans K à l’instant t, alors on peut la prolonger jusqu’à l’instant t + εK . On applique ce résultat
à b % εK/2. Jamais après cet instant l’orbite ne peut se trouver dans K sinon la solution maximale serait
définie jusqu’à l’instant b + εK /2. "
Ou matriciellement
:
∂X1 ∂X1
∂x1 ∂xn
x
1
∂X2
.
X(x0 + x) = x
ou A est une matrice qui est juste la partie
∂x1
(x0) ! 2 + o(x) = Ax + o(x),
xn
∂Xn ∂Xn
∂x1 ∂x1n
linéaire de X.
dx
Une question importante est de savoir à quelle point l’équation différentielle dt
= X et l’équation linéaire
dx
dt
= A.x ont des solutions qui se ressemblent.
3.5.1. On peut regretter qu’il y ait 4 noms pour désigner la même chose, mais cela souligne l’importance de ces points.
Quand on étudie un champ de vecteur la première chose à faire est de chercher les points où il s’annule.
3.6 Système à un degré de liberté : espace des phases et applications. 51
Théorème 3.5.2. de Lyapunov. Soit A la partie linéaire d’un champ de vecteur au voisinage d’un point
critique x0. On suppose que toutes les valeurs propres de la matrice A ont une partie réelle strictement
négative Re(!) = %a < 0. Alors x0 est un point d’équilibre uniformément asymptotiquement stable. Mieux,
il existe une norme équivalente à la norme initiale telle que si 'x1 % x0' # ' alors 'x1(t) % x0' # 'e−a.t.
Démonstration. On se place en dimension 2, dans le cas ou il y a deux valeurs propres imaginaires pures
conjugués. Le
/
cas général
0
sera fait en [Link] suppose que x0 = (0, 0). On considère une base dans
laquelle A = −a −b
b −a
avec %a < 0. Etudions la fonction f (x, y) = x2 + y2.
a
On a X. f = (%ax % by) ! 2x + (bx % ay) 2 y + o(x)( 2 x 2
2y ) = %a(x + y 2) + (x2 + y2)o(1) # % 2 (x2 + y 2)
9
Si x2 + y 2 est plus petit qu’un certain '.
d −a
9
Ainsi, le long d’une orbite dont l’origine est dans B(0, '), on a dt (x2 + y 2) # 2
(x2 + y 2) et x2 + y 2 #
r0e−at . La distance du point à l’origine converge exponentiellement vers 0 "
Théorème 3.5.3. On suppose qu’au moins une valeur propre de A a une partie réelle >0. Alors l’équilibre
n’est pas stable. "
On s’empresse
1 d’introduire l’espace des phases (x, y) et on considère l’équation :
dx = y
dt
dy
= f (x)
dt
dy f(x)
On voit bien que cette équation est à variables séparées : dx
= y
, ou bien
ydy = f (x) dx
dy dx d !1 ,x "
On écrit alors y. dt = f (x) dt et on obtient d t 2 y 2 % f (u) du = 0
1 1! dx " ,x
T = 2 y2 = 2 dt 2 s’appelle l’énergie cinétique, U = % x f (u) du l’énergie potentielle. On pose
0
52 Champs de vecteurs autonomes, équation y ! = f (x, y).
Il est intéressant, pour comprendre cette équation, de considérer le système physique suivant (montagne
russes). Un petit wagon roule sans frottement dans un champ de pesanteur le long d’une courbe d’équa-
tion z = U (x). On suppose que le champ de la pesanteur est constant. Son énergie potentielle est donc
exactement U (x). Le mouvement qu’elle décrit est précisément régit par l’équation donnée. On peut donc
tout prévoir sans faire aucun calcul avec un peu d’imagination. Le cas du plan incliné U (x) = %'x a été
considéré par Galilée, qui a ainsi décrit la loi de la chute des graves, ou loi de gravitation.
Les solutions de notre équation différentielle sont contenues dans les courbes de niveau de E(x, y), où
1
2
y2 + U (x) = E(x, y). Il est important de comprendre à quoi elle peuvent ressembler, mais avant tout,
regardons les points d’équilibre, ou les zéros de notre champ.
Les zéro (points d’équilibre) du champ de vecteurs sont les points de l’espace des phases où la vitesse
s’annule et’énergie potentielle U a un point critique (U !(x0) = 0). On est soit en haut soit en bas de notre
courbe avec une vitesse nulle. Evidemment si on est en bas on y reste, mais si on est en haut et qu’on
bouge un tout petit petit peu on va tomber. Voici les mathématiques qui expliquent cela.
1
On fait un DL à l’ordre 2: U (x) = U (x0) + U !(x0)(x % x0) + 2 U !!(x0)(x % x0)2 + ··· +
1 1
Ainsi, E = 2 y2 + 2 U !!(x0)(x % x0)2 + o(x % x0)2
Le comportement selon que U !!(x0) > 0 (on est à un minimum local de d’énergie potentielle) ou U !!(x0) <
0 est tout à fait différent.
1
dx
=y
Le champ de vecteur linéarisé est facile à calculer c’est
dt
dy
et la matrice correspondante a
= u ""(x0) x
dt
deux valeur propres dont la somme est nulle et le produit est %u !!(x0). Si
%U !!(x0) > 0 on a deux valeur
propres réelles de signes opposées et le théorème de Cetaev nous assurer que c’est un équilibre instable.
Nous verrons plus tard un peu mieux à quoi ressemble la solution. Par contre, si U !!(x0) > 0 la théorie
générale ne permet pas de conclure, car il y a deux valeurs propres imaginaires pures et opposées.
3.6.1. Ce qui est important ici, c’est qu’on dispose d’une fonction E(x, y) qui est conservée au court du temps. Le fait
qu’elle s’appelle énergie nous rassure, mais soulève d’autres questions : quelque chose est conservé et c’est ce quelque chose
qui nous intéresse.
3.6 Système à un degré de liberté : espace des phases et applications. 53
Proposition 3.6.1. Les points singuliers sont les couples (x0, 0), ou x est un point critique de l’énergie
potentielle. Si x0 est point critique non dégénéré de U, c’est à dire si U !!(x0) =
/ 0, alors :
Si x0 est un maximum local de l’énergie potentielle, le point singulier est un point instable.
Si x0 est un minimum local e l’énergie potentielle, (x0, 0) est stable, mais pas uniformément asympto-
tiquement.
1
Notons que E(x + x0, y) = E(x0, 0) + y 2 + 2 U !!(x0)x2 + o(x2), ce qui permet de tracer les courbes E = cte
au voisinage des points d’équilibre (x0, 0):
Si x0 est un minimum
9 d’énergie, ce sont ds courbes fermées simples très proches de l’ellipse y +
2
1 !!
2
U (x0)x2 = cte, !!
y = ± 2 ((E % U (x0))
Si x0 est un maximum d’énergie (U !!(x0) < 0), on peut écrire l’ensemble E = E(x0, 0) comme réunion
1
de deux courbes très proches ce sont des courbes très proches de l’hyperbole y 2 + 2 U !!(x0)x2 = E0.
Rien que sur cette expression, on voit que l’énergie potentielle est toujours inférieure à E, et que quand
elle atteint cette valeur, la vitesse s’annule.
On peut alors tracer les orbites dans l’espace des phases (x, y) à partir du graphe de la fonction U .
Posons I = ]a, b[, et concentrons nous sur un niveau d’énergie E0. Il s’agit de voir à quoi ressemble la courbe
E(x, y) = E0.
Soit E0 un niveau d’énergie fixé. Supposons d’abord que E0 n’est pas critique. Comme ce niveau n’est
pas critique, la vitesse ne s’annule pas le long de la courbe E(x, y) = E0, et l’orbite de (x0, y0) est toute la
composante connexe contenant (x0, y0) de cette courbe.
Regardons {x ∈ I /U (x) < E0}, comme U est continue, cet ensemble est une réunion d’intervalles ]ai, bi[
et il faut distinguer deux cas.
Ce cas est particulièrement intéressant, car alors l’orbite est (x(t), y(t)) est une fonction périodique
du temps. Soient x1, x2 deux abscisses ce cette orbite On peut facilement calculer le temps mis pour
dx
9
aller de (x1, y1) à (x2, y2), par exemple pour y2 > 0 : en effet y = d t et y = 2 (E % U (x)) , ce qui donne
, x2 dx
t2 % t1 = x 9
1 2 (E − U (x))
, b1 dx
Proposition 3.6.3. Dans cette hypothèse, le mouvement est périodique et de période 2 a1
9
2 (E − U (x))
54 Champs de vecteurs autonomes, équation y ! = f (x, y).
, b1 dx
En effet le temps mis pour aller de (a1, 0) à (b1, 0) est précisément a1
9 , et on met le même
2 (E − U (x))
temps pour aller de (b1, 0) à (a1, 0)
2. a = ai et b < bi
Proposition 3.6.4. Dans ce9cas, l’orbite de (x0, v0) est la réunion Bi de deux deux graphes de fonction
définie sur ]a, bi]. y±(x) = ± 2 (E % U (x)) , joint en un point (b1, 0)
3. a = ai et b = bi
Proposition
9 3.6.5. Dans ce cas, l’orbite de (x0, v0) est le graphe de la fonction définie sur ]a, b[. y±(x) =
± 2 (E % U (x)) le choix du signe dépendant de la valeur initiale de la vitesse. Le long d’une telle trajec-
toire, la vitesse ne s’annule jamais.
Niveau critiques de l’énergie
Si E0 est un niveau critique de l’énergie (ce qui veut dire qu’il contient un point d’équilibre), pour
y2
étudier l’ensemble E(x, y) = U (x) + 2 , on note que les points d’équilibres du champs de vecteurs sont isolés
de la forme (x, 0). On note (x1, 0), (x2, 0), ....(xk , 0) les points d’équilibre contenus dans le niveau E0, c’est
à dire tels que E(xi) = E0.
Les points de minimum de U sont isolés dans l’ensemble E = E0 et nous savons déjà que ce sont des
points stables, donc le cas qui nous intéresse est celui ou les xi sont des maximas locaux de U .
Après avoir fixé le niveau d’énergie, on écrit encore l’ensemble {x ∈ R et U (x) < E0} comme réunion
d’intervalles ]ai, bi[, mais comme les xi sont des maximas locaux, il apparaissent au bord de ces intervalles :
on peut séparer les niveaux d’énergie par des intervalles de la forme ]a1, x1[ ∪ ]x1, x2[....]xk , b1[.
1. a1 > a. L’intervalle ]a1, x1[ décrit une orbite homocline (même cas avec ]x1, b1[, b1 < b) cette orbite
part d’un point instable pour y revenir en un temps infini.
2. ]x1, x2[ orbite hétérocline : elle joint deux points d’équilibres instables et met un temps infini pour
les joindre. Elle peut y retourner en un temps infini aussi.
3. ]a, x[ (cas limite) une orbite arrive à un point d’équilibre instable en un temps infini.
Période du pendule
Si on considère un pendule fixé par une barre a un point fixe, son centre de masse est quelque part disons
à la distance l entre ce point et le bout du pendule, et il décrit
! dθdes
" cercles. Si on appelle θ l’angle que fait le
1
pendule avec la verticale, son énergie cinétique est E = 2 ml2 dt 2 et son énergie potentielle est %mgl. cos θ
!1 ! dθ "2 "
Ainsi E = m ! 2
l2 dt
% g.l. cos θ
dx
Pour se souvenir de ce qu’on a fait avant, appelons x = lθ l’arc parcouru et y = dt la vitesse. On choisi
x
les unités de sorte que la masse soit 1. L’énergie potentielle est U (x) = %g.l cos l , l »énergie totale est
y2 x
E= 2
% g.l cos l
Les points d’équilibre sont les points ou x = 0(π) si x = 0(2π) il y a un équilibre stable, si x = π un
équilibre instable.
Si on part avec une vitesse nulle avec un angle θ0 < 0, x0 = lθ0 on revient à la vitesse
: , nulle pour l’angle
, lθ0 dx l θ0 dθ
opposé. L’énergie est E = %g.l cos θ0 et le temps mis est −lθ0 9 =2 g 0 9
2g.l (cos θ − cos θ0) 2(cos θ − cos θ0)
La période est le double, évidemment.
!a"
On écrit cos (a) = 1 % 2 sin2 2 ,
: ,
l θ dθ
T (θ0) = 4 g 0 0 : θ0 !θ"
sin 2 2
− sin2 2
sin (θ / 2)
dans cette intégrale, on pose sin (ϕ) = sin(θ0 / 2) , et il vient
3.7 Exercices du chapitre 3. 55
9 : !θ"
1 θ 1 1 1 θ
2
cos 2 dθ = 2 sin(θ0 /2) cos
ϕdϕ = 2 sin(θ0 /2) 1 % sin2ϕ dϕ = 2 sin2 20 % sin2 2 dϕ
: ,π : ,π : , # $
l 1 l 2 dϕ l "/2 sin 2θ0 / 2
T (θ0) = 4 g 02 θ dϕ = 4 g 0
9
2 2
=4 g 0 1+ 2
sin 2 ϕ + o(θ02) d ϕ =
cos 2 1 − sin (θ0 / 2) sin ϕ
: ! " : # $
l 1 l θ2
2π g 1 + 4 sin2(θ0 /2) + o(θ02) = 2π g 1 + 160 + o(θ02) .
: #
l
[Comme $ la fonction est paire, on peut d’ailleurs se débrouiller pour montrer qu’on a T (θ0) = 2π g
1+
θ02
16
+ o(θ03) .]
Dans cette exemple, on voit aussi une orbite hétérocline apparaitre. On part de la position d’équilibre
haute θ = %π et on arrive à θ = π en un temps infini. Evidemment cette orbite n’existe pas dans la nature,
mais la dessiner aide bien à comprendre les choses.
:
l
Remarque 3.6.1. On sait que g = 9, 81ms−2. Si un pendule fait 1 m, T0 = 2π g
vaut 2, 005 et l’angle
1
initial fait 0.2 radian au ∆T (θ0)/T (0) = 4
sin2(θ0 /2) = 0.0025.
Un pendule idéal de longue 99,5 cm « bat la
seconde » (a une période de 2 secondes). Si pour le faire fonctionner, on l’écarte de 20 cm de sa position
d’équilibre, il est un peu plus lent (+2, 5) millièmes de seconde).
A quelle
/
condition
0
ce point est il un point d’inflexion de C ?/Une idée
0
pour
/
résoudre ce 0
problème :
x(t) d2 x(t) d
Si y(y) est une solution, exprimer que l’accélération 2 y(y) = dt f(x(t), y(t))
g(x(t), y(t))
est proportionnelle à
dt
la vitesse.
ln (2) − 2π
Exercice 3.7.2. Soit A = 2π
3 . Quelle est l’image d’un triangle (a, b, c) du plan par la valeur à l’instant
3
ln (2)
/ 0 / 0
d x
1 du flot de l’équation linéaire dt y
= A xy
Quelle est l’image Σθ de demi-droite Dθ passant à l’origine et faisant un angle θ avec l’axe des x par le flot
de ce champ de vecteurs ?
Exercice 3.7.3. Soit X un champ de vecteurs défini sur R2, et f une fonction strictement positive.
Réciproque ?
Exercice 3.7.6. Former une équation différentielle dont les solutions sont les courbes
x2 = "(x2 ! y2)
y2
1 −
y2 + x =2+λe 2
Exercice 3.7.7. On cherche les courbes C vérifiant la propriété suivante. Au point M , la normale à C en M
coupe les deux axes [Ox] et [Oy] du demi plan X > 0, y > 0 en deux points A, B tels que M soit le milieu de [A, B].
Exercice 3.7.8. Trajectoire orthogonales.
On considère une famille de courbe dépendant d’un paramètre. On cherche une famille de courbe qui rencontre
la première orthogonalement (à angle droit) en tout point.
Si la première famille est donnée par l’équation y ! = f (x, y), montrer qu’on peut définir la seconde par
−1
y"
= f (x, y)
∂f ∂f
Si elle est donnée par f (x, y) = ", montrer que l’autre est obtenue en résolvant ∂x
dy ! ∂y dx = 0
Montrer que dF = ω (on pourra considérer des chemins parallèles aux axes).
∂a ∂b
Réciproquement si F ∈ C 2 et dF = adx + b dy, montrer que ∂y
! ∂ x = 0.
Les équations de la mécanique classique sont de la forme m % γ=F % . Elle sont supposée être écrite dans un
repère « galiléen » (ce qui ne veut rien dire d’autre qu’on suppose qu’il existe un repère de l’espace dans lequel
ces équations décrivent le mouvement d’un objet).
On rappelle qu’un repère (O, %i , %j , %k) de l’espace euclidien est la donnée d’un point base et d’un repère
orthonormé de l’espace vectoriel sous-jacent. Il arrive que le repère naturel dans lequel on fait l’expérience ne soit
pas fixe au cours du temps. Par exemple si on fait dans un train en marche, on peut voir les effet de l’accélération
du train sur les valises mal disposées au dessus de notre tête. Par ailleurs, il peut être important de se souvenir
que la terre tourne..
Nous fixons une fois pour toute un repère galiléen disons (O0, %e , f% , %g ). A chaque instant fixé, nous avons un
autre repère orthonormé+ une origine (O,%i , %j , %k), mais ce repère et cette origine dépendent du temps. On veut
savoir que devient l’équation m %
γ =F% dans ce repère « mobile ». Nous allons suivant une tradition bien établie
séparer le problème en deux parties. La première partie, seule l’origine bouge, par exemple nous sommes dans
dans un train qui se promène en ligne droite, ensuite on fixera l’origine mais en faisant tourner le repère.
u x
Nous noterons
v les coordonnées galiléennes,
y les coordonnées dans le repère mobile (celle de l’obser-
w z
vateur). On rappelle qu’un changement de coordonnée exprime toujours les anciennes coordonnées en fonction
des nouvelles.
3.7 Exercices du chapitre 3. 57
1. Première partie.
a(t)
% , %j , %k) est constant mais que l’origine O(t) dépend du temps. On note
On suppose que (i
b(t) les coordon-
c(t)
nées de O(t) dans le repère
galiléen.
x(t) a(t) u(t)
1. Démontrer que
y(t) + b(t) = v(t)
z(t) c(t) w(t)
d x(t) d2 a(t) %,
2. En déduire que l’équation de Newton, devient m. dt 2
y(t) = !m.
dt 2
b(t) + F qu’on écrit souvent
z(t) c(t)
d2 r % !%
m. dt2 = F α
x(t)
Ainsi, même en l’absence de force, le point y(t)
se met à bouger.
z(t)
Remarque 3.7.1. Tout se passe comme si l’observateur subissait une force égale à l’opposée de l’accélération
de l’origine du repère: quand le train, ou un avion démarre ou décolle on est plaqué au fond de son siège.
2. Deuxième partie.
u x
1. Rappel d’algèbre linéaire. On suppose que v et y sont les coordonnées d’un point dans des repères
w z
%e , f% , %g et %i , %j , %k de l’espace euclidien.
a. Qu’appelle t on matrice de passage de (e % , f% , %g )
à (i% , %j , %k ).
u x
b. Soit P cette matrice démontrer que v = P y
w z
c. On suppose que les deux repère sont orthonormé. Démontrer que P .P t = P t.P = Id, et que P est ortho-
gonale.
2. On suppose maintenant que le repère (i % , %j , %k ) dépend du temps et qu’il est toujours orthonormé. On not
% , f% , %g ) à (i
O(t) la matrice de passage de (e % , %j , %k) de sorte que P (t) = O(t) est une matrice orthogonale (3, 3).
a. On suppose que l’application t → O(t) est de classe C 1. Démontrer qu’il existe une matrice antisymétrique
dO(t)
(3, 3) notée Ω(t) telle que dt = O(t).Ω(t)
u(t) x(t)
Soit M (t) la trajectoire d’un point dépendant du temps,
v(t) , y(t) les coordonnées de ce point dans
w(t) z(t)
le deux repères.
b.
Démontrer
que6sa
vitesse,calculée
dansle
7 repère galiléen, satisfait :
d u(t) d x(t)
x(t)
v(t) =O(t) y(t) + Ω(t) y(t)
dt dt
w(t) z(t) z(t)
6 7
d2 u(t) d2 x(t) d x(t) 2(t)
x(t)
!(t)
x(t)
c. En déduire que d t2
v(t) = O(t) d t2
y(t) + 2Ω(t) dt
y(t) + Ω y(t) + Ω y(t)
w(t) z(t) z(t) z(t) z(t)
d 2 x(t) d x(t) 2(t)
x(t)
!(t)
x(t)
a
dt2
y(t) + 2Ω(t) dt
y(t) + Ω y(t) + Ω y(t) = b
z(t) z(t) z(t) z(t) c
Remarque 3.7.2. Ainsi on remarque qu’en l’absence même d’une force extérieure (f = 0) le point se met à
2
bouger. On écrit souvent m. d 'r = F
% ! m.2ω
%∧
d'r
! m.ω
% ∧ (ω r .
% ∧ %)
dt2 dt
58 Champs de vecteurs autonomes, équation y ! = f (x, y).
dr
Le terme !m. 2ω % ∧ d t s’appelle la force de Coriolis, le second, !m. ω % ∧ r) n’est autre que la force
% ∧ (ω
dr
centrifuge : c’est la force subie à chaque instant par un enfant assis sans bouger ( dt = 0) dans un manège qui
tourne. Si ω% est constant et si le champ de force ne dépend pas de la position r mais que de t , on a « juste »
une équation différentielle linéaire du second ordre à résoudre.
3. Champ de pesanteur.
GM
Le champ de la pesanteur %g est dirigé vers le centre de la terre, et sa valeur absolue est ' &2
&r
a peu près
constante entre le haut et le bas de la tour Eiffel, donc à la latitude de 45°. La vitesse de rotation de la terre est
de 1 tour par 24 h. Un observateur regarde un objet tomber du haut de la tour Eiffel. L’équation de la chute
des corps est donc :
d 2 'r d'r
d t2
= g% ! ! 2ω
% ∧ , ou g% ! = %g ! ω
dt
% ∧ %r ) qui est a peu près constant.
% ∧ (ω
Le vecteur g% ! donne donc la direction de la verticale observée (qui est légèrement différente de la verticale
physique), nous considérerons que c’est une constante.
d'
v
Résoudre l’équation dt
% ∧ %v + %g !. On note Ω la matrice du produit vectoriel par ω
= !2ω %
Evidemment le vecteur ω% est tout petit, le temps de chute tc n’est pas très long, donc on peut poser euΩ =
Id + uΩ + 0()ω % )2)) " )ω
% )2), avec )0()ω % )2 × |tc2|
t2 t3
En déduire que si v0 = 0, on a %r = r%0 ! %g ! 2 + % )2|tc4| × )g
% ∧ %g ! + termes
en )ω
3
ω % !)
<
2h
Le temps de chute est approximativement t= g . On donne g = 10ms2. On fait descendre tout doucement
un fil a plomb du haut d’une tour de 100 m pour marquer la verticale. Après on laisse tomber une pierre. Montrer
que sa chute est déviée vers l’est et évaluer de combien.
2. Démontrer que si x(t) est une solution, la fonction U (x(t)) est décroissante, et même strictement si x(0),
n’est pas un point d’équilibre.
3. On suppose maintenant que U est propre, c’est à dire que lim U (x) = +∞.
&x&→∞
dx
Démontrer que la solution du problème de Cauchy = !∇U , x(0) = x0 est définie sur R+. On pourra consi-
dt
dérer l’ensemble {x/U (x) " U (x0)} et démontrer qu’il est compact.
4.* On suppose de plus que le points critiques de la fonction U sont isolés, et on les note {x1, ...xn0}.
On veut démontrer que pour toute donnée initiale, la trajectoire x(t) converge quand t → +∞ et que sa limite
est un point d’équilibre.
= >
d
On introduit 4 notations : d = min )xi ! xj ), Ω = x / ∀i, )x ! xi) ! 10 ainsi que α = min)∇U (x)),
x∈Ω
β = max)∇U (x)).
x∈Ω
# $ # $
d d
4.a Soit x: [t1, t2] →
# Ω une$solution telle que x(t1) ∈ B xi, 10 et x(t2) ∈ B xj , 10 , mais x(]t1, t2[) ne rencontre
d
aucune des boules B xi, 10 .
2d
Démontrer que la longueur du chemin p (qui est supérieure à d ! 10 ) est inférieure à (t2 ! t1)β, et en déduire
4. d
que t2 ! t1 ! 5β
4α
4.b En remarquant que si t ∈ [t1, t2], )∇U (x(t))) ! α, montrer que U (p(t2)) ! U (p(t1)) " ! 5β d.
4.c En déduire qu’il n’existe pas de suite tn qui tend vers l’infini telle que p(t2n) soit dans la boule centre
de rayon p1 et rayon d/10 alors que p(t2n+1) soit dans la boule de centre p2 et de rayon d/10.
3.7 Exercices du chapitre 3. 59
∂ 2U ∂ 2U
∂ x2
5. On suppose que pour tous les points critiques de U (les points où ∇U = 0) la Hessienne est
∂ x∂ y
∂ 2U ∂ 2U
∂ x∂ y ∂y2
non dégénérée (son discriminant est non nul). Discuter la stabilité des points critiques.
x2 x4 y2
6. Etudier le cas particulier U (x, y) = ! 2 + 4
+ 2
, et esquisser le portrait de phase.
Problème 3.7.2. * Soit A ∈ Mn(R) une matrice dont toutes les valeurs propres "1, ..."n (complexes),ont
une partie réelle strictement négative. On rappelle que le produit scalaire est donné par la formule <X , Y >
n
=Σi=1 xi yi
dX
1. En utilisant la forme générale des solutions de l’équation d t = A X, démontrer que la fonction
(λi +λj)t
< epx tAx, exp tAy > est une somme de , ∞fonctions de la forme pi, je
2. En déduire que pour l’intégrale 0 < exp tAx, exp tAy > dt est convergente et défini un nouveau produit
scalaire <u, v >n sur Rn défini positif. On note q(x) = <x, x >n le carré scalaire, c’est le carré d’une norme
euclidienne sur Rn.
3. Soit, ∞Y = A.x le champ de vecteur , ∞ linéaire associé à A.. Montrer que Y . q (x) = 2 < x,
A.x >n = 0 < exp tAx, A exp tAx > dt = 2 0 <x(t), x !(t) > dt = !<x, x >
4 En déduire qu’il existe un certain α > 0 tel que Y . q (x) "!αq(x) et que le long d’une orbite q(x(t)) "e −αtq(x)
5. Démontrer le cas général du Théorème de Stabilité en vous inspirant du cas particulier traité dans la
démonstration du théorème 3.
3. Dessiner côte à côte le graphe de la fonction U et quelques courbes E = cte pour les exemples suivants.
f (x) = x2n−1
f (x) = x ! x3
f (x) = 1 ! x2
Dans chacun des cas, on cherchera les positions d’équilibre (points critiques) et on discutera leur stabilité.
On décrira les orbites périodiques, homoclines et hétéroclines.
U
Exercice 3.7.16. On considère l’équation x !! = !∇U (x), ou U (x) = ! ch 2 0αx
1 2
Chercher le minimum d’énergie E = 2 x ! + U (x) et montrer que celui ci est stable.
Pour quelles valeurs de E le mouvement est il périodique ? Calculer alors sa période.
On se place dans R3, et on se donne un champ de forces central. Conformément à la tradition nous noterons
'r
%r la position d’un point soumis à la force en question, et r = )r
% ) sa norme euclidienne, et e%r = &r
'&
.
En tout point la force F % se dirige vers l’origine, autrement dit il existe une fonction F
% (r
%) = α(x %, ou α est peut-
% )r
être positif (si l’objet est repoussé du centre), peut être négatif (il y est attiré). On étudie l’équation de Newton
d 2'r
m d t2 = F (r
%).
d 'r % reste constant au cours du temps. On le note M .k
% , où M
1 Soit %v = d t la vitesse. Montrer que m.v
% ∧ %r = M
est sa longueur et %k sa direction.
2.
% passant à l’origine.
Montrer que au cours du temps le point reste dans le plan Π perpendiculaire au vecteur M
Ainsi le mouvement reste dans un plan au cours du temps et ce plan ayant un point privilégié, il est tentant
'r
de passer en coordonnées polaires, %r (t) = r(t)eiθ(t) ce qui veut aussi dire que e%r = &r
'&
= eiθ(t)
On suppose maintenant de plus que la valeur absolue de la force ne dépend que de la distance à l’origine, de
sorte que f (r
% ) = g(r)r
%
d'
r dθ
3. Calculer d t , en coordonnées polaires et montrer que mr 2 dt = M reste constant au cours du temps (utiliser
1). C’est la loi des aires.
1 d'r d 'r
4. L’énergie cinétique de l’objet est 2 m < .
d t dt
> combien vaut elle en coordonnées polaires ?
# $2
1 dr M2
5. On suppose que la force dérive d’un potentiel U (ρ), Montre que l’énergie totale est E = 2 m dt + 2m r 2 +
U (r). Ce qui ramène à l’étude d’un système à un degré de liberté dont l’énergie potentielle serait
M2
Ueff (r) = 2m r 2 + U (r)
α
6. On suppose maintenant que le potentiel U est le potentiel de Kepler U (r) = ! r . Dessiner cote a cote le
M2 α dr
potentiel efficace 2mr 2 ! r et les trajectoires dans l’espace des phases r, d t . En déduire que si E > 0 le mouvement
s’en va à l’infini, alors que si E < 0 l’orbite est périodique.
: !
dθ M dr 2 α" M2
7. On a d t = m r 2 et dt = m E + r ! m r2 . En déduire que
# ! $
dθ M 2 α" M 2 −1/2 1
dr
= m r 2 · m E + r ! m r2 , et intégrer grâce au changement de variables x = r
:
p M2 2EM2
Montrer que les trajectoires sont de la forme r = 1 + e. cos θ , avec p = mα , e = 1 + mα2 . Ce sont des coniques
d’excentricité e, et on retrouve bien les résultats du 6.
Chapitre 4
Aspects qualitatifs
Des aspects très important de la théorie des équations différentielle n’ont pas encore été abordés. D’abord,
comment trouver des solutions approchées (nous avons vu sur de nombreux exemples qu’il est impossible de
trouver des solutions exactes) ? Une suite de solutions approchées converge-te-elle vers une vraie solution ?
Ensuite est ce que les solutions sont stables au sens suivant : si on se trompe un peu soit sur l’équation,
soit sur la condition initiale, comment cela affecte-t-il le résultat. Les équations différentielles qui ont un
sens physique satisfont ce genre de propriété car il est impossible de connaitre avec une précision absolue
les conditions initiales, les valeurs des paramètres etc. Ce qui ne les empêchent pas de décrire de façon très
convaincante la réalité.
Théorème 4.1.1. Lemme de Grönwall. Soit ϕ: [0, T ] → R une fonction continue. On suppose qu’il existe
un réelle k et une fonction continue f : [0, T ] → R tels que
,t
ϕ(t) # f (t) + k 0 ϕ(u) du
,t
Alors ϕ(t) # f (t) + k 0 f (u)ek(t −u) du
,t
Remarque 4.1.1. Si on dérive ϕ1(t) = f (t) + k 0 ϕ1(u) d u, alors on voit que ϕ1 satisfait l’équation
,t
ϕ1! = f ! + ϕ1, dont la solution telle que ϕ1(0) = f (0) est ϕ1 = f (t) + k 0 f (u)ek(t−u) du. On peut reformuler
ϕ(t) # ϕ1(t). Autrement, t dit le second membre de l’inégalité de Grönwall est la solution de l’équation
intégrale ϕ(t) = f (t) + k 0 ϕ(u) du.
,t
Pour le corollaire, on calcule f (t) + k 0 f (u)ek(t−u) du dans les trois exemples.
,t
a + k 0 aek(t−u) du = a + ekt [%ae−ku]0t = aekt
,t ,t . −ku -t
e a
at + k 0
atek(t−u) du =IP at + ekt [%ate−ku]0t + 0
a ek(t−u) du = aekt. % k = k (ekt % 1)
0
,t a
at + b + k 0 (at + b)ek(t−u) du = bekt + k (ekt % 1).
"
61
62 Aspects qualitatifs
A vrai dire, nous n’allons pas rechercher des fonctions dérivables partout, mais C 1 par morceau et avec
une dérivée à droite et à gauche en tout point. Ce sont les primitives de fonctions continues par morceau.
Très importantes pour nous seront les fonctions linéaires par morceau. En analyse numérique, on utilise
aussi les fonctions polynomiales par morceaux (les fonctions splines).
On garde les notations précédentes.
dx
Définition 4.1.1. Une solution ε approchée de l’équation différentielle d t = f (t, x) sur un intervalle [t0, t1]
est une fonction x(t), continue, C 1 par morceaux, dérivable à droite et à gauche en tout point telle que
+ dx +
pour tout t ∈ [t0, t1], (x1, t) ∈ Ω et + dt % f (t, x)+ # ε. En un point ou x a seulement une dérivée à droite ou
à gauche, on exige que 'xd! (t) % f (t, x)' # ε et 'xg! (t) % f (t, x)' # ε
Cette définition est importante, parce que dans la vraie vie, on ne connait pas exactement l’équation,
et même si on la connait, il n’y a aucune méthode pour en trouver une solution.
On peut se demander si les solutions approchées approchent bien les solutions, ou pas. Malheureusement
dx √ dx
sans hypothèse de régularité ça n’est pas le cas. Reprenons l’équation différentielle dt = x si x > 0, dt = 0
sinon. Avec comme condition initiale x(0) = 0. Nous avons deux solutions (exactes, donc approchées)à sur
1
[0, +∞[ x0(t) = 0 et x1(t) = 4 t2.
1
Fixons nous intervalle de temps, par exemple [0, 1] alors sur cet intervalle on a 'x1 % x0'∞ = 4 , et donc la
solution approché x1 n’approche pas du tout solution x0. Grâce au lemme de Grönwall et à la condition de
Lipschitz, nous allons démontrer que si f (t, x) est lipschitzienne par rapport à x, cela se passe un peu mieux;
Théorème 4.1.2. On suppose que la fonction f est (globalement sur Ω) k % lipschitzienne par rapport
à x, c’est à dire que 'f (t, x1) % f (t, x2)' # k'x1 % x2'. Soient x1 et x2 deux solutions ε1-approchée et
ε2 % approchée définies sur un intervalle [t0, T ]. Alors pour t ∈ [t0, T ], on a 'x1(t) % x2(t)' # 'x1(0) %
ek(t−t0) − 1
x2(0)'ek (t−t0) + (ε1 + ε2) k
+ , t ! dx dx "
+
Démonstration. On pose ϕ(t) = 'x1(t) % x2(t)' = + x1(t0) % x2(t0) + t0 dt1 % d t2 du+
,t
Ainsi, ϕ(t) # 'x1(t0) % x2(t0)' + t0
'f (u, x1) % f (u, x2)' du + (ε1 + ε2)(t % t0).
Ainsi, si on fixe un intervalle de temps[t0, t1] une solution approchée approche une solution a 2εek (t1 −t0)
près. Du point de vue numérique, le terme exponentiel est catastrophique. Notons cependant que l’inéga-
dx
lité ne peut pas être améliorée. Si on part de l’équation différentielle linéaire à coefficient constant dt = a.x,
dont la solution est x(t) = x(0)eat. Si x1(0) = ε la solution x1(t) = εeat est une solution approchée de la
solution 0. La solution approchée va diverger de la solution exponentiellement vite : en général, on ne peut
pas prédire l’avenir.
Ce problème est connu sous le nom « effet aile de papillon »: une petite erreur (ε) sur les conditions
initiales va avoir un effet très important assez rapidement. Par exemple si x mesure une distance en m,
alors f est exprimée en m.s−1 et sa constante de Lipschitz en s−1 soit en Herz. Supposons qu’elle soit de
x−y
l’ordre de 10 −2 Hz (f est presque constante f (x) = f (y) ± 100 c’est-à-dire que l’erreur relative sur la
vitesse soit de l’ordre de 1/100 par rapport à la position). Alors au bout d’un temps de 1 heure l’erreur
∆x
relative ε commise sur la position est de e36 soit 1015.
Notons néanmoins que ce problème n’apparaitrait pas, dans l’équation linéaire, pour a < 0. Il y a donc
des cas ou les solutions approchées approchent bien (en temps positif) les solutions. Nous dirons que ce
sont des solutions stables .
En faisant, ε = 0, nous « re »-démontrons l’unicité des solutions. Il n’y a rien d’étonnant, nous avions
utilisé la même démonstration dans le cas particulier ε = 0.
Corollaire 4.1.2. Sous ces hypothèses, il y a unicité de la solution sur l’intervalle [0, T ]"
La méthode d’Euler consiste à chercher une solution approchée au problème de Cauchy. On se donne
une condition initiale (t0, x0) et on cherche une solution linéaire par morceaux sur un intervalle disons [t0, T ].
T −t T −t
On divise cet intervalle en n morceaux, disons de longueur n 0 . On pose pour simplifier tk = t0 + k n 0 .
Pour construire une fonction linéaire par morceaux, on procède par récurrence. La valeur de la fonction
à l’instant t0 est x0 et sa dérivée à droite est y0 = f (t0, x0).
T − t0
On veut qu’elle soit linéaire par morceaux, alors sa valeur en t1 est x1 = x0 + n
f (t0, x0). Et on
T −t
recommence. La valeur au point tk est donc xk+1 = xk + n 0 f (tk , xk).
Malheureusement si on n’a pas fait attention il n’y a aucune raison pour que le couple (tk , xk) ne sorte
pas de Ω auquel cas le processus s’arrête. Pour cela il va falloir réduire le temps de définition de notre
solution.
Soit x0 ∈ Ω, r > 0. On suppose que K = B̄(x0, r) ! [t0, T !] & Ω et on note A = max (x,t)∈C 'f '
! r " T −t
Lemme 4.1.1. Soit T # max t0 + A , T ! . La suite x0, ...xn (finie) définie par xk+1 = xk + n 0 f (tk , xk)
est bien définie.
Dans le cylindre de sécurité, on peut alors définir une fonction ϕ, continue et linéaire par morceaux en
disant que sa restriction à chaque intervalle [tk , tk+1] est linéaire, et que ϕ(tk) = xk. La pente de ϕ en
restriction à l’intervalle [tk , tk+1] est f (tk , xk).
T − t0
Définition 4.1.3. La suite de points xk+1 = xk + n
f (tk , xk) qui définit la fonction ϕ s’appelle le schéma
d’Euler.
Pour montrer que la fonction ainsi définie est bien, pour n suffisamment grand, une solution ε %
approchée, il faut rappeler le théorème de Heine-Borel.
Théorème 4.1.3. Soit f une fonction continue sur un compact. Alors f est uniformément continue : pour
ε > 0, il existe ' tel que si 'u % v ' # ' alors 'f (u) % f (v)' # ε.
64 Aspects qualitatifs
ε
Exemple 4.1.2. Si f est k % lipschitzienne, la démonstration se simplifie considérablement : on prend ' = k
Théorème 4.1.4. Si la fonction f est continue, il existe ! un Tnombre T et un entier nε tel que pour n ! nε
−t "
la fonction linéaire par morceaux ϕ: [t0, T ] telle que ϕ t0 + k n 0 = xk est une solution ε approchée de
dx
l’équation différentielle dt % f (t, x) = 0 telle que ϕ(t0) = x0.
dx
Exemple 4.1.3. Si on veut résoudre l’équation différentielle dt = x sur l’intervalle [0, t ] avec comme
! t "
condition initiale x(0) = 1, on trouve ϕn(t) = 1 + n n comme solution approchée.
Toute le mode sait bien que ϕn(t) converge vers et, mais pas très vite. Si t est fixé, on a .
# $
! t2
t " ! "
! t " t 1
n − + o(1)
1 + n n = en ln 1+ n = e n 2n2 n2
t 1
= et ! 1 % n + n2 o(1)
|ϕn − et| 1
L’erreur relative commise et
est donc de l’ordre de n
t. Le schéma d’Euler converge lente-
ment.
4.2.1. Convergence uniforme. On fixe un espace vectoriel normé de dimension finie (E , '.').
On sait que E est complet, c’est à dire que toute suite de Cauchy d’élément de E converge dans E. Si
I & R est un intervalle, nous considérons l’espace vectoriel Cb(I , E) des fonctions continues et bornées sur
E, muni de la norme 'x'∞ = sup'x(t)'
t∈I
Une suite de fonctions xn converge vers la fonction x∗ au sens de cette norme si et seulement si elle
converge uniformément vers x∗, c’est-à-dire qu’on a la proposition suivante.
Proposition 4.2.1. Soit (xn)n∈N une suite d’éléments de Cb(I , E) et soit x∗ ∈ Cb(I , E).On a l’équivalence
entre
i. La suite de fonctions xn converge uniformément vers x∗.
ii. 'xn % x∗'∞ tend vers 0.
iii. ∀ε > 0, 8n0 /n ! n0 , ∀x ∈ I , 'xn(t) % x∗(t)' < ε.
Théorème 4.2.1. Muni de sa norme '.'∞ , l’espace vectoriel Cb(I , E) est un complet.$
L’étudiant voulant réviser ce sujet est invité à faire le problème proposé en fin de chapitre.
Ce qui est important pour nous est qu’une suite uniformément de Cauchy (c’est à dire de Cauchy pour
la norme uniforme) converge uniformément vers une fonction continue.
Lemme 4.2.1. Soit T ! 0, et εn une suite qui tend vers 0.. On suppose donnée une suite (xn)n∈N de
solution εn approchée telles que xn(t0) = x0 et définie sur l’intervalle [0, T ]. Si, dans C([t0, T ], E), la suite
xn et de Cauchy elle converge uniformément vers une fonction de classe C 1 qui est solution de l’équation
différentielle.
Remarque 4.2.1. Ce qui est important ici c’est qu’a priori, la limite x∗ est simplement une fonction
continue. On doit démontrer qu’elle est C 1.
4.2 Convergence uniforme, théorème de Cauchy-Lipschitz. 65
,t
Démonstration. On écrit xn(t) = x0 + t f (u, xn(u)) du. Pour pouvoir passer à la limite il faut s’assurer
0
que sur [0, T ] la suite fn(u) = f (u, xn(u)) converge uniformément vers f (t, x∗(u)). Admettons cela un
,t
instant. En passant à la limite, on a x∗(t) = x0 + t f (u, x∗(u)) du. Il en résulte que x∗ est bien C 1 et que
0
c’est une solution de l’équation différentielle.
2. Le cas général est un peu plus compliqué. Soit K & Ω un petit voisinage compact du graphe de x∗.
Si sorte si n ! n0 l graphe de xn reste dans K. Comme la fonction f y est continue, elle y est uniformément
continue. Donc si ε > 0 est fixé, il existe un ' tel que si 'xn % x∗' < ' alors 'f (u, xn(u)) % f (u, x∗(u))' # ε.
Comme la suite xn converge uniformément vers x∗, alors ' étant donné, il existe un entier n0 à partir
duquel 'xn % x∗' < ' cqfd.
3. Comme f est continue sur le compact K elle y est bornée, et on peut passer à la limite en utilisant
le théorème de convergence dominée. "
Théorème 4.2.2. (Cauchy Lipschitz) Soit Ω & R ! Rn un ouvert, et f : Ω → Rn, f (t, x) une fonction
continue. On suppose que f est localement lipschitzienne par rapport à la variable x, par exemple que f est
C 1sur Ω. Pour toute donnée initiale (t0, x0) il existe un couple ε, r tel que [t0 % ε, t0 + ε] ! B̄(x0, r) & Ω
dx
et une fonction x: [t0 % ε, t0 + ε] → B(x0, r) telle que dt = f (t, x).
Si x1: I & R → Rn est une autre solution, alors sur l’intervalle I ∩ [t0 % ε, t0 + ε], x = x1.
Question 1. On a utilisé l’hypothèse « lipschitzienne » plusieurs fois dans la démonstration. Sauriez vous
dire ou exactement ?
Théorème 4.2.3. Soit X un espace métrique complet 0 # ! < 1 une constante et Φ: X → X une application
! contractante, c’est à dire une application !-lipschitzienne, d(Φ(x), Φ(y)) # !nd(x, y). Alors f admet
un unique point fixe x∗. Pour tout point x0 de X, ce point fixe est la limite de la suite xn = Φ(xn−1). La
λn
convergence de cette suite est exponentielle 'xn % x∗' # 1 − λ 'x1 % x0'.
Démonstration. Soit m ! n On vérifie, par récurrence que d(xn+1, xn) # !nd(x1, x0). Il en résulte que
λn
d(xm, xn) # d(x1, x0) ! 1 − λ , et que la suite est de Cauchy. Comme l’espace est complet, elle converge.
Comme Φ est continue, sa limite est un point fixe. "
dx
dt
= f (t, x), x(t0) = x0
,t
On s’empresse d’écrire cette équation x(t) = x0 + t0
f (u, x(u))du.
Soit Φ est l’opérateur C([t0, t1], E) → C([t0, t1], E) « défini » par cette formule. Ainsi, une solution du
problème de Cauchy est un point fixe de Φ.
Le premier problème c’est que Φ n’est pas tout a fait défini. En effet pour que la formule ait un sens,
il faut que pour tout u ∈ [t0, t], f (u, x(u)) ∈ Ω. Si c’est le cas, par exemple si f est bien définie sur R ! E
on peut étudier Φ et ses itérées.
Le second problème est qu’on ne peut pas appliquer directement le théorème des points fixes, car Φ est
définie entre deux espaces métriques différents (et le premier n’est même pas complet en général). L’idée
va être de restreindre Φ à un cylindre de sécurité, exactement comme on l’a fait quand on a démontré qu’il
existe des solution ε approchée.
Comme f est continue il existe un voisinage de t0, x0 de la forme [t0 % ε1, t0 + ε1] ! B̄(x0, r) contenu
dans Ω tel que sur ce voisinage 'f (t, x)' # 'f (t0, x0)' + 1 = A.
! r "
On considère alors ε = min A
, ε1 de sorte que A.ε < r
On va maintenant utiliser le fait que f est k lipschitzienne par rapport à x. On suppose évidemment
ε1 et r choisis de sorte que si x et y sont dans B̄(x0, r), 'f (t, x) % f (t, y)' # k'x % y'.
,t
On a alors (Φ(x) % Φ(y))(t) = t0
f (u, x(u)) % f (u, y(u))du, donc
'Φ(x) % Φ(y)' # k.ε.'x % y'
!k r "
Ainsi, si ε est choisi de sorte que kε = ! < 1, par exemple ε < Min 2
, A , ε1 Φ devient ! contractante.
Lemme 4.2.3. Soit ! < 1. Si ε est suffisamment petit, la restriction de Φ à C([t0 % ε, t0 + ε], B̄(x0, r)) est
une ! contraction. "
Théorème 4.2.4. Il existe un ε > 0 et une solution x au problème de Cauchy sur l’intervalle [t0 % ε, t0 + ε].
Cette solution est unique au sens suivant si x1 est une autre solution définie sur [t0 % η, t0 + η] alors
x1 et x coïncident sur [t0 % min (ε, η), t0 + min (ε, η)].
Remarque 4.2.2. On a encore fait une petite escroquerie. Il faut vérifier que C([t0 % ε, t0 + ε], B̄(x0, r))
est complet. Mais c’est un fermé dans un espace complet.
Remarque 4.2.3. On pourrait penser que la méthode des approximations successives de Picard, qui
converge exponentiellement vite, est bien plus efficace que la méthode des solutions approchées d’Euler (qui
1
converge en n ). Ce n’est qu’une impression. La méthode de Picard nous demande de calculer une intégrale
,t
t0
f (u, x(u)) du ce qui est très couteux. On peut aussi faire un mix Euler-Picard ,en subdivisant l’intervalle
t
en n morceaux et en étudiant un opérateur de la formel xN (tn) = xN −1(tn−1) + t n f (xN −1, u) du, ce qui
n−1
donne des fonctions polynomiale par morceaux de degré N . La méthode la plus célèbre pour trouver des
solutions approchées est celle de Runge et Kutta, mais il y a des centaines de méthodes adaptées à des
situations différentes.
On a déjà vu la dépendance continue (grâce au Lemme de Grönwall) quand la fonction est lipschitzienne
par rapport à la seconde variable.
Si tous les vents sont favorables, on peut dériver cette équation par rapport à chaque coordonnée x1 de
la position initiale, et un calcul simple montre que :
d ∂ϕ ∂f ∂ϕ
dt ∂xi
= ∂x (t, ϕ(t, x))· ∂x
i
∂f ∂ϕ
Ici, pour chaque t fixé, ∂x
(t, ϕ(t, x)) est une application linéaire de R n dans lui même, alors que ∂xi
est un vecteur colonne.
∂f1 ∂f1 ∂f1
∂x1 ∂xi ∂xn
f1
∂f ∂f2 ∂f2 ∂f2
Détaillons. Si f est la fonction
f2
alors ∂x
est la matrice
∂x1 ∂xi ∂xn .
fn ∂fn ∂fn ∂fn
∂x1 ∂xi ∂xn
Si donc nous fixons une solution x(t) telle que x(t0) = x0, cette équation devient une équation diffé-
rentielle linéaire définie sur l’intervalle [t0, t1]
d ∂f
dt
X = ∂x (t, x(t))·X
Définition 4.3.1. On suppose que f est de classe C 1 et on se donne une solution x(t) de l’équation
d ∂f
différentielle définie sur l’intervalle [t0, t1]. L’équation linéaire dt X = ∂x (t, x(t))·X s’appelle l’équation au
variation.
Exemple 4.3.1. On suppose que l’équation est autonome f (t, x) = f (x) est donc un champ de vecteurs.
Si x0 annule f , c’est donc un point d’équilibre, et x(t) = x0 est la solution. L’équation linéarisée est juste
d
dt
X = A·X, où A = f !(x0) est la matrice jacobienne de f . Nous avons déjà vu cette équation quand on a
étudié les positions d’équilibre.
Théorème 4.3.1. Admis. Soit Ω & R ! Rn un ouvert et f:Ω → R n une fonction de classe C m, m ! 1. Soit
t0, x0 ∈ Ω, et [t0, t1] un intervalle de temps sur lequel est défini une solution au problème de Cauchy
dx
dt
= f (t, x0(t)), x0(t0) = x0.
1. Il existe un voisinage V de x0 et une fonction ϕ(t, x) définie sur [t0, t1] qui soit solution au problème
dx
de Cauchy d t = f (t, x(t)), x(t0)=x.
∂ϕ
2. De plus ϕ est de classe C m, et d x ( (t, x0) est la valeur à l’instant t de la solution de l’équation au
d ∂f
variations dt X = ∂x (t, x0(t))·X
A vrai dire, ce théorème qui semble très difficile ne l’est pas vraiment en pratique. Si on sait que ϕ(t, x)
d ϕ(t, x)
est dérivable par rapport à x, pour calculer sa dérivée, on dérive juste l’équation dt = f (t, ϕ(t, x))
Par exemple dans le cas d’un champ de vecteurs autonome, si x0(t) est déjà une solution
dϕ(t, x) d ∂ ϕ(t, x0) ∂f ∂ ϕ(t, x )
dt
= f (ϕ(t, x)), et donc dt ∂x
= ∂x (x0(t))· ∂x 0 .
dx
dt
= f (t, x(t), !), x(t0) = x0 au voisinage d’une solution x(t, !0)
dy
En posant y = (x, !) ∈ Rn+1, on peut voir ceci comme un cas particulier de l’équation dt = f (t, y),
y(0) = (x0, !) dont la condition initiale dépend d’un paramètre. Le théorème de différentiabilité par rapport
aux paramètre s’applique, et on a juste besoin de calculer la dérivée partielle par rapport à la dernière
coordonnée du vecteur y qui se trouve être !.
Remarque 4.3.1. Ici l’équation au variation est une équation différentielle linéaire avec second membre.
Comme dans le cas du théorème précédent, ce qui est compliqué c’est de démontrer que xλ est dérivable
par rapport à !. Si on le sait, il n’y a pas de raison de se gêner : l’équation aux variations s’obtient juste
en dérivant. Mieux, si on sait que c’est C ∞, rien n’interdit de chercher un développement limité.
dx
Détaillons un exemple. On considère l’équation différentielle dt
= x + !(t + x2). avec la condition initiale
∂x
x(0) = 1. On demande de trouver ∂λλ pour ! = 0.
dx
On reporte dtλ = xλ + !(t + xλ2 )
On dérive et on fait ! = 0
d ∂ xλ ∂x ∂x dy
= ∂λλ + t + x20 = ∂λλ + t + et, soit dt = y + t + et, qui se résout par la méthode de la variation des
dt ∂λ , t
constantes. y(t) = et 0 (ue−u + 1) du. Ainsi
xλ(t) = x0(t) + !y(t) + o(!).
Soit x une solution de x !! + q(t)x = 0, où q: [0, +∞[ → R+ est une fonction croissante strictement positive (et
donc minorée par q(0).
2 ,t
Montrer que x ! + q(t)x2 = K + 0
q !(s)x2(t) dt
4.4 Exercices du chapitre 4. 69
Exercice 4.4.5. (Numérique) Ecrire la méthode d’Euler pour trouver une solution approchée au problème de
Cauchy, dans les exemples suivants. On subdivise l’intervalle en 10 parties égales. On pourra faire le calcul à la
main ou avec son logiciel préféré.
Exercice 4.4.6. (Numérique) S’inspirer de l’annexe A pour écrire le schéma d’Euler d’une équation différentielle,
par exemple l’équation des lynx et des lapins.
/ 0 / 0
d x x(1 − y)
dt y
= y(1 − x)
définie sur l’ouvert 2>x > 0, 2 > y > 0
!
x − 1 "2
sin y
Perturber un peu cette équation avec un petit terme comme 2
! y − 1 "2 pour voir le résultat.
2
cos y
Exercice 4.4.7. Soit I ⊂ R un intervalle et A: I → Mn(R) une application continue, soit [t0, t1] ⊂ I un intervalle
dx
compact. Soit k = max t∈[t0,t1])A). On considère l’équation différentielle linéaire d t = A(t)·x. x(t0) = x00
On considère l’opérateur Φ de Picard qui défini une application affine continue C([t0, t1], Rn) par la formule
,t
Φx0(x)(t) = x0 + t A(u)x(u) du
0
3. En déduire qu’il existe une puissance Φn0 de Φ qui soit 1/2 contractante, et que la solution au problème
de Cauchy est bien définie et unique sur tout l’intervalle I. On vérifiera qu’une fonction est un point fixe de Φ
si et seulement si c’est un point fixe de Φn0.
4. Même question si on ne suppose plus l’équation différentielle linéaire, mais seulement globalement k
lipschitzienne; c’est à dire f : I × Rn → Rn et )f (t, x) ! f (t, y)) " k |x ! y|.
Soit Ω ⊂ Rn et f : Ω → Rn une fonction continue. Soit K ⊂ Ω un compact, et ε > 0. Montrer qu’il existe un
T (dépendant de ε et K) tel que pour toute donnée initiale x0 dans K, il existe une solution ε approchée de
dx
l’équation différentielle dt = f (x) telle que x(0) = x0 définie sur l’intervalle [0, T ].On suppose de plus que f est
localement lipschitzienne. Démontrer que si x0 ∈ K, et x: [0, T [ → Ω est la solution maximale du problème de
Cauchy, soit t = +∞, soit T est fini et il existe un instant t1 tel que si t > t1 x(t) ∈ / K. Autrement dit x(t) sort
de K et n’y revient jamais.
On sait que, si x(t, h) est la valeur à l’instant t de la solution de l’équation telle que x(0, h) = h, x !(0, h) = 0,
alors x est de classe C n+1 par rapport à h et, comme x0(t) = 0 on a
hn
x(t, h) = x1(t)h + ··· + xn(t) n! + hnη(t, h),
où les fonctions xi sont de classe C n ainsi que η. Pour h fixé, et pour k = 1 ou 2.
[k] [k] hn
x[k](t, h) = x1 (t)h + ··· + xn (t) n! + hnη(kt, h)
Quelle équation différentielle satisfont x1, x2 ? (on précisera les conditions initiales).
Montrer qu’en général xk satisfait une équation différentielle linéaire dont le second membre est un polynôme
en x1, ....xk−1, et en déduire que xk est un quasi-polynôme.
Annexe A
Le schéma d’Euler a le bon gout d’être facile à mettre en oeuvre numériquement (même si en général,
il ne converge pas très vite). Voici un exemple dans le cas du modèle SIR.
% Paramètres de l’équation
beta = 0.3; % Taux de transmission de la maladie
gamma = 0.07; % Taux de guérison de la maladie
N = 10000; % Taille de la population totale
I0 = 5; % Nombre initial d’individus infectés
R0 = 0; % Nombre initial d’individus guéris ou morts.
S0 = N - I0 - R0; % Nombre initial d’individus susceptibles de tomber malades
% Intervalle de temps
t_start = 0;
t_end = 200;
delta_t = 1;
% Initialisation
t_values = t_start:delta_t:t_end;
S_values = zeros(1, length(t_values));
I_values = zeros(1, length(t_values));
R_values = zeros(1, length(t_values));
S_values(1) = S0;
I_values(1) = I0;
R_values(1) = R0;
71
72
Le script suivant permet de dessiner un champ de vecteur dans le plan à partir d’un exemple.
∂ ∂
Ici, nous prenons le champ X = (y % 0.3 sin y) ∂ x + (0.2 y + sin(x)) ∂y , ou si l’on veut l’équation diffé-
rentielle
1 :
dx
= y − 0.3 sin y
dt
dy
= 0.2 y + sin(x)
dt
On peut l’adapter pour dessiner n’importe quel champs pas trop compliqué donné analytiquement.
% Paramètres
x= [-4; 5];
y = [-2; 2];
num_points = 20;
figure;
quiver(X, Y, U, V, ’b’);
xlabel(’x’);
ylabel(’y’);
grid on;
axis tight;
end