0% ont trouvé ce document utile (0 vote)
129 vues182 pages

Systeme Dynamique (ESD202)

Ce document présente un module de cours sur les équations différentielles et les systèmes dynamiques, soulignant l'importance de l'auto-organisation et de l'émergence dans les systèmes complexes. Il aborde également la complexité, l'évolution temporelle, et les niveaux d'analyse des systèmes, en mettant en avant l'approche dynamique comme un cadre formel d'analyse applicable à divers domaines. L'auteur insiste sur la nécessité d'un enseignement vivant et interactif pour renforcer la compréhension des concepts abordés.

Transféré par

kinhouandelionel0
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
129 vues182 pages

Systeme Dynamique (ESD202)

Ce document présente un module de cours sur les équations différentielles et les systèmes dynamiques, soulignant l'importance de l'auto-organisation et de l'émergence dans les systèmes complexes. Il aborde également la complexité, l'évolution temporelle, et les niveaux d'analyse des systèmes, en mettant en avant l'approche dynamique comme un cadre formel d'analyse applicable à divers domaines. L'auteur insiste sur la nécessité d'un enseignement vivant et interactif pour renforcer la compréhension des concepts abordés.

Transféré par

kinhouandelionel0
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

QPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPR

Equations Différentielles
et Systèmes Dynamiques
QPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPR

X ( t)
0 (t) = A(t)
X
1 2 3 4 5 6 7 8 ⇐⇒ X = A −1
9

9
1 2
8 7
3
6
4 5
5
6
4 3
7
2
8 9
1 B
Ce module de cours est sous licence GFDL

9 8 7 6 5 4 3 2 1
U

rdjeam@[Link]

0 1 0 1 0 1 0 1 0
1 2 3 4 5 6 7 8 9
A≈

9 8 7 6 5 4 3 2 1
1 2 3 4 5 6 7 8 9
9 8 7 6 5 4 3 2 1
©

Djidémè Φρανκ Houénou


rrdjeam

Licence MIA FAST/ UAC Année Universitaire 2019-2020 Semestre 4


Let your inspiration overflow to express what’s on ye mind !
-Rif Djeam
Life Treasures Sense

no
itc
ud
o
aux systèmes

rtn
I
rdjeamr

e s
u
m i q
a
d y n
Ce module de cours est sous licence GFDL
rrdjeam
LATEXer : rdjeamr Co. Ltd.
am
Prologue

Aucun enseignement ne vaut la peine s’il n’inclut la


liberté de faire des erreurs ; mais combien en faudra-t-il
faire et pour combien de temps ?
-Rif Djeam
Life Treasures Sense

je I l est très important d’attirer l’attention du lecteur sur le fait que cet imprimé de module de cours ne remplace

en aucun cas l’enseignement vivant et vécu en situations de classe, même si celui-ci se veut fidèle à la lettre et à l’esprit

du programme de la formation dans laquelle il est utilisé. Cependant, il offre la sécurité d’un plan de cours clair, précis et

rigoureux dans une prise de note facilement lisible et particulièrement soignée pour permettre à l’apprenant de bien suivre

les explications et commentaires en situations de classe puis d’interagir avec ces pairs et l’accompagnateur d’acquisition

de connaissances afin de renforcer sa compréhension des notions abordées.

Malheureusement, aucune œuvre humaine n’étant parfaite, les erreurs (surtout typographiques) ne peuvent donc être

entièrement évitées dans l’édition d’un ouvrage de ce type. Toutefois, l’auteur a essayé de les minimiser, en espérant que
rd
le lecteur rencontrera avec sympathie celles–ci et lui en fera part afin d’améliorer les éditions suivantes.
Ce module de cours est sous licence GFDL

L’auteur
rrdjeam

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
LATEXer : rdjeamr Co. Ltd.
Chapitre Un

am
Généralités

L’objet de l’approche dynamique est l’étude de la formation des motifs (modèles) et des struc-
tures, dans les systèmes complexes. Il s’agit d’une méta-théorie, proposant un cadre formel d’ana-
lyse, indépendant des substrats ou niveaux d’analyse sur lesquels elle peut être appliquée. Elle est
conceptuellement liée à un certain nombre de courants théoriques apparus ces dernières années,
parmi lesquels on peut citer les théories de von Foerster sur le principe de la création de l’ordre à
partir du bruit, les travaux d’Atlan sur le bruit et l’auto-organisation dans les organismes vivants,
l’analyse systémique, amenant l’idée fondamentale selon laquelle “le tout est plus que la somme
des parties”, les travaux de Prigogine sur les structures dissipatives, la théorie des catastrophes de
Thom, la théorie des états critiques ou la théorie du chaos (Gleick, 1991). Le courant théorique
auquel nous nous référons principalement est la synergétique, une approche interdisciplinaire de
l’auto-organisation formulée par Haken.
je Ses domaines d’application sont divers. On retrouve des approches dynamiques dans des do-
maines tels que l’astrophysique, la physique des particules, l’étude des turbulences hydrauliques,
l’étude des champs magnétiques, la météorologie, le développement et le contrôle de l’apprentissage
moteur, l’économie, la sociologie, la psychopathologie, la gestion, la prospective, etc.
Enfin, on peut noter que l’approche dynamique constitue, une opportunité permettant de
dépasser le cloisonnement disciplinaire des approches, afin de générer une multidisciplinarité de
fait. Dans le domaine du comportement moteur, Beek, Peper et Stegeman (1995) suggèrent que
l’approche dynamique occupe une position centrale, dépassant les centrations classiques sur les
pôles “information”, “matière” ou “énergie” du système, et dépassant même des approches plus
novatrices, telles que la psychologie écologique (Gibson, 1979) ou l’approche des réseaux de neu-
rd
rones.

Le comportement des systèmes complexes


Ce module de cours est sous licence GFDL

Alors que les lois classiques de la thermodynamique prévoient un accroissement de l’entropie des
systèmes complexes et une dérive vers le chaos, dans certain cas le comportement des systèmes
complexes évolue vers l’ordre. Dans ces cas le comportement du système peut être décrit de
manière relativement simple, eu égard à la complexité intrinsèque du système. On a ainsi montré
que le comportement d’un système complexe pouvait être simulé par des systèmes d’équations
rrdjeam

différentielles relativement simples.


L’objet de l’approche dynamique est constitué par les propriétés globales des systèmes com-

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
CHAPITRE 1. GÉNÉRALITÉS 2

LATEXer : rdjeamr Co. Ltd.


plexes. L’intérêt est centré sur le comportement du système, c’est-à-dire sur la coordination entre
les différents éléments qui le composent. Les propriétés globales du système ne peuvent pas se

am
résumer à la somme des propriétés des éléments qui le compose.

L’auto-organisation.
L’idée centrale est celle de l’émergence du comportement, à partir des propriétés du système,
des paramètres environnementaux, et du temps. Le comportement émerge sans nécessité de plani-
fication, de programmation par des instances extérieures au système. Dans ce sens, les théories de
l’émergence s’opposent aux théories prescriptives. Un exemple fréquemment évoqué pour illustrer
ces phénomènes d’auto-organisation et d’émergence dans les systèmes complexes est celui des in-
sectes sociaux, et notamment la construction du nid chez les termites (Kugler & Turvey, 1987 ; Lin-
tern & Kugler, 1994). Une termitière constitue un produit hautement organisé, constitué d’arches,
de salles, de planchers superposés, [Link] lecture ”prescriptive” du processus de sa construction
suppose nécessairement l’existence d’une intelligence extérieure à la cohorte des ouvrières, une
super-termite architecte”, capable d’une part de concevoir à l’avance les plans de l’ouvrage (le pro-
gramme), et en outre d’en communiquer la logique à ses congénères . Il s’agit évidemment d’une
hypothèse hautement improbable. Deneubourg (1977), puis Kugler et Turvey (1987) montrent
que la termitière peut émerger spontanément de l’interaction des comportements individuels de
je chaque termite. La règle de base est le termite tend à déposer de la matière (boue, excréments)
aux endroits où d’autres termites l’on fait précédemment. Chaque dépôt s’accompagne de la dif-
fusion de phéromones, substances odorantes qui accroissent la probabilité pour qu’un nouveau
dépôt se fasse peu après au même endroit. A partir de dépôts aléatoires, ces règles débouchent
inexorablement sur la construction de piliers, puis d’arches, puis de plafonds, et ainsi de suite
Ce qu’il faut retenir de cet exemple, c’est qu’un produit hautement organisé peut émerger
spontanément de l’interaction des éléments constituant le système, c’est-à-dire sans planification
préalable. Ce produit, et son évolution dans le temps, est la résultante des contraintes pesant sur
le système. L’émergence exprime l’apparition de propriétés nouvelles qui apparaissent du fait de
rd
l’agrégation d’éléments au sein d’un ensemble. Cette émergence ne renvoie pas à un mécanisme
bottom-up univoque : l’agrégation des propriétés élémentaires détermine le comportement du
système, mais en retour le comportement du système canalise le comportement des éléments
Ce module de cours est sous licence GFDL

(slaving principle). Notamment les éléments peuvent avoir des propriétés qui sont inhibées par
l’organisation de l’ensemble.

La complexité.
Les comportements d’auto-organisation ne peuvent apparaı̂tre qu’à partir d’un certain niveau
rrdjeam

de complexité (dans le cas précédent, il faut que la population de termites soit suffisamment impor-
tante). D’où l’idée que la complexité, qui constituait plutôt une gène pour les approches classiques
réductionnistes (voir le cognitivisme dans le contrôle moteur et les critiques de Bernstein), consti-

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
CHAPITRE 1. GÉNÉRALITÉS 3

LATEXer : rdjeamr Co. Ltd.


tue plutôt un atout dans la perspective dynamique. La complexité compositionnelle des systèmes
est liée à la présence de nombreux éléments hétérogènes en interrelation. Le concept de degrés de

am
liberté est central dans cette approche de la complexité. On peut concevoir les degrés de libertés
comme les paramètres libres d’un système, c’est-à-dire susceptibles de varier indépendamment des
autres. C’est pour quoi la dynamique des fluides a eu une grande importance dans le développement
de ces théories, étant donné que par définition, un fluide possède un nombre infini de degrés de
libertés (on peut citer à ce niveau les travaux sur la turbulence, voir Gleick, 1987).

L’évolution temporelle.
Couramment, le terme dynamique est compris comme renvoyant à une analyse mécanique
du comportement des systèmes. Cette interprétation est suggérée notamment par la référence
fréquente à des modèles oscillatoires, pour modéliser le comportement des systèmes. En fait le
terme dynamique renvoie à l’évolution dans le temps du comportement du système ; ce temps
peut être discret ou continu. L’approche dynamique apparaı̂t comme l’étude de la morphogenèse,
c’est-à-dire de la formation, dans le temps des patterns et des structures.

Le caractère formel de l’approche dynamique.


je Les principes de l’approche dynamique sont formels et peuvent s’appliquer quelle que soit la
nature des éléments composant le système, et quelle que soit l’échelle de temps sur laquelle évolue
le phénomène. On va de l’infiniment grand (les systèmes galactiques) à l’infiniment petit (les
constituants des noyaux atomiques), et d’échelles de temps de l’ordre du milliard d’années à la
micro-seconde. Dans le cadre de l’application de l’approche dynamque au comportement humain,
les échelles de temps pourront être également fort diverses : plusieurs années (développement),
de quelques heures à quelques semaines (apprentissage), de quelques minutes à quelques heures
(réaction à un traitement expérimental). Dans ce sens, tout système, à partir du moment pour il
présente un certain niveau de complexité (structure) et qu’il évolue dans le temps (temporalité),
rd
peut être envisagé dans le cadre de cette approche.

Les niveaux d’analyse.


Ce module de cours est sous licence GFDL

Cette approche du fonctionnement des systèmes suggère de différencier clairement les niveaux
d’analyse. Par définition, le système constitue un niveau macroscopique, et les éléments constitutifs
un niveau microscopique. Il est clair que le niveau macroscopique d’un chercheur pour être le
niveau microscopique d’un autre. On suppose que les échelles de temps des différents niveaux sont
significativement différentes. D’une manière générale, les échelles de temps pertinentes au niveau
rrdjeam

macroscopiques sont plus étendues que les échelles des niveaux inférieurs.

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
CHAPITRE 1. GÉNÉRALITÉS 4

LATEXer : rdjeamr Co. Ltd.


Le problème de la causalité.

am
On reproche souvent à l’approche dynamique d’être purement descriptive, et de ne pas aborder
le problème de la causalité. Il est clair que cette approche n’est pas concernée par les processus
matériels sous-tendant la dynamique du système. Dans ce sens, elle ne répond pas aux critères clas-
siques de causalité. Deux remarques peuvent être faites à ce sujet. Premièrement, les conceptions
classiques de la causalité peuvent apparaı̂tre foncièrement réductionistes, face au fonctionnement
des systèmes complexes. Les relations causales entre des éléments constitutifs ne peuvent expliquer
à elles seules le fonctionnement global du système. Par ailleurs, la mise en évidence de principes
de coordination, de régularité de fonctionnement au niveau macroscopique peut être considérée
comme explicative : elle met en évidence le fonctionnement autonome du niveau macroscopique
du système.

Systèmes clos et systèmes ouverts.


Un système clos est un système qui ne reçoit aucune énergie de l’extérieur. Ces systèmes tendent
à évoluer vers un équilibre thermodynamique (l’énergie est répartie de manière homogène dans
tout l’espace du système). Les systèmes ouverts à l’inverse sont traversés par des flots d’énergie :
ils reçoivent de l’énergie de leur environnement, et renvoient de l’énergie en retour. Prigogine et
je Stengers parlent à ce sujet de structures dissipatives. L’ordre et la complexité, dans les systèmes
ouverts, n’est pas seulement maintenus : ils s’accroissent en fonction du temps. Dans de tels
systèmes, l’ordre n’existe pas a priori, il est créé dans l’action. L’ordre est essentiellement dyna-
mique. Les approches scientifiques classiques sont en général fondés sur le principe de l’équilibre
(voir par exemple le principe d’équilibre dans les équations chimiques, ou les diverses théories de
l’équilibre, en psychologie des attitudes ou des émotions). Fondamentalement, un système dyna-
mique est loin de l’équilibre thermodynamique. L’auto-organisation ne peut apparaı̂tre que dans
un système ouvert.

La non-linéarité
rd
La non-linéarité renvoie d’une manière générale à une rupture de la proportionnalité des causes
Ce module de cours est sous licence GFDL

et des conséquences. On peut rappeler l’image qui a populariser la théorie des catastrophes : un
battement d’aile de papillon à Tokyo peut déclencher un ouragan en Floride. La non-linéarité
se manifeste, dans le comportement des systèmes, dans des modifications qualitative brusque du
comportement des systèmes, sous l’influence de certains paramètres. Ainsi, un paramètre peut
évoluer de manière linéaire et entraı̂ner dans une certaine frange une modification linéaire, c’est-à-
dire progressive, du comportement du système. Mais à partir d’une valeur critique du paramètre,
on observe une transition brusque du système vers un autre type de comportement. Un compor-
rrdjeam

tement non-linéaire s’est alors greffé sur une frange de linéarité. Un exemple parlant est celui de
la locomotion : placé sur un tapis roulant à 5 km/h, un individu se met spontanément à marcher.

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
CHAPITRE 1. GÉNÉRALITÉS 5

LATEXer : rdjeamr Co. Ltd.


Lorsque l’on augmente progressivement la vitesse, on observe brusquement, aux alentours de 7.5
km/h, un passage à la course. Alors que dans un premier temps, l’accroissement de la vitesse ne

am
produit que des modifications linéaires de lamplitude et de la fréquence (la nature de la coordina-
tion de marche demeurant par ailleurs invariante), un accroissement minime de la vitesse, autour
de 7.5 km, entraı̂nement un bouleversement qualitatif complet, et l’adoption d’une coordination
de course. On retrouve chez le cheval un tableau encore plus complexe, avec le passage successif
du pas au trot, puis au galop. Ces transitions, ou bifurcations, sont à la base de la théorie des
catastrophes. L’ampleur de la transition peut être sans commune mesure avec les modifications du
paramètre qui l’a générée. La non-linéarité a entrainé de nouvelles conceptions dans le domaine de
la prospective (par exemple en météorologie). Une prospective basée sur la prolongation linéaire
des tendances n’est plus envisageable. Il est nécessaire de prévoir les ruptures de linéarité, et la
prospective ne peut produire que des scénarios alternatifs probabilistes.

Les variables collectives


L’un des postulats majeurs de cette théorie est qu’il est possible de rendre compte du com-
portement du système, à un niveau macroscopique, par des variables collectives appelées encore
paramètres d’ordre. Le paramètre d’ordre, construit par le chercheur, vise à ”capturer”, dans une
mesure unique, le comportement, c’est-à-dire la coordination des différents éléments constitutifs
je du système. On considère alors que l’étude doit porter sur la dynamique (c’est-à-dire l’évolution)
du paramètre d’ordre, plutôt que sur les composantes du système. Le paramètre d’ordre définit
donc un niveau d’analyse, macroscopique, possédant sa propre pertinence et ses propres lois. No-
tons enfin que le paramètre d’ordre, en tant que construction du chercheur, tire sa pertinence des
objectifs de la recherche. C’est en fonction des transformations du système que l’on veut mettre
en lumière que l’on optera pour telle ou telle variable collective. De même, on peut avoir besoin
parfois de plusieurs variables collectives pour rendre compte du fonctionnement d’un système com-
plexe. La variable collective capturer l’ensemble de la coordination du système, dans un indicateur
ne comprenant qu’un faible nombre de degrés de libertés. On substitue une dynamique à faible
rd
dimension à la dynamique hautement dimensionnelle du système.

Les attracteurs
Ce module de cours est sous licence GFDL

Un système tend à adopter, sous l’influence des contraintes qui le constituent et / ou qui
pèsent sur lui, un certain type de comportement, que l’on peut qualifier de naturel, spontané ou
préférentiel. C’est à ces coordinations préférentielles que l’on donne le nom d’attracteur. Plusieurs
types d’attracteurs sont classiquement définis : les points fixes correspondent à un état vers lequel
semble converger le système : on peut citer l’exemple du pendule, qui tend sous l’action de la
rrdjeam

pesanteur à rejoindre sa position de repos. Les cycles limites renvoient à la répétition d’une trajec-
toire On retrouve ce type d’attracteur dans les oscillateurs auto-entretenus. Enfin, les attracteurs
étranges ou chaotiques (comme l’attracteur de Lorenz) présentent une trajectoire plus complexe,

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
CHAPITRE 1. GÉNÉRALITÉS 6

LATEXer : rdjeamr Co. Ltd.


qui bien que ne se répétant jamais à l’identique, conserve une part de déterminisme. L’étendue du
paramètre d’ordre (c’est-à-dire l’ensemble des coordinations possibles dans une situation donnée)

am
est ainsi ponctué d’attracteurs, et de repellants (ce concept renvoie aux coordinations les plus
instables, les plus ”antinaturelles”). Il est courant, de manière quelque peu métaphorique, de
représenter les attracteurs par des ”vallées” et les repellants par des ”collines” (Figure 4). On
peut concevoir la dynamique intrinsèque du système (c’est-à-dire les tendances spontanées de
son comportement) par la trajectoire d’une bille qui tomberait dans ce paysage des attracteurs :
quelles que soient les conditions initiales de sa chute, la bille tendra naturellement à rejoindre l’une
des vallées, c’est-à-dire l’une des coordinations spontanées du système. Au sein de ce paysage, un
attracteur occupe le fond d’un bassin d’attraction, délimité par deux repellants. La profondeur de
ce bassin est représentative de la force (et corrélativement de la stabilité) de l’attracteur. La dyna-
mique d’un système peut ne présenter qu’un seul attracteur (on parle alors de régime monostable),
ou plusieurs (on parle de régime multistable).

Bifurcations et transitions de phase.


On appelle bifurcation ou transition de phase une modification qualitative du comportement du
système. Une bifurcation résulte d’une modification du paysage des attracteurs. Les bifurcations
constituent un événement majeur de la dynamique des systèmes complexes. La pertinence d’un
je paramètre d’ordre est liée au fait qu’il permettent de rendre compte des bifurcations. Ce critère
est pris en compte lorsque le chercheur dispose de plusieurs variables collectives concurrentes.

Stabilité et instabilité.
Stabilité et instabilité constituent le principal moteur de la dynamique du système. La ca-
ractéristique première de l’attracteur est la stabilité de la variable collective : un système calé
sur son attracteur présente un comportement stable et reproductible. Par ailleurs, les bifurcations
sont annoncées par des fluctuations critiques, c’est-à-dire un accroissement de la variabilité du
rd
paramètre d’ordre à l’approche de la transition.

Le bruit
Ce module de cours est sous licence GFDL

Le comportement d’un système dynamique n’est pas aussi déterministe que pourrait le laisser
entendre les propositions précédentes. L’évolution du paramètre d’ordre est soumise à l’influence
de fluctuations aléatoires, qui tendent en permanence à le déstabiliser. Une transition de phase ne
peut intervenir que parce que le système est bruité, ce qui rend impossible le maintien sur une coor-
dination repellante. Dans les approches expérimentales classiques, le bruit est un facteur à éviter :
rrdjeam

il constitue une erreur expérimentale, susceptible de masquer les effets des variables manipulées.
Dans le cadre de l’approche dynamique, il constitue au contraire une variable essentielle.

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
CHAPITRE 1. GÉNÉRALITÉS 7

LATEXer : rdjeamr Co. Ltd.


Les paramètres de contrôle

am
On appelle paramètre de contrôle tout facteur non spécifique (c’est-à-dire ne définissant pas
directement le paramètre d’ordre), susceptible lorsqu’il évolue au-delà d’une valeur critique de mo-
difier le paysage des attracteurs. La bifurcation apparaı̂t comme une conséquence de l’évolution du
paramètre d’ordre, sans que cette évolution ne la prescrive formellement. Dans l’exemple précédent
sur la transition marche-course, la vitesse de déplacement constitue un paramètre de contrôle : le
pattern de course n’est pas spécifié par la vitesse, mais induit par le dépassement d’une vitesse
critique. L’identification des paramètres d’ordre et des paramètres de contrôle constitue les étapes
principales de l’étude de la dynamique des systèmes complexes.
Le but de la théorie des systèmes dynamiques est de modéliser des processus qui évoluent dans
le temps et d’étudier leur comportement. Cette étude doit permettre de prédire le comportement
du système et de le réguler afin d’obtenir les résultats désirés. Pour élaborer un modèle il faut tout
d’abord définir quelles sont les valeurs qui évoluent dans le temps, les états du système. Ensuite,
il faut trou- ver des équations mathématiques qui décrivent leur évolution. Généralement, ce sont
des équations différentielles ( si le temps est considéré comme continu) ou en différences finies( si
le temps du modèle est discret). Les paramètres du modèle sont les coefficients de ces équations et
les conditions initiales. Dans les cours qui suivront nous allons étudier essentiellement les systèmes
dynamiques en temps discret. Il est important de souligner cependant que toutes les notions que
je nous allons évoquer ici sont également définies dans le cas des systèmes en temps continu et
constituent la base des études appropriées.

Définition 1.1 Un système dynamique est un ensemble mécanique, physique, économique, envi
ronnemental ou de tout autre domaine dont l’état (ensemble de grandeurs suffisant à qualifier
le système) évolue en fonction du temps. L’étude de l’évolution d’un système nécessite donc la
connaissance :
— de son état initial (à l’instant t0 )
— et de sa loi d’évolution.

Définition 1.2 Pour représenter l’évolution d’un système dynamique on fait appel à la notion
rd
d’espace de phase qui est une structure correspondante à toutes les trajectoires possibles du système
considéré. Il permet de visualiser les propriétés du système telles que
Ce module de cours est sous licence GFDL

1. Les états stationnaires ou points fixes, sont les valeurs de la variable pour laquelle elle
n’évolue plus avec le temps.
2. Les attracteurs sont des zones pour lesquelles le système est attiré et obtient un comporte-
ment stable. Certains attracteurs peuvent être étranges, ce qui signifie qu’ils n’ont pas de
croisements dans leurs trajectoires.
3. Les bifurcations correspondent aux changements de la stabilité des attracteurs.
rrdjeam

4. Les points périodiques sont des points, des états du système qui se répètent au bout d’un
certain nombre de pas (leur période). Ces points peuvent également être attractifs.

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
LATEXer : rdjeamr Co. Ltd.
Chapitre Deux

am
Équations et systèmes d’équations
différentielles

2.1 Introduction
Les équations différentielles sont l’une des plus importantes composantes de l’analyse mathématiques
du fait des innombrables applications qui leur sont connues.
Une équation différentielle est une relation (fonctionelle) entre une fonction inconnue, disons
x, et ses dérivées successives x0 , x00 , x(3) , etc.
d2 dn−1
 
d
L t, x, x, 2 x, · · · , n−1 x, · · · = 0 (2.1.1)
dt dt dt
Intégrer ou résoudre une équation différentielle, c’est trouver toutes les fonctions qui vérifient la
je relation donnée (2.1.1). De telles fonctions sont appelées solutions ou intégrales de l’équation.
Une classe particulière d’équations différentielles est constituée des équations différentielles
linéaires constamment rencontrées dans toutes les branches de la physique (électricité, électronique,
mécanique, thermodynamique,etc.). Ce sont les équations de la forme :

an (t)x(n) + an−1 (t)x(n−1) + · · · + a1 x0 + a0 (t)x = b(t),

où n (n ∈ N∗ ) est appelé l’ordre de léquation, x est la fonction inconnue, x(k) sa dérivée d’ordre k
et a0 , · · · , an des fonctions appelées coefficients de l’équation. la fonction b est appelée le second
membre de l’équation. Lorsque b ≡ 0 (fonction identiquement nulle) on dit que l’équation est sans
rd
second membre.
Un système d’équations différentielles d’ordre quelconque n se ramène toujours à un système
d’équations d’ordre un. En effet l’équation
Ce module de cours est sous licence GFDL

dn d2 dn−1
 
d
x=F t, x, x, 2 x, · · · , n−1 x avec x ∈ Rn (2.1.2)
dtn dt dt dt
se réécrit sous la forme



 ẋ1 = x2
rrdjeam

 ẋ2 = x3

.. .. .. (2.1.3)


 . . .

 ẋ = F (t, x , x , · · · , x )
n 1 2 n−1

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Équations à variables séparables 9

LATEXer : rdjeamr Co. Ltd.


Ceci permet d’éviter de répéter les mêmes énoncés pour les équations de degré 2, puis 3, etc.
Cela ne signifie pas que les équations de degré k ne puissent avoir des spécificités que ne possèdent

am
les systèmes de degré un.
Plus généralement, un système d’équations de degrés différents se réduira par le même procédé
à un système de degré un, défini sur un espace de dimension plus grande, que l’on écrira en toute
généralité :



 ẋ1 = f1 (t, x1 , x2 , · · · , xn−1 )
 ẋ2 = f2 (t, x1 , x2 , · · · , xn−1 )

.. .. .. (2.1.4)


 . . .

 ẋ = f (t, x , x , · · · , x )
n n 1 2 n−1

Définition 2.1
On dit que x(·) : I −→ Ω est une solution maximale de l’équation différentielle x0 (t) = F (t, x(t))
si x(·) n’a pas de prolongement à un intervalle Ie strictement plus grand que I ou encore il n’existe
pas de solution xe : Ie −→ Ω avec I ( Ie et x
e|I = x

2.2 Équations différentielles du premier ordre


je 2.2.1 Équations à variables séparables

Définition 2.2
Une équation différentielle du premier ordre- est dite à variables séparables si elle peut s’écrire
sous la forme
g(y)dy = f (x)dx,
dy
où on a posé y 0 = .
dx
Pour résoudre une telle équation, on intègre les deux membres, sans oublier la constante d’intégration
(souvent notée C ou k etc.). Enfin, on s’efforce de donner les solutions sous la forme explicite
rd
y = ϕ(x).

Exemple 2.1
Ce module de cours est sous licence GFDL

1. Résolvons l’équation différentielle

xy 0 + (1 + x)y 2 = 0.

C’est une équation à variables séparables puisque sur l’intervalle d’intégration, elle est
équivalente à Z
dy 1 dy
rrdjeam


2
= − 1+ dx (y 6= 0) . On intègre membre à membre, c’est-à-dire =
yZ x y2
 1 1  
− 1+ dx. Ce qui donne − = − x + ln |x| + C.
x y

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Équations homogènes 10

LATEXer : rdjeamr Co. Ltd.


1
Les solutions non nulles cherchées sont donc données par y = .
x + ln |x| + C

am
Bien noter que la fonction nulle y = 0 est une solution évidente de l’équation.
Note 2.3 Il n’est pas toujours possible d’écrire explicitement la solution y en fonction de la
variable x comme ci-dessus. Aussi faut-il tenir compte du domaine d’intégration et autres
informations pour expliciter au mieux la solution.
La constante d’intégration C est fixée lorqu’on demande que pour un x = x0 donné, on ait
une valeur donnée y0 = y(x0 ). Si pour l’exemple ci-dessus, on demande de déterminer la
solution vérifiant y(1) = 1, on trouverait :
1
y(1) = 1 = ,
1 + ln |1| + C
d’où on tire C = 0 et donc l’unique solution satisfaisant y(1) = 1 est donnée par y =
1
.
x + ln |x|
2. Soit l’équation différentielle du premer ordre x+yy 0 = 0. On l’écrit sous la forme ydy = −xdx.
Donc Z Z
ydy = − xdx + C,

y2 x2
soit = − + C, ce qu’on peut encore écrire sous la forme x2 + y 2 = 2C. Les graphes
je 2.2.2
2 2
des solutions forment donc une famille (d’arcs) de cercles concentriques pour des valeurs
positives de C.

Équations homogènes

Définition 2.4
Une équation différentielle est dite homogène lorsqu’on peut la mettre sous la forme
y
y0 = f .
x
Il faut remarquer que ce sont des équations qui ne changent pas lorsqu’on remplace x par kx et y
rd
par ky où k est un nombre réel non nul.
0 y 2 − x2 2

2

Par exemple, les équations suivantes sont homogènes : y = , y dx + x − xy dy =
2xy
0.
Ce module de cours est sous licence GFDL

y2 y2
2
− 1 2
En effet, elles peuvent s’écrire respectivement sous les formes suivantes : y 0 = x y , y0 = y x .
2 −1
x x
Pour résoudre de telles équations on fait le changement de fonction inconnue y = xu où u est
une fonction à déterminer.
En posant y = xu on obtient par dérivation y 0 = u + xu0 . Après remplacement dans l’équation
rrdjeam

initiale, ceci donne l’équation à variables séparables


du dx
= ,
f (u) − u x

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Équations différentielles linéaires du premier ordre 11

LATEXer : rdjeamr Co. Ltd.


que nous savons déjà intégrer. Toutefois, il est bien utile du fait du changement d’inconnue, d’écrire
une représentation paramétrique des solutions (de paramètre la fonction auxilliaire u).

am
Exemple 2.2

1. Résolvons l’équation différentielle


y 2 − x2
y0 =
.
2xy
Posons y = xu, on a y 0 = u + xu0 . On obtient alors l’équation équivalente suivante :
u2 − 1
u + xu0 = ,
2u
soit
2u dx
2
du = − .
1+u x
C
Ce qui donne x = et on obtient la représentation paramétrique :
1 + u2
C

 x = 1 + u2

 C ∈ R? , u 6= 0.

y = xu.

On obtient alors en éliminant u entre x et y,
je x2 + y 2 − Cx = 0 ⇐⇒ x −

 
 C 2
2
+ y2 =
C2
4
.

Les graphes des solutions sont donc des (arcs de) cercles de centre ( C2 , 0) et de rayon |C|
2
.
2. Résolvons l’équation différentielle x2 + y 2 dx − xydy = 0. Cette équation est équivalente
à :  y 2
1+
y0 = x .
y
x
Posons y = xu où u est une fonction auxilliaire à déterminer. Par dérivation de y = xu on
rd
a y 0 = xu0 + u et on obtient l’équation suivante en u :
dx
Ce module de cours est sous licence GFDL

udu = ,
x
p
dont l’intégration conduit à u = ± 2 ln(Cx) avec Cx > 0, puis
p
y = ±x 2 ln(Cx), C ∈ R? avec Cx > 0.

2.2.3 Équations différentielles linéaires du premier ordre


rrdjeam

Ce sont les équations de la forme

a1 (x)y 0 + a0 (x)y = f (x) (E),

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Équations différentielles linéaires du premier ordre 12

LATEXer : rdjeamr Co. Ltd.


où a0 , a1 et f sont des fonctions de la variable réelle x. Dans ce cas l’équation sans second membre

am
a1 (x)y 0 + a0 (x)y = 0 (E0 ),

est aussi appelée équation homogène associée à (E). Lorsque sur le domaine d’intégration on a
a1 (x) 6= 0 pour tout x, cette équation peut s’écrire sous la forme suivante dite normalisée

y 0 + p(x)y = g(x).

Théorème 2.5
Dans chaque intervalle où tous les coefficients a0 (x) et a1 (x) sont définis et continus, la solution
générale de l’équation (E) s’obtient en ajoutant à une solution particulière de l’équation complète
(E) la solution générale de l’équation sans second membre (E0 ).

Solution générale de l’équation sans second membre

L’équation différentielle sans second membre

a1 (x)y 0 + a0 (x)y = 0 (E0 ),

où a1 6= 0 sur le domaine d’intégration a pour solution générale


je y1 : x 7−→ Ke

Z
a0 (x)
a1 (x)
dx
K ∈ R.

Le théorème ci-dessus indique que pour la résolution complète de l’équation avec second membre
(E) il faut disposer d’une solution particulière y0 . La solution générale de (E) est alors donnée
par Z
a0 (x)
− dx
y : x 7−→ y (x) + Ke a1 (x) .
0

Solution particulière
rd
On peut chercher une solution particulière y0 de (E) par l’une des méthodes suivantes :
• solution évidente
Ce module de cours est sous licence GFDL

• indications de l’énoncé
• méthode de variation de la constante. Ceci signifie qu’il faut retourner dans la solution
générale y1 de l’équation sans second membre (E0 ), et considérer la constante d’intégration
K comme une fonction de x et poser
Z
a1 (x)
− dx
y0 (x) = K(x)e a0 (x) .
rrdjeam

La connaissance de K(x) qui passe souvent par une recherche de primitive, permet alors
d’avoir une solution particulière y0 .

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Équations différentielles linéaires du premier ordre 13

LATEXer : rdjeamr Co. Ltd.


Exemple 2.3

am
1. Soit l’équation xy 0 + (1 − x)y = e2x (E), d’inconnue y sur l’intervalle ]0, +∞[.
L’équation sans second membre associée est xy 0 + (1 − x)y = 0 (E0 ), dont la solution
générale est donnée par :
1−x
Z
− dx
y1 : x 7−→ Ke x , K∈R

c’est-à-dire,
ex
.
y1 (x) = K
x
Recherchons une solution particulière par la méthode
 xexde variation de la constante. Posons
ex e x
− ex
y0 (x) = K(x) . On a : y00 (x) = K 0 (x) + K(x) . En tenant en compte le fait
x x x2
que y0 est solution de l’équation complète (E), i.e xy00 (x) + (1 − x)y0 = e2x on obtient :
1 ex
K 0 (x)ex + (x − 1)ex K(x) + K(x) (1 − x) = e2x ,
x x
soit
K 0 (x)ex = e2x , c’est-à-dire K 0 (x) = ex .
R x
On peut donc prendre K(x) = e = ex , puis
je y0 (x) =

e2x
e2x

ex
x
.

Finallement, la solution générale de l’équation (E) est donnée par :

y : x 7−→ + K , K ∈ R.
x x
Étant donné un réel x0 dans le domaine d’intégration et v0 un réel fixé, on peut déterminer
l’unique solution vérifiant la condition initiale y(x0 ) = v0 . Par exemple déterminons la
solution f de (E) satisfaisant f (1) = 0. On a :
rd
e2 e1
f (1) = 0 = +K , c’est-à-dire K = −e,
1 1
e2x ex+1
Ce module de cours est sous licence GFDL

et la fonction f est définie par f (x) = −K .


x x
2. Considérons un circuit électrique formé d’une résistance R, d’un condensateur de capacité C
et d’un générateur de force électromotrice E(t) = Em sin ωt placés en série. Si le condensateur
est initialement déchargé, sa charge q(t) à l’instant t est solution de l’équation différentielle
dq q
R
+ = Em sin ωt (E).
dt C
rrdjeam

L’équation sans second membre associée s’écrit :


1
q0 + q = 0.
RC

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Équations de Bernoulli 14

LATEXer : rdjeamr Co. Ltd.


La solution générale de cette équation homogène associée est donnée par :
 −t 

am
q1 (t) = K exp , où K ∈ R.
RC
Recherchons une solution −tparticulière
 q0 par la méthode de variation de la constante. Posons
alors q0 (t) = K(t) exp . En dérivant nous obtenons
RC
 K(t)   t 
q00 (t) = K 0 (t) − exp − ,
RC RC
puis en remplaçant dans (E) on obtient :
Em  t 
K 0 (t) =
exp sin ωt.
R RC
   t 
En recherchant une primitive sous la forme K(t) = a cos ωt + b sin ωt exp , on
RC
obtient par identification
Em C 2 Rω Em C
a=− b= ,
1 + (RCω)2 1 + (RCω)2
et la fonction q0 (t) = a cos ωt + b sin ωt est une solution particulière de (E). Finalement, la
solution générale de (E) est ainsi
je q(t) = a cos ωt + b sin ωt + K exp
 −t 
RC
, K ∈ R.

La condition initiale q(0) = 0 se traduit par 0 = K + b d’où la fonction de charge du


condensateur :
Em C h  −t  i
q(t) = RCω exp + sin ωt − RCω cos ωt .
1 + (RCω)2 RC
 −t 
On se rend compte que pour des valeurs de t assez grandes, le terme en exp devien-
RC
dront négligeables et on voit s’installer un régime permanant quasi-périodique, de quasi-
période celle du générateur.
rd
2.2.4 Équations de Bernoulli
Ce module de cours est sous licence GFDL

Ce sont les équations de la forme a(x)y 0 + b(x)y + c(x)y n = 0 avec n 6= 1, a, b et c des fonctions
continues sur un intervalle I et a(x) 6= 0 pour tout x ∈ I.
Il faut remarquer que la fonction nulle y = 0 est une solution triviale de cette équation. Pour
rechercher les autres solutions (non nulles) on pose z = y 1−n . On a donc z 0 = (1 − n)y 0 y −n duquel
1 n 1 n
on tire y 0 = z 1−n . De même, de z = y 1−n , on tire y = z 1−n et donc y n = z 1−n . En remplaçant
1−n
dans l’équation initiale on retrouve une équation différentielle linéaire du premier ordre en z.
rrdjeam

Exemple 2.4 1. Soit l’équation d’fférentielle y 0 + y − xy 2 = 0. C’est bien une équation de


1 y0 z0
Bernoulli (avec ici n = 2). Posons z = y −1 = . On a z 0 = − 2 , donc y 0 = − 2 . De
y y z

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Équations de Ricatti 15

LATEXer : rdjeamr Co. Ltd.


1 1 z0 1 1
même y = et y 2 = 2 . On obtient alors − 2 + − x 2 = 0, ce qui donne en multipliant
z z z z z

am
par z 2 l’équation −z 0 + z = x qui est une équation différentielle linéaire du premier ordre
avec second membre. L’équation sans second membre associée a pour solution générale z1 =
Kex , K ∈ R. Déterminons une solution particulière z0 pour léquation avec second membre
par la méthode de variation de la constante. Posons z0 (x) = K(x)ex . On a donc z00 (x) =
K 0 (x)ex +K(x)ex . Alors, de −z0 (x)+z0 (x) = x on a −K 0 (x)ex −K(x)ex +K(x)ex = x. Ce qui
conduit à −K 0 (x)ex = x, i.e K 0 (x) = −xe−x . Une recherche de primitive permet de prendre
K(x) = (1 + x)e−x . On a alors une solution particulière z0 (x) = 1 + x. Ainsi, la solution
générale de l’équation auxilliaire −z 0 + z = x est donnée par z(x) = 1 + x + Kex , K ∈ R.
Finalement, les solutions non identiquement nulles de l’équation différentielle y 0 +y−xy 2 = 0
1
est y = , K ∈ R.
1 + x + Kex
√ √ √ 1 √
2. Soit l’équation différentielle de Bernoulli xy 0 − y + e x y = 0. Posons z = y 1− 2 = y.
y0
On a z 0 = √ , et donc y 0 = 2zz 0 . On obtient l’équation suivante en z :
2 y
√ √
2 xzz 0 − z 2 + e x z = 0.
Une solution évidente de cette dernière équation est z = 0. Pour z 6= 0 cette équation est
équivalente à :
√ √
je Sur tout intervalle où

générale z1 (x) = Ce
Z

√ 0

2
1
√ dx
x
2 xz 0 − z = −e x .
x 6= 0, l’équation sans second membre associée a pour solution

= Ce x ,

x

C ∈ R. Déterminons une solution particulière
z0 de l’équation 2 xz − z = −e par la méthode de variation de la constante. Posons
√ √ 1 √ √ √
z0 (x) = C(x)e x , on a z00 (x) = C 0 (x)e x + C(x) √ e x . Alors de 2 xz00 − z0 = −e x on
2 x
déduit
√ 
0

x 1 √x  √ √
2 x C (x)e + C(x) √ e − C(x)e x = −e x .
2 x
√ 0 1
Ce qui est équivalent à 2 xC (x) = −1, soit C 0 (x) = − √ . On peut donc prendre C(x) =
rd
2 x
√ √ √x √ 0 √
− x puis z0 (x) = − xe . La solution générale de 2 xz − z = −e x est donc donnée par
 √  √
Ce module de cours est sous licence GFDL

z(x) = − x + C e x , C ∈ R.
√ √ √
On en déduit que la solution générale de l’équation initiale xy 0 − y + e x y = 0 est donnée
par :  √ 2 √
y=0 ou bien y = − x + C e2 x , C ∈ R.

2.2.5 Équations de Ricatti


rrdjeam

Ce sont les équation de la forme a(x)y 0 + b(x)y 2 + c(x)y = d(x) où a, b, c, et d sont des
fonctions continues sur un même intervalle I et où a(x) 6= 0 pour tout x ∈ I.

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Équations de Ricatti 16

LATEXer : rdjeamr Co. Ltd.


La résolution d’une telle équation est facilitée par la connaissance d’une solution particulière.
Soit y0 une telle solution i.e a(x)y00 + b(x)y02 + c(x)y0 = d(x). En remplacçant d(x) dans l’équation

am
avec le membre en de gauche en y0 on obtient

a(x)y 0 + b(x)y 2 + c(x)y = a(x)y00 + b(x)y02 + c(x)y0 ⇐⇒ a(x)(y 0 − y00 ) + b(x)(y 2 − y02 ) + c(x)(y − y0 ) = 0
y 0 − y00
 
1 1
⇐⇒ 2 a(x) 2 + c(x) + b(x) = 0
y − y02 y − y02 y − y0
1
Pour déterminer les solutions y autres que y0 on pose z = . On obtient alors une équation
y − y0
différentielle linéaire du premier ordre en z :
y 0 − y00 1
a(x) 2
+ c(x) + b(x) = 0 ⇐⇒ a(x)z 0 + c(x)z + b(x) = 0 (2.2.1)
y 2 − y0 y − y0
que l’on sait déjà résoudre. On donne la solution de l’équation en fonction de la solution particulière
y0 et de la solution z trouvée.

Exemple 2.5
1
Résolvons sur ]0, +∞[ l’équation différentielle 2y 0 + y 2 + 2 = 0 (E), sachant qu’une solution
x
1
particulière u est donnée par u(x) = .
x
je Posons z =
1
y−x 1 où y 6
= 1
x
est solution
z
z
0
de

différentielle en z qui en résulte est −2 2 + 2 + 2


1
z
(E). On
1
zx
2
a y =
1 1
z
+ x
et y 0
= −
z0
z 2 x
1
− 2 . L’équation

= 0, et comme z 6= 0, cette dernière est

équivalente (après multiplication par z 2 ) à : −2z 0 + z + 1 = 0 qui est une équation différentielle
x
linéaire du premier ordre avec second membre. La solution générale de l’équation sans second
membre associée est Z
1
dx
z1 (x) = Ce x = Celn x = Cx, C ∈ R.
Déterminons une solution particulière sous la forme z0 (x) = xC(x). On a z00 (x) = C(x) + xC 0 (x)
rd
2 1 1
et donc −2(C(x) + xC 0 (x)) + xC(x) + 1 = 0, i.e C 0 (x) = et on peut prendre C(x) = ln x
x 2x 2
1 0 2
puis z0 (x) = x ln x. Ainsi, la soultion générale de l’équation −2z + z + 1 = 0 est donnée par :
Ce module de cours est sous licence GFDL

2 x
1
z(x) = x ln x + Cx, C ∈ R.
2
1
Finalement, la solution générale de l’équation initiale 2y 0 + y 2 + = 0 est
x2
1 1 1
y= ou bien y= + , C ∈ R.
rrdjeam

x 1 x
x ln x + Cx
2

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Solution générale de l’équation homogène 17

LATEXer : rdjeamr Co. Ltd.


2.3 Équations différentielles du second ordre

am
2.3.1 Équations différentielles linéaires du second ordre à coefficients constants

Ce sont des équations différentielles de la forme

ay 00 + by 0 + cy = F,

où a, b et c sont des constantes réelles telles que a 6= 0.


L’équation ay 00 + by 0 + cy = 0 est appelée équation sans second membre ou équation
homogène associée à l’équation ay 00 + by 0 + cy = F .

Proposition 2.6
Soit l’équation différentielle ay 00 + by 0 + cy = F, (E). Soit u une solution de cette équation et
soit y = u + z. Alors y est solution de (E) si et seulement si on a :

a[u00 (x) + z 00 (x)] + b[u0 (x) + z 0 (x)] + c[u(x) + z(x)] = F (x),

c’est-à-dire
az 00 (x) + bz 0 (x) + cz(x) = 0.
Ainsi z est solution de l’équation sans second membre associée à (E). On déduit
je Théorème 2.7
La solution générale de l’équation ay 00 + by 0 + cy = F (x) s’obtient en ajoutant à la solution
générale de l’équation ay 00 + by 0 + cy = 0 (équation homogène associée) une solution particulière
de l’équation ay 00 + by 0 + cy = F (x).

2.3.2 Solution générale de l’équation homogène

On admet que cette équation admet une solution de la forme y(x) = erx , où r est une constante
réelle. Alors on a : y 0 (x) = rerx , y 00 (x) = r2 erx et
rd
ay 00 + by 0 + cy = 0 ⇐⇒ erx [ar2 + br + c] = 0

On déduit que ar2 + br + c = 0


Ce module de cours est sous licence GFDL

Définition 2.8
L’équation ar2 +br+c = 0 est appelée équation caractéristique de l’équation ay 00 +by 0 +cy =
0.
On considère l’équation du second dégré ar2 + br + c = 0 et on pose ∆ = b2 − 4ac.
1. Si ∆ > 0 alors l’équation ar2 + br + c = 0 admet deux racines réelles disctintes r1 et r2 .
On admet dans ce cas que la solution générale de l’équation ay 00 + by 0 + cy = 0 est
rrdjeam

y(x) = λer1 x + µer2 x , (λ, µ) ∈ R2 .

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Solution particulière de l’équation ay 00 + by 0 + cy = F (x) 18

LATEXer : rdjeamr Co. Ltd.


2. Si ∆ = 0 l’équation ar2 + br + c = 0 admet une racine double r1 = r2 = r0 .
On admet dans ce cas que la solution générale de l’équation ay 00 + by 0 + cy = 0 est

am
y(x) = (λx + µ)er0 x , (λ, µ) ∈ R2 .

3. Si ∆ < 0 l’équation ar2 + br + c = 0 admet deux racines complexes conjuguées r1 = α + iβ


et r2 = α − iβ, avec (α, β) ∈ R2 .
On admet dans ce cas que la solution généralale de l’équation ay 00 + by 0 + cy = 0 est

y(x) = eαx [λ cos(βx) + µ sin(βx)], (λ, µ) ∈ R2

En résumé les solutions de l’équation différentielle ay 00 + by 0 + cy = 0 sont de la forme :




 y1 (x) = er1 x et y2 (x) = er2 x si ∆ > 0
y(x) = λy1 (x) + µy2 (x) avec r x r x
y1 (x) = e et y2 (x) = xe
0 0
si ∆ = 0
 y (x) = eαx cos(βx) et y (x) = eαx sin(βx)

si ∆ < 0
1 2

Exemple 2.6
1. On considère l’équation y 00 −5y 0 +6y = 0. L’équation caractéristique associée est r2 −5r+6 =
0. On a ∆ = 25−24 = 1 > 0 ; l’équation caractéristique admet deux racines réelles disctintes
r1 = 3 et r2 = 2. La solution générale de l’équation est alors :
je 2. y 00 − 6y 0 + 9y = 0.
y(x) = Ae3x + Be2x , (A, B) ∈ R2 .

Equation caractériqtique r2 − 6r + 9 = 0, soit (r − 3)2 = 0, on a donc une racine double


r0 = 3. La solution générale de l’équation est

y(x) = (Ax + B)e3x , (A, B) ∈ R2 .

3. y 00 − y 0 + 7y = 0 √
2 1 + 3i 3
Equation caractéristique : r − r + 7 = 0 et δ = 1 − 28 = −27 < 0 ; r1 = et
√ 2
1 − 3i 3
rd
r2 = .
2
La solution générale de l’équation est
√ ! √ !#
Ce module de cours est sous licence GFDL

"
1 3 3 3 3
y(x) = e 2 x λ cos + µ sin , (λ, µ) ∈ R2 .
2 2

2.3.3 Solution particulière de l’équation ay 00 + by 0 + cy = F (x)


[Link] Cas où F est un polynôme

On cherche dans ce cas une solution particulière de cette équation qui est aussi un polynôme.
rrdjeam

Soit Q un polynôme solution de l’équation. On a :

aQ00 (x) + bQ0 (x) + cQ(x) = F (x).

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Solution particulière de l’équation ay 00 + by 0 + cy = F (x) 19

LATEXer : rdjeamr Co. Ltd.


1. Si c 6= 0, puisque deg[aQ00 (x) + bQ0 (x) + cQ(x)] = deg(Q), alors l’équation aQ00 (x) + bQ0 (x) +
cQ(x) = F (x) implique que deg(Q) = deg(F ).

am
2. Si c = 0 et b 6= 0 on a aQ00 (x) + bQ0 (x) = F (x), et puisque deg[aQ00 (x) + bQ0 (x)] = deg(Q0 )
on déduit que deg(F ) = deg(Q0 ) = deg(Q) − 1. On a alors deg(Q) = deg(F ) + 1.
3. Si b = c = 0 alors l’équation devient ay 00 (x) = F (x) et Q est solution si on a aQ00 (x) = F (x).
On déduit que deg(Q00 ) = deg(F ), or deg(Q00 ) = deg(Q) − 2. D’où on a deg(Q) = deg(F ) + 2.

Exemple 2.7
y 00 − y 0 + 3y = x2 + x. Comme 3 6= 0, on recherche une solution particulière de cette équation
sous la forme Q(x) = ax2 + bx + c avec a 6= 0. On a Q0 (x) = 2ax + b et Q00 (x) = 2a. De plus

Q00 (x) − Q0 (x) + 3Q(x) = x2 + x ⇐⇒ 2a − (2ax + b) + 3(ax2 + bx + c) = x2 + x.

On déduit que
3ax2 + (−2a + 3b)x + 2a − b + 3c = x2 + x.
1 5 1
Par identification on a : 3a = 1 soit a = 3
; −2a + 3b = 1 soit b = 9
; 2a − b + 3c = 0 soit c = − 27 .
Par suite Q(x) = 31 x2 + 59 x − 27
1
.

[Link] Cas où F(x) est sous la forme F (x) = α cos(mx) + β sin(mx)
je Une équation caractéristique de l’équation ay 00 + by 0 + cy = 0 étant ar2 + br + c = 0, on pose
ϕ(r) = ar2 + br + c et on montre que
1. Si ϕ(mi) 6= 0, l’équation ay 00 + by 0 + cy = 0 admet une solution particulière sous la forme

y(x) = p cos(mx) + q sin(mx), (p, q) ∈ R2 .

2. Si ϕ(mi) = 0, l’équation ay 00 + by 0 + cy = 0 admet une solution particulière de la forme

y(x) = x[p cos(mx) + q sin(mx)], (p, q) ∈ R2 .

Exemple 2.8
rd
1. On considère l’équation y 00 − 2y 0 + 5y = cos x + 3 sin x. Ici ϕ(r) = r2 − 2r + 5 et ϕ(i) =
−1 − 2i + 5 = 4 − 2i 6= 0. On a une solution particulière de la forme y(x) = p cos x + q sin x.
Ce module de cours est sous licence GFDL

y(x) = p cos x + q sin x ⇒ y 0 (x) = q cos x − p sin x et y 00 (x) = −p cos x − q sin x

y 00 (x)−2y 0 (x)+5y(x) = cos x+3 sin x ⇔ (−p cos x−q sin x)−2(q cos x−p sin x)+5(p cos x+q sin x) = cos x
soit
(4p − 2q) cos x + (2p + 4q) sin x = cos x + 3 sin x.
rrdjeam

1
Par identification on déduit que 4p − 2q = 1 et 2p + 4q = 3 et par conséquent p = 2
; q = 12 .
1
On a alors y(x) = (cos x + sin x) comme solution particulière.
2

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Solution particulière de l’équation ay 00 + by 0 + cy = F (x) 20

LATEXer : rdjeamr Co. Ltd.


2. y 00 + y = sin x ; ici ϕ(r) = r2 + 1 et ϕ(i) = 0, l’équation admet une solution particulière qui
est sous la forme y(x) = x(p cos x + q sin x) avec (p, q) ∈ R2 .

am
y(x) = x(p cos x + q sin x) ⇔ y 0 (x) = p cos x + q sin x + x(−p sin x + q cos x)

et y 00 (x) = (−2p sin x + 2q cos x) + x(−p cos x − q sin x)


y 00 (x) + y(x) = sin x ⇐⇒ −2p sin x + 2q cos x = sin x
1 1
Par identification on a p = − et q = 0 et donc y(x) = − x cos x.
2 2

[Link] Cas où F(x) a la forme : F (x) = λemx

On considère l’équation différentielle ay 00 + by 0 + cy = λemx . On admet que cette équation a


une solution particulière de la forme y(x) = z(x)emx , où z est un polynôme.

y(x) = z(x)emx ⇔ y 0 (x) = z 0 (x)emx + mz(x)emx et y 00 (x) = (z 00 (x) + 2mz 0 (x)m2 z(x))emx .

ay 00 +by 0 +cy = λemx ⇔ aemx (z 00 (x)+2mz 0 (x)+m2 z(x))+bemx (z 0 (x)+mz(x))+cz(x)emx = λemx .


On déduit que
λ = az 00 (x) + (2ma + b)z 0 (x) + (am2 + bm + c)z(x)
En posant ϕ(r) = ar2 + br + c on a ϕ0 (r) = 2ar + b et on déduit que
je z(x) =
ϕ(m)
λ = az 00 (x) + z 0 (x)ϕ0 (m) + z(x)ϕ(m).

1. Si ϕ(m) 6= 0 alors z est une constante, ce qui implique que z 00 (x) = z 0 (x) = 0 et donc
λ
. La solution particulière de l’équation dans ce cas est y(x) =
λ mx
ϕ(m)
e .

2. Si ϕ(m) = 0 et ϕ0 (m) 6= 0 alors on a λ = az 00 (x) + z 0 (x)ϕ0 (m). Par conséquent z 0 (x) est une
λ λx
constante et z 00 (x) = 0 ; donc λ = ϕ0 (x)z 0 (x) et alors z 0 (x) = 0 . On prend z(x) = 0
ϕ (m) ϕ (m)
λx mx
et on déduit qu’une solution particulière de l’équation dans ce cas est y(x) = 0 e .
ϕ (m)
λ
3. Si ϕ(m) = ϕ0 (m) = 0 alors on a λ = az 00 (x) et z 00 (x) est une constante égale à . On prend
rd
a
0 λx λx2
alors z (x) = et z(x) = . Dans ce cas une solution particulière de l’équation est
a 2a
λx2 mx
Ce module de cours est sous licence GFDL

y(x) = e .
2a
Exemple 2.9
1. y 00 − 3y 0 + 2y = 4e3x . Une équation caractéristique de l’équation homogène (équation sans
second membre) associée est r2 − 3r + 2 = 0. On pose donc ϕ(r) = r2 − 3r + 2 et on a ϕ(3) =
4
2 6= 0. L’équation admet alors une solution particulière de la forme y(x) = e3x = 2e3x .
2
rrdjeam

2. y 00 − 3y 0 + 2y = 2ex . Ici ϕ(r) = r2 − 3r + 2 et ϕ(1) = 0. On calcule alors ϕ0 (r) et ϕ0 (1) :


ϕ0 (r) = 2r − 3 et ϕ0 (1) = −1 6= 0. L’équation admet une solution particulière de la forme
y(x) = −2xex .

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Solution particulière de l’équation ay 00 + by 0 + cy = F (x) 21

LATEXer : rdjeamr Co. Ltd.


[Link] Cas où F(x) a la forme F (x) = P (x)emx , avec P un polynôme

am
On admet que l’équation admet une solution particulière de la forme y(x) = u(x)emx où u est
un polynôme. On montre dans ces conditions que u vérifie l’équation différentielle

au00 (x) + u0 (x)ϕ0 (m) + u(x)ϕ(m) = P (x),

où ϕ(r) = ar2 + br + c.


1. Si ϕ(m) 6= 0 alors deg(u) = deg(P ).
2. Si ϕ(m) = 0 et ϕ0 (m) 6= 0 alors deg(u) = 1 + deg(P ).
3. Si ϕ(m) = ϕ0 (m) = 0 alors deg(u) = 2 + deg(P ).

[Link] Cas où F(x) est sous la forme F (x) = F1 (x) + F2 (x)

Dans ce cas, on procède par superposition : On cherche une solution particulière y1 de l’équation
ay + by 0 + cy = F1 (x) et une solution particulière y2 de l’équation ay 00 + by 0 + cy = F2 (x). Une
00

solution particulière de l’équation ay 00 + by 0 + cy = F1 (x) + F2 (x) est alors y1 + y2 .

Exemple 2.10
Résoudre l’équation différentielle

y 00 + 2y 0 + 3y = x2 + 2 + sin x + 5e2x .
je L’équation sans second membre associée à cette équation est y 00 +2y 0 +3y = 0. On déduit l’équation

déduit que la solution générale de l’équation y 00 + 2y 0 + 3y = 0 est


√ √
yh (x) = e−x [A cos(x 2) + B sin(x 2)],

caractéristique : r2 + 2r + 3 = 0 dont les solutions sont r1 = −1 + i 2 et r2 = −1 − i 2. On

avec A et B des constantes réelles


• Solution particulière de l’équation y 00 + 2y 0 + 3y = x2 + 2.


Puisque 3 6= 0, on cherche un polynôme de dégré 2 solution de cette équation. Posons alors
P (x) = ax2 + bx + c avec a 6= 0. Alors P 0 (x) = 2ax + b et P 00 (x) = 2a.

P 00 (x) + 2P 0 (x) + 3P (x) = x2 + 2 ⇐⇒ 3ax2 + (4a + 3b)x + (2a + 2b + 3c) = x2 + 2.


rd
1 4
Par identification on a 3a = 1 ; 4a + 3b = 0 et 2a + 2b + 3c = 2 donc a = , b = − et
3 9
20 1 2 4 20
Ce module de cours est sous licence GFDL

c= et par suite P (x) = x − x + .


27 3 9 27
00 0
• Solution particulière de l’équation y + 2y + 3y = sin x.
On a ϕ(r) = r2 + 2r + 3 et ϕ(i) = 2 + 2i 6= 0, on cherche alors une solution particulière sous
la forme : y(x) = p cos x + q sin x.

y 00 (x) + 2y 0 (x) + 3y(x) = sin x ⇐⇒ (2p + 2q) sin x + (−2p + 2q) sin x = sin x
rrdjeam

1 1
Par identification on a −2p+2q = 1 et 2p+2q = 0 et par conséquent p = − et q = . D’où
4 4
00 0 1 1
une solution particulière de l’équation y + 2y + 3y = sin x est y(x) = − cos x + sin x.
4 4

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Quelques exercices 22

LATEXer : rdjeamr Co. Ltd.


• Solution particulière de l’équation y 00 + 2y 0 + 3y = 5e2x .
ϕ(r) = r2 + 2r + 3 et ϕ0 (r) = 2r + 2. On recherche une solution particulière sous la forme

am
5
y(x) = z(x)e2x avec z un polynôme. Puisque ϕ(2) = 11 6= 0 alors z(x) = et donc une
11
5
solution particulière est : y(x) = e2x . Ainsi la solution générale de l’équation proposée est
11
√ √  1 4 20 1 1 5
y(x) = e−x λ cos(x 2)+µ sin(x 2) + x2 − x+ + sin x− cos x+ e2x , (λ, µ) ∈ R2 .

3 9 27 4 4 11

2.3.4 Recherche d’une solution particulière par la méthode de variation de la constante

On considère l’équation différentielle

ay 00 + by 0 + cy = F (x), (E)

et on suppose que la solution générale de l’équation homogène associée est sous la forme

yh (x) = λy1 (x) + µy2 (x).

Pour déterminer une solution particulière de (E), on fait varier les constantes de la solution
générale de l’équation homogène.
Plus précisement, on recherche une solution particulière de (E) en posant
je yp (x) = A(x)y1 (x) + B(x)y2 (x)

On cherche les fonctions dérivables A et B telles que yp soit solution de (E) avec la condition

A0 (x)y1 (x) + B 0 (x)y2 (x) = 0.

2.4 Quelques exercices


Exemple 2.11
Résoudre les équation différentielles suivantes
rd
3x
1. y 00 − 4y 0 + 2y = e 2 .
2. y 00 + y 0 − 2y = cos(2x)e3x .
Ce module de cours est sous licence GFDL

3. y 00 − y 0 − 2y = x2 e3x .

Exercise 2.1 (BTS Métropole-Antilles-Guyane 2010)

Partie A

1.(a) Résoudre l’équation différentielle : (EH ) 2y 00 + y 0 − y = 0 où y est une fonction


rrdjeam

de la variable réelle x, définie et deux fois dérivable sur l’ensemble R des nombres réels,
y 0 est la fonction dérivée de y et y 00 est la fonction dérivée seconde de y.

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
Quelques exercices 23

LATEXer : rdjeamr Co. Ltd.


(b) Déterminer les nombres réels a et b pour que la fonction g définie sur l’ensemble R des
nombres réels par g(x) = ax + b soit une solution de l’équation différentielle :

m
(E) : 2y 00 + y 0 − y = −x + 2

(c) En déduire les solutions de l’équation (E) sur l’ensemble R des nombres réels.
2. Déterminer la solution f de l’équation (E) qui vérifie f (0) = 0 et f 0 (0) = 0.

Partie B

Soit f la fonction définie sur l’intervalle [0 , +∞[ par f (x) = e−x + x − 1. On note C la courbe
représentative de la fonction f dans un repère orthonormal (O ; ~i , ~j) d’unités graphique 2cm.
1.(a) Calculer f 0 (x) et étudier son signe.

je a
(b) Déterminer la limite de f en +∞.
(c) Dresser le tableau de variation de la fonction f .
2.(a) Montrer que la droite (D) d’équation y = x−1 est asymptote à la courbe (C) au voisinage
de +∞.
(b) Étudier la position de la courbe (C) par rapport à la droite (D).
(c) Tracer l’asymptote (D) et la courbe (C).

(d) Calculer
Z 2
e−xdx et en déduire l’aire A, en cm2 , de la portion du plan délimitée par la
0
courbe C, la droite (D) et les droites d’équation x = 0 et x = 2. On donnera la valeur
exacte puis la valeur décimale arrondie au centième de l’aire A.

Théorème 2.9
Sous les conditions de Cauchy-Lipschitz local dans le cas autonome, pour tout x0 ∈ Ω il existe
un unique intervalle ouvert Ix0

Définition 2.10
rd
On appelle flot (ou parfois flot réduit) d’un champ de vecteurs X l’application, définie sur une
partie ΩX de R × M et à valeurs dans M , notée (t, x) −→ ψX (t, x), ayant les propriétés suivantes.
Pour tout x ∈ M , IX (x) = {t ∈ R; (t, x) ∈ ΩX } est l’intervalle ouvert (toujours non vide car
Ce module de cours est sous licence GFDL

contenant 0) sur lequel est définie la solution maximale de l’équation différentielle associée à X
qui prend la valeur x pour t = 0, et cette solution maximale est t −→ ψX (t, x).

La suite du cours s’appuie sur des chapitres du livre de Jean-Louis Pac, Systèmes Dynamiques :
cours et exercices corrigés 2 è Edition Dunod ; de Luis Barreira et Claudia Valls, Théeorie des
rrdjeam

systèmes dynamiques : une introduction, Collection Enseignements Sciences Sup puis d’autres
notes de cours sur le web.

Introduction aux systèmes dynamiques Notes de cours


©UAC / FAST
2
Équations différentielles linéaires autonomes

Nous abordons dans ce chapitre l’étude des équations différentielles les plus sim-
ples, les équations linéaires autonomes – aussi appelées équations linéaires à coef-
ficients constants – c’est-à-dire les équations de la forme
x′ (t) = Ax(t). (2.1)
Précisons les notations. La donnée A ∈ Mn (K) est une matrice carrée (n × n)
à coefficients dans K, où K = R ou C. L’inconnue est une application dérivable
x(·) : R → Kn . Résoudre l’équation (2.1) signifie trouver une application x(·) telle
que, pour tout t ∈ R, la dérivée x′ (t) = dx ′
dt (t) vérifie x (t) = Ax(t).
Cette équation est dite autonome parce que la donnée A ∈ Mn (K) ne dépend pas
du temps. Le cas plus général où la donnée est une fonction A(t) du temps sera
traité dans le chapitre 3.

2.1 Approche élémentaire


Commençons par un cas connu, celui d’une équation scalaire
x′ (t) = αx(t),
où α est un réel et x une fonction de R dans R. Une solution x(·) de cette équation
décrit l’évolution en fonction du temps d’une quantité dont le taux de variation α
est constant.
Rappelons (cela résulte également du théorème 2.1) que la seule solution de cette
équation valant x0 à l’instant t0 est
x(t) = x0 eα(t−t0 ) .
Cette expression nous fournit toutes les informations que l’on peut souhaiter sur
l’équation différentielle. Par exemple le comportement asymptotique de x(t) quand
t → +∞ est caractérisé par le signe de α :
2 Équations différentielles linéaires autonomes

• si α < 0, limt→+∞ x(t) = 0,


• si α = 0, x(t) est constant, !
+∞ si x(t0 ) ̸= 0,
• si α > 0, limt→+∞ |x(t)| =
0 si x(t0 ) = 0.
Considérons maintenant un système de deux équations différentielles,
! ′
x 1 = α1 x 1 ,
x′2 = α2 x2 .

C’est un système très simple puisque les fonctions x1 (t) et x2 (t) sont découplées.
La solution de ce système est bien évidemment

x1 (t) = x1 (t0 )eα1 (t−t0 ) , x2 (t) = x2 (t0 )eα2 (t−t0 ) .

Comme dans le cas scalaire, on a une connaissance complète du comportement


des solutions. Par exemple, si α1 et α2 sont strictement négatifs, toute solution
(x1 (t), x2 (t)) du système d’équations tend vers l’origine quand t → +∞; si α1 > 0
et x1 (t0 ) ̸= 0, la norme de (x1 (t), x2 (t)) tend vers l’infini quand t → +∞, etc.
Adoptons maintenant une écriture matricielle. En posant x = (x1 , x2 ), le système
de deux équations ci-dessus apparaı̂t comme le cas particulier n = 2 de l’équation
différentielle dans Rn suivante :
⎛ ⎞
α1 · · · 0
⎜ ⎟
x′ (t) = ∆x(t), où ∆ = ⎝ ... . . . ... ⎠ est diagonale. (2.2)
0 · · · αn

Cette équation étant en fait un système de n équations scalaires découplées, la


solution est donnée par
⎛ ⎞ ⎛ α (t−t ) ⎞
x1 (t0 )eα1 (t−t0 ) e 1 0 ··· 0
⎜ .. ⎟ ⎜ .. .. .. ⎟
x(t) = ⎝ . ⎠=⎝ . . . ⎠ x(t0 ),
xn (t0 )eαn (t−t0 ) 0 · · · eαn (t−t0 )

avec x = (x1 , . . . , xn ). Nous verrons dans la section suivante que la matrice diago-
nale ci-dessus est l’exponentielle de la matrice ∆ et nous la noterons donc e(t−t0 )∆ .
Ainsi, pour les équations différentielles de la forme (2.2), nous avons une con-
naissance parfaite des solutions. Nous sommes par exemple en mesure d’analyser
le comportement asymptotique des solutions en fonction de α1 , . . . , αn et de la
condition initiale x(t0 ) :

• si tous les αi sont strictement négatifs, toute solution x(t) converge vers
l’origine quand t → +∞;

26
2.2 Exponentielle de matrices

• si tous les αi sont négatifs ou nuls, toute solution x(t) est bornée quand t →
+∞;
• si au moins un des αi est strictement positif, alors limt→+∞ ∥x(t)∥ = +∞ pour
toute solution vérifiant xi (t0 ) ̸= 0;
• etc.

L’équation différentielle x′ (t) = ∆x(t) que nous venons de traiter est un cas très
particulier puisqu’il correspond à un système de n équations scalaires découplées.
Beaucoup d’équations différentielles linéaires peuvent cependant s’y ramener. Con-
sidérons en effet le système x′ (t) = Ax(t) avec A diagonalisable dans R : il existe
alors une matrice inversible P ∈ GLn (R) et une matrice diagonale ∆ ∈ Mn (R)
telles que A = P ∆P −1 .
Remarquons maintenant que, si x(t) vérifie x′ (t) = Ax(t), alors y(t) = P −1 x(t)
vérifie y ′ (t) = ∆y(t). Autrement dit, à un changement de coordonnées près,
l’équation différentielle est un système de n équations scalaires découplées. Con-
naissant y(t0 ) = P −1 x(t0 ), on obtient alors y(t) = e(t−t0 )∆ y(t0 ), et

x(t) = P y(t) = P e(t−t0 )∆ y(t0 ) = P e(t−t0 )∆ P −1 x(t0 ).

On est donc encore capable de calculer les solutions de l’équation différentielle dans
ce cas. Plus important, on voit que le comportement asymptotique des solutions
est caractérisé par les éléments diagonaux de ∆, c’est-à-dire par les valeurs propres
de A.
En résumé, cette première approche élémentaire fait apparaı̂tre les points clés que
nous allons développer maintenant :

• les solutions se calculent à l’aide de l’exponentielle de matrice;


• le comportement asymptotique des solutions est caractérisé par les valeurs
propres de A.

2.2 Exponentielle de matrices

Définition 2.1. On appelle exponentielle de matrice l’application

exp : Mn (K) −→ Mn (K)



(
A Ak
A (−→ exp A = e = .
k!
k=0

)∞ Ak
Notons que la série k=0 k! converge normalement. En effet,

27
2 Équations différentielles linéaires autonomes


( ∞
(
∥Ak ∥ ∥A∥k
≤ = e∥A∥ < ∞,
k! k!
k=0 k=0

où on a choisi pour ∥ · ∥ une norme multiplicative sur Mn (K) (par exemple une
norme matricielle). L’application exponentielle est donc continue (elle est en fait
C ∞ , voir le corrigé de l’exercice 1.1, question 4.). Rappelons sans démonstration
ses propriétés principales.

Proposition 2.1.
1. Pour A ∈ Mn (K), l’application t (→ etA est dérivable et

d tA
e = AetA = etA A.
dt
2. Si A et B ∈ Mn (K) commutent, i.e. AB = BA, on a

exp(A + B) = exp(A) exp(B).

3. Pour tout A ∈ Mn (K), exp(A) est inversible et exp(A)−1 = exp(−A).


−1
4. Si P ∈ GLn (K), alors P eA P −1 = eP AP .
5. Si ∆ est une matrice diagonale d’éléments diagonaux λ1 , . . . , λn , alors e∆ est
diagonale d’éléments diagonaux eλ1 , . . . , eλn .

Nous pouvons maintenant résoudre l’équation (2.1).

Théorème 2.1. Soient t0 ∈ R et x0 ∈ Kn . L’unique solution de l’équation x′ (t) =


Ax(t) valant x0 en t0 est l’application x(·) définie par

x(t) = e(t−t0 )A x0 , ∀t ∈ R.

Démonstration. La première propriété de la proposition précédente implique


# $
d ! (t−t0 )A " d (t−t0 )A
e x0 = e x0 = Ae(t−t0 )A x0 .
dt dt

La fonction x(t) = e(t−t0 )A x0 est donc solution de x′ (t) = Ax(t), et x(t0 ) = x0 puisque e0A = I.
Pour montrer l’unicité de la solution, considérons une autre solution y(t) valant x0 en t0 et formons
le produit z(t) = e−(t−t0 )A y(t). En utilisant encore la proposition 2.1, on obtient

z ′ (t) = −Ae−(t−t0 )A y(t) + e−(t−t0 )A y ′ (t) = −Ae−(t−t0 )A y(t) + e−(t−t0 )A Ay(t) = 0,

car A et etA commutent. Donc z(t) est une constante, et puisque z(t0 ) = x0 , on obtient y(t) =
e(t−t0 )A z(t0 ) = e(t−t0 )A x0 . ⊓
#

28
2.3 Calcul de l’exponentielle de matrices

Ainsi, la résolution d’une équation linéaire autonome se ramène au calcul d’une


exponentielle de matrices. Remarquons en particulier que les deux derniers points
de la proposition 2.1 permettent de retrouver le résultat de la section 2.1 : si A est
diagonalisable dans K, c’est-à-dire

A = P ∆P −1 , P ∈ GLn (K), ∆ ∈ Mn (K) diagonale,

alors on a etA = P et∆ P −1 et la solution de l’équation (2.1) est

x(t) = P e(t−t0 )∆ P −1 x(t0 ).

Malheureusement toutes les matrices ne sont pas diagonalisables. La théorie de la


réduction des endomorphismes permet cependant de mener à bien le calcul.

2.3 Calcul de l’exponentielle de matrices

Le but de cette section est de calculer l’exponentielle d’une matrice A ∈ Mn (K) à


un changement de base près, c’est-à-dire de calculer P −1 etA P pour un P ∈ GLn (K)
bien choisi. Nous mènerons d’abord ce calcul dans le cas K = C, pour les matrices à
coefficients complexes. Nous montrerons ensuite comment en déduire le cas K = R.
Cette section repose sur des résultats standards d’algèbre linéaire que nous rap-
pellerons sans en donner la démonstration (on les trouvera dans les cours de classes
préparatoires ou de licence 2ème année).

a. Matrices à coefficients complexes

Polynôme caractéristique.

Considérons une matrice A ∈ Mn (C) et notons λ1 , . . . , λr ses valeurs propres.


Rappelons que ce sont les seuls nombres complexes pour lesquels l’équation

Av = λi v

admet une solution v ∈ Cn non nulle (les vi correspondants s’appellent des


vecteurs propres). Les valeurs propres s’obtiennent également comme les racines
du polynôme caractéristique de A : PA (λ) = det(λI − A). Ce polynôme est donc
de la forme
PA (λ) = (λ − λ1 )p1 · · · (λ − λr )pr ,
où chaque entier pi est strictement positif et p1 + · · · + pr = n (le polynôme
caractéristique étant de degré n). On appelle pi la multiplicité algébrique de la
valeur propre λi .
Une propriété importante du polynôme caractéristique est la suivante.

29
2 Équations différentielles linéaires autonomes

Théorème 2.2 (Cayley-Hamilton). Toute matrice annule son polynôme carac-


téristique :
PA (A) = (A − λ1 I)p1 · · · (A − λr I)pr = 0.

Une des conséquences de ce résultat est que, le polynôme caractéristique étant


un polynôme unitaire de degré n, An s’écrit comme une combinaison linéaire de
I, A, . . . , An−1 .

Sous-espaces propres, sous-espaces caractéristiques.

À chaque valeur propre de A sont associés deux sous-espaces vectoriels de Cn . Le


premier est le sous-espace propre :

Πi ou Πλi = kerC (A − λi I).

C’est l’ensemble des vecteurs propres associés à λi . L’entier ei = dim Πi est appelé
la multiplicité géométrique de la valeur propre λi .
Le deuxième est le sous-espace caractéristique :

Γi ou Γλi = kerC (A − λi I)pi .

Il est clair que Πi ⊂ Γi , mais ces deux espaces peuvent être différents. Le rôle des
espaces caractéristiques est précisé dans le résultat suivant.

Théorème 2.3 (de décomposition des noyaux). L’espace Cn se décompose


en somme directe des sous-espaces caractéristiques,

Cn = Γ1 ⊕ · · · ⊕ Γr .

On a de plus les propriétés suivantes :


1. dim Γi = pi ;
2. chacun des espaces Γi est invariant par A : x ∈ Γi ⇒ Ax ∈ Γi ;
3. la restriction A|Γi de A à Γi s’écrit :

A|Γi = λi IΓi + Ni ,

où IΓi désigne l’identité de Γi et Ni ∈ End(Γi ) est nilpotent d’ordre ≤ pi , i.e.


Nipi = 0.

Ce résultat appelle un certain nombre de commentaires.

• Rappelons que End(Γi ) désigne l’ensemble des endomorphismes de Γi , c’est-à-


dire des applications linéaires de Γi dans lui-même. Dire que Γi est invariant
par A est équivalent à dire que A|Γi appartient à End(Γi ).

30
2.3 Calcul de l’exponentielle de matrices

• L’opérateur Ni est défini comme Ni = (A−λi I)|Γi . Le fait que Ni soit nilpotent
d’ordre ≤ pi n’est donc rien d’autre que la définition de Γi . Il est en revanche
possible que l’ordre exact de nilpotence de Ni , c’est-à-dire le plus petit entier
mi ≤ pi tel que Nimi = 0, soit plus petit que pi . Dans ce cas, on a

ker(A − λi I)pi = ker(A − λi I)mi ! ker(A − λi I)mi −1 .

• Une matrice est diagonalisable si il existe une base de Cn formée de vecteurs


propres, ce qui équivaut à

Cn = Π1 ⊕ · · · ⊕ Πr .

D’après le théorème de décomposition des noyaux, ceci n’est possible que si


Πi = Γi pour tout i. Autrement dit,
A est diagonalisable si et seulement si pour toute valeur propre les
multiplicités algébrique et géométrique coı̈ncident, i.e. dim Πi = pi pour
i = 1, . . . , r.

Réduction de Jordan dans Cn .

Choisissons une base B de Cn formée de la réunion d’une base de Γ1 , d’une base


de Γ2 , . . . , d’une base de Γr , et notons P la matrice de passage de cette base à la
base canonique. D’après le théorème de décomposition des noyaux, l’application
linéaire associée à A a pour matrice dans la base B :

P −1 AP = ∆ + N, (2.3)

où ∆ est la matrice diagonale ayant pour éléments diagonaux λ1 (p1 fois), . . . , λr
(pr fois), et N est une matrice nilpotente qui s’écrit par blocs comme
⎛ ⎞
N1
⎜ .. ⎟
N =⎝ . ⎠,
Nr
chaque bloc Ni étant nilpotent d’ordre ≤ pi . Il est en fait possible de choisir la base
B de façon à mettre la matrice nilpotente N sous une forme relativement simple
(voir par exemple [5]). On aboutit ainsi à la réduction de Jordan.
Théorème 2.4 (de Jordan). Pour toute matrice A ∈ Mn (C), il existe P ∈
GLn (C) telle que P −1 AP s’écrit sous forme de matrice diagonale par bloc
⎛ ⎞
J1
⎜ ⎟
P −1 AP = ⎝ . . . ⎠ , (2.4)
Jr

31
2 Équations différentielles linéaires autonomes

où chaque Ji est une matrice (pi × pi ) de la forme


⎛ ⎞
⎛ ⎞ λi 1
Ji,1 ⎜ .. .. ⎟
⎜ .. ⎟ ⎜ . . ⎟
Ji = ⎝ . ⎠, avec Ji,k ⎜
=⎜ ⎟
.. ⎟
⎝ . 1⎠
Ji,ei
λi

et ei = dim ker(A − λi I) est la multiplicité géométrique de λi .

On appelle la matrice J = P −1 AP la forme réduite de Jordan de A et les matrices


Ji des blocs de Jordan.

Remarque 2.1.

• Pour chaque i, la matrice Ji représente l’application linéaire A|Γi ∈ End(Γi ).


• La matrice nilpotente N de la décomposition (2.3) de la matrice P −1 AP as-
sociée la réduction de Jordan est de la forme
⎛ ⎞
0 ∗
⎜ .. .. ⎟
⎜ . . ⎟
N =⎜ ⎜ ⎟,
. . ⎟
⎝ . ∗⎠
0
)
où les termes ∗ sont égaux à 0 ou 1, le nombre de 1 étant égal à i (pi − ei ).
• Les matrices Ji,k sont des matrices carrées dont la dimension di,k := dim(Ji,k ) ≤
pi dépend de i et k. De plus, Ji,k −λi Idi,k est une matrice nilpotente d’ordre di,k .
Par conséquent l’ordre de nilpotence de l’application linéaire Ni = (A − λi I)|Γi
est mi = max1≤k≤ei dim(Ji,k )
• Dans le cas particulier où les multiplicités algébrique et géométrique de λi
coı̈ncident (i.e. ei = pi ), la dimension dim(Ji,k ) est égale à 1 pour tout k.
Chaque bloc Ji,k est alors réduit au scalaire λi et Ji = λi Ipi .
• D’après la remarque précédente, si pour chaque valeur propre les multiplicités
algébrique et géométrique coı̈ncident, la forme réduite de Jordan est diagonale.
Ainsi la réduction de Jordan généralise la diagonalisation. Insistons cependant
sur le fait que toute matrice de Mn (C) admet une réduction de Jordan, mais
n’est pas forcément diagonalisable.

Calcul de l’exponentielle.

La réduction de Jordan permet de calculer etA à conjugaison près. En effet, com-


mençons par le calcul de l’exponentielle d’un bloc Ji,k . Notons ni,k = dim(Ji,k ) la
dimension de ce bloc et écrivons-le Ji,k = λi I + Ni,k , où Ni,k est la matrice ayant

32
2.3 Calcul de l’exponentielle de matrices

des 0 sur la diagonale et des 1 juste au-dessus. Comme λi I et Ni,k commutent, on


obtient, d’après la proposition 2.1,

etJi,k = etλi I etNi,k = etλi etNi,k .

De plus, Ni,k étant nilpotente d’ordre ni,k , on a


⎛ n −1

t i,k
1 t ... (ni,k −1)! ⎟
ni,k −1 ⎜
∞ ⎜ .. ⎟
( (tNi,k ) ( (tNi,k ) ⎜ ... ...
l l
. ⎟
etNi,k = = =⎜ ⎟.
l! l! ⎜ .. ⎟
l=0 l=0 ⎝ . t ⎠
1

D’autre part, d’après les propriétés de l’exponentielle de matrice (proposition 2.1),


−1
on a etA = etP JP = P etJ P −1 , ce qui donne finalement pour l’exponentielle de
tA :
⎛ tJ ⎞
e 1,e1
⎜ .. ⎟ −1
etA = P ⎝ . ⎠P , (2.5)
e tJ r,er

⎛ n −1

t i,k
1 t . . . (ni,k −1)!
⎜ ⎟
⎜ .. .. .. ⎟
⎜ . . . ⎟
avec etJi,k = etλi ⎜ ⎟.
⎜ .. ⎟
⎝ . t ⎠
1

b. Matrices à coefficients réels

Considérons maintenant une matrice A ∈ Mn (R), à coefficients réels. On peut bien


entendu considérer A comme une matrice de Mn (C). Tout ce que nous venons de
voir pour les matrices à coefficients complexes s’applique donc.
Désignons les valeurs propres réelles de A par λ1 , . . . , λs , et ses valeurs propres non
réelles par λs+1 , λ̄s+1 , . . . , λq , λ̄q (avec 2q − s = r). Le polynôme caractéristique de
A est donc le polynôme à coefficients réels,
s
* q
*
pi
PA (λ) = (λ − λi ) [(λ − λi )(λ − λ̄i )]pi .
i=1 i=s+1

Les sous-espaces vectoriels Γλi = kerC (A − λi I)pi de Cn sont maintenant appelés


les sous-espaces caractéristiques complexes.

33
2 Équations différentielles linéaires autonomes

Remarque 2.2. Rappelons les liens qui existent entre les sous-espaces vectoriels
de Cn , qui sont des C-espaces vectoriels, et ceux de Rn , qui sont des R-espaces
vectoriels. On considère Rn comme un sous-ensemble de Cn et, pour un sous-espace
vectoriel Γ de Cn , on note Γ ∩ Rn l’ensemble des vecteurs v ∈ Γ qui sont réels. Il
est facile de vérifier qu’un tel ensemble Γ ∩ Rn est un sous-espace vectoriel de Rn .
De plus, si Γ est stable par conjugaison (i.e. v ∈ Γ ⇒ v̄ ∈ Γ ), alors Γ et Γ ∩Rn ont
même dimension en tant que sous-espaces respectivement de Cn et de Rn . En fait,
dans ce cas, Γ est l’ensemble des combinaisons linéaires à coefficients complexes
des éléments de Γ ∩ Rn ; en conséquence, toute base du R-espace vectoriel Γ ∩ Rn
est également une base du C-espace vectoriel Γ .

Définissons maintenant les sous-espaces caractéristiques réels de A comme les sous-


espaces vectoriels de Rn :

Ei = Γλi ∩ Rn , 1≤i≤s
n
Ei = (Γλi ⊕ Γλ̄i ) ∩ R , s + 1 ≤ i ≤ q.

Remarquons alors que (A − λi I)pi v = 0 implique (A − λ̄i I)pi v̄ = 0, ce qui signifie


que les sous-espaces Γλi pour λi réel et Γλi ⊕ Γλ̄i pour λi non réel sont stables par
conjugaison. D’après la remarque précédente et le théorème de décomposition des
noyaux dans Cn , on a la décomposition

Rn = E1 ⊕ · · · ⊕ Eq ,

chaque sous-espace Ei étant invariant par A. À partir de cette décomposition,


nous allons donner ci-dessous une forme réduite de Jordan réelle de A. Cette forme
réduite n’est cependant pas indispensable à l’étude des équations différentielles :
nous verrons dans la section suivante que les solutions de l’équation (2.1) dans Rn
peuvent se déduire directement des solutions dans Cn .

*Réduction de Jordan dans Rn .

Donner une forme réduite de Jordan de A ∈ Mn (R) consiste à trouver pour chaque
sous-espace caractéristique une base dans laquelle l’application linéaire associée à A
a une expression simple (c’est ce que nous avons fait pour les matrices à coefficients
complexes). Considérons donc un des sous-espaces caractéristiques réels Ek de A.
• Si λk est réelle, i.e. 1 ≤ k ≤ s : dans ce cas on a Ek = kerR (A − λk I)pk et la
restriction de A à Ek s’écrit simplement

A|Ek = λk I|Ek + Nk , où Nk nilpotente.

On peut alors montrer comme dans le cas complexe que A|Ek est conjuguée au
bloc de Jordan Jk .

34
2.3 Calcul de l’exponentielle de matrices

• Si λk = αk + iβk n’est pas réelle, i.e. s + 1 ≤ k ≤ q : choisissons une base


v1 , . . . , vpk de Γk dans laquelle A|Γk se met sous forme d’un bloc de Jordan Jk ,
c’est-à-dire, pour j = 1, . . . , pk ,

Avj = λk vj + ηj vj−1 , où ηj = (Jk )j−1,j = 0 ou 1,

en posant v0 = 0. Par conjugaison, il est clair que v̄1 , . . . , v̄pk est une base de
Γλ̄k . Pour j = 1, . . . , pk , posons vj = aj + ibj , avec aj , bj ∈ Rn . Les vecteurs
(a1 , b1 , . . . , apk , bpk ) forment alors une base de Ek . En effet, les aj = 21 (vj + v̄j )
et bj = 2i (v̄j − vj ) appartiennent à Γλk ⊕ Γλ̄k et l’engendrent en tant que C-
espace vectoriel puisqu’ils engendrent la base des vj , v̄j : ils forment donc une
famille génératrice à 2pk éléments du R-espace vectoriel Ek de dimension 2pk
éléments, c’est-à-dire une base.
De plus, en identifiant les parties réelles et imaginaires des deux membres de
l’expression

A(aj + ibj ) = (αk + iβk )(aj + ibj ) + ηj (aj−1 + ibj−1 ),

on obtient, en écriture matricielle,


+ , + , + , + ,
aj aj aj−1 αk −βk
A = Ck + ηj où Ck = .
bj bj bj−1 β k αk
La restriction de A à Ek est donc conjuguée dans la base (a1 , b1 , . . . , apk , bpk )
à la matrice suivante :
⎛ ⎞
Ck η 2 I 2
⎜ .. .. ⎟
⎜ . . ⎟
′ ⎜
Jk = ⎜ ⎟.
.. ⎟
⎝ . ηp k I2 ⎠
Ck
On obtient ainsi la réduction de Jordan dans Rn de A.
Théorème 2.5. Pour toute matrice A ∈ Mn (R), il existe Q ∈ GLn (R) telle que
Q−1 AQ s’écrit sous forme d’une matrice diagonale par bloc J ′ , d’éléments diago-
′ , . . . , J ′ , où, pour i = s + 1, . . . , q, chaque J ′ est une matrice
naux J1 , . . . , Js , Js+1 q i
(2pi × 2pi ) de la forme
⎛ ⎞
⎛ ′ ⎞ Ci I 2
Ji,1 ⎜ .. .. ⎟
⎜ . ⎟ ⎜ . . ⎟

Ji = ⎝ .. ′
⎠ , avec Ji,k = ⎜ ⎜ ⎟
. . ⎟
′ ⎝ . I2 ⎠
Ji,2e i
Ci
et, pour i = 1, . . . , s, les matrices Ji sont celles données dans le théorème 2.4.

35
2 Équations différentielles linéaires autonomes

Le calcul de l’exponentielle ne pose alors aucun problème, il suffit de savoir calculer


etCi . Écrivons Ci comme la somme de deux matrices qui commutent
+ ,
0 −1
Ci = αi I2 + βi B, B= ,
1 0

et donc son exponentielle comme un produit

etCi = eαi t eβi tB .

Remarquons que la matrice B est de carré égal à −I2 , ce qui implique B 2p =


(−1)p I2 et B 2p+1 = (−1)p B, soit
∞ k
( ∞
( (∞
s 1 1
esB = Bk = (−1)p s2p I2 + (−1)p s2p+1 B
k! (2p)! (2p + 1)!
k=0 p=0 p=0

= cos(s)I2 + sin(s)B.

On obtient ainsi l’exponentielle de Ci :


+ ,
tCi αi t cos(βi t) − sin(βi t)
e =e .
sin(βi t) cos(βi t)

Ainsi etCi est la composition de la rotation d’angle −βi t avec l’homothétie de


facteur eαi t .

2.4 Forme des solutions

Grâce au calcul de l’exponentielle que nous venons d’effectuer, nous sommes main-
tenant en mesure de préciser le théorème 2.1. Donnons d’abord la forme de la
solution générale dans Cn .

Théorème 2.6. Soit A ∈ Mn (C). Toute solution de x′ (t) = Ax(t) dans Cn s’écrit
sous la forme
( + ( ,
tλi k
x(t) = e t vi,k , où vi,k ∈ Γi , (2.6)
1≤i≤r 0≤k≤mi −1

avec mi = max1≤l≤ei dim(Ji,l ).

Démonstration. Toute solution de x′ (t) = Ax(t) s’écrit x(t) = etA x(0), le théorème résulte
donc directement de l’expression (2.5) de etA .
On peut aussi l’obtenir simplement à partir du théorème 2.3 de décomposition des noyaux. En
effet, dans la décomposition Cn = Γ1 ⊕· · ·⊕Γr , si le vecteur x(0) s’écrit comme x(0) = x01 +· · ·+x0r ,

36
2.4 Forme des solutions

alors x(t) = x1 (t) + · · · + xr (t), où xi (·) est la solution de x′ = Ax telle que xi (0) = x0i . Or les
sous-espaces Γi sont invariants par A, donc par etA , et A|Γi = λi IΓi + Ni . Pour i = 1, dots, r, on
a donc :
xi (t) = etA|Γi x0i = etλi IΓi +tNi x0i = etλi etNi x0i ,
% i −1 (tNi )k
d’après la proposition 2.1, puisque λi IΓi et Ni commutent. D’autre part etNi = m k=0 k!
où
mi est l’ordre de nilpotence de Ni (rappelons que mi = max1≤l≤ei dim(Ji,l ), voir la remarque 2.1).
On obtient ainsi
mi −1
& k Nik x0i
xi (t) = etλi t ,
k!
k=0
c’est-à-dire l’expression cherchée en posant
1 k 0
vi,k = N i xi .
k!
#

Remarque 2.3.
• Le terme en facteur de etλi est polynômial en t quand mi > 1, et constant quand
mi = 1. Rappelons que ce dernier cas a lieu si et seulement si les multiplicités
algébrique et géométrique de λi coı̈ncident.
• Il est également important de noter la dépendance de x(t) par rapport à la
condition initiale x(0) dans l’expression (2.6). Si x(0) s’écrit comme x(0) =
x01 + · · · + x0r dans la décomposition Cn = Γ1 ⊕ · · · ⊕ Γr , alors
1 k 0
vi,k = N xi ,
k!
où N est la matrice nilpotente de la décomposition (2.3) ∆ + N de P −1 AP .
En particulier, x0i = 0 si et seulement si tous les vecteurs vi,k sont nuls.
Considérons maintenant une matrice A à coefficients réels et une solution x(·) dans
Rn de x′ = Ax, dont la condition initiale est x(0) ∈ Rn . On peut bien entendu
considérer A comme une matrice à coefficients complexes et x(·) = x(·)+i 0 comme
la solution dans Cn de x′ = Ax ayant pour condition initiale x(0)+i 0. L’expression
de x(·) est donc donnée par la formule (2.6). Puisque cette solution est réelle, elle
est en fait égale à la partie réelle de la formule (2.6), la partie imaginaire devant
être nulle. On obtient ainsi la forme générale suivante pour les solutions de x′ = Ax
dans Rn .
Théorème 2.7. Soit A ∈ Mn (R). Toute solution de x′ (t) = Ax(t) dans Rn s’écrit
sous la forme
( + ( ,
tαi k
- .
x(t) = e t cos(βi t) ai,k + sin(βi t) bi,k , (2.7)
1≤i≤q 0≤k≤mi −1

où αi = ℜe(λi ), βi = ℑm(λi ) et les vecteurs ai,k , bi,k appartiennent à Ei .

37
2 Équations différentielles linéaires autonomes

Remarque 2.4. Comme dans le théorème 2.6, les vecteurs ai,k , bi,k dépendent
uniquement de la condition initiale x(0). Si x(0) s’écrit comme x(0) = x01 + · · · + x0q
dans Rn = E1 ⊕ · · · ⊕ Eq , alors x0i = 0 si et seulement si tous les vecteurs ai,k et
bi,k sont nuls.

Comportement asymptotique.

Les théorèmes 2.6 et 2.7 donnent toutes les informations que l’on peut souhaiter sur
l’équation différentielle, généralisant les résultats de la section 2.1 sur les équations
scalaires et les systèmes d’équations découplées. On constate en particulier que
le comportement quand t tend vers l’infini des solutions x(t) de x′ (t) = Ax(t)
dépend essentiellement des signes des parties réelles des valeurs propres λi de A.
Plus précisément, on peut décomposer le comportement des composantes de x(t)
sur chaque sous-espace caractéristique (on suppose ici A réelle) :
• si ℜe(λi ) < 0 la projection sur Ei de x(t) s’annule quand t tend vers +∞ et
croı̂t de façon au moins exponentielle en −∞;
• si ℜe(λi ) > 0, c’est l’inverse, la projection sur Ei de x(t) croı̂t de façon au
moins exponentielle en +∞ et s’annule quand t tend vers −∞;
• si ℜe(λi ) = 0, la composante sur Ei de x(t) croı̂t de façon polynômiale en ±∞
quand dim Πi < pi , et est bornée pour t ∈ R quand dim Πi = pi .
Il est commode de regrouper les sous-espaces caractéristiques en fonction du signe
de la partie réelle des valeurs propres correspondantes. Nous définissons ainsi, pour
A ∈ Mn (R), les sous-espaces vectoriels suivant de Rn :
/ 0 1 0
– l’espace stable : Es = Γi ∩ Rn = Ei ,
ℜe(λi )<0 ℜe(λi )<0
/ 0 1 0
u n
– l’espace instable : E = Γi ∩ R = Ei ,
ℜe(λi )>0 ℜe(λi )>0
/ 0 1 0
c n
– l’espace indifférent : E = Γi ∩ R = Ei .
ℜe(λi )=0 ℜe(λi )=0

La somme de ces espaces est Rn tout entier : Rn = E s ⊕ E u ⊕ E c . De même,


pour A ∈ Mn (C), les espaces complexes stable, instable1 et indifférent2 sont définis
respectivement comme
0 0 0
Γs = Γi , Γu = Γi , Γc = Γi ,
ℜe(λi )<0 ℜe(λi )>0 ℜe(λi )=0

1
« unstable » en anglais, d’où le ’u’ des notations E u et Γ u
2
« common » en anglais, d’où le ’c’ des notations E c et Γ c

38
2.4 Forme des solutions

et on a la décomposition Cn = Γ s ⊕ Γ u ⊕ Γ c .
D’après le théorème de décomposition des noyaux, ces espaces ont la particularité
d’être invariants par etA pour tout t ∈ R : etA E s ⊂ E s , etA E u ⊂ E u , etc. . . Ce qui
entraı̂ne que, si une solution x(·) de x′ (t) = Ax(t) vérifie par exemple x(0) ∈ E s ,
alors x(t) ∈ E s pour tout t; si x(0) ∈ E c , alors x(t) ∈ E c pour tout t, etc.
Les espaces stable, instable et indifférent correspondent chacun à un certain type
de comportement asymptotique des solutions. Nous résumons ces comportements
dans le théorème suivant, dont la démonstration est laissée en exercice (utiliser
soit la forme générale des solutions, soit directement la réduction de Jordan).

Théorème 2.8. Soit A une matrice (n × n) réelle (resp. complexe). Notons x(·)
les solutions dans Rn (resp. Cn ) de l’équation différentielle x′ (t) = Ax(t). Alors
• E s (resp. Γ s ) est l’ensemble des x(0) ∈ Rn (resp. x(0) ∈ Cn ) pour lesquels

lim ∥x(t)∥ = 0;
t→+∞

• E u (resp. Γ u ) est l’ensemble des x(0) ∈ Rn (resp. x(0) ∈ Cn ) pour lesquels

lim ∥x(t)∥ = 0;
t→−∞

• E c (resp. Γ c ) est l’ensemble des x(0) ∈ Rn (resp. x(0) ∈ Cn ) pour lesquels il


existe un entier m ≥ 0 et une constante C > 0 tels que, pour |t| suffisamment
grand,
C −1 ∥x(0)∥ ≤ ∥x(t)∥ ≤ C |t|m ∥x(0)∥.
En outre, pour 0 < α < minℜe(λi )̸=0 |ℜe(λi )|, il existe une constante C > 0 telle
que :
• si x(0) ∈ E s (ou Γ s ), alors, pour tout t > 0 assez grand,

∥x(t)∥ ≤ Ce−αt ∥x(0)∥, ∥x(−t)∥ ≥ C −1 eαt ∥x(0)∥;

• si x(0) ∈ E u (ou Γ u ), alors, pour tout t > 0 assez grand,

∥x(t)∥ ≥ C −1 eαt ∥x(0)∥, ∥x(−t)∥ ≤ Ce−αt ∥x(0)∥.

Remarque 2.5. Dans la caractérisation de E c , l’entier m est inférieur ou égal à n−1.


On peut prendre m = 0 si et seulement si A|E c est diagonalisable (puisque dans ce
cas, pour toute valeur propre, multiplicités algébrique et géométrique coı̈ncident).

Ce théorème est très important puisqu’il permet de faire le lien entre des es-
paces définis de façon purement algébrique (les E s , E u , etc), donc calculables, et
des ensembles de points ayant des propriétés dynamiques données. Pour obtenir

39
2 Équations différentielles linéaires autonomes

le comportement asymptotique d’une solution particulière x(·), il suffit donc de


décomposer sa condition initiale x(0) en xs (0) + xu (0) + xc (0) dans Rn = E s ⊕
E u ⊕ E c . On sait alors que la décomposition de x(t) est x(t) = xs (t) + xu (t) + xc (t),
où xs (·) (resp. xu (·), xc (·)) est la solution de x′ (t) = Ax(t) ayant xs (0) (resp. xu (0),
xc (0)) pour condition initiale. En particulier, si on s’intéresse aux temps positifs,
on a les critères suivants :

• si xu (0) ̸= 0, alors ∥x(t)∥ tend vers l’infini quand t → +∞;


• si xc (0) ̸= 0, alors ∥x(t)∥ ne tend pas vers 0 quand t → +∞ (mais ∥x(t)∥ ne
tend pas forcément vers l’infini).

Corollaire 2.1. Toutes les solutions de x′ (t) = Ax(t) tendent vers 0 quand
t → +∞ si et seulement si toutes les valeurs propres de A ont une partie réelle
strictement négatives (c’est-à-dire E s = Rn ou Γ s = Cn ).

Quand c’est le cas, on dit que 0 est un équilibre asymptotiquement stable de


l’équation. Nous reviendrons sur les notions d’équilibre et de stabilité dans le
chapitre 5.

Remarque 2.6. Pour une équation différentielle x′ = Ax dans R2 , le signe des par-
ties réelles des valeurs propres se déduit directement des signes du déterminant et
de la trace de A. En effet, det A est le produit des valeurs propres et tr A est la
somme de leurs parties réelles. Ainsi, en notant λ1 et λ2 les valeurs propres de A :
• si det A < 0, λ1 et λ2 sont réelles et de signe opposé (elles ne peuvent être
complexes, car dans ce cas det A = |λ1 |2 );
• si det A > 0, λ1 et λ2 sont soit réelles et de même signe, soit complexes con-
juguées; dans les deux cas, les parties réelles de λ1 et λ2 sont de même signe,
qui est celui de tr A; notons que, si tr A = 0, λ1 et λ2 sont forcément complexes
conjuguées de partie réelle nulle;
• si det A = 0, une des valeurs propres est nulle, l’autre étant égale à tr A.
On peut donc obtenir directement les dimensions des espaces stables, instables et
indifférents en fonction des signes de la trace et du déterminant de A (voir aussi
l’exercice 2.2).

*Pour en savoir plus...

Nous dirons qu’une matrice A est hyperbolique si elle n’a aucune valeur propre
de partie réelle nulle. Pour une telle matrice, on a Γ c = {0}, c’est-à-dire que
Cn = Γ s ⊕ Γ u et Rn = E s ⊕ E u si A ∈ Mn (R).
La classe des matrices hyperboliques est d’un intérêt particulier puisqu’elle est
stable par perturbation.

40
2.4 Forme des solutions

Théorème 2.9. Si A est une matrice hyperbolique, il existe un réel δ > 0


(dépendant de A) tel que pour toute matrice F vérifiant

∥F ∥ ≤ δ,

la matrice A + F est encore hyperbolique. L’ensemble des matrices hyperboliques


complexes (resp. réelles) est donc ouvert dans Mn (C) (resp. Mn (R)).
En outre, les espaces stable et instable dépendent continûment de F (pour ∥F ∥ ≤
δ).
Démonstration. Le fait que si F est assez petite A + F est hyperbolique résulte de la continuité
des valeurs propres des matrices : les valeurs propres de A + F sont d’autant plus proches de
celles de A que F est petite; or celles-ci sont dans l’ouvert C − {ℜe = 0}. Il en est donc de même
de celles de F si elle est assez petite. #

Remarque 2.7. Alors que la dépendance des espaces caractéristiques de A+F n’est
pas en général continue par rapport à F , celle des espaces stable et instable l’est.

Cas d’une matrice diagonalisable dans C (ou semi-simple).

Considérons le cas particulier d’une matrice A ∈ Mn (R) diagonalisable dans C (on


dit aussi semi-simple). Comme nous l’avons vu dans la section 2.3, ceci signifie que
A satisfait les conditions suivantes, qui sont équivalentes entre elles (nous utilisons
les notations de la section 2.3) :

• il existe une base de Cn formée de vecteurs propres de A;


• Cn = Π1 ⊕ · · · ⊕ Πr , où Πi = kerC (A − λi I) ⊂ Cn est le sous-espace propre
associé à λi et λ1 , . . . , λr sont les valeurs propres (complexes) de A;
• pour toute valeur propre λi , le sous-espace caractéristique (complexe) est égal
au sous-espace propre : Γi = Πi ;
• pour toute valeur propre, les multiplicités géométrique et algébrique coı̈ncident :
dim Πi = pi pour i = 1, . . . , r;
• dans la forme réduite de Jordan complexe de la matrice A, tous les blocs de
Jordan sont des matrices 1 × 1 : Ji,k = (λi ).

Ce cas est en pratique très important, puisque l’ensemble des matrices de Mn (R)
diagonalisables dans C contient un ensemble ouvert et dense dans Mn (R). Autre-
ment dit, être diagonalisable dans C est une propriété générique sur Mn (R) (voir
la discussion de ce point dans [5, chap. 7]).
Considérons donc une telle matrice A. La forme générale des solutions de x′ =
Ax donnée par le théorème 2.7 se simplifie : tous les termes polynômiaux en t
disparaissent, seuls restent les termes exponentiels et trigonométriques.

41
2 Équations différentielles linéaires autonomes

Corollaire 2.2. Soit A ∈ Mn (R) une matrice diagonalisable dans C. Toute solu-
tion de x′ (t) = Ax(t) dans Rn s’écrit sous la forme
( - .
x(t) = etαj cos(βj t) aj + sin(βj t) bj ,
1≤j≤q

où αj = ℜe(λj ), βj = ℑm(λj ) et les vecteurs aj et bj ∈ Rn sont tels que aj + ibj


est un vecteur propre de A associé à λj (i.e. aj + ibj ∈ Πj ).

Les sous-espaces stables, instables et indifférents s’écrivent maintenant en fonc-


tion des sous-espaces propres (puisque ceux-ci sont égaux aux sous-espaces carac-
téristiques complexes) :
/ 0 1 / 0 1 / 0 1
Es = Πi ∩Rn , Eu = Πi ∩Rn , Ec = Πi ∩Rn .
ℜe(λi )<0 ℜe(λi )>0 ℜe(λi )=0

La caractérisation dynamique de ces espaces résulte du théorème 2.8.

Corollaire 2.3. Soit A ∈ Mn (R) une matrice diagonalisable dans C. Notons x(·)
les solutions dans Rn de l’équation différentielle x′ (t) = Ax(t). Alors
• E s est l’ensemble des conditions initiales x(0) ∈ Rn correspondant à des solu-
tions x(t) qui tendent exponentiellement vers 0 quand t → +∞;
• E u est l’ensemble des conditions initiales x(0) ∈ Rn correspondant à des solu-
tions x(t) qui tendent exponentiellement vers 0 quand t → −∞;
• E c est l’ensemble des conditions initiales x(0) ∈ Rn correspondant à des solu-
tions x(t) périodiques, donc bornées sur R.

La seule différence par rapport au cas général concerne l’espace E c : alors que
dans le cas général le comportement asymptotique des solutions dans E c était
indéterminé (d’où le nom d’espace « indifférent »), on sait ici que toutes les solu-
tions dans E c sont bornées.

2.5 Exercices corrigés

Exercice 2.1. L’écart à l’équilibre x (t) d’un chariot de masse m attaché à un


ressort de raideur k > 0 satisfait

mx′′ + λx′ + kx = 0, (2.8)


λ k
où λ > 0 modélise les frottements. On posera pour simplifier α = 2m et ω02 = m.

1. Écrire l’équation différentielle (2.8) sous la forme d’une équation différentielle


X ′ = AX dans R2 .

42
2.5 Exercices corrigés

2. Déterminer, en fonction de α et ω02 , les valeurs propres de la matrice A. Dans


quels cas A est-elle diagonalisable?
3. Calculer une forme réduite de etA (c’est-à-dire P etA P −1 pour une matrice
de changement de base P ), puis donner sur un dessin l’allure des solutions de
X ′ = AX en tant que courbes paramétrées de R2 (i.e. le portrait de phase, voir
section 4.3) dans chacun des cas suivants :
(a) frottements importants, i.e. α2 > ω02 ; on montrera que les courbes X(t) solu-
tions de l’équation différentielle présentent alors une asymptote pour t → ∞;
(b) frottements faibles, i.e. 0 < α2 < ω02 ;
(c) mouvement sans frottements, i.e. α = 0; on montrera que les solutions X(t)
sont des ellipses.
4. Mêmes questions dans le cas intermédiaire α2 = ω02 . Montrer en particulier que
les solutions X(t) présentent une asymptote pour t → ∞.
5. Généralisation : Classification des systèmes dynamiques à 2 dimensions
Soit A une matrice réelle 2 × 2. Indiquer, en fonction des valeurs propres et
des vecteurs propres de la matrice A, l’allure du portrait de phase de l’équation
différentielle x′ = Ax dans R2 .

Corrigé de l’exercice 2.1.

1. En posant X = (x, x′ ), on obtient X ′ = AX avec


+ ,
0 1
A= .
−ω02 −2α

2. Les valeurs propres sont solutions de PA (λ) = λ2 + 2αλ + ω02 = 0 où PA (λ) =
det(λI − A) est le polynôme caractéristique de A. On distingue donc 3 possibilités,
selon le signe du discriminant ∆ = α2 − ω02 :

(i) si ∆ > 0 : les valeurs propres sont λ± = −α ± ∆, toutes deux réelles et
distinctes (et négatives). La matrice A est donc diagonalisable dans R.
(ii) si ∆ = 0 : −α est valeur propre double. La matrice A ne peut pas être
diagonalisable, sinon elle serait égale à −αI car on aurait alors A = P (−αI)P −1 .

(iii) si ∆ < 0 : les valeurs propres sont µ± = −α ± i −∆, imaginaires conjuguées.
La matrice A est donc diagonalisable dans C mais pas dans R.

43
2 Équations différentielles linéaires autonomes

3. On peut traiter cette question rapidement en utilisant la réduction de Jordan


réelle de la matrice A. Dans ce corrigé, on va plutôt faire un raisonnement “à la
main”.
(a) α2 > ω02 . On est dans le cas du 2.(i). Il existe une base de R2 formée de vecteurs
propres v− , v+ de la matrice A et, en notant P la matrice dont les colonnes sont
v+ , v− , on obtient
+ ,
λ+ 0
A=P P −1 , P ∈ GLn (R).
0 λ−

Dans ce cas, l’exponentielle se calcule aisément,


+ λ t ,
tA e + 0
e =P P −1 .
0 eλ − t

Pour simplifier l’étude, posons Y (t) = P −1 X(t) (changement linéaire de coor-


données). En notant Y (0) = (y10 , y20 ), on obtient
+ , + λ t 0,
y1 (t) e +y
Y (t) = = λ− t 10 .
y2 (t) e y2

Les fonctions y1 (t) et y2 (t) sont donc monotones, tendent vers 0 quand t → +∞
et vers +∞ quand t → −∞. De plus √ :
0
• si y1 ̸= 0, alors y2 (t)/y1 (t) = e −2t ∆ → 0, donc l’axe Oy est asymptote pour
1
t → +∞;
• si y10 = 0, la trajectoire est contenue dans l’axe Oy2 , qui est alors asymptote
pour t → +∞.
Ces propriétés permettent de donner l’allure des solutions en tant que courbes
paramétrées de R2 , comme indiqué figure 2.1.
(b) 0 < α2 < ω02 . On est dans le cas 2.(iii) et nous allons utiliser le même
raisonnement que pour obtenir la réduction de Jordan réelle (voir page 34). Soit
w = a + ib ∈ C2 un vecteur propre non nul de A associé à µ+ . On sait que a
et b ∈ R2 sont linéairement indépendants (sinon a ou b serait un vecteur propre
réel associé à la valeur propre non réelle µ+ , ce qui est impossible). De plus, en
identifiant les parties réelles et imaginaires de l’expression Aw = µ+ w, on obtient

Aa = ℜe(µ+ )a − ℑm(µ+ )b, et Ab = ℑm(µ+ )a + ℜe(µ+ )b.

En notant P la matrice dont les vecteurs colonnes sont a et b, il vient


+ , + √ ,
−1 ℜe(µ+ ) ℑm(µ+ ) √−α −∆
P AP = = , P ∈ GLn (R).
−ℑm(µ+ ) ℜe(µ+ ) − −∆ −α

44
2.5 Exercices corrigés

y2 x2
y1

x1

Fig. 2.1. Cas α2 > ω02

Pour calculer etA , il suffit de remarquer que w = - a +√ib est aussi vecteur
√ propre
.
de etA associé à la valeur propre etµ+ = e−αt cos( −∆t) + i sin( −∆t) . Le
raisonnement ci-dessus s’applique donc aussi à etA et on obtient
+ , + -√ . -√ .,
−1 tA ℜe(etµ+ ) ℑm(etµ+ ) −αt cos -√−∆t . sin -√−∆t .
P e P = =e .
−ℑm(etµ+ ) ℜe(etµ+ ) − sin −∆t cos −∆t

Pour Y (t) = P −1 X(t), on obtient


+ -√ . -√ .,
−αt cos -√−∆t . sin -√−∆t . - √ .
Y (t) = e Y (0) = e−αt Rot − −∆t Y (0),
− sin −∆t cos −∆t
où Rot(θ) désigne la rotation d’angle θ. Les courbes Y (t) “spiralent” donc vers
0 quand t → +∞, le sens de rotation dans les coordonnées Y étant le sens
trigonométrique inverse (voir figure 2.2).

x2

x1

Fig. 2.2. Cas 0 < α2 < ω02

45
2 Équations différentielles linéaires autonomes

(c) α = 0. On est à nouveau dans le cas 2.(iii). Comme au (b), la matrice A peut
se mettre sous la forme
+ ,
0 −ω0
A=P P −1 , P ∈ GLn (R).
ω0 0

L’exponentielle de A se calcule alors comme précédemment,


+ ,
tA cos(ω0 t) sin(ω0 t)
e =P P −1 = P Rot(−ω0 t)P −1 .
− sin(ω0 t) cos(ω0 t)

Pour Y (t) = P −1 X(t), on obtient

Y (t) = Rot(−ω0 t)Y (0).

Ainsi les courbes Y (t) décrivent des cercles, et les courbes X(t) = P Y (t) décrivent
des ellipses (voir figure 2.3).

Fig. 2.3. Cas α = 0

4. Quand α2 = ω02 , on est dans le cas 2.(ii). Soient v ∈ R2 un vecteur propre non
nul de A (associé à −α) et w ∈ R2 tels que (v, w) forme une base de R2 . L’image de
w par A s’écrit Aw = βw + γv, avec γ ̸= 0 puisque w ne peut pas être un vecteur
propre. Quitte à remplacer v par v/γ, on peut de plus supposer γ = 1. D’autre
part on a forcément β = −α : en effet, d’après le théorème de Cayley-Hamilton,
PA (A) = (A + αI)2 = 0, d’où (A + αI)2 w = (β + α)2 w + (β + α)v = 0, ce qui
implique β = −α puisque v et w sont linéairement indépendants.
En notant P la matrice dont les vecteurs colonnes sont v et w, on obtient donc
+ ,
−α 1
A=P P −1 , P ∈ GLn (R).
0 −α

46
2.5 Exercices corrigés

Pour calculer l’exponentielle, remarquons que


+ ,
01
P −1 AP = −αI2 + N, N= ,
00

ce qui implique que l’exponentielle de tA s’écrit etA = P e−αt etN P −1 . Comme


N 2 = 0, l’exponentielle de tN est etN = I + tN et l’exponentielle de tA est
+ ,
tA −αt 1 t
e = Pe P −1 .
01

Pour Y (t) = P −1 X(t), on obtient


+ 0 ,
−αt y1 + ty20
Y (t) = e .
y20

Les fonctions y1 (t) et y2 (t) tendent vers 0 quand t → +∞, vers +∞ quand t →
−∞, mais y1 (t) n’est pas monotone. De plus :
• si y20 ̸= 0, alors, pour t suffisamment grand,

y2 (t) y0 1
= 0 2 0 ∼ →0
y1 (t) y1 + ty2 t
donc l’axe Oy1 est asymptote et les fonctions y1 et y2 ont même signe pour
t → +∞;
• si y20 = 0, la trajectoire est contenue dans l’axe Oy1 , qui est à nouveau asymp-
tote.
On obtient alors l’allure des solutions de la figure 2.4.

y1 x2

x1

y2

Fig. 2.4. Cas α2 = ω02 .

47
2 Équations différentielles linéaires autonomes

5. Soient λ1 , λ2 les valeurs propres de A, qui sont toujours complexes conjuguées


puisque A est à coefficients réels. Trois cas peuvent se produire, selon que ces
valeurs propres sont distinctes et réelles, distinctes et non réelles ou enfin égales.
(i) Si λ1 ̸= λ2 sont toutes les deux réelles, A est diagonalisable dans R, c’est-à-dire
qu’il existe P ∈ GL2 (R) telle que
+ ,
−1 λ1 0
P AP = .
0 λ2

On a alors + ,
tA etλ1 0
e =P P −1 ,
0 etλ2
et l’allure des solutions dépend des signes respectifs de λ1 et λ2 . On a représenté
les différentes possibilités dans la figure 2.5, où E1 (resp. E2 ) est le sous-espace
caractéristique – ici égal au sous-espace propre – associé à la valeur propre λ1
(resp. λ2 ).

x2 x2
E1 E2 E1 E2
x2
E1 E2

x1 x1 x1

λ1 < λ2 < 0 λ 1 < 0 < λ2 0 < λ1 < λ2

x2 x2 E2 = ker A
E1 E2 = ker A E1

x1 x1

λ 1 < λ2 = 0 0 = λ1 < λ2

Fig. 2.5. Portraits de phase avec λ1 , λ2 réels distincts.

48
2.5 Exercices corrigés

(ii) Si λ1 ̸= λ2 ne sont pas réelles, elles sont de la forme λ1 = ρ + iθ, λ2 = ρ − iθ


avec θ ̸= 0. On voit alors, en utilisant le raisonnement de la question 3.(b) ou la
réduction de Jordan réelle, qu’il existe P ∈ GL2 (R) telle que
+ , 2 + ,3
ρ θ −1 tA tρ cos(tθ) sin(tθ)
A=P P et e = P e P −1 ,
−θ ρ − sin(tθ) cos(tθ)

c’est-à-dire que etA est conjuguée à une matrice de similitude (homothétie multi-
pliée par rotation). L’allure des solutions dépend du signe de ρ. On a représenté
les différentes possibilités dans la figure 2.6, où les coordonnées y = (y1 , y2 ) sont
égales à P −1 x. Notez que le sens de rotation dans les coordonnées y est donné par
le signe de θ, les dessins de la figure 2.6 ayant été fait avec θ < 0 (d’où un sens de
rotation trigonométrique dans les coordonnées y).

x2 x2
y1 x2 y1 y2
y2 y1 y2

x1 x1 x1

ρ<0 ρ=0 ρ>0

Fig. 2.6. Portraits de phase avec λ1 , λ2 complexes conjugués distincts.

(iii) Si les valeurs propres sont égales, λ1 = λ2 := λ, alors elles sont réelles, et il
existe P ∈ GL2 (R) telle que
+ ,
−1 λa
P AP = , a = 0 ou 1,

et donc, +2 ,3
tA 1 attλ
e =P e P −1 .
0 1
Les solutions peuvent avoir plusieurs formes différentes, représentées dans la figure
2.7, selon le signe de λ et la valeur de a :
• si a = 0 et λ ̸= 0, A est diagonalisable et s’écrit donc comme A = λI; les
solutions décrivent des demi-droites et tendent vers 0 ou s’en éloignent selon
le signe de λ;
• si a = 0 et λ = 0, A est la matrice nulle et les solutions sont toutes constantes;

49
2 Équations différentielles linéaires autonomes

• si a = 1, A est non diagonalisable, c’est-à-dire que le sous-espace propre ∆ =


ker(A − λI) associé à λ est de dimension 1. Si λ ̸= 0, l’étude est la même
qu’à la question 4.; en revanche, dans le cas où λ = 0, les trajectoires sont
des droites parallèles à ∆ et leur équation, en coordonnées y = P −1 x, est
y1 (t) = y1 (0) + ty2 (0), y2 (t) = y2 (0).

x2 x2 x2

x1 x1 x1

λ < 0, a = 0 λ = 0, a = 0 λ > 0, a = 0

x2 x2
∆ x2 ∆

∆ = ker A
x1 x1
x1

λ < 0, a = 1 λ = 0, a = 1 λ > 0, a = 1

Fig. 2.7. Portraits de phase avec λ1 = λ2 := λ.

Exercice 2.2. Soit B une matrice réelle 2 × 2 de trace nulle.

1. Montrer que B 2 = − det(B)I. En déduire que etB s’écrit

etB = α(t)I + β(t)B.

On exprimera α(t) et β(t) sous forme de séries entières, puis à l’aide de fonctions
élémentaires (distinguer des cas selon le signe de det B).

Considérons maintenant une matrice A réelle 2 × 2 et posons B = A − 12 tr(A)I.

2. Montrer que tr(B) = 0 et calculer det(B) en fonction de tr(A) et det(A).

50
2.5 Exercices corrigés

3. Écrire etA et décrire le comportement asymptotique des solutions de x′ = Ax en


fonction de tr(A) et det(A). Commenter la figure 2.8 (on pourra également faire
le lien avec la classification de la fin de l’exercice 2.1).

x2 x2
∆ x2 x2
y1 x2 y1 y2 ∆
y2 y1 y2

x1 x1
x1 x1 x1

x2 x2
E1 E2 det A E1 E2

x1 x1

(trA)2
det A =
x2 4 E1
x2 E2 = ker A
E1 E2 = ker A

x1
x1

trA x2
x2 E1 E2
∆ = ker A
x1
x1

Fig. 2.8. Diagramme de bifurcation dans le plan (tr(A), det(A)).

Corrigé de l’exercice 2.2.

1. Le polynôme caractéristique de B est

PB (λ) = λ2 − tr(B)λ + det(B) = λ2 + det(B),

puisque tr(B) = 0. D’après le théorème de Cayley-Hamilton, PB (B) = 0, ce


qui implique B 2 = − det(B)I. Les puissances de B s’écrivent donc B 2p =
(B 2 )p = (− det(B))p I et B 2p+1 = BB 2p = (− det(B))p B. L’exponentielle etB =
) ∞ k
k=0 (tB) /k! s’écrit alors sous la forme α(t)I + β(t)B, avec


( ∞
(
t2p t2p+1
α(t) = (− det(B))p et β(t) = (− det(B))p .
(2p)! (2p + 1)!
p=0 p=0

51
2 Équations différentielles linéaires autonomes

On reconnaı̂t dans ces séries des sinus et cosinus trigonométriques ou hyper-


boliques, selon le signe de det(B). Plus précisément :
-4 .
-4 . sin det(B) t
− si det(B) > 0 : α(t) = cos det(B) t , β(t) = 4 ;
det(B)
− si det(B) = 0 : α(t) = 1, β(t) = t;
-4 .
-4 . sinh − det(B) t
− si det(B) < 0 : α(t) = cosh − det(B) t , β(t) = 4 .
− det(B)

2. La trace de B est clairement nulle. Soit PA (λ) = det(λI − A) le polynôme


caractéristique de A. Rappelons que PA (λ) = λ2 −tr(A)λ+det(A). Le déterminant
de B s’obtient comme
+ , + ,
tr(A) tr(A) tr(A) 2
det(B) = det(A − I) = PA = det(A) − .
2 2 2
1
3. Écrivons A comme la somme 2 tr(A)I + B. Comme ces deux matrices commu-
tent, on obtient
1 1 - .
etA = e 2 tr(A) t etB = e 2 tr(A) t α(t)I + β(t)B .

L’expression de α(t) et β(t) dépend de la position du point (tr(A), det(A)) par


- .2
rapport à la parabole det(B) = det(A) − tr(A)
2 = 0.
• Si det(B) > 0 (au-dessus de la parabole) :
5 -4 .
1 -4 . sin det(B) t 6
etA = e 2
tr(A) t
cos det(B) t I + 4 B ;
det(B)
1
le terme dominant (quand t → ∞) est e 2 tr(A) t , qui tend vers ±∞ selon le signe
de tr(A) (quand tr(A) = 0, les orbites sont des ellipses).
• Si det(B) = 0 (sur la parabole) :
1 - .
etA = e 2 tr(A) t I + tB ;
1
le terme dominant est donc toujours e 2 tr(A) t (quand tr(A) = 0, les orbites sont
des droites).
• Si det(B) < 0 (en-dessous de la parabole) :
5 -4 .
tA 1
tr(A) t
-4 . sinh − det(B) t 6
e =e 2 cosh − det(B) t I + 4 B ;
− det(B)

52
2.5 Exercices corrigés

dans ce cas, le comportement asymptotique est plus compliqué à déterminer.


En effet etA est alors une combinaison linéaire de termes
4 de la forme ea± t M ,
où M est une matrice constante et a± = 21 tr(A) ± − det(B). On peut alors
caractériser l’allure des solutions en remarquant que a+ et a− sont de signe
opposé si det(A) < 0, de même signe que tr(A) si det(A) > 0, et enfin égales à
tr(A) et 0 si det(A) = 0 (voir la figure 2.8).

Exercice 2.3. On considère l’équation différentielle dans R3 ,


⎛ ⎞
1 −a 1
x′ (t) = Ax(t), où A = ⎝ 1 0 0 ⎠ .
−2 a −2

Déterminer, selon les valeurs du paramètre réel a, si l’une des propriétés suivantes
est vérifiée :
(i) toutes les solutions tendent vers 0 quand t → +∞;
(ii) toutes les solutions sont bornées pour t ≥ 0.

Corrigé de l’exercice 2.3.


Le polynôme caractéristique de A est (λ + 1)(λ2 + a).

• Si a < 0 : les valeurs propres sont −1 et ± −a. Il y a donc une valeur propre
positive, ce qui implique qu’aucune des deux propriétés n’est vraie.
• Si a > 0 : il y a une valeur propre négative, −1, et deux valeurs propres

distinctes imaginaires pures, ±i a; les solutions s’écrivent comme des combi-
√ √
naisons linéaires de e−t , cos( at) et sin( at), elles sont donc toutes bornées
mais ne tendent pas toutes vers 0. La propriété (ii) est vraie mais pas la (i).
• Si a = 0 : il y a une valeur propre négative, −1, et une valeur propre double, 0.
Or le sous-espace propre associé à 0, c’est-à-dire ker A, est de dimension 1 (car
A est clairement de rang 2); les solutions s’écrivent comme des combinaisons
linéaires de e−t , 1 et t, elles ne sont donc pas toutes bornées. Aucunes des deux
propriétés n’est vraie.

En conclusion, (i) n’est jamais vérifiée, et (ii) est vérifiée si et seulement si a > 0.

Exercice 2.4. On étudie l’équation différentielle dans R3


⎛ ⎞
0 1 0
X′ = ⎝ 0 0 1 ⎠ X.
αβ −(α + β + αβ) (α + β + 1)

1. Vérifier que cette équation est équivalente à une équation différentielle scalaire
du troisième ordre.

53
2 Équations différentielles linéaires autonomes

2. Trouver les valeurs propres de la matrice (c’est plus facile qu’on ne pourrait
croire).
3. Pour quelles valeurs de (α, β) la matrice est-elle diagonalisable dans R? (on
montrera que tout sous-espace propre est de dimension 1).
4. Pour les quatre valeurs (±1, ±1) de (α, β), donner la dimension de l’espace des
conditions initiales amenant vers 0 quand t → +∞ (resp. t → −∞), puis la forme
des solutions.
Corrigé de l’exercice 2.4.
1. En posant X = (x, y, z), l’équation s’écrit
x′ = y, x′′ = y ′ = z, x′′′ = z ′ = αβx − (α + β + αβ)x′ + (α + β + 1)x′′ .
2. Le polynôme caractéristique de la matrice est λ3 − (α + β + 1)λ2 + (α + β +
αβ)λ − αβ. Les valeurs propres sont donc 1, α, β (remarquer d’abord que 1 est
valeur propre).
3. Si 1 ̸= α ̸= β ̸= 1 : la matrice est diagonalisable puisque ses valeurs propres
α, β, 1 sont 2 à 2 distinctes.
Si α = β ou α = 1 ou β = 1 : l’une des valeurs propres λ est de multiplicité p
supérieure à 1 (i.e. p = 2 ou 3). Dans ce cas, la matrice est diagonalisable si et
seulement si le sous-espace propre associé ker(A − λI) est de dimension p. Or les
deux premières lignes de A − λI sont toujours linéairement indépendantes puisque
⎛ ⎞
−λ 1 0
A − λI = ⎝ 0 −λ 1⎠ ;
∗ ∗ ∗
ainsi ker(A−λI) est de dimension ≤ 1, et la matrice ne peut pas être diagonalisable
(voir aussi la remarque B.1).
4. Rappelons que l’espace des conditions initiales amenant vers 0 quand t → +∞
(resp. t → −∞) est le sous-espace stable E s (resp. instable E u ), qui est la somme
des sous-espaces caractéristiques correspondant aux valeurs propres de partie réelle
< 0 (resp. > 0). Ici, vu les valeurs de (α, β), on a E s = E−1 , E u = E1 et E s ⊕E u =
R3 .
• Si (α, β) = (1, 1) : E u = E1 = R3 est de dimension 3. Pour toute solution
de l’équation différentielle, toutes les coordonnées tendent vers +∞, mais pas
forcément de façon monotone. En effet, comme le sous-espace propre associé à
1 est de dimension 1, la matrice est semblable à sa forme de Jordan,
⎛ ⎞
110
J = ⎝0 1 1⎠ ,
001

54
2.5 Exercices corrigés

et les solutions sont de la forme X(t) = et (t2 X2 + tX1 + X0 ), avec X0 , X1 ,


X2 ∈ R3 .
• Si (α, β) = (−1, −1) : E s = E−1 est de dimension 2 et E u = E1 est de
dimension 1. Les solutions sont de la forme X(t) = et X0 + e−t (tX2 + X1 ), où
X0 ∈ E u et X1 , X2 ∈ E s .
• Si (α, β) = (−1, 1) ou (−1, 1) : E s = E−1 est de dimension 1 et E u = E1 est
de dimension 2. Les solutions sont de la forme X(t) = e−t X0 + et (tX2 + X1 ),
où X0 ∈ E s et X1 , X2 ∈ E u .

Exercice 2.5. Soit A ∈ Mn (R). Montrer que les deux propriétés suivantes sont
équivalentes :
(i) A est conjuguée à une matrice antisymétrique;
(ii) toutes les solutions x(·) de x′ = Ax sont bornées sur R.

Corrigé de l’exercice 2.5.

(i) ⇒ (ii) Supposons d’abord A antisymétrique. Alors la norme de toute solution


x(t) est constante, et donc bornée, puisque

d
(∥x(t)∥2 ) = x′ (t)T x(t) + x(t)T x′ (t) = x(t)T AT x(t) + x(t)T Ax(t) = 0.
dt
Supposons maintenant que A = P −1 BP , avec B antisymétrique. Alors, pour
toute solution x(t) de x′ = Ax, la fonction y(t) = P x(t) est solution de y ′ = By.
La norme de y(t) est donc constante et ∥x(t)∥ = ∥P −1 y(t)∥ est bornée.
(ii) ⇒ (i) Si toutes les solutions de x′ = Ax sont bornées sur R, alors, vue la forme
générale des solutions, toutes les valeurs propres de A sont de partie réelle nulle
et leurs multiplicités algébrique et géométrique coı̈ncident (en particulier, A
est diagonalisable dans C). Sa forme réduite de Jordan réelle Q−1 AQ, avec
Q ∈ GLn (R), s’écrit sous forme d’une matrice diagonale par bloc J, d’éléments
diagonaux J1 , . . . , Js , où chaque Jj est soit une matrice carrée nulle, soit de la
forme + ,
0 −βj
,
βj 0
±iβj étant valeurs propres de A. Ainsi Q−1 AQ est antisymétrique.
Notez que l’on peut retrouver ce résultat sans faire appel aux formes de Jordan
réelles en procédant comme à l’exercice 2.1, question 3 (b).

Exercice 2.6. Si A, B sont deux matrices de Mn (C) on définit leur commutateur

[A, B] = AB − BA.

55
2 Équations différentielles linéaires autonomes

1. Montrer que, si A, C ∈ Mn (C) commutent (i.e. AC = CA), alors pour tout


t ∈ R les matrices etA et C commutent.
2. Pour A, B ∈ Mn (C) définissons la fonction φ : R → Mn (C) par

φ(t) = etA etB e−t(A+B) .

Montrer que, pour tout t ∈ R,

φ′ (t)φ(t)−1 = etA (A − etB Ae−tB )e−tA .

3. Supposons que A et B commutent avec [A, B].


a) Montrer que
A − etB Ae−tB = t[A, B].
b) En déduire que
φ′ (t)φ(t)−1 = t[A, B].
c) Montrer qu’alors
1
eA eB = eA+B+ 2 [A,B] .

Corrigé de l’exercice 2.6.

1. Puisque A et C commutent, C) commute avec toutes )Nles puissances de A et, pour


N k k
tout t ∈ R et tout entier N , C( k=0 (tA) /k!) = ( k=0 (tA) /k!)C. En prenant
la limite quand N → ∞ dans cette égalité, on obtient CetA = etA C.
2. Calculons φ′ (t) en utilisant (etA )′ = AetA = etA A (vrai puisque A et etA com-
mutent) :

φ′ (t) = etA AetB e−t(A+B) + etA etB Be−t(A+B) − etA etB (A + B)e−t(A+B)
- .
= etA AetB e−t(A+B) − etB Ae−t(A+B)
- .
= etA A − etB Ae−tB e−tA φ(t),

d’où le résultat.
3. a) Soit ψ(t) = A − etB Ae−tB . Alors

ψ ′ (t) = −etB BAe−tB + etB ABe−tB = etB [A, B]e−tB .

Comme [A, B] et B commutent, d’après la question 1, [A, B] et etB commutent


7également et donc ψ ′ (t) = [A, B]. Comme de plus ψ(0) = 0, on obtient ψ(t) =
t ′
0 ψ = t[A, B].
b) D’après la question 2, φ′ (t)φ(t)−1 = etA ψ(t)e−tA = tetA [A, B]e−tA . Comme
[A, B] et etA commutent (question 1), on obtient φ′ (t)φ(t)−1 = t[A, B].

56
2.5 Exercices corrigés

c) D’après la question précédente, φ(t) est solution de l’équation différentielle

φ′ (t) = t[A, B]φ(t),


t2
qui s’intègre en φ(t) = e 2 [A,B] φ(0). Comme φ(0) = I, on obtient, en prenant
t = 1,
1 1
eA eB e−(A+B) = e 2 [A,B] ⇒ eA eB = e(A+B) e 2 [A,B] .
1 1
Mais A + B et [A, B] commutent, donc e(A+B) e 2 [A,B] = eA+B+ 2 [A,B] , ce qui
donne le résultat.

Exercice 2.7 (Équation de Riccati).


Soient X, Y ∈ C k (I, Mn (R)) solutions du système
! ′
X = AX + BY,
A, B, C, D ∈ Mn (R) .
Y ′ = CX + DY,

1. Supposons Y (t) inversible sur un intervalle J ⊂ I. Trouver une équation


différentielle (non linéaire) satisfaite par U = XY −1 sur J.
2. Comment trouver les solutions de l’équation non linéaire :

V ′ = E1 + E2 V + V E3 V, (2.9)

où E1 , E2 et E3 sont des matrices constantes?

Corrigé de l’exercice 2.7.

1. La fonction U (t) est bien définie sur J puisque Y (t) est inversible, et y est de
plus dérivable. Sa dérivée est

U ′ (t) = X ′ (t)Y −1 (t) + X(t)(Y −1 )′ (t).

Or (Y −1 )′ = −Y −1 Y ′ Y −1 . En effet, Y −1 (t) = Φ(Y (t)), où Φ est l’application


différentiable Y (→ Y −1 définie sur GLn (R), dont la différentielle est DΦ(Y ) ·
H = −Y −1 HY −1 (voir la section 1.1); on obtient alors par composition (Y −1 )′ =
DΦ(Y ) · Y ′ , donc le résultat (on peut aussi obtenir cette expression en dérivant
par rapport à t l’égalité Y Y −1 = I). Insérons cette expression dans celle de U ′ :

U ′ = X ′ Y −1 − XY −1 Y ′ Y −1 = AU + B − U CU − U D.

2. Identifions d’abord les coefficients avec ceux de l’équation trouvée à la question


précédente : A = E2 , B = E1 , C = −E3 et D = 0. Ainsi, si (X(·), Y (·)) est
solution du système

57
2 Équations différentielles linéaires autonomes

!
X ′ = E2 X + E1 Y,
Y ′ = −E3 X,
et si Y (t) est inversible sur un intervalle J, alors V = XY −1 est solution de
l’équation (2.9). Pour une matrice V0 donnée, choisissons par exemple la solution
X(·), Y (·) telle que
X(0) = V0 , Y (0) = I.
Par continuité, la fonction Y (·) ainsi obtenue sera inversible sur un voisinage J de
0 et V = XY −1 sera la solution de l’équation (2.9) sur J vérifiant V (0) = V0 .

58
4
Théorie générale des équations différentielles

Dans ce chapitre, nous présentons la théorie générale des équations différentielles


autonomes, qui sont de la forme
- .
x′ (t) = f x(t) .

Dans cette formulation, les données sont :

• un ensemble ouvert Ω ⊂ Rn ;
• une application continue f : Ω → Rn (les résultats que nous allons présenter
restent valables quand on remplace Rn par n’importe quel espace vectoriel de
dimension finie, par exemple Cn ou Mn (R)).

Une telle application f : Ω ⊂ Rn → Rn est appelée un champ de vecteurs : à tout


point x dans Ω, elle associe un vecteur f (x) dans Rn .
Une solution de l’équation différentielle est une fonction dérivable x(·) : I → Rn
telle que
• I est un intervalle de R;
• x(·) prend ses valeurs dans- Ω, .i.e. x(I) ⊂ Ω;
• pour tout t ∈ I, x′ (t) = f x(t) .
Une solution est donc en fait un couple (x(·), I) : l’intervalle de définition I fait
partie des inconnues. Nous verrons comment caractériser cet intervalle dans la
section 4.2.
Notons enfin que, comme l’application f est supposée continue, toute solution x(·)
de l’équation différentielle est automatiquement de classe C 1 .

Remarque 4.1. Il peut sembler réducteur de se restreindre aux équations différen-


tielles autonomes, alors que le cadre le plus général est celui des équations de la
forme
4 Théorie générale des équations différentielles

- .
x′ (t) = f t, x(t) , t ∈ J ⊂ R, (4.1)

qui dépendent explicitement du temps, et qui sont dites non-autonomes. Ce n’est


en fait pas vraiment une restriction : toute équation non-autonome dans Rn peut
être vue comme une équation autonome dans Rn+1 . En effet, définissons un champ
de vecteur F : J × Ω ⊂ Rn+1 → Rn+1 par F (t, x) = (1, f (t, x)). Il est alors clair
que l’équation non-autonome (4.1) est équivalente à l’équation autonome
+ ,′ + ,
t 1 . - .
= - = F t, x(t) .
x f t, x

L’inconvénient de cette approche est que le temps t est considéré avec le même
statut que l’état x, on suppose donc pour f la même régularité par rapport à t que
par rapport à x; or ce n’est généralement pas nécessaire (voir remarque 4.2 plus
loin).

4.1 Existence et unicité

Nous avons vu au chapitre 3 qu’une équation différentielle linéaire admet toujours


une unique solution pour une condition initiale donnée. Par ailleurs cette solution
est définie globalement, c’est-à-dire qu’elle est définie tant que l’équation elle-même
est définie. Dans le cas non linéaire, l’unicité sera (sous certaines hypothèses) encore
de nature globale mais il n’en sera pas de même de l’existence, qui est locale.

Théorème 4.1 (de Cauchy-Lipschitz). Supposons f de classe C 1 sur Ω. Alors,


pour tout point x0 ∈ Ω et tout t0 ∈ R, il existe δ > 0 tel que le système
! ′ - .
x (t) = f x(t) ,
(4.2)
x(t0 ) = x0 ,

possède une unique solution définie sur ]t0 − δ, t0 + δ[.

On appelle problème de Cauchy le système (4.2), formé d’une équation différentielle


et d’une condition initiale donnée.
*Démonstration. La démonstration de ce théorème repose sur le théorème du point fixe de
Picard. Fixons un réel α > 0 tel que la boule fermée B(x0 , α) soit contenue dans Ω. Puisque f
est C 1 , il existe des constantes M et K > 0 telles que, sur B(x0 , α), f est bornée en norme par
M et est K-lipschitzienne (grâce à la proposition 1.2). Posons en outre
# $
α 1
δ = min , .
M 2K

82
4.1 Existence et unicité

◃ Définissons E comme étant l’ensemble des fonctions x(·) continues sur ]t0 − δ, t0 + δ[ à valeurs
dans B(x0 , α) et telles que x(t0 ) = x0 . Muni de la norme ∥ · ∥C 0 , c’est un espace complet.
L’application : ) .
' ( ' (
Φ x(·) = x0 + f x(s) ds,
t0

est une application de E dans lui même : en effet, pour |t − t0 | ≤ δ,


) t
' ( ' (
∥Φ x(t) − x0 ∥ = ∥ f x(s) ds∥ ≤ δM ≤ α.
t0

1
Cette application est en outre 2
-lipschitzienne puisque, pour t ∈]t0 − δ, t0 + δ[,

' ( ' ( !) t ' ( ' ( "


∥Φ x(·) − Φ y(·) ∥C 0 ≤ sup ∥f x(s) − f y(s) ∥ ds
|t−t0 |<δ t0
!) t "
≤ sup K∥x(s) − y(s)∥ ds
|t−t0 |<δ t0
1
≤ δK∥x(·) − y(·)∥C 0 ≤ ∥x(·) − y(·)∥C 0 .
2
Le théorème du point fixe de Picard s’applique et montre que l’application Φ admet un unique
point fixe dans E, c’est-à-dire que le système (4.2) admet une unique solution x(·) :]t0 −δ, t0 +δ[→
Rn à valeurs dans la boule B(x0 , α).
◃ Il ne reste plus qu’à montrer que toute solution x(·) : ]t0 − δ, t0 + δ[ → Rn du système (4.2) est
à valeurs dans la boule B(x0 , α). Par l’absurde, supposons qu’une solution x(·) de (4.2) sorte de
B(x0 , α) en temps inférieur à δ, et notons t1 le premier instant où x(·) sort de la boule ouverte
B(x0 , α). D’après le théorème des accroissements finis,

sup ∥x′ (t)∥ |t1 − t0 | < M δ,


' (
α = ∥x(t1 ) − x0 ∥ ≤
t∈[t0 ,t1 ]

ce qui contredit δ ≤ α/M . Toute solution de (4.2) sur ]t0 − δ, t0 + δ[ est donc à valeurs dans
B(x0 , α), ce qui montre le théorème. #

Hypothèses plus faibles sur f

Nous avons énoncé le théorème de Cauchy-Lipschitz avec l’hypothèse que f est C 1


sur Ω car elle est simple à utiliser et fréquemment satisfaite dans les applications.
Remarquons cependant que, dans la preuve, nous avons seulement besoin que
f soit localement lipschitzienne, c’est-à-dire que pour tout x0 ∈ Ω, il existe un
voisinage U0 de x0 dans Ω et une constante K tels que f soit K-lipschitzienne
sur U0 . La conclusion du théorème de Cauchy-Lipschitz reste donc valable sous
l’hypothèse que f est localement lipschitzienne. En particulier, elle est valable si f
est lipschitzienne sur Ω (on a même dans ce cas un résultat d’existence et d’unicité
globales, voir l’exercice 1.5).
Que se passe-t-il si on affaiblit encore les hypothèses et que l’on suppose f seule-
ment continue? Un théorème de Peano affirme que, dans ce cas, le système (4.2)

83
4 Théorie générale des équations différentielles

admet toujours une solution. En revanche, l’unicité n’est pas garantie. Par exemple
le problème de Cauchy
! ′ 4
y (t) = |y(t)|,
y ∈ R,
y(0) = 0,

admet comme solutions les fonctions y1 (t) = 0 et y2 (t) = t|t| 4 . Il en admet même
une infinité puisque, pour tout a ≥ 0, la fonction y a (·) définie par

y a (t) = 0 pour t ≤ a, y a (t) = y2 (t − a) pour t > a,

est également solution.

Remarque 4.2. D’après la remarque faite en introduction, le théorème de Cauchy-


Lipschitz est également valable pour une équation non-autonome x′ = f (t, x) : si
f est C 1 sur J × Ω, alors, pour (t0 , x0 ) ∈ J × Ω, l’équation a une unique solution
définie sur ]t0 − δ, t0 + δ[ et valant x0 en t0 .
On peut dans ce cas affaiblir nettement les hypothèses sur f : en effet, la conclusion
du théorème restera valable si on suppose seulement que f est continue par rapport
à t et localement lipschitzienne en la seconde variable x, c’est-à-dire que, pour tout
(t0 , x0 ) ∈ J × Ω, il existe un voisinage J0 de t0 dans J, un voisinage U0 de x0 dans
Ω et une constante K tels que, pour tout t ∈ J0 , l’application f (t, ·) est K-
lipschitzienne sur U0 . La preuve est une simple adaptation de celle que nous avons
donnée ici. On verra même dans le théorème 6.1 que la continuité par rapport à t
n’est pas toujours nécessaire.

4.2 Solutions maximales et durée de vie

Considérons l’équation différentielle


- .
x′ (t) = f x(t) , (4.3)

où le champ de vecteurs f : Ω ⊂ Rn → Rn est supposé de classe C 1 .


Nous avons défini au début de ce chapitre une solution de cette équation comme
une fonction x(·) définie sur un certain intervalle I de R. Cette section est con-
sacrée à l’étude de cet intervalle de définition I. Nous rencontrerons deux types de
problèmes.

• Étant donné un couple (t0 , x0 ) ∈ R × Ω, il existe une infinité de solutions


de (4.3) satisfaisant la condition initiale x(t0 ) = x0 : par exemple si x(·) est
une solution définie sur l’intervalle I, avec t0 ∈ I, toute restriction de x(·) à
un sous-intervalle de I contenant t0 est une solution différente. Pour éviter de

84
4.2 Solutions maximales et durée de vie

considérer comme solutions différentes la même fonction prise sur des sous-
intervalles, nous chercherons à associer à une fonction un unique intervalle, le
plus grand, sur lequel elle est solution : c’est la notion de solution maximale.
• Si on choisit l’intervalle I le plus grand possible, peut-on le prendre égal à R
tout entier? Si ce n’est pas le cas, que se passe-t-il pour la solution? et quelle
est la forme de I? C’est le problème de la durée de vie des solutions.

Solutions maximales

Définition 4.1. On dit qu’une solution x(·) : I → Ω de (4.3) est une solution
maximale si elle n’a pas de prolongement à un intervalle strictement plus grand,
c’est-à-dire si elle n’est pas la restriction à I d’une solution définie sur un intervalle
I ′ " I.

Nous allons montrer qu’il existe une unique solution maximale de l’équation (4.3)
satisfaisant une condition initiale donnée. Nous avons besoin pour cela d’un
résultat d’unicité globale.

Proposition 4.1. Si x(·) et y(·) : I → Ω sont deux solutions de (4.3) définies sur
le même intervalle I qui coı̈ncident en un point t0 ∈ I, alors elles sont égales.
Démonstration. Considérons d’abord le supremum des instants où les solutions coı̈ncident :

t+ = sup{t ∈ I : t > t0 , x(s) = y(s) pour tout s ∈ [t0 , t]}.

Par l’absurde, supposons t+ < sup I. Les solutions étant continues, on a x(t+ ) = y(t+ ). En appli-
quant le théorème de Cauchy-Lipschitz au couple (t+ , x(t+ )), on obtient que les deux solutions
sont encore égales sur un intervalle [t+ , t+ + δ[, ce qui contredit la définition même de t+ . Donc
t+ = sup I. Le même argument vaut pour l’infimum des instants où les deux solutions coı̈ncident.
#

Théorème 4.2. Pour toute donnée initiale (t0 , x0 ) ∈ R × Ω, il existe une unique
solution maximale x(·) : ]t− , t+ [ → Ω de (4.3) satisfaisant x(t0 ) = x0 . Tout autre
solution satisfaisant cette condition initiale est une restriction de x(·) à un sous-
intervalle de ]t− , t+ [.
Démonstration. Soit I la réunion de tous les intervalles contenant t0 sur lesquels le système
* ′ ' (
x (t) = f x(t) ,
(4.2)
x(t0 ) = x0 ,

admet une solution. D’après le théorème de Cauchy-Lipschitz, cette réunion est un intervalle
ouvert, c’est-à-dire de la forme I = ]t− , t+ [. Pour tout t ∈ ]t− , t+ [, définissons x(t) comme la
valeur en t de n’importe quelle solution de (4.2) définie sur [t0 , t]. La proposition précédente
montre que la fonction x(·) : ]t− , t+ [ → Ω ainsi définie est bien solution de (4.2). De plus, par
construction, c’est un prolongement de toute autre solution. #

85
4 Théorie générale des équations différentielles

Remarque 4.3. Insistons sur le fait que l’intervalle de définition d’une solution
maxi-male est toujours un intervalle ouvert ]t− , t+ [. Les bornes t+ et t− de
l’intervalle maximal sont des fonctions de (t0 , x0 ) qui prennent leurs valeurs dans
R : t+ peut être soit un réel, soit +∞, alors que t− peut être soit un réel, soit −∞.
Dans tous les cas, on a t− < t0 < t+ .

Durée de vie

On s’intéresse maintenant à l’intervalle de définition ]t− , t+ [ d’une solution maxi-


male x(·) de (4.3). Cet intervalle peut être différent de R, même pour les équations
les plus simples.

Exemple 4.1. Considérons l’équation y ′ (t) = y 2 (t) dans R, dont la solution valant
y0 en t0 est
y0
y(t) = .
(t − t0 )y0 + 1
1
L’intervalle maximal de définition de cette solution est ]t0 − y0 , +∞[ si y0 > 0,
] − ∞, t0 − y10 [ si y0 < 0, et R tout entier si y0 = 0.

Exemple 4.2. Considérons l’équation y ′ (t) = y(t) dans ]0, 1[, dont la solution valant
y0 ∈ ]0, 1[ en t0 est
y(t) = et−t0 y0 .
L’intervalle maximal de définition de cette solution est ] − ∞, t0 − log y0 [.

L’idée générale est que, si une solution ne peut être prolongée sur tout R, c’est
qu’elle s’approche en temps fini du bord de l’ensemble Ω. Formalisons cette idée
pour la borne supérieure t+ de l’intervalle (les résultats pour t− sont similaires).

Proposition 4.2. Soit x(·) : ]t− , t+ [ → Ω une solution maximale de (4.3). Alors,
si t+ < +∞, x(t) sort de tout compact contenu dans Ω, c’est-à-dire que pour tout
compact K ⊂ Ω, il existe un temps tK ∈]t− , t+ [ tel que x(tK ) ̸∈ K.
*Démonstration. Soit K un compact contenu dans Ω. Supposons par l’absurde que x(]t− , t+ [)
soit inclus dans K. Le champ f étant continu sur Ω, sa norme admet une borne M ≥ 0 sur K;
en particulier,
∥f (x(t))∥ ≤ M ∀t ∈]t− , t+ [.
Ainsi pour toute paire t, t′ ∈]t− , t+ [, on a :
) t′
∥x(t′ ) − x(t)∥ = ∥ f (x(s))ds∥ ≤ M |t′ − t|,
t

ce qui implique par le critère de Cauchy que x(t) a une limite x+ quand t → t+ . Appliquons alors
le théorème 4.1 en (x+ , t+ ) : on obtient une solution x̄(·) de l’équation différentielle définie sur
un intervalle ]t+ − δ, t+ + δ[ et telle que x̄(t+ ) = x+ . Par conséquent la fonction y(·) définie par :

86
4.2 Solutions maximales et durée de vie

*
y(t) = x(t) si t ∈]t− , t+ [ ,
y(t) = x̄(t) si t ∈ [t+ , t+ + δ[ ,
est continue et solution de l’équation différentielle. C’est donc un prolongement de x(·), ce qui
contredit le fait que x(·) soit une solution maximale. #

On rencontrera le cas t+ < +∞ essentiellement dans les deux situations suivantes :


• quand Ω = Rn et limt→t+ ∥x(t)∥ = +∞ : c’est le phénomène d’explosion en
temps fini (voir l’exemple 4.1 ci-dessus);
• quand le bord de Ω est borné et x(t) converge vers un point du bord quand
t → t+ (voir l’exemple 4.2).
Inversement, retenons une condition suffisante pour que ]t− , t+ [ = R.
Corollaire 4.1. Si toutes les valeurs d’une solution maximale x(·) sont contenues
dans un compact inclus dans Ω, alors x(·) est définie sur tout R.

Champs de vecteurs complets


Définition 4.2. On dit que le champ de vecteurs f : Ω ⊂ Rn → Rn est complet
(ou que l’équation associée est complète) si toute solution maximale est définie sur
R tout entier.
D’après le corollaire précédent, si toutes les solutions maximales sont contenues
dans des compacts, le champ est complet. On a vu aussi au théorème 2.1 que tous
les champs linéaires f (x) = Ax sur Rn sont complets. C’est en fait le cas de tous
les champs définis sur Rn admettant une majoration affine.
Proposition 4.3. Tout champ de vecteurs f : Rn → Rn admettant une majoration
linéaire
∥f (x)∥ ≤ α∥x∥ + β,
avec α, β ≥ 0, est complet (c’est en particulier le cas des champs bornés).
Cette proposition est une conséquence d’un résultat très utile, le lemme de Gron-
wall, dont nous verrons par la suite plusieurs applications (nous en avons déjà vu
une, voir exercice 3.3).
Lemme 4.1 (lemme de Gronwall). Soient u, v deux fonctions continues de
[t0 , t1 ] → R à valeurs positives telles que, pour tout t ∈ [t0 , t1 ],
8 t
u(t) ≤ C + u(s)v(s)ds,
t0

où C ≥ 0 est une constante. Alors, pour tout t ∈ [t0 , t1 ],


8
- t .
u(t) ≤ C exp v(s)ds .
t0

87
4 Théorie générale des équations différentielles

+t
Démonstration. Posons V (t) = t0
u(s)v(s)ds, qui est une fonction C 1 . Sa dérivée satisfait

V ′ (t) = u(t)v(t) ≤ Cv(t) + V (t)v(t),


+t
d’où V ′ − vV ≤ Cv. En multipliant par exp(− t0 v(s)ds), on obtient
! ' − ! t v(s)ds (′
' − t v(s)ds (′
V (t)e t0 ≤ − Ce t0 .

Intégrons entre t0 et t :
! ! !t
− tt v(s)ds − tt v(s)ds t0 v(s)ds
V (t)e 0 ≤ C − Ce 0 ⇒ V (t) ≤ Ce − C.

Comme u(t) ≤ C + V (t), on obtient la conclusion. #


On est maintenant en mesure de prouver la proposition.


Démonstration de la proposition 4.3. Soit f : Rn → Rn un champ de vecteur admettant une
majoration linéaire. Supposons par l’absurde qu’il n’est pas complet. Il existe donc une solution
maximale x(·) dont l’intervalle de définition ]t− , t+ [ n’est pas égal à R. Supposons par exemple
t+ < ∞; d’après la proposition 4.2, on a alors ∥x(t)∥ → ∞ quand t → t+ .
Fixons t0 ∈ ]t− , t+ [. Pour tout t ∈ [t0 , t+ [, on a :
) t
x(t) = x(t0 ) + f (x(s))ds.
t0

En utilisant la majoration de f , on obtient


) t ) t
∥x(t)∥ ≤ ∥x(t0 )∥ + (α∥x(s)∥ + β)ds ≤ ∥x(t0 )∥ + β(t+ − t0 ) + α∥x(s)∥ds,
t0 t0

et donc, en appliquant le lemme de Gronwall, ∥x(t)∥ ≤ (∥x(t0 )∥ + β(t+ − t0 ))eα(t+ −t0 ) . Ainsi
∥x(t)∥ est borné sur [t0 , t+ [, ce qui contredit le fait que ∥x(t)∥ → ∞ quand t → t+ . #

4.3 Flots, portraits de phase

Considérons à nouveau une équation différentielle autonome


- .
x′ (t) = f x(t) , (4.3)

où le champ de vecteurs f : Ω ⊂ Rn → Rn est supposé de classe C 1 . Une des


spécificités de cette équation est qu’elle ne dépend pas explicitement du temps
(d’où le qualificatif autonome). En particulier, les solutions sont invariantes par
translation du temps : si x(·) est solution, x(t0 + ·) aussi.

Proposition 4.4. Soit x(·) : ]t− , t+ [ → Ω une solution maximale de (4.3) et t0 ∈


R. Alors x̄ : t (→ x(t + t0 ), définie sur ]t− − t0 , t+ − t0 [, est également une solution
maximale de (4.3).

88
4.3 Flots, portraits de phase

Ainsi le temps n’a pas de rôle intrinsèque ici et on pourra se limiter aux données
initiales en t = 0. Pour un point x ∈ Ω, notons φ(·, x) la solution maximale de (4.3)
valant x en t = 0 et Ix = ]t− , t+ [ son intervalle de définition. Autrement dit, φ(·, x)
est la solution du système
9∂ - .
∂t φ(t, x) = f φ(t, x) ,
∀t ∈ Ix .
φ(0, x) = x,

Définition 4.3. L’application (t, x) (→ φ(t, x) est appelée le flot du champ de


vecteurs f (ou de l’équation x′ = f (x)).

Par définition, l’application partielle à x fixé, t (→ φ(t, x), est une solution maxi-
male de l’équation. Pour une étude qualitative de l’équation différentielle, il est
important d’étudier plutôt l’autre application partielle, φt : x (→ φ(t, x), pour t
fixé. De façon imagée, φt (x) est la position à l’instant t d’un corps transporté par
l’équation différentielle qui se trouvait à la position x en t = 0.

Exemple 4.3. Si f est linéaire, i.e. f (x) = Ax, A ∈ Mn (R), le flot est donné par
l’exponentielle de A :

φt (x) = etA x, ∀(t, x) ∈ R × Rn .

Ainsi le flot est une généralisation de l’exponentielle de matrice. Il possède des


propriétés similaires.

Proposition 4.5 (formule du flot). Si t1 ∈ Ix et t2 ∈ Iφt1 (x) , alors t1 + t2 ∈ Ix


et
φt1 +t2 (x) = φt2 ◦ φt1 (x).
En particulier, si t ∈ Ix ,
φ−t ◦ φt (x) = x
Démonstration. D’après la proposition sur l’invariance par translation du temps, la fonction
t .→ φt1'+t (x) est
( la solution maximale valant φt1 (x) en t = 0, ce qui est la définition de la fonction
t .→ φt φt1 (x) . #

Remarque 4.4. La formule du flot peut aussi se lire de la façon suivante : si x(·)
est une solution de (4.3), alors
- .
x(t) = φt−t0 x(t0 )

pour tous t0 et t dans l’intervalle de définition de x(·).

89
4 Théorie générale des équations différentielles

Le domaine de définition du flot est l’ensemble

D = {(t, x) ∈ R × Ω : t ∈ Ix }.

Pour obtenir des propriétés intéressantes sur le flot (continuité, différentiabilité),


il est nécessaire de montrer d’abord que son domaine de définition D est un ouvert
de R × Ω. Nous le verrons dans la section suivante.
Il y a cependant déjà un cas où cela est évident : si f est un champ de vecteurs
complet sur Ω, c’est-à-dire si Ix = R pour tout x ∈ Ω, le domaine de définition du
flot est D = R × Ω. On peut alors réécrire les propriétés du flot de façon globale :
pour tous t, s ∈ R,
1. φt ◦ φs = φt+s ;
2. φ−t ◦ φt = id, c’est-à-dire (φt )−1 = φ−t ;
3. φ0 = id;

4. ∂t φt = f ◦ φt .
Les trois premières propriétés montrent en particulier que φt obéit à une loi de
groupe.

Orbites et portraits de phase

Définition 4.4. On appelle orbite d’un point x0 ∈ Ω (ou trajectoire passant par
x0 ) l’ensemble
Ox0 = {φt (x0 ) : t ∈ Ix0 }.
Autrement dit, l’orbite de x0 est la courbe tracée sur Rn par la solution maximale
de l’équation (4.3) passant par x0 en t = 0.

La propriété d’invariance par translation du temps implique que, pour tout point
x ∈ Ox0 , on a Ox = Ox0 . En effet, dans ce cas, il existe un instant t0 tel que
x = φt0 (x0 ). Tout point y de Ox s’écrit alors y = φt (x) = φt+t0 (x0 ), c’est-à-dire
y ∈ Ox0 . En particulier, ceci implique que deux orbites distinctes ne peuvent pas
se croiser. Chaque point de Ω appartient donc à une et une seule orbite.
La partition de Ω en orbites s’appelle le portrait de phase du champ de vecteurs.
On y trouve trois sortes d’orbites :

• des points, i.e. Ox0 = {x0 } : un tel point vérifie nécessairement f (x0 ) = 0.
C’est ce que l’on appelle un point d’équilibre (voir le chapitre 5).
• des courbes fermées : il existe alors un point x dans l’orbite et un temps T > 0
tels que φT (x) = x. Ceci implique φt+T (x) = φt (x) pour tout t ∈ R, c’est-à-
dire que la solution maximale φ(·, x) est T -périodique. On parlera dans ce cas
d’orbite périodique.

90
4.4 Linéarisation et perturbation du flot

• des courbes ouvertes : il n’y a alors aucun point double, i.e. si t ̸= s, alors
φt (x) ̸= φs (x).

On porte habituellement sur le dessin d’un portrait de phase le sens de parcours


des orbites.

Exemple 4.4. Considérons le champ de vecteurs linéaire f (x) = Ax dans R2 , et


supposons que la matrice A ∈ M2 (R) a deux valeurs propres réelles et distinctes
λ1 < λ2 . L’étude réalisée dans la section 2.4 permet de déterminer la forme du
portrait de phase en fonction de λ1 et λ2 . Nous avons représenté les différentes
possibilités dans la figure 4.1, où nous avons noté E1 et E2 les sous-espaces propres
associés à λ1 et λ2 .

x2 x2
E1 E2 E1 E2
x2
E1 E2

x1 x1 x1

λ 1 < 0 < λ2

λ 1 < λ2 < 0 0 < λ1 < λ2

x2 x2 E2 = ker A
E1 E2 = ker A E1

x1 x1

0 = λ1 < λ2
λ 1 < λ2 = 0

Fig. 4.1. Exemples de portraits de phase pour f (x) = Ax dans R2 .

4.4 Linéarisation et perturbation du flot

Dans la pratique, on n’a quasiment jamais une connaissance exacte des conditions
initiales (ni de l’équation elle-même, en fait). Il est donc primordial de savoir

91
4 Théorie générale des équations différentielles

ce qui se passe pour la solution d’une équation différentielle lorsque la condition


initiale est perturbée (ou quand l’équation elle-même est perturbée) : comment
varie l’intervalle de définition et les valeurs de la solution, peut-on donner un ordre
de grandeur de ces variations,. . . ? Les réponses à ces questions sont contenues
dans le théorème ci-dessous : donnons d’abord le théorème et sa preuve, nous
expliquerons ensuite pourquoi il permet de répondre aux questions précédentes.
Rappelons que nous considérons une équation différentielle autonome
- .
x′ (t) = f x(t) , (4.3)

où le champ de vecteurs f : Ω ⊂ Rn → Rn est supposé de classe C 1 .

Théorème 4.3. Soit x̄(·) une solution de l’équation (4.3) définie sur un intervalle
[0, T ]. Il existe alors un voisinage V ⊂ Ω de v = x̄(0) tel que, pour tout v ∈
V, l’équation (4.3) admet une unique solution xv (·) définie sur [0, T ] et vérifiant
xv (0) = v.
De plus, l’application v (→ xv (·) est de classe C 1 sur V et sa différentielle en v est
l’application qui à δv ∈ Rn associe la solution de
! ′ - .
y (t) = Df x̄(t) · y(t),
t ∈ [0, T ].
y(0) = δv,

Remarque 4.5. La solution xv (·) est simplement la restriction de la solution maxi-


male φ(·, v) à l’intervalle [0, T ].
*Démonstration. Soit F = C 1 ([0, T ], Ω) l’ensemble des fonctions x(·) : [0, T ] → Ω de classe
C 1 ; c’est un ouvert de C 1 ([0, T ], Rn ), qui, muni de la norme C 1 , est un espace de Banach (voir
section 1.5). Considérons l’application Φ : F × Ω → C 1 ([0, T ], Rn ) définie par
) .
' (
Φ x(·), v = x(·) − v − f (x(s))ds,
0

1 1
qui est une application C' puisque ( f est de classe C . Nous voulons appliquer le théorème des
' fonc-(
tions implicites à Φ en x̄(·), v . Pour cela, nous devons vérifier que l’application Dx(·) Φ x̄(·), v
est inversible dans C 1 ([0, T ], Rn ). Calculons cette différentielle :
) .
' ( ' (
Dx(·) Φ x̄(·), v · δx(·) = δx(·) − Df x̄(s) · δx(s) ds. (4.4)
0

Elle est inversible si, y(·) ∈ C 1 ([0, T ], Rn ) étant


' donné, on peut toujours trouver une unique
fonction δx(·) ∈ C 1 ([0, T ], Rn ) telle que Dx(·) Φ x̄(·), v · δx(·) = y(·), soit
(

) .
' (
δx(·) − Df x̄(s) · δx(s) ds = y(·).
0

En dérivant par rapport à t (y est C 1 ), on voit qu’il s’agit de résoudre :

(δx)′ (t) = Df x̄(t) · δx(t) + y ′ (t), ∀t ∈ ]0, T [,


* ' (
(4.5)
δx(0) = y(0).

92
4.4 Linéarisation et perturbation du flot

Or l’équation différentielle ci-dessus est affine. Nous savons donc que (4.5) admet toujours une
unique solution sur ]0, T [ qui est de plus dans C 1 ([0, T ], Rn ). Le théorème des fonctions implicites
nous dit alors qu’il existe un voisinage V de v dans Ω et une application ψ : V → F tels que, pour
tout v ∈ V, ' (
Φ ψ(v), v = 0,
c’est-à-dire que ψ(v) est solution de l’équation (4.3) et vérifie xv (0) = v. Ceci montre la première
partie du théorème.
◃ Toujours d’après le théorème des fonctions implicites, l’application ψ est de classe C 1 et sa
différentielle en v est , ' (-−1 ' (
− Dx(·) Φ x̄(·), v ◦ Dv Φ x̄(·), v .
' (
Comme' Dv Φ(x̄(·), v · δv = −δv, on obtient, en utilisant à nouveau l’expression (4.4) de
Dx(·) Φ x̄(·), v , que Dψ(v) · δv est la solution de (4.5) avec y(·) ≡ δv, c’est-à-dire que Dψ(v) · δv
est la solution de
(δx)′ (t) = Df x̄(t) · δx(t),
* ' (

δx(0) = δv,
ce qui montre la seconde partie du théorème. #

Conséquences et signification du théorème 4.3


a. Domaine de définition du flot
La première conséquence est que, pour toute condition initiale v dans le voisinage
V de x̄(0), la solution maximale φ(·, v) est définie sur tout l’intervalle [0, T ], i.e.
[0, T ] ⊂ Iv . Autrement dit, de façon informelle, si une solution est définie sur un
temps « long », les solutions voisines sont également définies sur un temps « long ».
Ceci se traduit par une propriété du domaine de définition du flot.
Corollaire 4.2. Le flot φ est défini sur un ouvert D de R × Ω. En particulier, si
(t, v) ∈ D, alors l’application φt est définie sur un voisinage de v (voir figure 4.2).

v xv (·)
φt(v) = xv (t)

v x(·) φt(v) = x(t)

V φt
φt(V)

Fig. 4.2. Domaine de définition du flot φt .

Cette propriété est très importante pour l’étude du flot et de sa dépendance par
rapport aux conditions initiales : en effet, φ et φt étant définies sur des ouverts, il
est maintenant possible d’étudier leur continuité et leur différentiabilité.

93
4 Théorie générale des équations différentielles

Démonstration. Rappelons que le domaine de définition du flot est

D = {(t, v) ∈ R × Ω : t ∈ Iv }.

Soit (t, v) ∈ D. Puisque l’intervalle maximal Iv est ouvert (théorème 4.2), la solution maximale
φ(·, v) est définie sur un intervalle [0, T ] ⊂ Iv contenant t. Le théorème 4.3 implique alors que,
pour tout v dans un voisinage V de v, on a encore [0, T ] ⊂ Iv , c’est-à-dire que l’ensemble ]0, T [×V,
qui est un voisinage de (t, v) dans R × Ω, est inclus dans D. #

b. Dépendance continue

L’application v (→ xv (·) définie dans le théorème 4.3 est l’application qui à une con-
dition initiale dans V associe la solution correspondante de l’équation différentielle
sur [0, T ]. Cette application étant C 1 , elle est en particulier continue :
les solutions de l’équation différentielle (4.3) dépendent de façon continue de leur
condition initiale.
C’est une propriété essentielle : en effet elle signifie, grosso modo, que la solution
calculée à partir d’une approximation de la condition initiale est une approximation
de la vraie solution. Ceci justifie l’utilisation des équations différentielles dans
la modélisation de phénomènes réels, où l’on ne dispose que d’une connaissance
approximative des données, et de méthodes numériques pour les résoudre.
Notons que la dépendance continue peut également s’obtenir à partir d’une estima-
tion de la divergence des solutions, qui résulte du lemme de Gronwall (lemme 4.1).

Lemme 4.2. Si, pour tout x ∈ Ω, la norme de Df (x) est majorée par une con-
stante K > 0, alors pour tout couple v, v dans Ω,

∥φt (v) − φt (v)∥ ≤ eKt ∥v − v∥, ∀t ∈ Iv ∩ Iv .

*Démonstration. D’après les hypothèses, f est lipschitzienne de rapport K sur Ω. On peut


donc écrire :
. ) t .
. .
∥φt (v) − φt (v)∥ = .
. v − v + (f (φ s (v)) − f (φ s (v)))ds .
.
0
) t
≤ ∥v − v∥ + K ∥φs (v) − φs (v)∥ ds.
0

On conclut alors en appliquant le lemme de Gronwall. #


c. Équation linéarisée

La dernière partie du théorème 4.3 affirme que les valeurs de la différentielle de


l’application ψ : v (→ xv (·) sont les solutions d’une certaine équation linéaire. Cette
équation linéaire joue un rôle important dans la suite.

94
4.4 Linéarisation et perturbation du flot

Définition 4.5. Soit x̄(·) : [0, T ] → Ω ⊂ Rn une solution de (4.3). L’équation


linéaire dans Rn - .
y ′ (t) = Df x̄(t) · y(t), t ∈ [0, T ],
est appelée équation linéarisée de (4.3) autour de x̄(·).
Pour tout δv ∈ Rn , Dψ(x̄(0)) · δv est la solution de l’équation linéarisée autour
de x̄(·) valant δv en t = 0. En notant R(t, s) la résolvante de l’équation linéarisée
autour de x̄(·), on obtient, pour tout t ∈ [0, T ],
- .
Dψ(x̄(0)) · δv (t) = R(t, 0)δv.

Intéressons-nous maintenant à l’application φt . Fixons un point v de Ω et un


instant t ∈ Iv . D’après le théorème 4.3, l’application φt est définie et de classe
C 1 sur un voisinage V de v dans Ω. Avec les notations ci-dessus, on a clairement
φt (v) = xv (t) = (ψ(v))(t) et donc
- .
Dφt (v) · δv = Dψ(v) · δv (t).

On en déduit le résultat suivant.


Corollaire 4.3. Soient v ∈ Ω et t ∈ Iv . L’application φt est de classe C 1 sur un
voisinage V de v et
Dφt (v) = R(t, 0),
où R est la résolvante de l’équation linéarisée
- .
y ′ (s) = Df φs (v) · y(s), s ∈ [0, t].

On peut donner une explication plus intuitive du rôle de l’équation linéarisée. On

φt(v + δv)
v + δv xv+δv (·)
δx(·) Dφt(v) · δv + o(δv)
δv
v x(·) φt(v)

V
φt(V)

Fig. 4.3. Perturbation du flot.

choisit une solution x̄(·) : [0, T ] → Ω de l’équation différentielle, de condition ini-


tiale v = x̄(0). Considérons maintenant une perturbation v + δv de la condition

95
4 Théorie générale des équations différentielles

initiale et écrivons la solution correspondante, xv+δv (·), sous la forme d’une per-
turbation x̄(·) + δx(·) de la solution d’origine (voir figure 4.3). Cette perturbation
étant une solution, elle doit satisfaire l’équation différentielle :
- .
x̄′ (t) + (δx)′ (t) = f x̄(t) + δx(t) , t ∈ [0, T ].

En utilisant un développement limité de f en x̄(t) (à t fixé) :


- . - . - .
f x̄(t) + δx(t) = f x̄(t) + Df x̄(t) · δx(t) + reste,
- .
et en tenant compte du fait que x̄′ (t) = f x̄(t) , on obtient
- .
(δx)′ (t) = Df x̄(t) · δx(t) + reste.

En ne conservant que les - « .termes du premier ordre » on retrouve l’équation


linéarisée (δx)′ (t) = Df x̄(t) · δx(t). Autrement dit, la solution perturbée s’écrit
x̄(·) + δx(·) + reste, où le « terme du premier ordre » δx(·) est la solution de
! - .
(δx)′ (t) = Df x̄(t) · (δx)(t),
(δx)(0) = δv.

L’équation linéarisée indique donc comment se propage au cours du temps une per-
turbation de la condition initiale. Bien entendu ce qui précède n’est pas un raison-
nement rigoureux (les restes posent évidemment quelques problèmes!), seulement
une heuristique.

Remarque 4.6. L’équation linéarisée est en général une équation linéaire non-
autonome, on ne sait donc pas a priori calculer ses solutions. Cependant, si v est
un point d’équilibre, la solution maximale x̄(·) = φ(·, v) est la fonction constante
x̄(·) ≡ v, définie sur tout R, et dans ce cas l’équation linéarisée est autonome :

y ′ (t) = Df (v) · y(t), t ∈ R.

Exemple d’application : champs de vecteurs à divergence nulle. Rappelons que


la divergence d’un champ de vecteurs f : Ω ⊂ Rn → Rn , noté f (x) =
(f1 (x), . . . , fn (x)), est définie comme

∂f1 ∂fn
div f (x) = (x) + · · · + (x) = tr Df (x).
∂x1 ∂xn
Considérons alors un temps t et un domaine Γ de Rn , supposé inclus dans le
domaine de définition de φt . Notons Γt = φt (Γ ) le transport de Γ de 0 à t
par l’équation (4.3). En utilisant la formule de changement de variable dans les
intégrales multiples, on obtient

96
4.4 Linéarisation et perturbation du flot

8 8
vol(Γt ) = dµ = | det Dφt (x)|dµ,
φt (Γ ) Γ

où, d’après le corollaire 4.3, Dφt (x) est la résolvante de l’équation linéarisée.
Supposons maintenant que div f (x) = tr Df (x) ≡ 0. Le théorème de Liouville
(corollaire 3.1) implique que le déterminant de la résolvante du linéarisé est égal à
1, et donc que det Dφt (x) = 1. On a alors vol(Γt ) = vol(Γ ) :
si f est un champ de divergence nulle, le flot de f préserve le volume.

Dépendance par rapport à un paramètre


Considérons maintenant une famille d’équations différentielles dépendant d’un
paramètre λ ∈ Rp ,
- .
x′ (t) = fλ x(t) , (4.6)
où chaque fλ est un champ de vecteurs sur Ω ⊂ Rn . Supposons également que
f (x, λ) = fλ (x) est une application de classe C 1 . On s’intéresse à la dépendance
des solutions de ces équations différentielles par rapport au paramètre λ.
Remarquons d’abord que l’équation (4.6) est équivalente à
! ′ - .
x (t) = f x(t), λ ,
λ′ (t) = 0,
c’est-à-dire à l’équation différentielle dans Rn+p associée au champ de vecteurs
F (x, λ) = (f (x, λ), 0). Ainsi, les solutions de (4.6) dépendent du paramètre
- λ de la.
même façon que les solutions de l’équation différentielle (x, λ)′ (t) = F (x, λ)(t)
dépendent de leur condition initiale. D’après ce que nous avons vu précédemment
dans cette section, nous avons donc les propriétés suivantes.
• Les solutions φλ (·, v) de (4.6) dépendent de façon C 1 , donc continue, du
paramètre λ (et de la condition initiale v).
• La différentielle de l’application (v, λ) (→ φλ (·, v) en un point (v, λ) est
l’application qui à (δv, δλ) associe la solution y(·) de l’équation différentielle
affine ! ′ - . - .
y (t) = Dx f x̄(t), λ · y(t) + Dλ f x̄(t), λ · δλ,
(4.7)
y(0) = δv,
où x̄(·) = φλ (·, v). Autrement dit, en utilisant la formule de variation de la
constante,
8 t
- .
y(t) = R(t, 0)δv + R(t, s)Dλ f x̄(s), λ · δλ ds,
0
- .
où R(t, s) est la résolvante de l’équation linéarisée y ′ (t) = Dx f x̄(t), λ · y(t).

97
4 Théorie générale des équations différentielles

*Application de Poincaré
Supposons que l’équation (4.3) admette une solution T -périodique non triviale x(·)
et notons x(0) = x0 . Traçons un hyperplan affine Σ passant par x0 et transverse
à x(·) en x0 , c’est-à-dire que f (x0 ) n’est pas parallèle à Σ (notez que f (x0 ) ̸= 0
puisque x(·) est non triviale). Quitte à faire un changement linéaire de coordonnées,
on suppose que f (x0 ) = e1 et que Σ est l’hyperplan affine passant par x0 parallèle
à Vect{e2 , . . . , en }, où e1 , . . . , en désignent comme d’habitude les vecteurs de la
base canonique de Rn .
Proposition 4.6. Il existe des voisinages V1 , V2 ⊂ Rn de x0 et une fonction η
de classe C 1 tels que, pour tout z dans Σ ∩ V1 , φT +η(z) (z) appartient à Σ ∩ V2 .
L’application G : Σ ∩ V1 → Σ ∩ V2 ainsi définie est un C 1 -difféomorphisme : c’est
l’application de premier retour de Poincaré.
On a en outre, pour tout (δs, δz) ∈ R × Rn−1 ,
+ , + , + ,
δs 1 ∗ δs
DφT (x0 ) · = · . (4.8)
δz 0 Dz G(x0 ) δz
Démonstration. Quitte à faire une translation sur les coordonnées, on suppose x0 = 0, et par
conséquent Σ = Vect{e2 , . . . , en }. Appelons p1 : Rn → Re1 la projection sur Re1 parallèlement
à Σ et p̃ : Rn → Σ la projection complémentaire sur Σ. Ainsi, Σ coı̈ncide avec l’ensemble des
x ∈ Rn tels que p1 (x) = 0.
◃ Soit φ le flot du champ de vecteurs f (voir définition 4.3). On ' cherche
( les trajectoires qui
coupent l’hyperplan Σ, c’est-à-dire les couples (t, x) tels que p1 φ(t, x) = 0. Or l’application
p1 ◦ φ est de classe C 1 , p1 ◦ φ(T, x0 ) = 0 et
∂(p1 ◦ φ) ' ∂φ ( ' ( ' (
(T, x0 ) = p1 (T, x0 ) = p1 f (x(T ) = p1 f (x0 ) ̸= 0.
∂t ∂t
Les hypothèses du théorème des fonctions implicites sont satisfaites : il existe donc un voisinage
V ⊂ Rn de x0 et une fonction η : V → R telle que φ(T + η(z), z) ∈ Σ pour z ∈ V. On peut donc
définir l’application de Poincaré G : Σ ∩ V → Σ par G(z) = p̃ ◦ φ(T + η(z), z) pour tout z ∈ Σ ∩ V.
◃ Commençons par montrer que la différentielle du flot DφT (x0 ) = Dx φ(T, ' x(0 ) est de la forme
annoncée. Remarquons que, la solution x(·) étant T -périodique, on a φT x(t) = x(t) pour tout
t. En dérivant par rapport à t puis en prenant la valeur en t = 0, on obtient
DφT (x0 ) · f (x0 ) = f (x0 ).
Ainsi f (x0 ) = e1 est vecteur propre de DφT (x0 ) associé à la valeur propre 1 et
# $ # ' ($ # $
δs 1 p1' Dz φ(T, x0 )( δs
DφT (x0 ) · = · .
δz 0 p̃ Dz φ(T, x0 ) δz
Or la différentielle de G en x0 est l’application linéaire :
, ' ( -
δz ∈ Σ .→ Dz G(x0 ) · δz = p̃ Dt φ(T, x0 ) · Dη(x0 ) · δz + Dz φ(T, x0 ) · δz .
' (
Dans cette expression, Dη(x0 ) · δz est un réel et le vecteur
' ( ' ( ∂φ ' (
Dt φ(T, x0 ) · Dη(x0 ) · δz = Dη(x0 ) · δz (T, x0 ) = Dη(x0 ) · δz f (x0 ),
∂t
' (
est annulé par p̃. On en déduit que Dz G(x0 ) = p̃ Dz φ(T, x0 ) , d’où l’expression (4.8) de DφT (x0 ).

98
4.5 Exercices corrigés

◃ Il reste à montrer que G est un C 1 -difféomorphisme entre des voisinages de x0 (définition 1.4).
Le flot φT étant lui-même un C 1 -difféomorphisme, sa différentielle DφT (x0 ) est inversible. Il
résulte alors de l’expression (4.8) que Dz G(x0 ) est également inversible. Par conséquent le
théorème d’inversion locale s’applique à G en x0 et permet de conclure. #

Remarque 4.7. L’application de Poincaré ne dépend que de la section Σ transverse


à l’orbite, elle a donc un sens géométrique très fort. Notons d’autre part que cette
construction permet de passer de l’étude d’un flot en dimension n à celui d’un
difféomorphisme local en dimension n − 1.

4.5 Exercices corrigés


Exercice 4.1 (Durée de vie).
On considère l’équation différentielle dans R2 suivante, issue de la modélisation
des solitons (voir l’exercice 5.5 pour les détails) :
9 ′
x = 2y,
(4.9)
y ′ = −3x2 − 12x.

1. Montrer que la fonction C : R2 → R, C(x, y) = x3 + 6x2 + y 2 , est constante le


long des solutions de (4.9).
Les courbes de niveau de C sont représentées figure 4.4. On note γ la courbe de
niveau (en gras sur la figure) qui passe par le point A = (−4, 0) et Ω la région à
l’intérieur de la boucle formée par γ.

A Ω

Fig. 4.4. Courbes de niveau: C(x, y) = constante.

2. Montrer que toute solution maximale de (4.9) issue d’un point de Ω est définie
sur tout R.

99
4 Théorie générale des équations différentielles

3. Que peut-on dire sur l’intervalle de définition d’une solution issue d’un point v
de γ (plusieurs possibilités selon la position de v)?
4. Considérons maintenant l’équation différentielle
9 ′ - .
x = 2y + C(x, y) − 32 y,
- . (4.10)
y ′ = −3x2 − 12x + C(x, y) − 32 x.

Que peut-on dire sur la durée de vie des solutions issues d’un point de γ? Et de
celles issues d’un point de Ω? (Indication : remarquer que C(x, y) = 32 sur γ).
5. Question subsidiaire : dessiner le portrait de phase de l’équation (4.9), en
identifiant les différents types d’orbites.

Corrigé de l’exercice 4.1.

1. Il faut montrer que, pour toute solution (x(t), y(t)) de l’équation (4.9), la fonc-
tion t (→ C(x(t), y(t)) est constante. Or
d
C(x(t), y(t)) = 3x2 x′ + 12xx′ + 2yy ′ .
dt
En remplaçant x′ et y ′ par les valeurs données dans l’équation (4.9), on obtient
d
bien dt C(x(t), y(t)) = 0.
2. Toute solution est incluse dans une courbe de niveau de C. Les courbes de
niveau dans Ω étant compactes, les solutions sont définies sur tout R.
3. Soit Xv (·) = (xv (·), yv (·)) la solution issue d’un point v ∈ γ. On sait déjà que
toutes les valeurs de Xv (·) sont contenues dans γ. Remarquons alors que γ est
composée de 4 parties : l’équilibre A = (−4, 0), la boucle γc à droite de l’équilibre,
et les deux branches γ− et γ+ à gauche; chacune de ces parties est stable par le
flot de (4.9). Traitons séparément chaque partie.
• Si v = A, Xv (·) ≡ v est définie sur tout R.
• Si v ∈ γc , les valeurs Xv (t) sont contenues dans le compact γ̄c , la solution Xv (·)
est donc définie sur R.
• Si v ∈ γ+ : comme x′ > 0, pour t ≥ 0 le point Xv (t) est dans la portion de γ+
comprise entre v et l’équilibre : cette portion étant contenue dans un compact,
la solution Xv (·) a une durée de vie infinie pour les temps positifs. Elle est donc
définie sur un intervalle de la forme ]t− , +∞[, où t− < 0 pourrait être infini.
• Si v ∈ γ− : comme x′ < 0, pour t ≤ 0 le point Xv (t) est dans la portion de γ−
comprise entre v et l’équilibre : cette portion étant contenue dans un compact,
la solution Xv (·) a une durée de vie infinie pour les temps positifs. Elle est
donc définie sur un intervalle de la forme ] − ∞, t+ [, où t+ > 0 (éventuellement
infini).

100
4.5 Exercices corrigés

Remarque 4.8. On peut en fait montrer que, pour v appartenant à γ+ (resp. γ− ),


la durée de vie dans les temps négatifs (resp. positifs) est finie. Supposons par
exemple v ∈ γ+ (la preuve est la même sur γ− ). On veut montrer que t− > −∞.
En notant que x′ /2y = 1 (y ne s’annule pas sur γ+ ), on obtient
8 0
x′
t− = − dt.
t− 2y

Comme C(x, y) = 32 le long√ de γ+ (il suffit de prendre la ′valeur de C en A) et que


y y est positif, on a y = 32 − x3 − 6x2 . D’autre part, x étant positif sur γ+ , on
peut faire le changement de variable t → x, les valeurs de x étant comprises entre
une valeur minimale xmin ≥ −∞ et vx , la première coordonnée de v = (vx , vy ).
Ainsi, 8 0 8 vx
x′ dx
t− = − √ dt ≥ − √ .
3 2 3 2
t− 2 32 − x − 6x −∞ 2 32 − x − 6x

Or la dernière intégrale ci-dessus est finie, comme le montre le calcul suivant :


8 vx 8 vx 8 −12
dx dx dx
√ ≤ √ + 4
3 2 3 2 3
−∞ 2 32 − x − 6x −12 2 32 − x − 6x −∞ 2 32 − x /2
8 vx 8 −12
dx dx
< √ + √ < ∞.
3
−12 2 32 − x − 6x
2
−∞ 2(−x)3/2

Le temps t− est donc fini : t− > −∞.

4. Soit v ∈ γ et Xv (·) la solution de (4.9) issue de v, dont toutes les valeurs sont
contenues dans γ. Alors Xv (·) est aussi la solution de (4.10) issue de v ∈ γ puisque
C(Xv (t)) − 32 ≡ 0. On connaı̂t donc son intervalle de définition grâce à la question
précédente.
De plus, ceci montre que, pour tout v ∈ γ, l’orbite de v est contenue dans γ;
autrement dit, γ est égale à l’union des orbites de ses points. Considérons alors la
solution Xv (·) de (4.10) issue d’un point v ∈ Ω. L’orbite correspondante ne peut
couper γ, ce qui implique que toute valeur Xv (t) appartient à Ω, et donc a fortiori
au compact Ω. La solution Xv (·) est ainsi définie sur tout R.
5. Cette question se traite par un raisonnement similaire à celui de l’exercice 4.2,
question 7.: A et 0 étant les seuls équilibres, on montre ainsi que chaque ligne de
niveau de C dans Ω est une orbite périodique et que chaque composante connexe
d’une ligne de niveau hors de Ω est une orbite, de même que γc , γ+ et γ− .

Exercice 4.2 (Modèle prédateur-proie).


Le modèle de Volterra. Le premier modèle de type “prédateur-proie” a été pro-
posé par le mathématicien italien Vito Volterra au début des années 1920. Le but de

101
4 Théorie générale des équations différentielles

ce modèle était d’expliquer le phénomène suivant, observé à l’époque par le bureau


de la pêche italienne de Trieste : pendant la Première Guerre Mondiale, période
où la pêche était très réduite, la proportion de requins et autres prédateurs im-
propres à la consommation qu’on attrapait était nettement supérieure à ce qu’elle
était avant-guerre, et à ce qu’elle redevint ensuite.
Le modèle de Volterra est le suivant. Soit x(t) le nombre de proies (i.e. les poissons
comestibles) et y(t) le nombre de prédateurs (requins et autres). On va écrire un
système différentiel en faisant les hypothèses suivantes :
• la population des proies n’est limitée que par les prédateurs et en leur absence
croı̂t exponentiellement;
• la population des prédateurs est totalement dépendante des proies et en leur
absence décroı̂t exponentiellement.
En termes mathématiques, l’énoncé nous dit qu’en l’absence d’interactions entre
proies et prédateurs, on a
x′ (t) = ax(t), y ′ (t) = −cy(t),
où a et c sont des constantes positives. D’autre part, chaque rencontre entre proie et
prédateur est bonne pour le prédateur et mauvaise pour la proie. On peut supposer
le nombre de rencontres proportionnel au produit x(t)y(t). Ainsi, l’évolution avec
interaction peut être décrite par le système
! ′
x (t) = ax(t) − bx(t)y(t),
y ′ (t) = −cy(t) + f x(t)y(t).
Si l’on connaı̂t les constantes a, b, c, f et les population à un instant t0 , ce système
décrit l’évolution future de chaque population : est-ce qu’elles vont augmenter,
ou diminuer? À quelle vitesse? Pourquoi la pêche influence-t-elle le nombre de
prédateurs? Le but de l’exercice est de répondre à ces interrogations.
Considérons l’équation du modèle “prédateur-proie” de Volterra,
! ′
x = ax − bxy,
(4.11)
y ′ = −cy + f xy.
1. Montrer que l’équation (4.11) ne peut pas induire de populations x(t) ou y(t)
négatives.
2. Montrer qu’il existe une fonction de la forme V (x, y) = F (x)+G(y) sur ]0, +∞[2
qui est constante le long des solutions de (4.11).
La forme des courbes de niveau de V ,
: ;
(x, y) ∈ ]0, +∞[2 : V (x, y) = Const. ,
est donnée figure 4.5 (avec c/f = 1, a/b = 2).

102
4.5 Exercices corrigés

C B

D A
x

Fig. 4.5. Lignes de niveau de V (x, y)

3. En déduire que l’équation est complète sur ]0, +∞[2 .


4. Soit (x0 , y0 ) un point de la région A. Montrer que la solution de (4.11) issue de
(x0 , y0 ) entre dans la région B au bout d’un temps fini.
5. Montrer que toute solution z(·) = ((x(·), y(·)) de l’équation différentielle (4.11)
dans ]0, +∞[2 possède un point double, c’est-à-dire qu’il existe t1 ̸= t2 tels que
z(t1 ) = z(t2 ).
6. En déduire que toute solution dans ]0, +∞[2 est périodique et dessiner le portrait
de phase.
7. Montrer le résultat général suivant.
Soit f : Ω ⊂ Rn → Rn un champ de vecteur et x(·) une solution de x′ = f (x)
définie sur [0, +∞[ ayant une limite x∞ ∈ Ω en +∞. Alors x∞ est un équilibre
(i.e. f (x∞ ) = 0).
Comment utiliser ce résultat pour montrer directement, sans utiliser le raison-
nement des questions 4. et 5., que les solutions sont périodiques?
8. Vérifier que c/f est la population moyenne de proies et que a/b est la popula-
tion moyenne de prédateurs (on calculera la moyenne sur une période). Expliquer
l’influence de la pêche sur les deux populations.
Corrigé de l’exercice- 4.2. .
On notera g(x, y) = (a − by)x, (f x − c)y le champ de vecteurs défini par
l’équation (4.11).
1. Remarquons que les demi-droites Ox+ = {x > 0, y = 0} et Oy + = {x = 0, y >
0}, ainsi que l’origine, sont des orbites de l’équation différentielle. En effet, sur

103
4 Théorie générale des équations différentielles

Ox+ , le champ de vecteurs vaut g(x, 0) = (ax, 0). Il est donc facile de vérifier que
- .
(x, y)(t) = x0 eat , 0

est la solution issue d’un point (x0 , 0) ∈ Ox+ en t = 0. Cette solution est définie
pour tout t ∈ R et décrit tout Ox+ , c’est-à-dire que Ox+ est l’orbite de (x0 , 0).
De même, la solution issue d’un point (0, y0 ) ∈ Oy + est
- .
(x, y)(t) = 0, y0 e−ct ,

ce qui implique que Oy + est l’orbite de (0, y0 ).


Puisque deux orbites ne peuvent pas se couper, l’orbite d’un point du quadrant
positif ]0, +∞[2 ne peut pas en sortir. Autrement dit, si les populations x(t) et
y(t) sont positives en un instant t donné, les fonctions x(·) et y(·) restent positives
sur tout leur ensemble de définition.
2. On cherche une fonction V (x, y) = F (x) + G(y) constante sur les solutions
de (4.11) dans ]0, +∞[2 , c’est-à-dire une fonction telle que

d - . - . - .
V x(t), y(t) = F ′ x(t) x′ (t) + G′ y(t) y ′ (t) = 0.
dt
Or une simple combinaison des deux lignes de l’équation différentielle montre
qu’une solution (x, y)(·) dans ]0, +∞[2 vérifie

f x(t) − c ′ by(t) − a ′
x (t) + y (t) = 0.
x(t) y(t)

Il suffit donc de choisir F et G tels que


c a
F ′ (x) = f − , et G′ (y) = b − ,
x y
soit par exemple,

V (x, y) = (f x − c log x) + (by − a log y)

(on peut ajouter une constante quelconque à cette fonction).


3. Soit z(·) = (x, y)(·) une solution maximale de l’équation (4.11) dans ]0, +∞[2 .
Puisque V est constante le long de z(·), cette solution est incluse dans la ligne
de niveau {V (x, y) = V (z(t0 ))}, où t0 est un point quelconque de l’intervalle de
définition de z(·). Les lignes de niveau de V étant compactes, la solution z(·) est
contenue dans un compact, donc définie pour tout t ∈ R. Ainsi l’équation est
complète sur ]0, +∞[2 .

104
4.5 Exercices corrigés

4. La région A est l’ensemble ouvert des (x, y) ∈]0, +∞[2 tels que x > c/f et
y < a/b. De même, B, C, D sont les ensembles ouverts de ]0, +∞[2 tels que,
respectivement, x > c/f et y > a/b, x < c/f et y > a/b, x < c/f et y < a/b.
Soit z0 = (x0 , y0 ) un point de A. On considère la solution maximale z(·) de
l’équation vérifiant z(0) = z0 , et l’intervalle maximal J = [0, τ [ sur lequel z(t)
appartient à A (τ pouvant être égal à +∞). Remarquons déjà que, pour t ∈ J,
x′ (t) et y ′ (t) sont positives, donc x(·) et y(·) sont croissantes sur J.
De plus, pour t ∈ J,

y ′ (t)
= f x(t) − c ≥ f x0 − c = r > 0.
y(t)

Puisque y ′ /y = (log y)′ , ceci implique


a
> y(t) ≥ y0 ert , ∀t ∈ J.
b
En conséquence τ doit être fini. Comme l’équation est complète, z(τ ) existe et
vérifie forcément y(τ ) = a/b. Comme de plus y ′ (τ ) > 0, z(t) appartient à la région
B pour t > τ suffisamment petit. Ainsi z(·) entre dans la région B au bout d’un
temps fini τ .
5. Considérons à nouveau une solution maximale z(·) de condition initiale z(0) ∈
A. On a vu à la question précédente que cette solution doit entrer dans B en temps
τ > 0 fini. Un raisonnement semblable (sur x cette fois-ci) montre que z(·) doit
ensuite sortir de B pour entrer dans C à l’instant τC > τ , puis (raisonnement sur
y) sortir de C pour entrer dans D à l’instant τD > τC , (raisonnement sur x) sortir
de D pour entrer dans A à l’instant τA > τD , et à nouveau sortir de A pour entrer
dans B à l’instant τB > τA .
D’autre part, l’orbite décrite
- . par cette solution z(·) est contenue dans la ligne
de niveau {V (x, y) = V z(0) }, qui intersecte en un unique point la demi-droite
séparant les régions A et B. Ce point est donc égal à z(τ ), mais aussi à z(τB ).
Comme τB > τ , la solution z(·) a bien un point double.
6. C’est un fait général : dès qu’une solution z(·) présente un point double, z(t1 ) =
z(t2 ) pour
- t1 .̸= t2 , elle est périodique. En effet, en écrivant en fonction du flot
z(t) = φt z(0) , on a
- . - . - .
z(t) = φt−t1 z(t1 ) = φt−t1 z(t2 ) = φt−t1 φt2 (z(0))
- .
= φt+t2 −t1 z(0) = z(t + t2 − t1 ),

c’est-à-dire que z(·) est périodique et que sa période T divise t2 − t1 : kT = t2 − t1 ,


pour k entier.

105
4 Théorie générale des équations différentielles

Le portrait de phase dans ]0, +∞[2 est simple à dessiner : les orbites sont exacte-
ment les lignes de niveau de V , représentées dans la figure 4.5, parcourues dans le
sens trigonométrique. Noter que le point (c/f, a/b) est lui-même une orbite (c’est
un point d’équilibre).
7. En posant x(s) = φs (x(0)), la solution issue de x∞ est
5 - .6
φt (x∞ ) = φt lim φs x(0) .
s→∞

L’application φt étant continue, on obtient


- . - .
φt (x∞ ) = lim φt ◦ φs x(0) = lim φt+s x(0) = x∞ ,
s→∞ s→∞

ce qui implique que x∞ est un équilibre.


Considérons alors une solution maximale zv (·) de condition initiale zv (0) = v
différente de l’équilibre (c/f, a/b). Cette solution est contenue dans la courbe de
niveau C = {z : V (z) = V (v)}, que l’on paramètre par son abscisse curviligne :
C = {c(s) : s ∈ [0, L]}, avec c(0) = c(L) = v. L’abscisse curviligne d’un point
zv (t) est clairement monotone en fonction de t, on peut donc la supposer croissante.
Supposons par l’absurde que zv n’est pas périodique (donc pas de points doubles) :
ceci implique en particulier que le supremum des abscisses curvilignes s atteintes
sur zv (]0, +∞[) est s∞ < L. Les abscisses étant croissantes, le point c(s∞ ) est la
limite de zv (t) quand t → ∞, et donc un équilibre. Comme C ne contient pas
d’équilibre, on a une contradiction.
- .
8. Soit z(·) = x(·), y(·) une solution de période T . La population moyenne de
proies est
8 8 + , + ,
1 T 1 T 1 y ′ (t) c 1 1 - y(T ) . c c
x(t)dt = + dt = log +T = ,
T 0 T 0 f y(t) f T f y(0) f f
et la population moyenne de prédateurs est
8 8 + ,
1 T 1 T 1 x′ (t) a a
y(t)dt = − + dt = .
T 0 T 0 b x(t) b b
Notons que le fait que ces valeurs moyennes ne dépendent pas de la solution est
une propriété extrêmement particulière de cette équation.
L’effet de la pêche est de prélever une certaine proportion de chacune des espèces.
Dans le système différentiel, ceci revient à retrancher εx à x′ et ηy à y ′ (ε, η > 0),
c’est-à-dire que l’équation devient :
! ′
x (t) = (a − ε)x(t) − bx(t)y(t),
y ′ (t) = −(c + η)y(t) + f x(t)y(t).

106
4.5 Exercices corrigés

Les coordonnées du nouveau point d’équilibre (c’est-à-dire les nouvelles popula-


tions moyennes) sont
c+η c a−ε a
x̄ = > et ȳ = < .
f f b b
Ce point d’équilibre est donc situé plus bas et plus à droite que l’ancien, d’où
ce résultat étonnant : la pêche tend à augmenter le nombre moyen de poissons
comestibles!

Exercice 4.3 (Modèle de la grippe).


Modèle de la grippe. Afin de modéliser la propagation d’une épidémie (typique-
ment une épidémie de grippe) au sein d’une population, on introduit les trois
grandeurs suivantes :
• x(t) est le nombre d’individus qui à l’instant t n’ont pas contracté la maladie;
• y(t) est le nombre d’individus qui à l’instant t ont contracté la maladie et sont
contagieux;
• z(t) est le nombre d’individus qui à l’instant t ont contracté la maladie et ne
sont plus contagieux.
L’étude des épidémies au cours du temps permet de mettre en évidence deux carac-
téristiques de la maladie considérée : la capacité de contagion b, qui représente la
capacité que possède la maladie de contaminer de nouveaux malades par unité de
temps; et la fréquence d’incubation g = 1/τ , où τ représente la durée moyenne
pendant laquelle un individu est contagieux. Ces deux paramètres b et g sont sup-
posés constants pour une épidémie donnée.
En présence de la maladie et pendant une période caractéristique ∆t, la quantité
x(t) est diminuée du nombre de nouveaux malades. On a donc

∆x = −b xy ∆t.

La quantité z(t) est augmentée du nombre de nouveaux guéris,

∆z = +g y ∆t.

La quantité y(t) varie quant à elle en fonction de la différence entre le nombre de


nouveaux malades et de nouveaux guéris,

∆y = b xy ∆t − g y ∆t,

la population totale N = x(t) + y(t) + z(t) restant constante. En supposant que


ces relations peuvent être considérées entre des variations infinitésimales, les trois
fonctions x, y et z de la variable t sont donc solutions de l’équation différentielle
(S) ci-dessous.

107
4 Théorie générale des équations différentielles

Le but de l’exercice est d’analyser le comportement de l’épidémie afin d’en déduire


la stratégie de vaccination la plus adaptée.
Considérons le modèle de propagation d’épidémie suivant :
⎧ ′
⎨ x = −b xy, (S1)
(S) y ′ = b xy − g y, (S2)
⎩ ′
z = g y, (S3)
où b, g sont des constantes positives.
1. Montrer que le modèle (S) ne peut pas induire de populations x, y ou z
négatives.
Dans le modèle (S), la population totale est supposée constante : x(t)+y(t)+z(t) =
N . Comme de plus l’équation différentielle ne dépend pas de z, on se restreint à
l’étude de l’équation en (x, y) donnée par (S1) − (S2), la dernière variable étant
obtenue par z(t) = N − x(t) − y(t).

-2. Donner. le sens de variation de la fonction x(t) et montrer que la courbe


x(t), y(t) est contenue dans le graphe d’une fonction y = φ(x) que l’on calculera.
- .
3. Montrer que l’orbite de la solution x(·), y(·) est exactement le graphe de φ(x),
pour x > 0 (on utilisera le résultat de la question 7. de l’exercice 4.2).
4. Tracer le portrait de phase de l’équation différentielle (S1) − (S2).
5. Supposons g/b < N et considérons une condition initiale x(t0 ) ∈ ]g/b, N [ et
y(t0 ) ≪ 1. Décrire le comportement de x(t) et y(t). Qu’en conclure sur les stratégies
de vaccinations?
Corrigé de l’exercice 4.3.
1. Le raisonnement est similaire à celui de l’exercice 4.2, question 1.. Notons
f (x, y, z) le champ de vecteurs défini par (S) et considérons une solution (x, y, z)(t)
de f dont chaque composante à l’instant initial, x(0), y(0) et z(0), est positive.
Supposons que y change de signe. Il existe alors t̃ > 0 tel que y(t̃) = 0. Or tout
point (x, 0, z) est un équilibre de f : les seules solutions qui passent par un tel point
sont les solutions constantes. La population y ne peut donc changer de signe. Ceci
implique par ailleurs que z est croissant et reste donc également positif pour t ≥ 0.
Enfin, supposons que x change de signe, c’est-à-dire qu’il existe t̃ > 0 tel que
x(t̃) = 0. Or en un point (0, y0 , z0 ) passe la trajectoire :
8 t
x = 0, y = y0 e−gt , z = z0 + g y.
0

L’unique orbite passant par (x(t̃) = 0, y(t̃), z(t̃)) est donc contenue dans le plan
{x = 0}, ce qui contredit x(0) > 0. La population x ne peut donc changer de signe.

108
4.5 Exercices corrigés

2. Sur un intervalle de temps où x(t) et y(t) sont non nuls (et positifs), on a
x′ (t) < 0. En conséquence (théorème d’inversion locale), le long d’une telle solution
(x, y)(t), la -fonction
. t (→ x(t) est inversible et on peut paramétrer la solution par
x : y(t) = y t(x) = φ(x). Autrement dit, la courbe (x(t), y(t)) est contenue dans
le graphe de φ. Cette fonction φ vérifie, en x = x(t),

dφ dy dt y ′ (t) g
(x) = (t) (x) = ′ = −1 + .
dx dt dx x (t) bx

En intégrant à partir d’un point (x(t0 ), y(t0 )), on trouve


g x
φ(x) = x(t0 ) − x + log( ) + y(t0 ).
b x(t0 )
- .
3. On vient de voir qu’une solution X(·) = x(·), y(·) de (S1) − (S2) dans le
quadrant ]0, +∞[2 est contenue dans le graphe d’une fonction φ dont la forme est
donnée à la figure 4.6. De plus, cette solution ne peut sortir du quadrant ]0, +∞[2

x
g/b

Fig. 4.6. Graphe de φ(x)

car tout point de l’axe Ox est un équilibre (une solution ne peut donc pas “passer”
par un tel point). Donc X(·) est contenue dans un compact (le graphe de φ), ce
qui implique qu’elle est définie pour tout t.
D’autre part, le long de cette solution, x(t) étant monotone, minorée et majorée,
elle admet des limites quand t → ±∞; c’est donc aussi le cas de y(t) = φ(x(t))
et par conséquent de X(t). Or, si X(t) a une limite, c’est un équilibre, d’après
l’exercice 4.2, question 7.. Les seuls équilibres de l’équation étant les points de
l’axe Ox, on en conclut que l’orbite de X(·) est exactement le graphe de φ(x),
pour x > 0.
4. Le portrait de phase est composé des graphes de toutes les fonctions φ(x)
parcourus de la droite vers la gauche (car x′ est négatif), comme indiqué figure 4.7.

109
4 Théorie générale des équations différentielles

x
g/b

Fig. 4.7. Portrait de phase

5. La condition initiale (x(t0 ), y(t0 )) choisie est pratiquement à l’intersection du


graphe de φ et de l’axe Ox, à droite de g/b. Au cours du temps, x(t) va donc
décroı̂tre et tendre vers sa valeur minimale (l’autre intersection du graphe avec
Ox), y(t) va croı̂tre jusqu’au moment où x(t) vaut g/b et décroı̂tre ensuite pour
tendre vers 0.
La stratégie de vaccination est donc la suivante :
• mesurer x(t0 );
• si x(t0 ) < g/b, on ne fait rien : le pic de l’épidémie est passé;
• si x(t0 ) > g/b, on vaccine : cela a pour effet de diminuer b, donc d’élever le
seuil g/b, qui devient alors (on l’espère) plus grand que x(t0 ); on est passé dans
la phase descendante de l’épidémie.

Exercice 4.4 (Redressement d’un champ de vecteurs).


On appelle changement de coordonnées sur un ouvert Ω ⊂ Rn une application

ψ : Ω ⊂ Rn → Ω ′ ⊂ Rn , Ω ′ ouvert,
x (→ y = ψ(x),

qui est bijective, C 1 et d’inverse C 1 (ψ est donc un C 1 -difféomorphisme de Ω dans


Ω ′ ). En particulier, ψ −1 est un changement de coordonnées sur Ω ′ .
Considérons un champ de vecteurs f sur Rn tel que f (0) ̸= 0. On peut donc trouver
une base de Rn de la forme f (0), v2 , . . . , vn et on définit
n
(
ϕ: y = (y1 , . . . , yn ) (→ φy1 ( yi vi ),
i=2

où φt est le flot de f .

1. Calculer la différentielle de ϕ en 0.

110
4.5 Exercices corrigés

2. Montrer que ψ = ϕ−1 est un changement de coordonnées sur un voisinage Ω de


0. On note y = ψ(x).
3. Soit x(t), t ∈ [0, T ], une trajectoire de f contenue dans Ω. Écrire y(t) = ψ(x(t))
en fonction des coordonnées y 0 = ψ(x(0)) de x(0).
4. Montrer que le changement de coordonnées ψ transforme l’équation ẋ = f (x)
sur Ω en l’équation ẏ = e1 sur Ω ′ = ψ(Ω) (e1 étant le premier vecteur de la base
canonique de Rn ).

Corrigé de l’exercice 4.4.

1.
5 La différentielle6de φ se calcule à partir des dérivées partielles : Dϕ(0) =
∂ϕ ∂ϕ
∂y1 (0) · · · ∂yn (0) . Or

∂ϕ ∂ - .
(0) = φy1 (0) ?? = f (0),
∂y1 ∂y1 y1 =0

et, pour i = 2, . . . , n,
n
∂ϕ ∂ - ( .
(0) = φ0 ( yi vi ) ?? = vi ,
∂yi ∂yi y=0
i=2
- .
donc Dϕ(0) = f (0) v2 · · · vn .
2. Il suffit d’appliquer le théorème d’inversion locale à ϕ en 0, toutes les hypothèses
en sont vérifiées.
3. Soient y 0 = (y10 , . . . , yn0 ) les coordonnées de x(0), i.e. x(0) = ϕ(y 0 ). On a
n
(
- .
x(t) = φt (x(0)) = φt (ϕ(y 0 )) = φt φy10 ( yi0 vi ) .
i=2
)n 0
D’après la formule du flot, ceci implique x(t) = φy10 +t ( i=2 yi vi ) et donc y(t) =
(y10 + t, y20 , . . . , yn0 ).
4. Puisque y(t) = (y10 + t, y20 , . . . , yn0 ), on a ẏ(t) = (1, 0, . . . , 0) = e1 : le changement
de coordonnées ψ transforme donc les solutions de l’équation ẋ = f (x) en celles
de l’équation ẏ = e1 .

Exercice 4.5 (Méthode des caractéristiques).


Soit F : Rn → Rn un champ de vecteur complet de flot φt .
- .
1. Montrer que Dφt (x) · F (x) = F φt (x) .

Considérons une application u : Rn → R de classe C 1 .

111
4 Théorie générale des équations différentielles

- .
2. Montrer que la fonction g(t, x) = u φt (x) est solution de l’équation aux dérivées
partielles :
∂f
(t, x) = Dx f (t, x) · F (x), f (0, x) = u(x). (4.12)
∂t
3. Étudions maintenant l’unicité des solutions de (4.12). On considère donc une
solution f de cette équation.
- .
a) Soit F le champ de vecteurs sur R×Rn défini par F (t, x) = −1, F (x) . Montrer
- .
que, si y(·) : R → Rn+1 est solution de l’équation différentielle y ′ (s) = F y(s) ,
alors f ◦ y est une fonction constante.
b) Montrer que toute solution maximale de y ′ = F (y) coupe l’hyperplan t = 0.
c) En déduire que f = g et conclure sur l’unicité des solutions de (4.12).
4. Dans le cas n = 2, résoudre l’équation aux dérivées partielles
∂f ∂f ∂f
(t, x) = x2 (t, x) − x1 (t, x) (4.13)
∂t ∂x1 ∂x2
en fonction de la condition aux limites f (0, x) = u(x).

Corrigé de l’exercice 4.5.

1. Dérivons par rapport à s l’identité φt+s (x) = φt ◦ φs (x). On sait que

d- . - .
φt+s (x) = F φt+s (x) ,
ds
alors que
d- . - . - .
φt ◦ φs (x) = Dφt φs (x) · F φs (x) .
ds
On obtient donc - . - . - .
F φt+s (x) = Dφt φs (x) · F φs (x) ,
et il suffit de prendre s = 0 pour conclure.
2. Rappelons d’abord que φ0 (x) = x, ce qui entraı̂ne g(0, x) = u(x). Calculons
maintenant la dérivée de g par rapport à t,
∂g - . - .
(t, x) = Du φt (x) · F φt (x) .
∂t
Par ailleurs, le membre de droite de l’équation aux dérivées partielles est
- . - . - . - .
Dx g(t, x) · F (x) = Du φt (x) · Dφt (x) · F (x) = Du φt (x) · F φt (x) ,

d’après la question précédente. Ceci montre bien que g est solution de (4.12).

112
4.5 Exercices corrigés

d
3. a) Il suffit de montrer que ds (f ◦ y)(s) = 0. Calculons-le :
d - . - . - .
(f ◦ y)(s) = Df y(s) · y ′ (s) = Df y(s) · F y(s) .
ds
Or Df (t, x) est la matrice ligne à (n + 1) éléments qui s’écrit par blocs
- .
Df (t, x) = ∂f ∂t (t, x) Dx f (t, x)
,
- .
alors que F (t, x) est le vecteur colonne − 1, F (x) . Posons y(s) = (t(s), x(s)).
En multipliant les deux matrices précédentes, on obtient
d ∂f - . - . - .
(f ◦ y)(s) = − y(s) + Dx f y(s) · F x(s) = 0,
ds ∂t
puisque f est solution de l’équation aux dérivées partielles.
b) Puisque le champ F est complet, son flot φt (x) est défini pour tout t ∈ R et
tout x ∈ Rn . Le flot φ de F (t, x) étant donné par
- .
φs (t, x) = − s + t, φs (x) ,
il est défini pour tout s ∈ R et tout (t, x) ∈ Rn+1 , c’est-à-dire que F est
complet et que toute solution maximale y(s) est définie sur R -entier. . Or une
telle solution y(s) = (t, x)(s) vérifie t(s) = −s + t(0) : la valeur y t(0) est donc
définie et appartient à l’hyperplan {t = 0}.
c) Prenons (t0 , x0 ) ∈ Rn+1- et. montrons que f (t0 , x0 ) = g(t0 , x0 ). Soit y(·) la

solution de y (s) = F y(s) de condition initiale y(0) = (t0 , x0 ). D’après la
question précédente, y(t0 ) = (0, x(t0 )).
D’autre part, d’après la question a), f et g, et donc f − g, sont constantes le
long de y(·), ce qui implique (f − g)(y(0)) = (f − g)(y(t0 )), ou encore
f (t0 , x0 ) − g(t0 , x0 ) = f (0, x(t0 )) − g(0, x(t0 )) = 0,
car f (0, x) = g(0, x) = u(x). Ainsi f = g, c’est-à-dire que g est l’unique solution
de (4.12).
4. Pour mettre l’équation (4.13) sous la forme (4.12), il suffit de prendre pour F
le champ de vecteurs linéaire
+ ,
0 1
F (x) = x.
−1 0
Son flot est l’exponentielle de la matrice ci-dessus, c’est-à-dire (voir chapitre 2),
+ ,
cos t sin t
φt (x) = .
− sin t cos t
La solution de (4.13) satisfaisant g(0, x) = u(x) est donc
- .
g(t, x) = u x1 cos t + x2 sin t, −x1 sin t + x2 cos t .

113
4 Théorie générale des équations différentielles

Exercice 4.6 (Application de Poincaré).


Considérons l’équation différentielle dans R2 définie par
! ′ - .
2 + x2 ) ,
x1 = −x2 + x-1 1 − - (x 1 ..
2 (4.14)
x′2 = x1 + x2 1 − x21 + x22 .
1. Montrer que x̄(t) = (cos t, sin t) est une solution 2π-périodique de ce système.
2. Soit R(t, s) la résolvante de l’équation linéarisée de (4.14) autour de la solution
x̄(·). Montrer que x̄′ (0) est un vecteur propre de la matrice R(2π, 0) associé à la
valeur propre 1.
3. Écrire l’équation linéarisée de (4.14) autour de x̄(·).
4. Montrer que det R(t, 0) est solution d’une équation différentielle; en déduire
det R(2π, 0).
5. Calculer les valeurs propres de la matrice R(2π, 0) et montrer qu’elle est diag-
onalisable dans R.
6. En déduire le comportement asymptotique des solutions de (4.14) dont les con-
ditions initiales x(0) sont proches du cercle unité.
Corrigé de l’exercice 4.6.
1. Évident, il suffit de remplacer dans l’équation.
2. Soit φt le flot de l’équation différentielle (4.14). Puisque x̄(·) est définie sur
[0, 2π] (sur
- tout
. R en fait), l’application φ2π est définie sur un voisinage V de x̄(0)
et Dφ2π x̄(0) = R(2π, 0). - .
Or, pour t suffisamment petit, x̄(t) appartient à V et x̄(t) = x̄(t + 2π) = φ2π x̄(t) ,
puisque la solution est 2π-périodique. En dérivant cette égalité en t = 0, on obtient
d - . - .
x̄′ (0) = φ2π x̄(t) |t=0 = Dφ2π x̄(0) · x̄′ (0),
dt
c’est-à-dire R(2π, 0)x̄′ (0) = x̄′ (0). Ainsi R(2π, 0) admet 1 pour valeur propre, un
vecteur propre associé étant x̄′ (0).
3. Notons f (x) le champ de vecteur définissant l’équation différentielle -(4.14). .
L’équation linéarisée est l’équation linéaire y ′ (t) = A(t)y(t) où A(t) = Df x̄(t) .
Calculons d’abord Df :
+ - . ,
1 − x21 + x22 − 2x21 −1 − 2x1.x2
-
Df (x) = ,
1 − 2x1 x2 1 − x21 + x22 − 2x22
et donc + ,
−2 cos2 t −1 − 2 cos t sin t
A(t) = .
1 − 2 cos t sin t −2 sin2 t

114
4.5 Exercices corrigés

4. Il suffit d’appliquer la proposition 3.3. Ici la trace de A(t) est égale à −2. On a
donc 8
- 2π .
det R(2π, 0) = exp tr A(t)dt = e−4π .
0
5. Connaissant une valeur propre de R(2π, 0), 1, et son déterminant, on en déduit
la valeur de l’autre valeur propre : e−4π . Les deux valeurs propres étant réelles et
distinctes, R(2π, 0) est diagonalisable dans R.
6. Intuitivement, la question peut se comprendre de la façon suivante. Soit
x̄(0) + δv une condition initiale proche de x̄(0). La solution de (4.14) issue de
cette condition initiale se trouve en un point φ2π (x̄(0) + δv) proche de x̄(0) “après
un tour”, i.e. au bout d’un temps 2π. Au bout de k tours, la solution se trouve au
point φ2kπ (x̄(0) + δv). La question est : s’est-on rapproché ou éloigné de x̄(0)?
Remarquons que Dφ2kπ (x̄(0)) = R(2π, 0)k , ce qui entraı̂ne

φ2kπ (x̄(0) + δv) = R(2π, 0)k δv + o(∥δv∥). (4.15)

Or R(2π, 0) est e−4π -contractante dans la direction transverse à l’orbite de x̄(·) :


R(2π, 0)k est donc e−4kπ -contractante dans cette direction, ce qui implique que le
vecteur R(2π, 0)k δv tend à être tangent à x̄(t). Ainsi une solution issue d’un point
voisin de x̄(0) tend à se rapprocher de l’orbite de x̄(·).
Le raisonnement précédent n’est cependant pas rigoureux : dans le développement
limité (4.15), le terme o(∥δv∥) dépend de k. Pour obtenir une vraie preuve, on va
plutôt utiliser l’application premier retour de Poincaré (voir la proposition 4.6).
Soit v un vecteur propre associé à la valeur propre e−4π . On a vu à la question
2 que x̄′ (0) est un vecteur propre associé à la valeur propre 1 : v et x̄′ (0) sont
donc linéairement indépendants et l’hyperplan Σ = x̄(0) + Rv est transverse à x̄(·)
en x̄(0). Il existe alors un voisinage V de x̄(0) et η : V → R telle que, pour tout
z ∈ V ∩ Σ, on a φ2π+η(z) (z) ∈ Σ.
L’application de premier retour de Poincaré G : V ∩ Σ → Σ est définie par

G(z) = φ2π+η(z) (z).


- . - .
Sa différentielle est DG x̄(0) = Dφ2π x̄(0) |Rv = (e−4π ). Puisque e−4π < 1, G est
contractante : il en résulte que toute solution issue d’une condition initiale dans
V est définie pour tout t ≥ 0 et se rapproche à chaque tour un peu plus de x̄(0).
Autrement dit, les solutions proches du cercle unité “spiralent” vers lui.

Exercice 4.7 (non corrigé).


On s’intéresse à l’équation différentielle x′ = f (x) dans Rn définie par le champ de
vecteurs
f (x) = Ag(AT x),

115
4 Théorie générale des équations différentielles

où A est une matrice de Mn (R) et g : Rn → Rn est une application C 1 telle que
g(0) = 0 et Dg(x) est antisymétrique, ∀x ∈ Rn . On notera φt le flot de x′ = f (x).

1. Calculer φt (0).
2. Calculer la différentielle Df (x) et montrer qu’elle est antisymétrique.
3. Soit R(t, s) la résolvante de l’équation linéarisée autour d’une solution x(·) de
l’équation différentielle. Montrer que ∥R(t, s)∥ = 1.
4. En déduire que ∥φt (x)∥ ≤ ∥x∥ pour tout x ∈ Rn .

116
5
Stabilité des équilibres

5.1 Équilibres et stabilité


Considérons l’équation différentielle autonome
- .
x′ (t) = f x(t) , (5.1)
où le champ de vecteurs f : Ω ⊂ Rn → Rn est supposé de classe C 1 .
Définition 5.1. On dit qu’un point x0 ∈ Ω est un équilibre de (5.1) si la fonction
constante x(·) ≡ x0 est solution de (5.1) ou, de façon équivalente, si f (x0 ) = 0
(vérifier que c’est bien équivalent!).
Autrement dit, φt (x0 ) = x0 pour tout t ∈ R, où φ est le flot du champ de vecteurs
f (l’intervalle maximal associé à x0 étant Ix0 = R). L’orbite de x0 est donc réduite
à un point : Ox0 = {x0 }.
Quand l’équation (5.1) modélise l’évolution d’un phénomène physique (mécanique,
biologique, écologique, . . . ), un équilibre correspond bien à la notion habituelle
« d’état d’équilibre » : si le système est dans l’état x0 , alors il y reste (et il y a
toujours été). En pratique on sait cependant que seuls les états d’équilibre ayant
certaines propriétés de stabilité sont significatifs.
Définition 5.2. Nous dirons qu’un équilibre x0 est stable si, pour tout ϵ > 0, il
existe δ > 0 tel que
∥x − x0 ∥ < δ et t>0 =⇒ ∥φt (x) − x0 ∥ < ϵ.
Ainsi, toute solution proche de x0 en reste proche.
Remarque 5.1. Toute solution dont la condition initiale est dans une boule B(x0 , δ)
reste dans la boule B(x0 , ϵ), et donc dans un compact de Ω, pour t > 0 (on
suppose ϵ suffisamment petit pour que B̄(x0 , ϵ) ⊂ Ω). D’après la proposition 4.2,
ces solutions sont donc définies pour tout t > 0.
5 Stabilité des équilibres

Définition 5.3. Nous dirons qu’un équilibre x0 est asymptotiquement stable si il


est stable et si il existe un voisinage V de x0 tel que, pour tout x ∈ V ,

lim φt (x) = x0 .
t→∞

Dans ce cas toute solution proche de l’équilibre en reste proche et en plus converge
vers lui. Notons que le fait que toute solution issue d’un voisinage V converge vers
x0 n’implique pas la stabilité de cet équilibre : il existe des systèmes possédant un
équilibre non stable x0 mais dont toutes les trajectoires convergent vers X0 .

Le cas linéaire

Considérons le cas particulier d’une équation différentielle autonome linéaire

x′ (t) = Ax(t), x ∈ Rn .

L’origine est toujours un équilibre de cette équation (mais il peut y en avoir


d’autres : tout élément de ker A est un équilibre). L’étude réalisée dans la sec-
tion 2.4 permet de caractériser la stabilité de cet équilibre.

Proposition 5.1.
• L’origine est un équilibre asymptotiquement stable de x′ = Ax si et seulement
si toutes les valeurs propres de A sont de partie réelle strictement négative, i.e.
Rn = E s .
• Si A a au moins une valeur propre de partie réelle strictement positive, alors
l’origine n’est pas un équilibre stable de x′ = Ax.

Ces deux propriétés sont importantes car, comme nous allons le voir dans la section
suivante, elles se généralisent au cas non linéaire.
Notons que l’origine peut être un équilibre stable mais non asymptotiquement
stable. C’est une situation que l’on rencontre quand A a des valeurs propres de
partie réelle nulle, par exemple quand A est antisymétrique (voir proposition 3.4
et la discussion qui suit). On a représenté figure 5.1 des portraits de phase dans R2
correspondant à une matrice antisymétrique (cas a) et une autre dont les valeurs
propres ont une partie réelle < 0 (cas b).
Remarquons enfin que l’on peut donner une condition nécessaire et suffisante de
stabilité :
l’origine est un équilibre stable de x′ = Ax si et seulement si toutes les valeurs
propres de A sont de partie réelle négative ou nulle et si pour toute valeur propre
de partie réelle nulle, les multiplicités algébrique et géométrique coı̈ncident, (c’est-
à-dire Rn = E s + E c et A|E c est diagonalisable dans C).

118
5.2 La stabilité par la linéarisation

x2 x2
y1 y2 y1 y2

x1 x1

Cas a. Équilibre stable mais non Cas b. Équilibre asymptotiquement


asymptotiquement stable stable

Fig. 5.1. Exemples de portraits de phase stables pour f (x) = Ax avec A ∈ M2 (R).

Le cas affine

Considérons maintenant un champ de vecteurs affine f (x) = Ax + b sur Rn , où


A ∈ Mn (R) est une matrice et b ∈ Rn un vecteur. Un équilibre de l’équation

x′ (t) = Ax(t) + b

est un point x0 qui vérifie Ax0 + b = 0 (noter qu’un tel point n’existe que si
b ∈ Im A). En remplaçant b par −Ax0 , on réécrit l’équation différentielle sous la
forme
d
(x(t) − x0 ) = A(x(t) − x0 ).
dt
Ainsi la stabilité et la stabilité asymptotique d’un équilibre de l’équation affine
x′ (t) = Ax(t) + b sont équivalentes respectivement à celles de l’origine pour
l’équation linéaire y ′ (t) = Ay(t).

5.2 La stabilité par la linéarisation

Soit x0 un équilibre de l’équation différentielle (5.1). Nous allons montrer dans


les deux théorèmes suivants que l’étude des valeurs propres de la matrice Df (x0 )
permet généralement de caractériser la stabilité de l’équilibre.

Théorème 5.1. Si toutes les valeurs propres de Df (x0 ) sont de partie réelle
strictement négative, alors x0 est un équilibre asymptotiquement stable.

119
5 Stabilité des équilibres

Remarque 5.2. Contrairement au cas des équations linéaires, la condition donnée


dans ce théorème est suffisante mais pas nécessaire. Prenons par exemple l’équation
y ′ (t) = −y 3 (t) dans R. L’équilibre 0 ne satisfait pas la condition du théorème
puisque Df (0) = 0. En revanche c’est un équilibre asymptotiquement stable
puisque la solution valant y0 ̸= 0 en t = 0 est

signe(y0 )
y(t) = @ , t ≥ 0,
2t + y12
0

qui est décroissante et converge vers 0 quand t → +∞.


*Démonstration. Pour simplifier, on se ramène par translation à x0 = 0. D’après l’hypothèse,
il existe α > 0 tel que −α est strictement supérieur à la partie réelle de toute valeur propre de
Df (0). D’après un résultat classique d’algèbre linéaire, il existe alors un produit scalaire ⟨·, ·⟩α
sur Rn tel que
⟨Df (0)x, x⟩α ≤ −α∥x∥2α , ∀x ∈ Rn ,
où ∥ · ∥α est la norme associé au produit scalaire ⟨·, ·⟩α (le résultat est clair quand Df (0) est
diagonalisable, sinon il se montre en utilisant la décomposition de Jordan, voir [3, th. 1.4.3]).
Or, par définition de la différentielle,

⟨f (x), x⟩α = ⟨Df (0)x, x⟩α + o(∥x∥2α ).

Ainsi, pour x suffisamment proche de 0, disons ∥x∥ < δ, on obtient


α
⟨f (x), x⟩α ≤ − ∥x∥2α .
2
◃ Prenons maintenant un point v ̸= 0 vérifiant ∥v∥ < δ et notons x(t) = φt (v) la solution issue
de v. On peut choisir un temps t0 > 0 suffisamment petit pour que ∥x(t)∥ < δ pour tout t ∈ [0, t0 ].
La fonction t .→ ∥x(t)∥α est dérivable (car x(t) ̸= 0 ∀t), et

d ⟨x′ (t), x(t)⟩α ⟨f (x(t)), x(t)⟩α α


∥x(t)∥α = = ≤ − ∥x(t)∥α . (5.2)
dt ∥x(t)∥α ∥x(t)∥α 2

Ceci implique d’abord que ∥x(t)∥α est décroissante : x(t) reste donc confinée dans le compact
∥x∥α ≤ ∥v∥α , ce qui entraı̂ne que x(·) est définie pour tout t > 0 (proposition 4.2). D’autre part,
l’équation ci-dessus peut se réécrire
d' ( α
ln ∥x(t)∥α ≤ − ,
dt 2
ce qui implique, après intégration,
α
∥x(t)∥α ≤ e− 2 t ∥v∥α .

Finalement, on a montré que, si ∥v∥ < δ, alors φt (v) reste dans Bα (0, δ) (la boule de rayon δ pour
la norme ∥ · ∥α ) et tend vers 0, ce qui montre que 0 est un équilibre asymptotiquement stable.
#

En complément de cette condition suffisante de stabilité asymptotique, on dispose


d’une condition nécessaire de stabilité, dont on trouvera la preuve dans [5] ou [6].

120
5.2 La stabilité par la linéarisation

Théorème 5.2. Si x0 est un équilibre stable, alors toutes les valeurs propres de
Df (x0 ) sont de partie réelle négative ou nulle.

On utilisera généralement la contraposée de ce théorème : si Df (x0 ) a au moins


une valeur propre de partie réelle strictement positive, alors l’équilibre x0 n’est pas
stable.

Remarque 5.3. Dans le cas où n = 2, il est très pratique d’utiliser le déterminant
et la trace de Df (x0 ) pour caractériser le signe des parties réelles de ses valeurs
propres (voir la remarque 2.6. Conjugué aux deux théorèmes précédents, cela donne
les critères suivant, très simples à utiliser :
• si det Df (x0 ) < 0, ou det Df (x0 ) > 0 et tr Df (x0 ) > 0, alors l’équilibre x0
n’est pas stable;
• det Df (x0 ) > 0 et tr Df (x0 ) < 0, alors l’équilibre x0 est asymptotiquement
stable.

Il est important de noter que les réciproques des théorèmes 5.1 et 5.2 sont fausses,
comme le montre l’exemple ci-dessous. La stabilité d’un équilibre n’est donc pas
forcément déterminée par le linéarisé. Nous allons ensuite introduire une classe
d’équilibres pour lesquels les réciproques des théorèmes 5.1 et 5.2 sont vérifiées.

Exemple 5.1. Considérons deux équations différentielles dans R2 ,


+ , + ,
′ x2 − x1 (x21 + x22 ) ′ x2 + x1 (x21 + x22 )
x = f (x) = et x = g(x) = ,
−x1 − x2 (x21 + x22 ) −x1 + x2 (x21 + x22 )

où x = (x1 , x2 ). Ces deux équations ont pour unique équilibre 0. Leurs linéarisés
en 0 sont égaux, + ,
0 1
Df (0) = Dg(0) = ,
−1 0
et ont pour valeurs propres ±i, dont la partie réelle est évidemment nulle! Cepen-
dant l’équilibre 0 est asymptotiquement stable dans le premier cas alors qu’il n’est
pas stable dans le deuxième.
En effet, posons ρ(x) = x21 + x22 . Si x(·) est une solution de l’équation x′ = f (x),
alors
d - . - .
ρ x(t) = 2(x1 x′1 + x2 x′2 ) = −2ρ2 x(t) .
dt
- .
Ainsi ρ x(t) = ∥x(t)∥2 est décroissant et tend vers 0 quand t → +∞, ce qui
implique que 0 est asymptotiquement stable pour l’équation x′ = f (x).
De même, si x(·) est une solution de l’équation x′ = g(x), on obtient
d - . - .
ρ x(t) = 2ρ2 x(t) .
dt

121
5 Stabilité des équilibres

- .
Dans ce cas, ρ x(t) = ∥x(t)∥2 tend vers l’infini en temps fini (phénomène
d’explosion), ce qui implique que l’équilibre 0 n’est pas stable pour l’équation
x′ = g(x).

Équilibres hyperboliques

Définition 5.4. Un équilibre x0 est dit hyperbolique si toutes les valeurs propres
de Df (x0 ) ont une partie réelle non nulle.

Les équilibres hyperboliques jouent un rôle important en pratique puisque, comme


nous l’avons vu à la fin de la section 2.4, la classe des matrices hyperboliques est
ouverte et dense dans Mn (R).
D’après les deux théorèmes précédents, la stabilité d’un équilibre hyperbolique x0
est totalement caractérisée par le signe des parties réelles des valeurs propres de
Df (x0 ).

Corollaire 5.1. Un équilibre hyperbolique est soit asymptotiquement stable (si les
valeurs propres de Df (x0 ) sont toutes de partie réelle négative), soit non stable.

Ainsi, un équilibre hyperbolique x0 est stable (resp. asymptotiquement stable) si


et seulement si 0 est un équilibre stable (resp. asymptotiquement stable) pour
l’équation linéarisée en x0 ,

y ′ (t) = Df (x0 ) · y(t). (5.3)

On a en fait beaucoup plus : les portraits de phase du système et de son linéarisé


ont la même allure car ils sont topologiquement équivalents (voir Hartman [4, th.
7.1]).

Théorème 5.3 (d’Hartman-Grobmann). Soit x0 un équilibre hyperbolique.


Notons φLt : y (→ e
tDf (x0 ) y le flot du linéarisé en x . Alors il existe un homéo-
0
morphisme h : Vx0 → V0 , où Vx0 et V0 sont des voisinages respectivement de x0 et
0 dans Rn , tel que - . - .
φL
t h(x) = h φt (x) ,

partout où ces expressions ont un sens.

On utilisera ce résultat en particulier pour dénombrer les orbites stables et instables


en un équilibre. On dit qu’une orbite O est une orbite stable (resp. une orbite
instable) en un équilibre x̄ si, pour tout x ∈ O, on a φt (x) → x̄ quand t →
+∞ (resp. quand t → −∞). Le théorème d’Hartman-Grobmann implique que
les orbites stables et instables en x0 sont les images par h−1 des orbites stables
et instables en 0 du linéarisé. Or, d’après le théorème 2.8, l’ensemble des orbites

122
5.3 Fonctions de Lyapunov

stables d’un système linéaire x′ = Ax est exactement égal à l’espace stable E s de


A, de même que l’ensemble des orbites instables est égal à E u . On sait ainsi que
l’ensemble des orbites stables (resp. instables) en x0 est l’image par h−1 de l’espace
stable (resp. instables) du linéarisé.
Par exemple, si l’espace stable du linéarisé est de dimension un, il est composé de
trois orbites, deux demi-droites et 0 lui-même. Il n’y a donc, en plus de l’équilibre,
que deux orbites stables en l’équilibre x0 .

5.3 Fonctions de Lyapunov


Il existe une autre approche que la linéarisation pour obtenir des résultats de
stabilité. Commençons par donner un exemple qui illustre l’idée générale.

Champs de gradient
Un champ de gradient est un champ de vecteurs de la forme
f (x) = −∇V (x),
où V : Ω ⊂ Rn → R est une fonction de classe C 2 (de façon à ce que f soit
de classe C 1 ). Rappelons que ∇V (x) désigne le gradient de V en x, c’est-à-dire
l’unique vecteur de Rn vérifiant
DV (x) · v = ⟨∇V (x), v⟩, ∀v ∈ Rn .
Quand le produit scalaire ⟨·, ·⟩ est le produit scalaire euclidien sur Rn , le gradient
∂V ∂V
s’écrit en coordonnées comme ∇V (x) = ( ∂x 1
(x), . . . , ∂x n
(x)).
Un équilibre x0 de ce champ de vecteur est un point critique de V , i.e. ∇V (x0 ) = 0.
Un équilibre peut donc être un minimum local, un maximum local, ou un point
selle, mais nous allons voir que seuls les minima locaux peuvent être des équilibres
stables.
La dynamique associée à un champ de gradient possède en effet une propriété qui
la rend ′
- assez
. simple. Si x(·) est une solution de l’équation différentielle x (t) =
−∇V x(t) , alors
dA - .B - . - .
V x(t) = DV x(t) · x′ (t) = −∥∇V x(t) ∥2 , (5.4)
dt
- .
pour tout t dans l’intervalle de définition de x(·). Ainsi V x(t) est soit constante,
et dans ce cas x(t) ≡ x0 est un point critique, soit strictement décroissante. Intu-
itivement, ceci signifie que toute solution tend à se rapprocher d’un minimum, et
donc (nous le montrerons plus loin) que :
• si un équilibre x0 n’est pas un minimum local (i.e. x0 est un maximum local
ou un point selle), alors x0 n’est pas un équilibre stable;
• si x0 est un minimum local strict, alors x0 est un équilibre stable.

123
5 Stabilité des équilibres

Fonctions de Lyapunov

Considérons maintenant une équation différentielle autonome quelconque


- .
x′ (t) = f x(t) , (5.1)

associée à un champ de vecteurs f : Ω ⊂ Rn → Rn de classe C 1 . L’exemple des


champs de gradient suggère d’introduire la définition suivante.

Définition 5.5. Soient x0 un équilibre de (5.1), U ⊂ Ω un voisinage de x0 et


L : U → R une fonction continue. On dit que L est une fonction de Lyapunov
pour (5.1) en x0 si :
(a) L(x0 ) = 0 et L(x) > 0 pour x ∈ U , x ̸= x0 (x0 est un minimum strict de L
sur U ); - .
(b) pour tout x ∈ U , la fonction t (→ L φt (x) est décroissante.
Si de plus L satisfait
- .
(c) pour tout x ∈ U , x ̸= x0 , la fonction t (→ L φt (x) est strictement décroissante,
on dit que L est une fonction de Lyapunov stricte pour (5.1) en x0 .

Quand L est de classe C 1 , les conditions (b) et (c) sont impliquées respectivement
par les conditions suivantes :
(b)′ ⟨∇L(x), f (x)⟩ ≤ 0 pour tout x ∈ U ;
(c)′ ⟨∇L(x), f (x)⟩ < 0 pour tout x ∈ U , x ̸= x0 .

Théorème 5.4. Si l’équation différentielle (5.1) admet un fonction de Lyapunov


en un équilibre x0 , alors x0 est un équilibre stable. Si de plus la fonction de Lya-
punov est stricte, alors x0 est asymptotiquement stable.
*Démonstration. Soit L : U → R la fonction de Lyapunov. Quitte à remplacer U par une
boule fermée centrée en x0 , on le suppose compact. Pour tout ε > 0, il existe alors α > 0 tel que
l’ensemble Uα = {x ∈ U : L(x) ≤ α} est inclus dans la boule ouverte B(x0 , ε) (en effet, sinon il
existe une suite de points xn ∈ U en dehors de B(x0 , ε) vérifiant lim L(xn ) = 0; U étant compact,
xn a alors un point d’accumulation x̄ ̸= x0 , qui doit vérifier L(x̄) = 0, ce qui est impossible
d’après la propriété (a)).
Or, d’après la propriété (b) de L, pour tout x ∈ Uα , la solution φt (x) est confinée dans Uα ; ceci
montre la stabilité de l’équilibre x0 .
◃ Supposons maintenant que L est une fonction de Lyapunov stricte. D’après ce qui précède, on
peut choisir un réel α > 0 tel que Uα soit inclus dans l’intérieur de U . Notons que Uα est compact
(fermé car L est continue' et (borné car inclus dans U ). Considérons un point x ∈ Uα différent de
x0 . La fonction t .→ L φt (x) étant strictement décroissante et minorée par 0, elle a une limite
ℓ quand t → +∞. D’autre part, Uα étant compact, il existe une suite tn , tn → +∞, telle que
φtn (x) est convergente. Notons x̄ la limite de cette dernière suite. Par continuité de L, x̄ vérifie
' ( ' (
L(x̄) = lim L φtn (x) = lim L φt (x) = ℓ.
tn →∞ t→∞

124
5.3 Fonctions de Lyapunov

De plus, pour tout s > 0, on a


' ( ' (
L φs (x̄) = lim L φs+tn (x) = ℓ,
tn →∞
' (
ce qui montre que s .→ L φs (x̄) ≡ L(x̄) n’est pas décroissante, et donc, d’après la propriété (c)
de L, que x̄ = x0 .
Ainsi, le seul point d’accumulation de φt (x) est x0 , ce qui montre que limt→∞ φt (x) = x0 pour
tout x dans le voisinage Uα de x0 . L’équilibre x0 est donc asymptotiquement stable. #

Pour un équilibre asymptotiquement stable x0 , on appelle bassin d’attraction


l’ensemble des points x ∈ Ω tels que φt (x) → x0 quand t → +∞. Par définition de
la stabilité asymptotique, le bassin d’attraction contient un voisinage de x0 . Une
question importante en pratique est de déterminer la taille de ce bassin, voire le
bassin lui-même. Le domaine de définition d’une fonction de Lyapunov stricte, si
il en existe une, donne des éléments de réponse à cette question.

Théorème 5.5. Considérons une équation différentielle (5.1) définie sur Rn .


Supposons qu’elle admette en un équilibre x0 une fonction de Lyapunov stricte
L : Rn → R telle que

∥x∥ → ∞ ⇒ L(x) → ∞. (5.5)

Alors le bassin d’attraction de x0 est Rn tout entier. On dit dans ce cas que
l’équilibre x0 est globalement asymptotiquement stable.
*Démonstration. Soit x ∈ Rn et α = L(x). La condition (5.5) implique que Uα = {y ∈ Rn :
L(y) ≤ α} est borné, et donc compact. On montre alors que limt→∞ φt (x) = x0 exactement de
la même façon que dans la preuve du théorème 5.4. #

Remarque 5.4. La preuve ci-dessus peut être trivialement adaptée au cas où le
domaine de définition est un ouvert Ω et non Rn tout entier. La condition (5.5)
sur la fonction de Lyapunov stricte L : Rn → R doit simplement être remplacée
par :

x → ∂Ω ⇒ L(x) → ∞.

Plus généralement, si L : U → R est une fonction de Lyapunov stricte en x0 et


P ⊂ U est un sous-ensemble compact de Ω positivement invariant par le flot (i.e.
φt (P ) ⊂ P pour tout t ≥ 0), alors P est inclus dans le bassin d’attraction de x0 . Par
exemple, les ensembles de niveau {x ∈ U : L(x) ≤ α} pour α suffisamment petit
sont compacts et positivement invariants, donc inclus dans le bassin d’attraction.

125
5 Stabilité des équilibres

Exemples d’application

a. Champs de gradient

Reprenons le cas d’un champ de gradients f (x) = −∇V (x). Supposons que x0 soit
un minimum local strict de V , c’est-à-dire l’unique minimum de V sur un voisinage
U de x0 . La fonction V restreinte à U est bien une fonction de Lyapunov en x0 , la
propriété (b)′ étant toujours satisfaite d’après la formule (5.4). Donc x0 est bien
un équilibre stable.

b. Champ de force conservatif

Considérons un objet de masse m soumis à une force dérivant d’un potentiel V (x).
L’évolution de l’état x ∈ Rn de l’objet au cours du temps est régi par le principe
fondamental de la dynamique :
- .
mx′′ (t) = −∇V x(t) ,

que l’on réécrit + ,′ + ,


x x′ (t)
- .
(t) = 1 .
x′ − m ∇V x(t)
Autrement dit, (x, x′ ) est solution de l’équation différentielle dans R2n
- . - 1 .
(x, v)′ (t) = f (x, v)(t) , où f (x, v) = v, − ∇V (x) .
m
Un équilibre de cette équation différentielle est un point (x0 , 0) ∈ R2n où x0 est
un point critique du potentiel V (x).
Supposons que x0 soit un minimum local strict de V et cherchons une fonction de
Lyapunov. Essayons à partir de l’énergie totale du système :
1
E(x, v) = m∥v∥2 + V (x).
2
En posant L(x, v) = E(x, v) − V (x0 ), on obtient une fonction qui satisfait
- la pro-
.
priété (a) d’une fonction de Lyapunov. De plus, comme ∇L(x, v) = ∇V (x), mv ,
on obtient
⟨∇L(x, v), f (x, v)⟩ ≡ 0,
(c’est la conservation de l’énergie!), c’est-à-dire la propriété (b)′ . La fonction L
est donc bien une fonction de Lyapunov en (x0 , 0), ce qui montre le résultat bien
connu (théorème de Lagrange) : si l’énergie potentielle V (x) a un minimum local
strict en x0 , l’équilibre (x0 , 0) est stable.

Remarque 5.5.

126
5.3 Fonctions de Lyapunov

• L’équilibre (x0 , 0) ne peut pas être asymptotiquement stable : la fonction de


Lyapunov L(x, v) étant constante le long d’une solution (x, v)(·) ̸≡ (x0 , 0), elle
ne peut tendre vers 0, ce qui implique que (x, v)(t) ne peut pas tendre vers
(x0 , 0).
• L’approche par linéarisation n’aurait pas permis de conclure ici car (x0 , 0) n’est
pas un équilibre hyperbolique (exercice : le montrer).

c. Champ de vecteur linéaire

Considérons une équation différentielle linéaire

x′ (t) = Ax(t), x ∈ Rn ,

et supposons que toutes les valeurs propres de A sont de partie réelle strictement
négative. On a vu (proposition 5.1) que dans ce cas l’origine est un équilibre asymp-
totiquement stable. Cherchons une fonction de Lyapunov pour cette équation en
0. On pose 8 ∞
L(x) = ∥esA x∥2 ds.
0
D’après le théorème 2.8, si −α < 0 est strictement plus grand que les parties réelles
de toutes les valeurs propres de A, alors

∥esA x∥ ≤ Ce−αs ∥x∥, ∀s ≥ 0, ∀x ∈ Rn .

Ainsi L(x) est définie par une intégrale convergente. Montrons que c’est une fonc-
tion de Lyapunov stricte en 0. La propriété (a) est clairement satisfaite. Mon-
trons maintenant la propriété (c)′ . On calcule d’abord la différentielle de L par
différentiation sous le signe somme :
8 ∞ 8 ∞
- sA 2 .
DL(x) · v = D ∥e x∥ · v ds = 2 ⟨esA x, esA v⟩ ds.
0 0

Calculons alors ⟨∇L(x), Ax⟩ = DL(x) · (Ax) pour x ̸= 0 :


8 ∞
⟨∇L(x), Ax⟩ = 2 ⟨esA x, esA Ax⟩ ds
0
8 ∞
d - sA 2 .
= ∥e x∥ ds
0 dt
= −∥x∥2 < 0,

ce qui montre que L est une fonction de Lyapunov stricte en 0.

127
5 Stabilité des équilibres

d. Nouvelle preuve du théorème 5.1


Considérons un équilibre x0 de l’équation différentielle
- .
x′ (t) = f x(t) ,
et supposons que toutes les valeurs propres de Df (x0 ) sont de partie réelle stricte-
ment négative. Nous allons montrer que l’équation admet une fonction de Lya-
punov stricte en x0 , ce qui donnera une nouvelle preuve du théorème 5.1.
Quitte à faire une translation, on suppose x0 = 0 et on pose
8 ∞
L(x) = ∥esDf (0) x∥2 ds
0
(c’est-à-dire, d’après le paragraphe précédent, que L est la fonction de Lyapunov
associée à l’équation linéaire y ′ (t) = Df (0) · y(t)). La propriété (a) d’une fonction
de Lyapunov est bien vérifiée. Remarquons d’autre part que
f (x) = Df (0) · x + o(∥x∥).
En utilisant le paragraphe précédent, on obtient
⟨∇L(x), f (x)⟩ = ⟨∇L(x), Df (0) · x⟩ + ⟨∇L(x), o(∥x∥)⟩
8 ∞
2
= −∥x∥ + 2 ⟨esDf (0) x, esDf (0) o(∥x∥)⟩ ds.
0

Le terme dans la dernière intégrale est un o(∥x∥2 ), donc pour ∥x∥ suffisamment
petit, x ̸= 0, on obtient
1
⟨∇L(x), f (x)⟩ ≤ − ∥x∥2 < 0,
2

c’est-à-dire la propriété (c) . La fonction L est donc une fonction de Lyapunov
stricte en x0 = 0, ce qui montre que cet équilibre est asymptotiquement stable.

5.4 Exercices corrigés


Exercice 5.1. L’analyse des circuits électriques RLC conduit à des équations
différentielles sur R2 du type

⎪ di

⎨ L = v − h(i),
dt
(5.6)

⎩ C dv = −i,

dt
où h : R → R est une fonction de classe C 1 . Les variables v et i sont respectivement
un voltage et une intensité et les constantes positives L et C une résistance et une
capacité. L’énergie du système est E(i, v) = 12 (Li2 + Cv 2 ).

128
5.4 Exercices corrigés

1. Déterminer l’équilibre de l’équation (5.6) et discuter sa stabilité en fonction de


h′ (0).
2. Supposons que h vérifie xh(x) > 0 pour x ̸= 0. Montrer que l’équilibre est
asymptotiquement stable et déterminer son bassin d’attraction.

Corrigé de l’exercice 5.1.

1. L’équilibre est le point i = 0, v = h(0). Le linéarisé de l’équation différentielle


en ce point est y ′ (t) = Ay(t), où
⎛ ⎞
h′ (0) 1

⎜ L L⎟ .
A=⎝ ⎠
1
− 0
C
Remarquons que det A = 1/(LC) > 0. Les valeurs propres de A ont donc des
parties réelles de même signe, qui est aussi le signe de tr A = −h′ (0)/L (d’après la
remarque 2.6). On en conclut que :
• si h′ (0) > 0, l’équilibre est asymptotiquement stable;
• si h′ (0) < 0, l’équilibre n’est pas stable;
• si h′ (0) = 0, l’équilibre n’est pas hyperbolique, on ne peut rien dire en utilisant
le linéarisé.
2. Notons d’abord que l’hypothèse sur h implique h(0) = 0. L’équilibre est donc
l’origine. Essayons de montrer que l’énergie E(i, v) = 21 (Li2 +Cv 2 ) est une fonction
de Lyapunov stricte en 0. On a déjà :
• 0 est un minimum strict de E;
• dEdt = −ih(i) < 0 si i ̸= 0.
On a donc montré que, le long d’une trajectoire x(t) = (i(t), v(t)), la fonc-
tion E(x(t)) est strictement décroissante tant que i(t) ̸= 0. Or, si x(t) n’est
pas identiquement nulle, les instants t0 où i(t0 ) = 0 sont isolés puisqu’alors
i′ (t0 ) = v(t0 ) ̸= 0. Ainsi dE
dt < 0 presque partout le long d’une trajectoire; on
en déduit que E(x(t)) est strictement décroissante.
Par conséquent la fonction E : R2 → R est une fonction de Lyapunov stricte en
0, ce qui montre que 0 est un équilibre asymptotiquement stable. Comme de plus
E(x) → ∞ quand ∥x∥ → ∞, le bassin d’attraction de 0 est R2 tout entier.

Exercice 5.2.
Modèle micro-économique. Dans un modèle d’économie de pure accumulation,
on ne fait pas apparaı̂tre explicitement le travail, toute production étant accumulée.
Le modèle est alors caractérisé par les fonctions de production des biens et par
les coefficients de dépréciation des capitaux. Considérons par exemple un modèle
comportant deux biens capitaux, 1 et 2. On note Yi la quantité de bien i produite

129
5 Stabilité des équilibres

et ki la quantité de bien i entrant comme capital dans la production. Les fonctions


de production sont de la forme
9
Y1 = λ1 k1α1 k2β1 ,
Y2 = λ2 k1α2 k2β2 ,

où les coefficients λi , αi et βi appartiennent à [0, 1]. Le coefficient de dépréciation


du capital i est un réel ρi ∈ [0, 1]. L’équation du système est donc
! ′
k 1 = Y 1 − ρ1 k 1 ,

k 2 = Y 2 − ρ2 k 2 .

Pour éviter des calculs fastidieux, on donne ci-dessous une équation différentielle
dont les solutions présentent les mêmes caractéristiques dynamiques que celles de
ce système, mais dont l’étude est plus simple. On encourage cependant le lecteur
courageux à reprendre les calculs, une fois l’exercice résolu, pour les adapter au
vrai système.
Considérons l’équation différentielle
! ′
k1 = k2 k1 − k13 ,
k2′ = k1 k2 − k23 ,

qui résulte d’un modèle micro-économique simplifié, les variables k1 et k2 pouvant


représenter des stocks de capitaux. On étudie l’évolution des stocks de capitaux,
que l’on suppose tous deux strictement positifs (à justifier).

1. Déterminer l’équilibre du système dans ]0, +∞[2 .


2. Étudier sa stabilité par linéarisation.
3. Étudier le portrait de phase dans ]0, +∞[2 : on montrera que toute solution de
l’équation différentielle a une limite puis que le bassin d’attraction de l’équilibre
est tout ]0, +∞[2 .

Corrigé de l’exercice 5.2.


- .
1. L’équation différentielle s’écrit k ′ (t) = f k(t) , avec k = (k1 , k2 ) ∈ ]0, +∞[2 et
D E
(k2 − k12 )k1
f (k) = .
(k1 − k22 )k2

Remarquons d’abord que f1 (k) = 0 sur l’axe Ok2 et que f2 (k) = 0 sur l’axe Ok1 ;
l’orbite d’un point sur l’axe Ok1 est donc contenue dans Ok1 , de même pour Ok2 .

130
5.4 Exercices corrigés

Il est donc impossible de traverser un axe, ce qui implique que, si les capitaux k1
et k2 sont positifs à l’instant initial, ils le restent au cours du temps.
Un équilibre satisfait f (k) = 0. Or

f1 (k) = 0 ⇒ k2 = k12 et f2 (k) = 0 ⇒ k1 = k22 ,

c’est-à-dire que le seul équilibre dans ]0, +∞[2 est

k̄ = (1, 1).

2. Calculons la différentielle du champ f :


F G F G
k2 − 3k12 k1 −2 1
Df (k) = ⇒ Df (k̄) = .
k2 k1 − 3k22 1 −2

Comme det Df (k̄) = 3 > 0 et tr Df (k̄) = −4 < 0, les deux valeurs propres de la
matrice ont des parties réelles strictement négatives. On en conclut que k̄ est un
équilibre asymptotiquement stable.

f1 = 0
k2

C B

f2 = 0

D A

k1

Fig. 5.2. Isoclines de f (k)

3. Séparons le quadrant positif en 4 régions, comme indiqué sur la figure 5.2. Nous
allons d’abord montrer que toute solution de l’équation différentielle est définie sur
[0, +∞[ et a une limite quand t → +∞.
Considérons d’abord la région D. Sur les bords de D, excepté en k̄, le champ de
vecteurs f est dirigé vers l’intérieur de D. Autrement dit, si k ∈ ∂D, k ̸= k̄, le flot

131
5 Stabilité des équilibres

φt (k) de f appartient à D pour t > 0 suffisamment petit. La région D est donc


positivement invariante par le flot, i.e. φt (D) ⊂ D.
Prenons alors une solution k(·) sur [0, +∞[ dont la condition initiale k(0) ∈ D. Elle
est contenue dans D, où f1 et f2 sont positives, donc k1 (t) et k2 (t) sont croissantes.
On en déduit que k(·) est incluse dans le compact {k1 ≥ k1 (0), k2 ≥ k2 (0)} ∩ D̄,
ce qui implique qu’elle est définie sur tout [0, +∞[, et que ses coordonnées k1 (·) et
k2 (·) y sont croissantes : k(t) a donc une limite dans ce compact quand t → ∞.
Le même raisonnement vaut pour la région B : elle est positivement invariante et
toute solution k(·) contenue dans cette région a des coordonnées décroissantes :
k(·) est donc définie sur tout [0, +∞[ et k(t) a une limite dans B̄ quand t → ∞.
Considérons maintenant une solution k(·) dont la condition initiale k(0) appartient
à la région A. Il y a deux possibilités :
• soit la solution k(·) sort de A : elle entre alors soit dans B, soit dans D, et on
est ramené à l’étude précédente;
• soit k(·) reste dans A : les coordonnées k1 (·) et k2 (·) sont alors respectivement
décroissantes et croissantes, toutes les deux bornées : pour tout t ≥ 0 où k(t)
est définie, on a k1 (t) ≤ k1 (0), k2 (0) ≤ k2 (t) et :
4 4 4 4
k1 (t) ≥ k2 (t) ≥ k2 (0) et k2 (t) ≤ k1 (t) ≤ k1 (0).
Comme ci-dessus, on en déduit d’une part que k(t) est définie pour tout t ≥ 0
et d’autre part que, quand t → ∞, k(t) a une limite appartenant à ]0, +∞[2 .
Le même raisonnement vaut pour la région C. On a donc montré que toute solution
de l’équation est définie sur [0, +∞[ et a une limite dans ]0, +∞[2 quand t → +∞.
Or nous avons vu dans un exercice précédent (question 7. de l’exercice 4.2) que,
si une solution a une limite, cette limite est un équilibre. Ainsi, la limite d’une
solution est toujours l’équilibre k̄. Ainsi, on a montré que le bassin d’attraction de
k̄ est tout le quadrant positif.
Exercice 5.3. Dans un bassin cylindrique en verre de rayon R > 0 contenant
un liquide nutritif se trouvent diverses espèces de parasites phototropes, c’est-à-
dire se dirigeant vers la lumière. Chaque espèce est caractérisée par sa vitesse de
déplacement v > 0.
Pour séparer ces diverses espèces, on place le récipient sur un plateau tournant à
la vitesse angulaire α > 0 et on dispose à proximité une source lumineuse fixe.
Dans un repère (O, x, y) fixe du plan où O est le centre du cylindre, les équations
du mouvement de l’espèce dont la vitesse de déplacement est v sont :
R−x
x′ = −αy + v 4 ,
(R − x)2 + y 2
y
y ′ = αx − v 4 ,
(R − x)2 + y 2

132
5.4 Exercices corrigés

la source lumineuse étant au point de coordonnées (R, 0).


On suppose que v < αR.

1. Montrer que l’équation différentielle admet un unique point d’équilibre, dont les
coordonnées (x∗ = r cos θ, y∗ = r sin θ) satisfont
v r
r= et cos θ = .
α R
4
On posera ρ = (R − x∗ )2 + y∗2 dans les calculs.
2. Montrer que P∗ est un équilibre asymptotiquement stable.
3. On admettra que P∗ est globalement asymptotiquement stable. Comment
séparer les différentes espèces de parasites?

Corrigé de l’exercice 5.3.

1. Si (x∗ , y∗ ) est un point d’équilibre on a par définition

R − x∗ y∗
αy∗ = v αx∗ = v .
ρ ρ
On a donc
(R − x∗ )2 + y∗2
α2 r 2 = v 2 ,
ρ2
v
soit r = α. De même si on fait le quotient des deux équations précédentes on
trouve
R
tg θ + cotg θ = ,
r sin θ
et donc cos θ = Rr . Comme sin θ est positif ceci détermine parfaitement θ.
2. Le linéarisé autour de l’équilibre P∗ a pour équation Y ′ = AY , où
⎛ ⎞
(R − x∗ )2 1 (R − x∗ )y∗
⎜v( ρ3
− ) −α + v
ρ ρ3 ⎟
⎜ ⎟
A = DF (P∗ ) = ⎜ ⎟.
⎝ (R − x∗ )y∗ y∗2 1 ⎠
α+v 3
v( 3 − )
ρ ρ ρ

Le déterminant det A = α2 est positif alors que la trace tr A = − vρ est négative. Par
conséquent (voir remarque 2.6) l’équilibre est toujours asymptotiquement stable.
3. On peut séparer les espèces puisque deux v différents donnent deux P∗ distincts
qui sont tous deux globalement attractifs. Il suffit de plonger une épuisette au bon
endroit...

133
5 Stabilité des équilibres

Exercice 5.4. Reprenons le modèle prédateur/proie de Volterra, déjà étudié dans


l’exercice 4.2 : + ,′ + ,
x (a − by)x
= .
y (f x − c)y

1. Déterminer les équilibres de cette équation dans R2 et discuter leur stabilité,


d’abord en étudiant le linéarisé, puis en cherchant si nécessaire une fonction de
Lyapunov.

Une des hypothèses du modèle de Volterra est que, en l’absence d’interactions, la


population des proies augmente indéfiniment alors que les prédateurs disparaissent
totalement. Ceci n’est pas très vraisemblable. Une hypothèse plus satisfaisante
est que, en l’absence d’interactions toujours, les populations obéissent à une loi
logistique,
x′ = (a − px)x, y ′ = −(c + qy)y,
où p, q > 0 sont des constantes. On obtient de cette façon un nouveau modèle
prédateur/proie,
9 ′ - .
x (t) = a − by(t) − px(t) x(t),
- . (5.7)
y ′ (t) = − c + f x(t) − qy(t) y(t).

On fera ici l’hypothèse que p est petit, et donc que c/f < a/p.

2. Déterminer les équilibres de cette équation dans (R+ )2 et étudier leur stabilité.
3. Déterminer le bassin d’attraction du seul équilibre asymptotiquement stable
(x̄, ȳ) appartenant à (R+ )2 .
Indication: par analogie avec le modèle de Volterra, on cherchera une fonction de
Lyapunov sous la forme
5x -x. 6 5y -y . 6
L(x, y) = K1 x̄ − log − 1 + K2 ȳ − log −1 .
x̄ x̄ ȳ ȳ
Corrigé de l’exercice 5.4.
- .
1. Notons F (x, y) = (a−by)x, (f x−c)y le champ de vecteurs défini par l’équation
de Volterra. Les équilibres de l’équation (c’est-à-dire les zéros de F ) sont 0 et
z̄ = (c/f, a/b). Calculons la différentielle de F :
+ ,
a − by −bx
DF (x, y) = .
fy fx − c

Les linéarisés autour des équilibres 0 et z̄ ont donc pour matrice, respectivement,

134
5.4 Exercices corrigés

+ , + ,
a 0 0 −bx̄
DF (0) = et DF (z̄) = .
0 −c f ȳ 0

Les valeurs propres de DF (0) sont a et −c : a étant positif, ceci montre que
l’équilibre 0 n’est pas stable (donc a fortiori pas asymptotiquement stable).
Les valeurs propres de DF (z̄) sont imaginaires pures, on ne peut donc rien en
conclure sur la stabilité de l’équilibre z̄. On va alors chercher une fonction de
Lyapunov : soit V la fonction trouvée à la question 2. de l’exercice 4.2,

V (x, y) = (f x − c log x) + (by − a log y),

et posons L(x, y) = V (x, y) − V (z̄). La fonction L : ]0, +∞[2 → R est une fonction
de Lyapunov (non stricte) pour l’équation de Volterra en z̄ car :
• L(z̄) = 0 et L(x, y) > 0 pour tout (x, y) ̸= z̄ dans ]0, +∞[2 , puisque z̄ est un
minimum strict de V sur ]0, +∞[2 ;
• L est constante le long des solutions de l’équation.
On en conclut que l’équilibre z̄ est stable. En revanche il n’est pas asymptotique-
ment stable, puisque, toute solution non triviale étant périodique et contenue dans
une ligne de niveau de L(x, y), elle ne peut tendre vers z̄ (c’était de toute façon
évident sur le portrait de phase).
- .
2. Notons G(x, y) = (a − px − by)x, (−c + f x − qy)y le champ de vecteur
définissant l’équation (5.7). Les équilibres de l’équation sont les solutions de
G(x, y) = 0, c’est-à-dire de :
!
px + by = a ou x = 0,
f x − qy = c ou y = 0.

Ce système a quatre solutions ! :


px1 + by1 = a,
• z1 = (x1 , y1 ) vérifiant
f x1 − qy1 = c;
• z2 = (a/p, 0);
• z3 = (0, −c/q);
• l’origine.
L’hypothèse c/f < a/p entraı̂ne que z1 ∈ (R+ )2 , ce qui est aussi le cas pour z2 et
0. En revanche z3 n’appartient pas à (R+ )2 .
Étudions maintenant la stabilité des trois équilibres de (R+ )2 , i.e. z1 , z2 et 0, en
utilisant que la différentielle de G est :
+ ,
a − 2px − by −bx
DG(x, y) = .
fy −c + f x − 2qy

• En z1 : la différentielle de G vaut

135
5 Stabilité des équilibres

+ ,
−px1 −bx1
DG(z1 ) = ,
f y1 −qy1

dont la trace est −(px1 + qy1 ) < 0 et le déterminant (pq + f b)x1 y1 > 0. Les
valeurs propres de cette matrice sont donc de partie réelle négative, ce qui
entraı̂ne que z1 est un équilibre asymptotiquement stable.
• En z2 : la différentielle de G vaut
+ ,
−a −(ab)/p
DG(z2 ) = ,
0 −c + (f a)/p

dont les valeurs propres sont −a et −c+(f a)/p. Comme c/f < a/p, la deuxième
valeur propre est positive, c’est-à-dire que l’équilibre z2 n’est pas stable.
• En 0: la différentielle de G vaut
+ ,
a 0
DG(0) = ,
0 −c

dont les valeurs propres sont a et −c. L’équilibre 0 n’est donc pas stable.
3. On a vu que le seul équilibre asymptotiquement stable de G est z1 . On sait déjà
que son bassin d’attraction est inclus dans le quadrant positif ]0, +∞[2 , puisque,
comme pour l’équation de Volterra, les axes Ox et Oy sont invariants par le flot
de G (c’est-à-dire que toute solution dont une valeur appartient à un de ces axes
est contenue dedans).
On va chercher à montrer que le bassin d’attraction de z1 est en fait tout le
quadrant positif. Commençons par trouver une fonction de Lyapunov stricte pour
G en z1 dont le domaine de définition soit ]0, +∞[2 . Par analogie avec la question
1, on va chercher cette fonction de Lyapunov L :]0, +∞[2 → R sous la forme :
5x -x. 6 5y -y. 6
L(x, y) = K1 x1 − log − 1 + K2 y1 − log −1
x1 x1 y1 y1
(notez que, quand p = q = 0, on retrouve la fonction de Lyapunov pour l’équation
de Volterra en prenant K1 = f , K2 = b).
Calculons d’abord le gradient et la hessienne de L :
+ , + ,
K1 (1 − xx1 ) 2 K1 xx21 0
∇L(x, y) = , ∇ L(x, y) = .
K2 (1 − yy1 ) 0 K2 yy12

Si K1 et K2 sont positifs, L est une fonction strictement convexe (hessienne définie


positive) dont l’unique minimum est z1 (le zéro du gradient).
Montrons maintenant que l’on peut choisir K1 et K2 positifs de façon à ce que L
soit strictement décroissante le long des solutions de (5.7), ou plutôt tels que

136
5.4 Exercices corrigés

⟨∇L(x, y), G(x, y)⟩ < 0 pour tout (x, y) ̸= z1 .

En notant G = (G1 , G2 ), on a
x1 y1
⟨∇L(x, y), G(x, y)⟩ = K1 (1 − )G1 (x, y) + K2 (1 − )G2 (x, y)
x y
G1 (x, y) G2 (x, y)
= K1 (x − x1 ) + K2 (y − y1 ) .
x y
Or a = px1 + by1 et c = f x1 − qy1 , ce qui permet d’écrire
G1 (x, y) G2 (x, y)
= −p(x − x1 ) − b(y − y1 ) et = f (x − x1 ) − q(y − y1 ).
x y
Ainsi,

⟨∇L(x, y), G(x, y)⟩ = −K1 p(x−x1 )2 −K2 q(y−y1 )2 +(−bK1 +f K2 )(x−x1 )(y−y1 ).

En prenant par exemple K1 = f et K2 = b, on obtient

⟨∇L(x, y), G(x, y)⟩ = −f p(x − x1 )2 − bq(y − y1 )2 < 0 pour tout(x, y) ̸= z1 .

On a donc trouvé une fonction de Lyapunov L stricte en z1 définie sur tout le


quadrant positif. Comme de plus L(x, y) tend vers l’infini quand (x, y) tend vers
un bord du quadrant (c’est-à-dire que les lignes de niveau de L sont des compacts
du quadrant), on conclut en utilisant la remarque 5.4 que ce quadrant est le bassin
d’attraction de z1 .

Exercice 5.5. On cherche ici à analyser le phénomène de la vague solitaire, ou


soliton. Le problème est modélisé comme un long canal considéré comme unidi-
mensionnel. La quantité intéressante est le profil y de la surface de l’eau, qui est
une fonction du temps t et de la position x le long du canal. Ce profil est mesuré par
rapport à la hauteur h de l’eau au repos. Il doit satisfaire l’équation aux dérivées
partielles dite de Korteweg-de Vries,
H
∂y g ∂ 5 3 σ ∂2y 6
=− hy + y 2 + , (5.8)
∂t h ∂x 4 2 ∂x2
où g est la constante de gravitation et σ > 0 est une constante (qui dépend de h,
de g et de la tension superficielle).
On appelle soliton une solution y(t, x) de l’équation aux dérivées partielles telle
que :
• y(t, x) = z(s), où s = x−vt, v étant une constante (c’est la vitesse de la vague);
• z(s) et toutes ses dérivées tendent vers 0 quand s → ±∞ (la surface de l’eau
est au repos loin du soliton).

137
5 Stabilité des équilibres

Le but de l’exercice est de mettre en évidence l’existence de telles solution et de


préciser la vitesse et l’amplitude de la vague.

1. Montrer qu’un soliton z(s) vérifie


3
σz ′′ (s) = bz(s) − z 2 (s), (5.9)
2
où b est une constante.

Quitte à remplacer s par s/ σ, on suppose dans la suite σ = 1. On note f le
champ de vecteurs sur R2 défini par l’équation (5.9).

2. Déterminer les équilibres de f et discuter leur stabilité en utilisant la méthode


de linéarisation. Que peut-on dire sur l’existence de solitons?
3. Trouver une constante du mouvement, c’est-à-dire une fonction L : R2 → R
constante le long des solutions de f .
4. Montrer que, si b < 0, il n’y a pas de soliton.
5. Supposons b > 0. Montrer qu’il existe un unique soliton, tracer son orbite et
déterminer son amplitude.

Corrigé de l’exercice 5.5.

1. Pour une fonction y(t, x) = z(s), où s = x − vt, les dérivées partielles s’écrivent
∂y ′ ∂y ′
∂t = −vz (s) et ∂x = z (s). L’équation (5.8) de Korteweg-de Vries s’écrit donc :
H
′ g d5 3 σ 6
−vz (s) = − hz(s) + z 2 (s) + z ′′ (s) ,
h ds 4 2
ou encore I
d5 h 3 6
2(h − v )z(s) + z 2 (s) + σz ′′ (s) = 0.
ds g 2
@
La quantité 2(h − v hg )z(s) + 32 z 2 (s) + σz ′′ (s) est donc indépendante de s. Les
conditions aux limites impliquent qu’elle est nulle, ce qui donne l’équation (5.9),
avec I
h
b = 2(v − h).
g
2. Le champ de vecteurs sur R2 associé à l’équation est
+ ,
x2
f (x) = .
bx1 − 32 x21

138
5.4 Exercices corrigés

Ce champ a deux équilibres : 0 et x̄ = ( 2b


3 , 0).
Calculons le linéarisé autour de chacun des équilibres. On a
+ , + , + ,
0 1 01 0 1
Df (x) = ⇒ Df (0) = et Df (x̄) = .
b − 3x1 0 b0 −b 0

Les valeurs propres du linéarisé en 0 sont donc


4 4
±i |b| si b ≤ 0, ± |b| si b ≥ 0,

et celles du linéarisé en x̄ sont


4 4
± |b| si b ≤ 0, ±i |b| si b ≥ 0.

Ainsi, pour b > 0, 0 est un équilibre non stable, et on ne peut pas conclure pour x̄,
qui n’est pas hyperbolique. Inversement, pour b < 0, x̄ n’est pas stable et 0 n’est
pas hyperbolique.
Qu’en conclure pour l’existence de solitons? On sait que pour un soliton z(s), la
solution (z(s), z ′ (s)) de x′ = f (x) tend vers 0 quand s → ±∞. Pour qu’un soliton
existe, il faut donc qu’il existe une solution de x′ = f (x) qui tende vers 0 en ±∞.
Quand b < 0, la linéarisation ne nous apprend rien. Quand b > 0 en revanche, 0 est
un équilibre hyperbolique. D’après le théorème 5.3 d’Hartman-Grobmann, on sait
alors que, au voisinage de 0, le portrait de phase de x′ = f (x) est topologiquement
équivalent à celui de l’équation linéarisée : puisque celle-ci a une valeur propre
positive et une négative, il y a que 2 solutions qui tendent vers 0 en +∞, et 2 en
−∞. Il est donc possible qu’il existe des solitons, mais pas plus de 2! Remarquons
que si les valeurs propres du linéarisé avaient été toutes deux de même signe, on
aurait pu conclure qu’il n’y avait pas de solitons.
3. Il faut trouver L telle que f (x)T ∇L(x) ≡ 0, c’est-à-dire
∂L 3 ∂L
x2 (x) + (bx1 − x21 ) (x) = 0.
∂x1 2 ∂x2
x21 x22
On peut prendre par exemple L(x) = 2 (x1 − b) + 2 .
4. Soit x(·) = (z(·), z ′ (·)) une solution de x′ = f (x) associée
à un soliton z(·). On
sait que L(x(s)) est une constante, et, vu les conditions aux limites des solitons,
cette constante est L(0) = 0. Ainsi l’orbite de x(·) est contenue dans

{x ∈ R2 : L(x) = 0}.

Or, quand b < 0, 0 est un point isolé de cette courbe de niveau (c’est un minimum
local). La seule solution tendant vers 0 en ±∞ est donc la solution triviale x(t) ≡ 0.
Il n’y a donc pas de solitons pour b < 0.

139
5 Stabilité des équilibres

x2(t)
2

–2 –1 0 1 2 3 4

x1(t)

–2

–4

Fig. 5.3. Ensemble {L(x) = 0}

5. Si b > 0, la courbe de niveau {x ∈ R2 : L(x) = 0} est de la forme de


la figure 5.3. Les branches du demi-plan gauche étant infinies, on voit qu’une
solution x(·) associée à un soliton doit être contenue dans la boucle du demi-plan
de droite. Il reste à montrer qu’il existe une solution parcourant l’ensemble de la
boucle (privée de l’origine).
Soit v = (b, 0) le point d’intersection de la boucle avec l’axe horizontal et x(·) la
solution maximale issue de v en t = 0. Elle est définie sur tout R (car contenue dans
la boucle, qui est compacte). Puisque f (v) = (0, −b/2), la demi-orbite x(]0, ∞[)
est dans la partie de la boucle où x2 < 0 : la fonction x1 (t) y est ainsi décroissante
et positive, elle admet donc une limite. De plus, x′1 (t) étant non nulle, sur cette
partie de la boucle x2 (t) est fonction de x1 (t) et admet également une limite.
Donc x(t) a une limite quand t → ∞ : cette limite étant forcément un équilibre
(voir exercice 4.2) ce ne peut être que 0. Le même raisonnement s’applique quand
t → −∞.
Ainsi, x(·) est une solution qui tend vers 0 quand s → ±∞ (toutes les autres
s’obtiennent à partir de celle-là par une translation du temps). Sa coordonnée
x1 (s) = z(s) est alors un soliton. On sait de plus que son amplitude maximale,
obtenue pour x2 = 0, est égale à b.
En résumé, on a montré que, pour toute vitesse de propagation v telle que b > 0,
c’est-à-dire 4
v > gh,
il existe un soliton dont l’amplitude maximale est

140
5.4 Exercices corrigés

I
h
b = 2(v − h).
g

Exercice 5.6 (non corrigé).


On considère un modèle de dynamique de population de la forme :
9 ′
x1 = (1 − x2 − 2x1 )x1 ,
x ∈ R2 . (5.10)

x2 = (x1 − 1)x2 ,

On note φt le flot de cette équation différentielle.


1. Montrer que le quadrant positif Q = {x ∈ R2 : x1 ≥ 0, x2 ≥ 0} est invariant
(on dit qu’un ensemble U est invariant si toute solution x(·) vérifiant x(0) ∈ U
est incluse dans U ).
2. Déterminer les équilibres de (5.10) dans R2 et étudier leur stabilité.
3. Déterminer les orbites stables non triviales de l’équilibre 0 et montrer qu’il n’y
en a qu’une contenue dans Q.
4. Montrer que, pour tout A > 1, la région QA = {x ∈ Q : x1 ≤ 1, x2 ≤ A}
est positivement invariante: si x ∈ QA , φt (x) ∈ QA pour tout t ≥ 0 tel que φt (x)
existe.
5. Montrer que, pour tout x ∈ Q, il existe un temps fini t1 ∈ [0, ∞[, tel que φt1 (x)
appartient à l’ensemble Q∞ = {x ∈ Q : x1 ≤ 1}.
6. En déduire que, si x ∈ Q, φt (x) est défini pour tout t ≥ 0.
7. Montrer que toutes les solutions de (5.10) dans l’intérieur de Q qui ont une
limite quand t → +∞ convergent vers le même point.
8. Montrer que toutes les solutions de (5.10) dans Q ont une limite quand t → +∞.
Dessiner le portrait de phase de l’équation dans Q.

Exercice 5.7 (non corrigé).


Considérons l’équation différentielle dans R2 définie par
9 ′
x1 = x1 (1 − x1 − 2x2 )
x′2 = x2 (1 − 2x1 − x2 )

1. Déterminer les équilibres de cette équation et étudier leur stabilité. Indiquer


combien d’orbites stables possède chaque équilibre.
2. Supposons que, pour tout x ∈ (R+ )2 , φt (x) existe pour tout t ≥ 0 et a une
limite quand t → ∞. Dessiner l’allure du portrait de phase dans (R+ )2 .
3. Justifier l’hypothèse de la question précédente.

141
5 Stabilité des équilibres

Exercice 5.8 (non corrigé).


On considère l’équation différentielle dans R2
9 ′
x1 = x21 − x22 ,
(5.11)
x′2 = 2x1 x2 .

1. Trouver l’unique équilibre de (5.11) et étudier sa stabilité par linéarisation.


2. Montrer que si une solution x(t) est définie et admet une limite quand t → ∞
(ou t → −∞), cette limite est l’équilibre de (5.11).

Pour tout réel a, on note Ca le cercle centré en (0, a) passant par l’origine,

Ca = {x ∈ R2 : Va (x) = 0}, où Va (x) = x21 + (x2 − a)2 − a2 .

3. a) Montrer que, si x(·) est solution de (5.11), alors y(t) = Va (x(t)) est solution
d’une équation différentielle de la forme y ′ (t) = α(t)y(t)
b) En déduire que, si v ∈ Ca , alors l’orbite de v est contenue dans Ca .
4. Soient v = (v1 , v2 ) tel que v2 ̸= 0, et a l’unique réel tel que v ∈ Ca .
a) Montrer que la solution maximale xv (·) est définie sur tout R.
b) Montrer que xv (·) a une limite en +∞ et en −∞.
c) Quelle est l’orbite de v?
5. Soit v = (v1 , 0). Calculer xv (·) et donner son l’intervalle de définition.
6. Dessiner le portrait de phase de (5.11). L’équilibre est-il stable?
7. On définit Ω comme R2 privé de l’ensemble {x = (x1 , 0) : x1 ̸= 0}. Pour
l’équation (5.11) restreinte à Ω, l’équilibre est-il stable? Est-il asymptotiquement
stable?

142
Bibliographie

1. N. Bourbaki. Espaces Vectoriels Topologiques: Chapitres 1 a 5. Hermann, 1953.


2. H. Cartan. Calcul Differentiel: I-Calcul Differentiel Dans Les Espaces De Banach; II-Equations
Differentielles (Cours De Mathematiques II). Hermann & Cie, Editeurs, 1967.
3. P. G. Ciarlet. Introduction à l’Analyse Numérique Matricielle Et Optimisation. Masson, 1988.
4. P. Hartman. Ordinary Differential Equations. John Wiley & Sons, 1964.
5. M. Hirsch and S. Smale. Differential Equations, Dynamical Systems, and Linear Algebra.
Academic Press, London, 1974.
6. F. Laudenbach. Calcul Différentiel et Intégral. Éditions de l’École Polytechnique, Palaiseau,
2000.
7. E. D. Sontag. Mathematical control theory: deterministic systems. Springer-Verlag New York,
Inc., New York, NY, USA, 1990.
8. E. Trélat. Contrôle optimal. Mathématiques Concrètes. Vuibert, Paris, 2005. Théorie &
applications.
9. C. Viterbo. Systèmes Dynamiques et Équations différentielles. École Polytechnique, 2004.
Chapitre 4

Équations différentielles non-linéaires I

1 Introduction

Ce chapitre est la première étape dans notre étude des équations non-linéaires. Nous
y traitons la question du temps de vie d’une solution, et une première estimation de
la distance entre deux solutions en fonction de celle entre leurs conditions initiales. Un
critère géométrique d’une part, le Lemme de Gronwall d’autre part sont les clefs de cette
approche élémentaire.

2 Temps de vie des solutions

Soit I un intervalle ouvert, Ω un ouvert d’un espace de Banach E, et X : I × Ω → E,


continue et lipschitzienne en la seconde variable.

D’après le théorème de Cauchy-Lipschitz, pour (t0 , x0 ) ∈ I × Ω la solution x(t) de

!
ẋ = X(t, x)
(1)
x(t0 ) = x0

x est définie sur ]t0 − α , t0 + α[.

Nous voulons déterminer les intervalles sur lesquels on peut définir une solution x.
Notons d’abord que même lorsque X(t, x) est définie pour tout réel t et tout élément x
de E, les solutions ne sont pas nécessairement définies pour tout temps.
Exemple 2.1. !
ẋ = x2
x(t0 ) = x0

109
110 Chapitre 4. Équations différentielles non-linéaires I

a pour solution
x0
x(t) =
x0 (t0 − t) + 1

Son intervalle de définition est

• ] − ∞, t0 + 1
x0
[ si x0 > 0

1
• ]t0 + x0
, +∞[ si x0 < 0

• R si x0 = 0 (et alors x ≡ 0)

Soit J la réunion des intervalles contenant t0 sur lesquels une solution de (1) est définie.

Proposition 4.1. Il existe une solution x définie sur J. Toute autre solution de (1) est
la restriction de x à son intervalle de définition. On appelle x solution maximale de (1).

Démonstration. Il suffit de montrer que si x1 , x2 sont des solutions de notre équation


définies sur J1 , J2 respectivement, alors x1 et x2 coïncident sur J1 ∩ J2 .

Nous pouvons alors définir x(t) comme la valeur en t de n’importe quelle solution de
(1) définie sur [t0 , t].

Soit K = {t ∈ J1 ∩ J2 |x1 (t) = x2 (t)}. Alors K est non vide, car t0 ∈ K, fermé (dans
J1 ∩ J2 ) par continuité de x1 et x2 . L’unicité locale de la solution donnée par le théorème
de Cauchy-Lipschitz montre que K est un ouvert. Comme J1 ∩ J2 est l’intersection de
deux intervalles, c’est un intervalle. Il est donc connexe, et K qui en est un sous ensemble
ouvert, fermé et non vide est donc égal à J1 ∩ J2 tout entier.

Remarques 2.1. (A) Par abus de langage, on parlera souvent de « la solution » de l’équa-
tion pour désigner la solution maximale.
(B) D’après le théorème de Cauchy-Lipschitz, J est ouvert.

On peut se demander pourquoi une solution de (1) peut ne pas être définie sur I tout
entier. La proposition suivante montre que l’unique raison est le phénomène d’ « explosion
en temps fini » :

Proposition 4.2. Soit X :]t− , t+ [×Ω → E vérifiant les hypothèses de Cauchy-Lipschitz,


et x une solution maximale, définie sur J =]τ− , τ+ [. Alors si τ+ < t+ , x(t) « sort de tout
compact » lorsque t tend vers τ+ . En d’autres termes : pour tout compact K ⊂ Ω, il existe
t0 ∈ J, tel que pour tout t ≥ t0 , t ∈ J on a x(t) ∈
/ K.
2. Temps de vie des solutions 111

Remarque 2.1. Lorsque E est de dimension finie et Ω = E, la conclusion est équivalente à


limt→τ+ |x(t)| = +∞, car les boules de rayon R étant compactes, et x(t) sortant de toute
boule, on a
∀R > 0 ∃τR tel que τR < t < τ+ ⇒ |x(t)| ≥ R
c’est-à-dire que |x(t)| tend vers +∞ lorsque t tend vers τ+ .

Démonstration. Raisonnons par l’absurde. Supposons qu’il existe une suite (tn )n≥1 telle
que x(tn ) ∈ K, où K est compact, et limn→+∞ tn = τ+ . On peut alors extraire une
sous-suite, que l’on note encore (tn )n≥1 , telle que xn = x(tn ) converge vers x∞ .

Le théorème de Cauchy-Lipschitz nous assure l’uniformité de la taille de l’intervalle de


définition au voisinage d’un point, ce qui permet d’affirmer qu’il existe α, δ strictement
positifs tels que la solution de
!
ẋ = X(t, x)
x(tn ) = xn

est définie sur ]tn − α, tn + α[ si d(xn , x∞ ) < δ.

Or pour n assez grand, on aura bien d(xn , x∞ ) < δ, et comme tn tend vers τ+ , on
aura que ]tn − α, tn + α[ n’est plus contenu dans J. La solution x est donc définie sur un
intervalle strictement plus grand que J, qui n’était donc pas maximal.

La même démonstration permet de montrer que, sur tout leur intervalle de définition,
la dépendance des solutions en les paramètres est aussi régulière que le laisse espérer le
théorème de Cauchy-Lipschitz à paramètres :
Proposition 4.3. Soit (λ, t, x) → Xλ (t, x) une application C p , avec p ≥ 0, définie sur
Λ × I × Ω, lipschitzienne en x. Supposons que xλ (t; t0 , u) solution de

!
ẋλ = Xλ (t, x)
(2)
xλ (t0 ) = u

soit définie sur ]t− , t+ [ quel que soit (λ, t0 , u) dans Λ × I × Ω. Alors l’application
(t, λ, t0 , u) → xλ (t; t0 , u) est de classe C p , et de classe C p+1 en t.

Démonstration. Tout d’abord il suffit de montrer l’assertion au voisinage de tout point


(λ0 , τ0 , u0 ) de Λ × I × Ω. Supposons qu’il existe t > τ0 (le cas τ0 < t se traite de manière
analogue) dans I pour lequel la solution de l’équation soit définie, mais ne soit pas de
classe C p . Alors le théorème de Cauchy-Lipschitz à paramètres nous dit que l’ensemble

{t | il existe un voisinage de {λ0 } ×[τ0 , t]×{u0 } sur lequel (λ, t, u) → xλ (t; t0 , u) soit de classe C p }

est non vide et possède une borne supérieure vérifiant, par hypothèse, t1 < t.
112 Chapitre 4. Équations différentielles non-linéaires I

Pour z = xλ0 (t1 ; t0 , u0) c’est encore le théorème de Cauchy-Lipschitz à paramètres qui
va nous fournir un réel δ strictement positif, tel que l’équation

!
ẏλ = Xλ (t, y)
(3)
yλ (τ ) = v

aie ses solutions définies sur un intervalle ]t1 − α, t1 + α[ pour α > 0 pour (λ, τ, v) dans
B(λ0 , δ)×]t1 − δ, t1 + δ[×B(z, δ). De plus la solution est de classe C p en (λ, τ, v).

La continuité de xλ0 (t; , τ0 , x0 ) en t permet1 de dire qu’il existe η > 0, que l’on choisira
inférieur à α, tel que xλ0 (t1 − η; τ0 , x0 ) soit dans B(z, δ).

La continuité de (λ, t, u) −→ xλ (t; t0 , u) en (λ0 , t1 − η, u0) permet de dire qu’il existe


un voisinage de (λ0 , τ0 , u0) tel que xλ (t1 − η; t0 , u) reste dans B(z, δ). De plus, puisque
t1 − η < t1 cette application est de classe C p .

Mais pour v = xλ (t1 − η, t0 , u), τ = t1 − η la solution yλ de (3) coïncide avec xλ . Au


voisinage de (t1 ; λ0 , t0 , u) l’application

(t; λ, t0 , u) → yλ (t; t1 − η, xλ (t1 − η, t0 , u) = xλ (t; t0 , u)

est composée d’applications de classe C p . Elle est donc de classe C p (λ, t) → xλ (t) est
la composée de λ → xλ (t1 − η) qui est C p et de (λ, t, u) → xλ (t; t1 − η, xλ (t1 − η)

Mais alors
(t; λ, t0 , u) → xλ (t; t0 , u)
est de classe C p au voisinage de {λ0 } × [τ0 , t1 [×{u0 } et de {λ0 } ×]t1 − η, t1 + η[×{u0 } et
donc au voisinage de {λ0 } × [τ0 , t1 + η[×{u0 } ce qui contredit la maximalité de t1 .

Il est bien commode de n’avoir à traiter que des équations dont les solutions sont
définies pour tout temps. Dans le cas d’un champ de vecteurs, il y a un terme pour les
désigner.
Définition 4.4. Soit X un champ de vecteurs. S’il vérifie les hypothèses du théorème de
Cauchy-Lipschitz, et si ses solutions sont définies pour tout temps, on dit que le champ
de vecteurs est complet.

3 Estimation de l’intervalle d’existence

On souhaite utiliser la proposition 4.2 pour trouver des conditions simples entraînant
que les solutions de (1) sont définies sur I tout entier. On suppose pour simplifier que
I = R et Ω de dimension finie.
1
Car t → xλ0 (t) satisfait (2), et est donc dérivable en t.
3. Estimation de l’intervalle d’existence 113

Deux types de conditions nous permettent d’estimer la taille de l’intervalle de défini-


tion :
(A) des conditions géométriques
(B) des conditions analytiques

3.1 Conditions géométriques

Supposons par exemple ⟨X(t, x), x⟩ = 0,

d
(|x(t)|2 ) = 2⟨ẋ(t), x(t)⟩ = 2⟨X(t, x), x(t)⟩ = 0
dt

Donc |x(t)|2 = |x0 |2 , et |x(t)| reste bornée.

Plus généralement on pourra utiliser le résultat suivant :

Proposition 4.5. Soit f une fonction C 1 définie sur Rn , F = {x | f (x) ≤ 0}, et X(t, x)
une équation différentielle définie pour t ∈ R et x au voisinage de F . Supposons que
df (x)X(t, x) < 0 sur f −1 (0). Alors les solutions de (1), qui sont dans F pour t = t0 ,
restent dans F pour tout temps de l’intervalle de définition supérieur à t0 .

Démonstration. On suppose les solutions définies sur [t0 , t1 ], t1 pouvant être infini. Il suffit
de montrer que si τ = sup{t | ∀s ∈ [t0 , t] , x(s) ∈ F }, alors τ = t1 . Supposons τ < t1 ,
alors x(τ ) est défini et appartient à F , et dtd f (x(t))|t=τ = df (x(τ ))X(τ, x(τ )) < 0. On en
déduit que x(t) ∈ F pour t contenu dans un petit intervalle à droite de τ , ce qui contredit
la maximalité de τ .

Corollaire 4.6. Sous les hypothèses de la proposition ci-dessus, si de plus F est compact,
une solution de (1) telle que x(t0 ) = x0 soit dans F est définie sur [t0 , +∞[

Démonstration. En effet , il ne peut y avoir explosion en temps fini, car pour tout t+ fini,
x([t0 , t+ [) est contenu dans le compact F . D’après la proposition 4.2 les solutions sont
donc définies sur un intervalle infini à droite.

Notons enfin que si X(t, x) satisfait notre critère géométrique, il en est de même pour
ϕ(t)X(t, x) quelle que soit la fonction continue strictement positive ϕ.
114 Chapitre 4. Équations différentielles non-linéaires I

Fig. 4.1 – Équation différentielle dont les solutions de condition initiale à l’intérieur de
la courbe sont définies sur [a, +∞]

Exercice 3.1. 1) Montrer que si dans la proposition on suppose seulement l’égalité au sens
large, c’est à dire df (x)X(t, x) ≤ 0 pour tout x dans f −1 (0), la conclusion est fausse ;
[Indication : on prendra f (x) = (1 − |x|2 )2 et X quelconque.]

2) Montrer que si on suppose que f est de classe C 2 , df (x)X(t, x) ≤ 0 et df (x) ̸= 0


sur f −1 (0), alors la proposition est encore vraie. [Indication : appliquer la proposition à
Xε (t, x) = X(t, x) − ε∇f (x) et utiliser la continuité de la solution en fonction de ε. ]

3) Montrer que si on suppose df (x)X(t, x) ≤ 0 pour tout x dans Ω, alors les conclusions
de la proposition restent vraies. [Indication : Montrer que si x est une solution de (1),
pour chaque t1 ≥ t0 il existe un voisinage de t1 sur lequel t → f (x(t)) est décroissante.]

L’exercice précédent permet de traiter le cas d’équations conservant une « énergie »


lorsque le niveau d’énergie sur lequel évoluent les trajectoires est borné.

Pour l’équation ẍ − ∇V (x) = 0, où ∇ désigne le gradient, la quantité 21 |ẋ|2 − V (x) est


constante, notée E0 , et donc si

1 2
SE0 = {(x, p) ∈ Rn × Rn | |p| − V (x) = E0 }
2
est borné, toute solution de condition initiale dans SE0 est définie sur R.

Il est parfois utile de noter qu’une trajectoire est nécessairement contenue dans un
ensemble connexe par arcs, et il suffit alors de vérifier que les ensembles connexes par arcs
contenus dans SE0 sont compacts.

Par exemple pour l’équation du pendule mℓθ̈−mg sin θ = 0, la conservation de l’énergie


s’écrit
1
mℓθ̇2 (t) + mgℓ cos θ(t) = E0
2
3. Estimation de l’intervalle d’existence 115

et un connexe contenu dans les courbes


1
mℓp2 + mgℓ cos θ = E0
2
est nécessairement compact dans le plan (θ, p) si E0 < mgℓ.

Sous cette hypothèse, c’est à dire si l’énergie totale du pendule (somme de son énergie
cinétique, 12 mℓ2 θ̇2 , et de son énergie potentielle, −mgℓ cos θ) est inférieure à l’énergie du
pendule renversé au repos, les solutions seront définies pour tout temps. On verra que
dans le cas du pendule, c’est encore vrai pour les autres conditions initiales.

Lorsqu’on rajoute un « terme de frottement », on peut seulement garantir que les


solutions restent définies jusqu’en +∞. Plus précisément s’il existe une fonction E telle
que dE(x)X(x) < 0, et le niveau {x | E(x) ≤ E(x(t0 )} est borné, alors les solutions
sont définies jusqu’en +∞. Par exemple les solutions de ẍ + f ẋ + ∇V (x) = 0 (f > 0) de
condition initiale (x0 , p0 ) sont définies jusqu’en +∞ si {(x, p) | 12 p2 − V (x) = 12 p20 − V (x0 )}
est compact.

3.2 Conditions analytiques : le lemme de Gronwall

Il s’agit d’exprimer que pour « aller à l’infini en temps fini » il faut « aller vite »,
c’est-à-dire que |X(t, x)| doit être suffisamment grand.

Le lemme suivant joue un rôle fondamental dans les estimations concernant les équa-
tions différentielles.
Lemme 4.7 (Lemme de Gronwall). Soit g(t, r) définie sur I × R, lipschitzienne en r, et
ρ la solution unique, que l’on suppose définie sur I, de
!
ρ̇ = g(t, ρ)
(1)
ρ(t0 ) = ρ0

Si x : I → Rn vérifie |ẋ(t)| ≤ g(t, |x(t)|), et |x(t0 )| ≤ ρ0 , on a pour tout t ≥ t0 dans I,


l’inégalité |x(t)| ≤ ρ(t).

Démonstration. Considérons d’abord le cas d’une inégalité stricte

|ẋ(t)| < g(t, |x(t)|)

L’ensemble {t ∈ I | ∀s ∈ [t0 , t], |x(s)| ≤ ρ(s)} n’est pas vide. Soit τ+ sa borne supé-
rieure. Montrons que τ+ coïncide avec la borne supérieure de I.

Tout d’abord, par continuité de x et ρ, |x(τ+ )| ≤ ρ(τ+ ), et puisque τ+ est maximal,


on doit avoir |x(τ+ )| = ρ(τ+ ). Estimons
116 Chapitre 4. Équations différentielles non-linéaires I

ρ(τ+ + ε) − |x(τ+ + ε)| = ρ(τ+ + ε) − ρ(τ+ ) − (|x(τ+ + ε)| − |x(τ+ )|) ≥


(2)
ρ(τ+ + ε) − ρ(τ+ ) − |x(τ+ + ε) − x(τ+ )|) = (ρ̇(τ+ ) − |ẋ(τ+ )|)ε + o(ε)

Maintenant l’inégalité

|ẋ(τ+ )| < g(τ+ , |x(τ+ )|) = g(τ+ , ρ(τ+ )) = ρ̇(τ+ )


entraîne que ρ̇(τ+ ) − |ẋ(τ+ )|) > 0 et donc pour ε assez petit strictement positif, le terme
de droite de (2) est strictement positif. On en déduit que ρ(τ+ + ε) ≥ |x(τ+ + ε)| pour
tout ε assez petit, ce qui contredit la maximalité de τ+ . Cela termine la démonstration
dans le cas de l’inégalité stricte.

Démontrons maintenant le lemme dans le cas général. Posons à nouveau

τ+ = sup{t ∈ I|∀s ∈ [t0 , t], |x(s)| ≤ ρ(s)}

soit
gε (t, ρ) = g(t, ρ) + ε .
et enfin ρε la solution de !
ρ̇ε (t) = gε (t, ρε (t))
ρε (τ+ ) = ρ(τ+ )

Le théorème de Cauchy-Lipschitz à paramètres pour la famille d’équations différen-


tielles associée à gε fournit un voisinage de 0 pour ε et un voisinage J de τ+ sur lequel
tous les ρε sont définis. On aura donc sur J

lim ρε (t) = ρ(t)


ε→0

Puisque |x(τ+ )| ≤ ρ(τ+ ) et |ẋ(t)| ≤ g(t, |x(t)|) < gε (t, |x(t)|), on doit avoir, d’après le cas
d’inégalité stricte de Gronwall,

|x(t)| ≤ ρε (t) pour t ≥ τ+ , t ∈ J .

d’ où en faisant tendre ε vers 0,


|x(t)| ≤ ρ(t).
sur un voisinage de τ+ ce qui contredit sa maximalité.

Remarques 3.1. (A) Notons que si g est définie sur I × R et β ∈ I est une borne de
l’intervalle de définition, la croissance de ρ et la proposition 4.2 entraînent que
limt→β ρ(t) = +∞. On pose par convention ρ(t) = +∞ si t ≥ β. Avec cette conven-
tion, l’inégalité de Gronwall est encore vérifiée pour ces valeurs de t.
4. Applications du lemme de Gronwall 117

(B) La première partie de la démonstration, le cas de l’inégalité stricte, ne requiert pas


que g soit Lipschitz en ρ.
Cette hypothèse est par contre nécessaire pour la seconde partie, comme le montre
l’exemple suivant : !
ρ̇ = ρ1/2
ρ(0) = 0
a pour solution (non unique !) ρ ≡ 0. Mais sur [0, 1/4] , x(t) = t4 vérifie

|ẋ(t)| = 4|t|3 ≤ (t4 )1/2 = x(t)1/2 ,

bien que l’inégalité |t4 | ≤ 0 soit fausse !


(C) On appelle parfois lemme de Gronwall le résultat suivant pour une équation diffé-
rentielle à une variable :
Si ρ̇1 (t) ≤ g(t, ρ1 (t)), et ρ̇0 (t) = g(t, ρ0 (t)) avec ρ0 (0) = ρ1 (0) alors ρ1 (t) ≤ ρ0 (t)
pour t positif.
La démonstration est analogue à celle du lemme de Gronwall précédent.

Corollaire 4.8. Soient X(t, x) défini sur I × Rn , g définie sur I × R, vérifiant l’inégalité
|X(t, x)| ≤ g(t, |x|).

Supposons que l’intervalle maximal de définition de

!
ρ̇(t) = g(t, ρ(t))
ρ(t0 ) = |x0 |

contienne [t0 , t1 ], il en est alors de même pour l’intervalle maximal de définition de


!
ẋ(t) = X(t, x(t))
x(t0 ) = x0

Démonstration. L’inégalité de Gronwall est valable partout où ρ et x sont définies. On


en déduit que si pour τ > t0 , on a limt→τ |x(t)| = ∞ on aura limt→τ |ρ(t)| = ∞. Donc, en
utilisant encore la proposition 4.2 la borne supérieur de l’intervalle de définition de x est
inférieure à celle de l’intervalle de définition de ρ.

4 Applications du lemme de Gronwall

4.1 Équations à temps de vie infini

Le lemme de Gronwall permet de montrer que si |X(t, x)| ne croît pas trop vite, les
solutions de l’équation différentielle associée ne peuvent « exploser en temps fini ».
118 Chapitre 4. Équations différentielles non-linéaires I

Proposition 4.9. Soit X : I × Rn → Rn définissant une équation différentielle sur Rn


vérifiant les hypothèses du théorème de Cauchy-Lipschitz, et telle que |X(t, x)| ≤ A|x|+B.
Alors les solutions sont définies sur I tout entier.

Démonstration. L’équation ρ̇ = Aρ + B a pour solution


!
ρ(t) = (ρ(0) + B
A
)eAt − B
A
si A ̸= 0
ρ(t) = Bt + ρ(0) si A = 0

Donc soit A ̸= 0 et |x(t)| ≤ (|x(0)|+ B


A
)eAt − B
A
, soit A = 0, et |x(t)| ≤ Bt+|x(0)|. Dans
les deux cas, x(t) reste borné lorsque t tend vers +∞, et il ne peut y avoir « explosion
en temps fini ». Pour t tendant vers −∞ on utilise el fait que y(t) = x(−t) vérifie ẏ(t) =
−X(−t, y(t)) et que l’on a encore | − X(−t, y)| ≤ A|x| + B. la majoration de |y(t)|lorsque
t tend vers +∞ donne alors une majoration de x(t) lorsque t tend vers −∞.

4.2 Estimations de la divergence des solutions. Tube des solutions

Soient x1 , x2 deux solutions de ẋ = X(t, x) de conditions initiales x1 (t0 ) , x2 (t0 )


proches. Comment estimer |x1 (t) − x2 (t)| ?

D’après le théorème de Cauchy-Lipschitz à paramètres, on sait que si les conditions


initiales sont proches, cette différence (pour t fixé) sera petite, mais on souhaite une
estimation quantitative.

Proposition 4.10. Soit X définie sur I ×Ω, Lipschitz de rapport k en la seconde variable,
alors sur leur intervalle de définition,

|x1 (t) − x2 (t)| ≤ |x1 (t0 ) − x2 (t0 )|ek|t−t0 |

Démonstration. Soit z(t) = x1 (t) − x2 (t). On a

|ż(t)| = |X(t, x1 (t)) − X(t, x2 (t))|

≤ k|x1 (t) − x2 (t)| = k|z(t)| .

Le lemme de Gronwall, appliqué à g(t, ρ) = k|ρ| entraîne l’inégalité |z(t)| ≤


|z(t0 )|ek|t−t0 | .

Remarque 4.1. L’estimation n’est pas très bonne pour |t − t0 | grand, mais on ne peut, en
général, faire mieux : si X(t, x) = kx, on a x(t) = ekt x(0), et notre inégalité devient une
égalité.
4. Applications du lemme de Gronwall 119

Cette proposition permet dans le cas général de montrer que deux solutions de condi-
tions initiales proches ont des temps de vie proches, et restent proches.

Proposition 4.11 (Tube des solutions). Soit X : I × Ω localement Lipschitz, et x une


solution de (1) définie sur un intervalle contenant [t− , t+ ]. Il existe un voisinage V de
x(t0 ) tel que si y(t) est une solution de (1) avec y(t0 ) dans V , alors y est aussi définie sur
[t− , t+ ]. De plus il existe une constante k dépendant de X, de x(t0 ) et de [t− , t+ ] telle que

∀t ∈ [t− , t+ ] |y(t) − x(t)| ≤ |y(t0) − x(t0 )|ek|t−t0 |

Démonstration. Soit W un voisinage fermé compact de x([t− , t+ ]), de la forme

W = {x ∈ Ω | inf d(x, x(t)) ≤ ε}


t∈[t− ,t+ ]

Par compacité, comme X est localement Lipschitz, il existe une constante k telle que X
soit lipschitzienne de rapport k sur W (cf. exercice A du chap. 2).

Supposons |y(t0 ) − x(t0 )| < δ et δek(t+ −t0 ) < ε. Alors pour tout t′ < t+ , tel que les
solutions soient définies sur [t0 , t′ ], on a comme dans la démonstration de la proposition
précédente,

∀s ∈ [t0 , t′ ], |y(s) − x(s)| < δek(t −t0 ) < ε
et par suite y([t0 , t′ ]) ⊂ W . Comme W est compact, il ne peut y avoir explosion sur [t− , t′ ]
pour t′ < t+ et donc y([t− , t+ ]) est dans W , et finalement y est définie sur [t− , t+ ]. On
peut maintenant appliquer la proposition précédente sur [t− , t+ ], pour conclure que

∀t ∈ [t− , t+ ] |y(t) − x(t)| ≤ |y(t0) − x(t0 )|ek|t−t0 |

Remarque 4.2. Bien entendu, il existe des équations pour lesquelles |y(t) − x(t)| croît
seulement linéairement en t, voire reste borné, ou tend vers zéro : dans ce dernier cas on
parle de stabilité (cf. les chapitres suivants).

Par exemple si X(t, x) = u est constant,

x(t) = tu + x(0) et |x1 (t) − x2 (t)| = |x1 (0) − x2 (0)| .

Au contraire, lorsque |x1 (t) − x2 (t)| croît exponentiellement avec t, on parle de « dépen-
dance sensitive en les conditions initiales » .

C’est ce qui explique la difficulté de faire des prévisions météorologiques fiables au-delà
de quelques jours. Il s’agit en effet de résoudre une équation différentielle ordinaire, dont
la condition initiale - le temps aujourd’hui- n’est connue qu’avec une marge d’erreur : les
erreurs de mesure sur température, pression, vitesse du vent, etc. Or une erreur de mesure
à l’instant t = 0, devient une erreur de prévision ekt fois plus grande au bout d’un temps
T . En se fixant l’erreur maximale δ acceptable au temps T - prédire la température à
120 Chapitre 4. Équations différentielles non-linéaires I

30◦ C près n’intéresse personne ! - on obtient que l’erreur de mesure à l’instant initial, ε
doit être majoré par δe−kT .

On voit alors que doubler l’échéance de la prévision, c’est-à-dire doubler T , remplace


(e ) par (e−kT )2 . Par exemple si δ ∼ 1, k ∼ 1, prédire la situation en T = 5 demande
−kT

une précision de e−5 ≃ 6.10−3 en t = 0, mais une prévision en T = 10 demande une


précision à l’instant T = 0 de e−10 ≃ 4.10−5 : doubler le temps de prévision exige de
multiplier par 100 la précision des mesures.

Nous ne nous sommes pas inquiétés de ce que l’équation elle-même, c’est-à-dire X(t, x),
n’est connue qu’imparfaitement, mais le type d’erreur que cela induit est du même ordre :

Proposition 4.12. Soient X1 , X2 des applications de I × Ω dans Rn telles que X1 soit


lipschitzienne de rapport k en la seconde variable et ∥X1 (t, x) − X2 (t, x)∥ ≤ ε. Soient
x1 (t), x2 (t) des solutions de
!
ẋ1 (t) = X1 (t, x1 (t))
(1)
x1 (t0 ) = u1

!
ẋ2 (t) = X2 (t, x2 (t))
(2)
x2 (t0 ) = u2

Alors sur l’intervalle de définition commun à x1 , x2 , on a


ε
|x1 (t) − x2 (t)| ≤ |u1 − u2 |ek|t−t0 | + (ek|t−t0 | − 1)
k

Démonstration. Posant z(t) = x1 (t) − x2 (t) nous avons

|ż(t)| = |X1 (t, x1 (t)) − X2 (t, x2 (t))|

≤ |X1 (t, x1 (t)) − X1 (t, x2 (t))|


+|X1 (t, x2 (t)) − X2 (t, x2 (t))|
≤ k|x1 (t) − x2 (t)| + ε ≤ k · |z(t)| + ε

Si g(t, ρ) = kρ + ε, l’équation ρ̇ = g(t, ρ) a pour solution


ε
ρ(t) = ρ(t0 )ek(t−t0 ) + (ek(t−t0 ) − 1)
k

On conclut alors la démonstration de l’inégalité en appliquant le lemme de Gronwall


à z(t) et ρ(t).
Remarques 4.1. (A) On peut aussi comme dans la proposition 4.11 montrer que les in-
tervalles de définition de x1 et x2 sont proches.
5. Exercices 121

(B) Nous n’avons pas supposé que X2 était lipschitzienne et cela n’est pas nécessaire.
Il suffit que x2 soit solution de l’équation. Il est inutile de supposer cette solution
unique.

Conclusion : Nous avons montré que le seul obstacle à l’existence des solutions d’une
équation différentielle pour tout temps est le phénomène d’ « explosion en temps fini »
(Proposition 4.2). Ce temps de vie est infini sous des conditions soit géométriques (Pro-
position 4.5), soit analytiques (Lemme 4.7). D’autre part, pour des équations dépendant
continûment d’un paramètre, le temps d’existence dépend continûment de ce paramètre
(Proposition 4.11), et la dépendance des solutions en fonction des paramètres, sur tout
l’intervalle d’existence est aussi régulière que celle de l’équation (Proposition 4.3). Enfin la
distance entre deux solutions de conditions initiales différentes, augmente de manière au
plus exponentielle en temps, de même que celle entre deux solutions d’équations proches
(Proposition 4.12).

5 Exercices
(A) Soit l’équation
ẍ(t) + x(t) + x(t)3 = 0
Soit x(t) une solution telle que x(0) = a, ẋ(0) = 0
(a) Trouver une fonction F sur le plan, telle que (x(t), ẋ(t)) reste sur la « courbe »
bornée, F (x, y) = c.
(b) Montrer que les solutions de l’équations sont toutes périodiques.
(c) On considère maintenant l’équation

ẍ(t) + f ẋ(t)x(t)2 + x(t)3 = 0

Quelles sont ses solutions périodiques ?


(B) Soit g(ρ) une fonction localement lipschitzienne et strictement positive. Montrer que
ρ̇(t) = g(ρ(t)) a ses solutions définies pour tout temps si et seulement si
" ∞

dρ = ∞
0 g(ρ)

En déduire que si g(ρ) = supt∈R,|x|=ρ |f (t, x)| et


" ∞

dρ = ∞
0 g(ρ)
les solutions de ẋ(t) = f (t, x(t)) sont définies pour tout temps.
(C) Montrer que si ϕ est une fonction continue définie sur R, et vérifie pour
" t
ϕ(t) ≤ f (t) + k ϕ(s)ds
0
122 Chapitre 4. Équations différentielles non-linéaires I

alors " t
ϕ(t) ≤ f (t) + k f (s)ek(t−s) ds
0

(D) Montrer plus généralement que si φ, ψ sont deux fonctions continues positives et w
est une fonction positive vérifiant pour t dans [0, a]
" t
w(t) ≤ φ(t) + ψ(s)w(s)ds
0
on a
" t #" t $
w(t) ≤ φ(t) + φ(s)ψ(s) exp ψ(τ )dτ ds
0 s
%t
[Indication : on posera y(t) = 0
ψ(s)w(s)ds et on cherchera une inégalité différen-
tielle vérifiée par y].
(E) Soit f (t, x) une fonction continue sur R × Rn vérifiant l’inégalité

∀x1 , x2 ∈ Rn , ∀t ∈ R |f (t, x1 ) − f (t, x2 )| ≤ ω(|x1 − x2 |)


où on fait l’hypothèse
(*) ω est une fonction continue sur R, s’annulant en 0 et strictement positive sur
]0, +∞[
On considère l’équation
!
ẋ(t) = f (t, x(t))
(2)
x(0) = x0

L’existence (locale) de solutions résulte du théorème de Peano, on ne demande pas


de la démontrer ; on s’intéresse ici à la question de l’unicité
(a) Dans cette question on suppose de plus que ω est localement lipschitzienne.
Soient x1 (t) et x2 (t) deux solutions de (2), on pose z(t) = x2 (t)−x1 (t). Montrer
que s’il existe τ ≥ 0 et δ > 0 tels que

|z(τ )| ≥ δ,

alors " δ

τ≥ .
0 ω(ρ)
(b) On revient maintenant à l’hypothèse (*). Montrer que le résultat précédent
% 1 dρ
reste vrai. En déduire que si 0 ω(ρ) = +∞ on a unicité de la solution.

(F) Soit f : Rn → Rn telle que f (0) = 0 et qu’il existe des constantes A, B telle que
pour tout z dans Rn la matrice df (z) satisfait l’inégalité

|df (z)−1 | ≤ A|z| + B


5. Exercices 123

(a) Soit x ∈ Rn γx (t). On cherche un chemin de classe C 1 , γx (t), t ∈ [0, 1] tel que
f (γx (t)) = tx Montrer que cela équivaut à df (γx (t))γ̇x (t) = x, soit

γ̇x (t) = df (γx(t))−1 x

(b) Montrer que sous l’hypothèse faite sur f , le flot de

γ̇x (t) = df (γx(t))−1 x

est défini sur [0, 1], et que g est de classe C 1 .


(c) En déduire que si g(x) est l’image de 0 par le flot au temps 1 de γ̇(t) =
df (γ(t))−1x on a f (g(z)) = z.
(d) Montrer que l’image de g est ouverte.
(e) Montrer que z ∈ Im(g) si et seulement si g(f (z)) = z. En déduire que cette
image est fermée, puis que g est surjective.
(f) Montrer que si g vérifie f ◦ g = Id on a aussi g ◦ f = Id.
(g) Démontrer le théorème suivant
Théorème 4.13 (Hadamard). Soit f : Rn → Rn telle que f (0) = 0 et qu’il
existe une constante A telle que pour tout z dans Rn on ait l’inégalité

|df (z)−1 | ≤ A|z| + B

Alors f est un difféomorphisme de Rn


Chapitre 5

Équations différentielles non-linéaires II

Dans ce chapitre sont mis en place les différents objets intervenant dans notre approche
globale des équations différentielles ordinaires : le flot, qui permet de considérer simulta-
nément plusieurs solutions, les orbites et leur représentation graphique, le portrait de
phase. Enfin, nous étudions comment les flots se transforment par changement de va-
riable, et le théorème de redressement nous permet de comprendre leur comportement au
voisinage des points où le champ ne s’annule pas. Cette étude permet encore d’introduire
d’autres notions, comme l’application de premier retour, afin d’étudier le comportement
des solutions au voisinage d’une solution périodique.

Nous abordons ensuite la théorie classique des perturbations, qui permet de décrire les
solutions proches d’une solution donnée, ou les équations proches d’une équation donnée.
Apparue dans un mémoire d’Euler, présenté à l’Académie des Sciences en 1747, cette
théorie a pour but d’estimer l’effet de la force d’attraction du Soleil, supposé petite, sur le
mouvement Terre-Lune. En d’autres termes, il s’agit du problème dit des trois corps dont
l’approche perturbative fut élaborée peu après par Clairaut et d’Alembert. Au cours du
19ème siècle, ce sont en particulier les difficultés crées par les termes séculaires de cette
théorie qui occupèrent nombre de mathématiciens et d’astronomes jusqu’à Poincaré. La
méthode de Lindstedt utilisées pour surmonter les difficultés liées à ces termes séculaires
est présentée dans l’exercice (G).

Le point de vue géométrique et topologique introduit par Poincaré, marqua la nais-


sance de la théorie des systèmes dynamiques. Le rôle important qu’y jouent les solutions
périodiques est illustré par le célèbre théorème de Poincaré-Bendixson. On peut alors
considérer des problèmes éloignés de « situations standard », c’est-à-dire d’étudier des
problèmes qui ne sont plus des perturbations d’un système simple.

125
126 Chapitre 5. Équations différentielles non-linéaires II

1 Flots, portrait de phase, redressement

1.1 Notions de base

L’une des idées de base de la théorie des systèmes dynamiques, c’est de ne pas regarder
une seule solution à la fois, mais de les considérer toutes simultanément. Si ce point de
vue demande initialement un important effort conceptuel, on en recueille vite les fruits.

Soit

(1) ẋ = X(t, x)

une équation vérifiant les hypothèses du théorème de Cauchy-Lipschitz. On suppose pour


simplifier que les solutions sont définies pour tout temps.
Définition 5.1. Le flot de l’équation ẋ(t) = X(t, x(t)) est l’application

ϕ : R × R × Rn → Rn

telle que ϕ(t, t0 , x0 ) = x(t) où x est la solution de (1) avec condition initiale x(t0 ) = x0 .

Dans la suite on utilisera la notation ϕtt0 (x) au lieu de ϕ(t, t0 , x0 ). Lorsque X est
linéaire, le flot n’est rien d’autre que la résolvante : ϕtt0 = Rtt0 .
Définition 5.2. Si X(t, x) ne dépend pas de t, on dit que l’équation est autonome, ou
encore que X(x) est un champ de vecteurs. Dans le cas contraire, l’équation est dite
non-autonome.

Le flot a la propriété élémentaire suivante :

Il vérifie

(2) ϕtt21 ◦ ϕtt10 = ϕtt20

en particulier ϕtt0 ◦ ϕtt0 = ϕtt = Id, et le flot est inversible.

Cela permet de montrer


Proposition 5.3. Si X est de classe C k (k ≥ 1) alors ϕtt0 est un difféomorphisme de
classe C k .

Démonstration. L’application ϕtt0 est de classe C k a été déjà démontré dans la proposition
4.3 du chapitre 4.

Enfin, c’est bien un difféomorphisme, puisque son inverse, ϕtt01 est aussi de classe C k .

Remarque 1.1.
1. Flots, portrait de phase, redressement 127

Si X(t, x) = X(x) est autonome, alors ϕtt0 = ϕt−t


0
0
que l’on note souvent ϕt−t0 .

La formule (2) devient alors ϕt ◦ϕu = ϕt+u . On obtient donc un sous-groupe du groupe
des difféomorphismes de Rn isomorphe à R.

Réciproquement tout sous-groupe de classe C 1 du groupe des difféomorphismes de


classe1 C 1 , isomorphe à R est engendré par un flot. En effet, si on note ϕt l’image de t,
posant X(x) = dtd ϕt (x) |t=0 , on a

d t d d
ϕ (x) |t=s = ϕt+s (x) |t=0 = ϕt ϕs (x) |t=0 = X(ϕs (x))
dt dt dt

Donc ϕt est solution de l’équation (1), pour le champ de vecteurs X(x).

On appelle groupe à un paramètre un tel sous-groupe du groupe des difféomor-


phismes, et le champ X son générateur infinitésimal.

Pour un champ de vecteurs X(x) on appelle orbite de x ou trajectoire passant par x,


la « courbe » :
Ox = {ϕt (x) | t ∈ R}

Deux orbites ne peuvent s’intersecter sauf à être confondues. En effet, si z ∈ Ox ∩ Oy ,


on a z = ϕa (x) = ϕb (y). Donc ϕa−b (x) = y et ϕt (y) = ϕt+a−b (x) : l’orbite de x est
contenue dans celle de y et par symétrie ces orbites sont égales.

L’espace est partitionné en orbites dont la représentation est appelé portrait de


phase. Les orbites sont de trois types topologiques, suivant que le sous-groupe fermé de
R
Gx = {t | φt (x) = x}

est égal à R, T Z ou {0} :

(A) (cas Gx = R) des points, (ceux où X(x0 ) = 0) appelés points singuliers, ou zéros
du champ de vecteurs.
(B) (cas Gx = T Z) des orbites périodiques (il existe T > 0 appelé période, tel que
ϕT (x) = x), difféomorphes à des cercles.
(C) (cas Gx = {0}) des images de R par une injection continue.

On voit les trois sortes d’orbites sur le portrait de phase du pendule, en coordonnées
(θ, θ̇) dans la figure 5.1.

1
On dit que le sous-groupe est de classe C k si (t, x) 6→ ϕt (x) est de classe C k en les deux variables.
128 Chapitre 5. Équations différentielles non-linéaires II

Fig. 5.1 – Portrait de phase du pendule libre θ̈ + gl sin(θ) = 0

Notons que les flots sont un moyen commode de construire des difféomorphismes que
l’on ne sait pas « fabriquer explicitement » (cf. exercice (E)). On pourra aussi se reporter
à l’exercice (M) du chapitre 8.

1.2 Portraits de phase en dimension 2

Un cas simple est celui des systèmes conservatifs, c’est-à-dire du type Hamiltonien
ẍ + ∇V (x) = 0
ou encore du type
!
ẋ = ∂H
∂y
ẏ = − ∂H
∂x

(Le premier cas s’obtient en posant H(x, y) = 12 y 2 + V (x)).

Dans ce cas la quantité H(x, y) est constante sur les trajectoires, car
d ∂H ∂H ∂H ∂H ∂H ∂H
H(x(t), y(t)) = ẋ + ẏ = − =0
dt ∂x ∂y ∂x ∂y ∂y ∂x

On trace alors les courbes {(x, y) ∈ R2 | H(x, y) = c} et les trajectoires sont contenues
dans ces courbes. Le lemme suivant est alors utile pour dessiner le portrait de phase, car
il permet d’affirmer que le trajectoires ne peuvent être arrêtées que par un zéro du champ
de vecteurs.
Lemme 5.4. Soit x(t) la solution d’une équation différentielle autonome, et supposons
que limt→∞ x(t) = x∞ . Alors x∞ est un zéro du champ de vecteurs.

Démonstration. Notons φt le flot, et x(t) = φt (x0 ). Alors si limt→∞ φt (x0 ) = x∞ on aura


pour tout s, d’une part limt→∞ φt+s (x0 ) = limt→∞ φt (x0 ) = x∞ , d’autre part par continuité
du flot, limt→∞ φt+s (x0 ) = φs (limt→∞ φt (x0 )) = φs (x∞ ). On en déduit que pour tout s,
φs (x∞ ) = x∞ et donc X(x∞ ) = ds d s
φ (x∞ ) = 0.
1. Flots, portrait de phase, redressement 129

Ce lemme nous permet d’affirmer que sur un niveau de H sans zéro, les trajectoires
coïncident avec les composantes connexes du niveau de H.

Le portrait de phase du pendule s’obtient en prenant H(x, y) = 12 y 2 − cos(x).

Lorsqu’on ajoute à l’équation un terme de frottement, par exemple


ẍ + f ẋ + ∇V (x) = 0
un calcul analogue montre que
d
H(x(t), y(t)) = −f y(t)2
dt
Le flot fait donc décroître H, et les orbites se dirigent vers les valeurs décroissantes de H.
Par exemple pour un pendule avec frottement, les solutions sont rentrantes par rapport
aux courbes H −1(c). On verra plus précisément ce qui se passe près des équilibres dans le
chapitre 6.

Fig. 5.2 – En vert : Trajectoire du pendule avec frottement.


En rouge : niveaux de 12 y 2 − cos(x).

1.3 Conjugaison et changement de coordonnées.

Dans cette section la régularité des champs de vecteurs est au moins de classe C 1 . On
souhaite décrire le portrait de phase d’un champ, et dire si deux champs de vecteurs se
ressemblent, cette « ressemblance » signifiant qu’il existe un difféomorphisme conjuguant
les deux flots, c’est-à-dire hϕt h−1 = ψ t (ϕt et ψ t sont les flots, h le difféomorphisme). En
particulier cela entraîne que les portraits de phase sont difféomorphes.
Définition 5.5. Soit h un difféomorphisme, X(t, x) un système dynamique. On note h∗ X
le système dynamique Y défini par

h∗ X(t, x) = Y (t, x) = dh(h−1 (x))X(t, h−1 (x))


130 Chapitre 5. Équations différentielles non-linéaires II

Proposition 5.6 (Conjugaison de flots par un difféomorphisme). Si ϕtt0 est le flot


de X et ψtt0 celui de Y = h∗ X on a

ψtt0 = h ◦ ϕtt0 ◦ h−1

En particulier si X est autonome, Y l’est aussi, et h envoie les orbites de X sur celles de
Y.

Démonstration : Il suffit de vérifier que ψtt0 (x) et h ◦ ϕtt0 ◦ h−1 (x) vérifient la même
équation différentielle avec la même condition initiale en t0 . Or en t = t0 , les deux fonctions
prennent la valeur x et on a

d d
(h ◦ ϕtt0 ◦ h−1 (x)) |t=τ = dh(ϕtt0 ◦ h−1 (x)) ϕtt0 |t=τ (h−1 (x)) =
dt dt
τ −1 τ −1
dh(ϕt0 ◦ h (x))X(τ, ϕt0 ◦ h (x)) =
dh(h ◦ (h ◦ ϕτt0 ◦ h−1 ))X(τ, h−1 ◦ (h ◦ ϕτt0 ◦ h−1 (x))) =
−1

(h∗ X)(τ, h ◦ ϕτt0 ◦ h−1 )

On notera la propriété (h ◦ k)∗ X = h∗ (k∗ X) qui résulte de la proposition ci-dessus.

Réécrire un champ de vecteurs dans un nouveau système de coordonnées relève de la


même problématique, h étant le difféomorphisme de changement de coordonnées.
Exemple 1.1 (Coordonnées polaires). Soit h : (r, θ) 6→ (r cos(θ), r sin(θ)) l’application de
R∗ ×[0, 2π[ dans R2 −{0}. C’est un difféomorphisme d’un ouvert U tel que U ⊂ R∗ ×[0, 2π[
sur son image2 . Soit X(x, y) un champ de vecteurs, alors (h−1 )∗ (X) représente ce même
champ en coordonnées polaires.

On utilise le fait que dh−1 ◦ dh(r, θ)) = Id et donc puisque

# $
cos(θ) −r sin(θ)
dh(r, θ) =
sin(θ) r cos(θ)
# $
cos(θ) sin(θ)
et donc dh (r cos(θ), r sin(θ)) =
−1
− 1r sin(θ) 1r cos(θ)

Si (ex , ey ) est une base du plan, et X(x, y) = Xx (x, y)ex + Xy (x, y)ey , on aura
& y
2
en effet l’application inverse, (x, y) → ( (x2 + y 2 ), Arcsin( √ )) est bien de classe C 1 sur un
(x2 +y 2 )
tel ouvert.
1. Flots, portrait de phase, redressement 131

Y (r, θ) = dh−1 (h(r, θ))(X(r, θ)) =


dh−1 (r cos(θ), r sin(θ))(Xx (r cos(θ), r sin(θ))ex + Xy (r cos(θ), r sin(θ))ey =
# $# $
cos(θ) sin(θ) Xx ' (
1 1 = cos(θ)Xx + sin(θ)Xy , −1 sin(θ)Xx + 1r cos(θ)Xy
− r sin(θ) r cos(θ) Xy r

en d’autres termes, si Y (r, θ) = Yr (r, θ)er + Yθ (r, θ)eθ

Yr (r, θ) = cos(θ)Xx (r cos(θ), r sin(θ)) + sin(θ)Xy (r cos(θ), r sin(θ))


−1 1
Yθ (r, θ) = sin(θ)Xx (r cos(θ), r sin(θ)) + cos(θ)Xy (r cos(θ), r sin(θ))
r r

Le même principe transforme les symétries du champ de vecteur en symétries du flot,


puisque si h∗ X = X on a h ◦ φt = φt ◦ h.
Exemple 1.2. Si Z(x, y) est le champ de vecteurs associé à l’équation du pendule ẍ +
cos(x) = 0, qui se réécrit ẋ = y, ẏ = − sin(x), c’est-à-dire Z(x, y) = (y, − sin(x)). Si σ est
le difféomorphisme consistant en une symétrie par rapport à l’origine, σ(x, y) = (−x, −y)
et puisque Z(σ(x, y)) = (−y, sin(x)) = σ(Z(x, y)), on a σ∗ Z = Z et donc son flot ψ t
vérifiera ψ t (σ(x, y)) = σψ t (x, y). On en déduit en particulier que σ envoie une trajectoire
sur une autre trajectoire, le portrait de phase est donc invariant par σ.
Remarque 1.2. Si h∗ X = −X, h conjugue le flot de X à celui de −X, c’est-à-dire φ−t .
on dit que h renverse le temps, et que le flot est « réversible ». Dans ce cas h envoie une
trajectoire sur une autre, mais renverse son sens. A l’orientation près, le portrait de pahse
est encore invariant.
Exemple 1.3. Si on considère la symétrie d’axe vertical ρ(x, y) = (−x, y), et Z est en-
core l’équation du pendule, ρ∗ Z(x, y) = (−y, sin(x)) = −(y, − sin(x)) = −Z(−x, y) =Z
(ρ(x, y)). Donc la symétire d’axe vertical retourne les trajectoires du pendule.

1.4 Redressement et application de Poincaré : premières notions


géométriques.

Nous pouvons maintenant décrire l’allure d’un champ de vecteurs au voisinage d’un
point non-singulier (i.e. tel que X(x0 ) ̸= 0).

Proposition 5.7 (Théorème de redressement). Soit X un champ de vecteurs de classe


C k (k ≥ 1), tel que X(x0 ) ̸= 0. Alors il existe un difféomorphisme h de classe C k , défini
au voisinage de x0 tel que h∗ X soit constant.

Démonstration. Grâce à une translation et une permutation des variables, on peut


supposer que x0 = 0 et que la première coordonnée de X(0) est non nulle.
132 Chapitre 5. Équations différentielles non-linéaires II

Soit ϕt le flot de X, et

ρ : Rn 6−→ Rn
(t, x2 , ..., xn ) 6−→ ϕt (0, x2 , ..., xn )

Montrons que ρ est un difféomorphisme local au voisinage de 0.

En effet, dρ(0) = ∂ρ ∂t
(0)dt + ∂ρ
∂x2
(0)dx2 + ... + ∂ρ
∂xn
(0)dxn . Mais ϕ0 = id donc
ρ(0, x2 , . . . , xn ) = (0, x2 , . . . , xn ) et

∂ρ d ∂ρ ∂ϕ0
(0) = ϕt (0)|t=0 = X(0), (0) = (0) = ej
∂t dt ∂xj ∂xj

Cela entraîne que dρ(0) = X(0)dt + e2 dx2 + ...en dxn , et puisque par hypothèse,
(X(0), e2, . . . , en ) forme une base de Rn , on conclut que dρ(0) est inversible. D’après
le théorème d’inversion locale, ρ est un difféomorphisme local. Comme si Z est le champ
de vecteurs constant (1, 0, , ..., 0), de flot ψ t , l’application ρ est telle que

ρ(ψ t (x1 , ..., xn )) = ρ(x1 + t, x2 , ..., xn ) = ϕx1 +t (0, x2 , ..., xn ) =


ϕt ϕx1 (0, x2 , ..., xn ) = ϕt (ρ(x1 , x2 , ..., xn ))

On en déduit que h = ρ−1 est le difféomorphisme cherché.

Fig. 5.3 – Redressement d’un champ de vecteurs

L’étude des champs de vecteurs au voisinage d’un point d’équilibre (aussi appelée
singularité) est un sujet beaucoup plus difficile, qui est encore aujourd’hui le sujet de
recherches actives.
Remarque 1.3. On appelle boîte de flot un domaine U sur lequel est défini un redresse-
ment de X, c’est à dire une difféomorphisme h tel que h∗ X soit constant.
1. Flots, portrait de phase, redressement 133

La démonstration du théorème de redressement associe à tout hyperplan Σ, supplémen-


taire de X(x), un tel redressement qui envoie Σ sur x1 = 0. Un tel morceau d’hyperplan
Σ s’appelle section de Poincaré du flot3 .

Nous allons maintenant définir l’application de premier retour ou application


de Poincaré associée à une orbite périodique.

Soit x(t) une solution périodique de période minimale4 T du flot φt de X et Σ une


section de Poincaré passant par u0 = x(0). On appelle application de premier retour,
l’application qui à u dans Σ associe le premier point de rencontre de la courbe {ϕt (u) |
t > 0} avec Σ. Bien entendu elle n’est définie que sur un voisinage de u0 dans Σ.

u
ϕΤ(u)

Fig. 5.4 – Application de premier retour

Proposition 5.8. Soit X un champ de vecteurs de classe C k (k ≥ 1) L’application de


Poincaré u → r(u) est alors un difféomorphisme de classe C k , défini sur un voisinage de
u0 dans Σ. Sa différentielle en u0 , dans une base dont le premier vecteur est égal à X(u0),
et dont les autres sont dans Σ est liée à celle de ϕT (u0 ) par
# $
T 1 ∗
dϕ (u0 ) =
0 dr(u0)

Démonstration. Soit V un voisinage de u0 dans Σ. On supposera Σ donnée par Σ =


{x1 = 0}, et considérons la fonction f définie sur ]T − δ, T + δ[×V

f : (t, u) → x1 (ϕt (u))

On a
∂ d
f (t, u)|(T,u0) = dx1 (ϕt (u)) (ϕt (u))t=T = dx1 (u0 )X(u0 )
∂t dt
3
Le terme est en fait utilisé pour tout morceau d’hypersurface, Σ tel que Tx Σ soit supplémentaire de
X(x), mais il faudra attendre le chapitre 8 pour une définition formelle.
4
C’est-à-dire que T est le plus petit réel strictement positif tel que ϕT (u0 ) = u0
134 Chapitre 5. Équations différentielles non-linéaires II

Dire que Σ est une section de Poincaré signifie que X(u0) n’est pas dans Σ, et donc
que dx1 (u0 )X(u0 ) ̸= 0. Quitte à restreindre δ et V , le théorème des fonctions implicites
nous garantit l’existence d’une fonction T (u) de classe C k définie sur V , telle que t = T (u)
soit l’unique solution de x1 (ϕt (u)) = 0 contenue dans ]T − δ, T + δ[. En d’autres termes
ϕT (u) (u) ∈ Σ.

Montrons que si V est choisi suffisamment petit, T (u) est bien le temps de premier
retour de u sur Σ.

Tout d’abord, si u est sur Σ, on a ϕt (u) ̸= u pour t strictement positif et inférieur à δ


et donc le temps de premier retour de u sur Σ, est minoré par δ. D’autre part T (u) est
l’unique solution de x1 (ϕt (u)) = 0 dans t ∈]T − δ, T + δ[. Donc si pour t < T (u) on avait
x1 (ϕt (u)) = 0, nécessairement δ < t < T − δ.

Nous allons sous cette hypothèse obtenir une contradiction à la minimalité de T .


Supposons en effet qu’il existe une suite un dans Σ tendant vers u0 , et une suite Tn
vérifiant δ < Tn < T − δ telles que ϕTn (u) ∈ Σ. Quitte à remplacer Tn par une sous-suite,
on peut supposer que Tn a une limite T∞ , qui est nécessairement dans [δ, T − δ].

Mais alors, puisque limn un = u0 on a par continuité du flot, que ϕT∞ (u0 ) = u0 ce qui
contredirait la minimalité de T comme période de u0 .

Calculons maintenant la différentielle de l’application de premier retour, r(u) =


ϕT (u)
(u) définie sur un voisinage W de u0 dans Σ. Cette application est bien différentiable,
comme composée d’applications différentiables, puisque l’on a montré que u → T (u) et
(t, u) → ϕt (u) le sont.

Considérons un système de coordonnées dont le premier vecteur est donné par X(u0 )
et les autres sont dans Σ. toujours donnée par l’équation x1 = 0.

La différentielle de r est alors donnée par


d t
dr(u0) = dϕT (u0) + ϕ (u0 )|t=T (u0 ) dT (u0) = dϕT (u0 ) + X(u0 )dT (u0)
dt

La projection de cette égalité sur Σ parallèlement à X(u0) donne l’égalité du bloc


inférieur droit de dϕT (u0 ) avec dr(u0 ). La première colonne de la matrice de dϕT (u0) dans
cette base s’obtient en écrivant que ϕt+T (u0 ) = ϕt (u0 ) et en différentiant cette égalité par
rapport à t.

On a en effet
d t+T d
ϕ (u0 )|t=0 = dϕT (u0) ϕt (u0 )|t=0 = dϕT (u0 )X(u0)
dt dt
Mais
d t+T d
ϕ (u0)t=0 = ϕt (u0 )t=0 = X(u0)
dt dt

On en conclut dϕT (u0 )X(u0 ) = d t+T


dt
ϕ (u0 )|t=0 = X(u0).
2. Linéarisation et théorie des perturbations pour un flot 135

Comme ϕT est un difféomorphisme, dϕT est inversible, et donc dr(u0) aussi. Le théo-
rème d’inversion locale permet alors de conclure que r est un difféomorphisme local.
Remarques 1.1. (A) On aurait pu voir directement que r est un difféomorphisme local
en construisant son inverse, l’application de « dernier passage », qui n’est autre que
l’application premier retour pour −X.
(B) On pourra aussi calculer la différentielle du temps de premier retour (cf. exercice
(J)).

2 Linéarisation et théorie des perturbations pour un


flot

Nous voulons ici déterminer de manière plus précise le comportement des solutions
proches d’une solution donnée. En premier lieu, nous voulons calculer dϕtt0 (x0 ) où ϕtt0 est
le flot de X(t, x), que l’on supposera de classe C 1 .

D’après le théorème de Cauchy-Lipschitz, x 6→ ϕtt0 (x) est différentiable et vérifie

d t
ϕt0 (x) = X(t, ϕtt0 (x))
dt

En différentiant 5 par rapport à x, et utilisant le lemme de Schwartz (Proposition 1.26


de l’appendice du chapitre 1) on obtient, posant dϕtt0 (x) = L(t0 , t, x)

d
L(t0 , t, x) = dX(t, ϕt (x))L(t0 , t, x)
dt

C’est dire que L(t0 , t, x) est la résolvante de l’équation linéaire

v̇ = A(t)v

où A(t) = dX(t, ϕt (x)).


Définition 5.9. On appelle L(t0 , t, x) le linéarisé du flot en x. Comme pour la résolvante,
on note L(t, x) = L(0, t, x).

Il résulte immédiatement de ce qui précède que


Proposition 5.10. La différentielle de u0 → ϕtt0 (u0) est égale à L(t0 , t, u0).

Notons que pour une équation d’ordre supérieur, il est inutile de se ramener à une
équation d’ordre un pour calculer le linéarisé du flot (du moins si on se contente d’avoir
d
5
Si f est une fonction de (t, x) on note dt f (t, x) la dérivée partielle de f par rapport à t et df (t, x) la
dérivée partielle par rapport à x.
136 Chapitre 5. Équations différentielles non-linéaires II

le linéarisé sous forme de solution d’une équation d’ordre supérieur), et que la méthode
la plus commode, est encore de substituer dans l’équation le développement limité de la
solution, en identifiant les termes de même ordre en le petit paramètre. On peut aussi, si
X est de classe C k , calculer les différentielles d’ordre supérieur de ϕtt0 .
Exemple 2.1. Considérons l’équation du pendule

ẍ + ω 2 sin(x) = 0

avec condition initiale x(0) = ε, ẋ(0) = 0.

Sa linéarisée au voisinage de la solution nulle, correspondant à ε = 0 est

v̈1 + ω 2v1 = 0

dont les solutions sont les combinaisons linéaires de cos(ωt) et sin(ωt).

Donc la solution avec condition initiale x(0) = ε, ẋ(0) = 0 est donné par x(t) =
ε cos(ωt) + O(ε2) et on peut bien évidemment calculer les termes d’ordre supérieur :

Posons
x(t) = ε · v1 (t) + ε2 · v2 (t) + ε3 v3 (t) + O(x40 )

avec condition initiale x(0) = ε, ẋ(0) = 0 c’est-à-dire que v1 (0) = 1, v̇1 (0) = 0, v2 (0) =
v̇2 (0) = 0 , v3 (0) = v̇3 (0) = 0.

On doit donc avoir6

x0 v̈1 + x20 v̈2 + x30 v̈3 + O(x40 ) + ω 2 sin(x0 v1 + x20 v2 + x30 v3 + O(x40 )) = 0
Utilisant le développement du sinus à l’ordre 3 on obtient

2 ω2 3
x0 (v̈1 + ω v1 ) + x20 (v̈2 2
+ ω v2 ) + x30 (v̈3 2
+ ω v3 − v1 )
6
soit

v̈1 + ω 2v1 = 0
v̈2 + ω 2v2 = 0
ω2 3
v̈3 + ω 2 v3 = v
6 1

Puisque v1 (t) = cos(ωt), la seconde équation est impaire de condition initiale nulle v2
est donc nulle.
6
notons que ce ne sont pas les calculs qui justifient l’existence du développement, mais le théorème de
Cauchy-Lipschitz à paramètres. Une fois l’existence de ce développement acquise, il est facile de voir que
les calculs suivants en fournissent nécessairement les coefficients.
2. Linéarisation et théorie des perturbations pour un flot 137

La troisième équation est l’équation linéaire :

v̈3 + ω 2 v3 = cos3 (ωt)

qui se résout par variation de la constante, ou par la commande Maple

>dsolve({diff(diff(u(x),x),x)+a^2u(x)=cos(a*x)^3, u(0)=0, D(u)(0)=0},{u(x)});

nous donne
1 1 3
v3 (t) = cos(ωt) − cos(3ωt) + ωt · sin(ωt)
32 32 8

En définitive on obtient

# $
ε3 1 1 3
x(t) = ε cos(ωt) + cos(ωt) − cos(3ωt) + ωt · sin(ωt) + O(ε5)
6 32 32 8
Exercice 2.1. Trouver le développement de la période des oscillations du pendule en fonc-
tion de l’amplitude des oscillations, ε.
Remarque 2.1. Dans la formule ci dessus on a un terme en t sin(ωt) qui n’est pas pério-
dique, bien que l’on sache a priori que si x0 est assez petit, x(t) est périodique. Cela n’a
rien d’absurde, une somme de termes non-périodiques peut très bien être périodique, mais
cela pose le problème de l’approximation de x(t) par le développement asymptotique ci-
dessus lorsque t est grand. Les termes de la forme tp cos(ωt) où tp sin(ωt) pour p supérieur
à un, appelés termes séculaires, furent considérés avec beaucoup d’attention au cours
de la deuxième moitié du 19ème siècle. On verra dans l’exercice (G) une des méthodes
utilisées pour s’en débarrasser.

On peut aussi lorsqu’on a une famille Xµ (t, x) de champs de vecteurs, et xµ (t) une
solution de condition initiale xµ (t0 ) = u0, calculer les différentielles de xµ (t) par rapport à
µ. On supposera la solution connue pour la valeur µ = 0 du paramètre, et on cherche les
dérivées en µ de xµ (t) en µ = 0. Celles-ci permettent de calculer le développement limité

xµ (t) = x0 (t) + µξ1 (t) + µ2 ξ2 (t) + ... + µk ξk (t) + o(µk )

d
En effet, posant ξ(t) = ξ1 (t) = x (t)|µ=0 ,
dµ µ
on a

d d d d d
ξ(t) = xµ (t) = xµ (t)
dt dt dµ dµ dt
d’après le Lemme de Schwarz. Cette dernière quantité est donnée par
# $
d d
(Xµ (t, xµ (t)) = Xµ (t, xµ (t)) + dXµ (t, xµ (t))ξ(t)
dµ dµ
138 Chapitre 5. Équations différentielles non-linéaires II

où on rappelle que d désigne la différentielle par rapport à la variable x. Donc

d ∂ d
ξ(t) − X0 (t, x0 (t))ξ(t) = Xµ (t, xµ (t))|µ=0
dt ∂x dµ
et ξ vérifie une équation linéaire inhomogène dont l’équation homogène associée est la
linéarisée du flot. On peut donc écrire

" t
d
ξ(t) = L(s, t, x0 )
Xµ (t, xµ (t))ds
t0 dµ
Proposition 5.11. Soit xµ une famille de solutions de l’équation
ẋµ = Xµ (t, xµ (t)); xµ (0) = u0
On suppose que l’application (t, µ, x) −→ Xµ (t, x) est de classe C 1 . Alors µ → xµ (t) est
%t d
différentiable de différentielle en µ = 0 égale à ξ(t) = t0 L(s, t, x0 ) dµ Xµ (t, xµ (t))ds.

On obtient de la même manière les coefficients d’ordre supérieur. Les calculs sont du
même type que ceux pratiqués pour une variation de la condition initiale. La meilleure
méthode est d’identifier les coefficients.
Exemple 2.2. Considérons l’équation de Van der Pol
ẍ + µ(x2 − 1)ẋ + x = 0

Pour µ = 0, on résout ẍ + x = 0 dont les solutions sont x0 (t) = a cos(t) + b sin(t).

La solution admet donc le développement limité xµ (t) = x0 (t) + µx1 (t) + ...

où x1 (t) est solution de

ẍ1 + x1 = −(x20 − 1)ẋ0

Le calcul pour a, b quelconque est laissé en exercice (on conseille vivement l’utilisation
d’un logiciel de calcul formel). Mais en partant de la solution x0 (t) = cos(t) (a = 1, b = 0)
on obtient

x1 (t) = − 83 t cos(t) + 1
32
sin(3t) + 9
32
sin(t)

On remarquera ici aussi la présence du terme séculaire.

Le terme x2 est solution de

ẍ2 (t) + x2 (t) = −[2x0 (t)x1 (t)ẋ1 (t) + (x0 (t)2 − 1)ẋ1 (t)]

5 113 9 5 9 3 2
x2 (t) = − t sin(t) + cos(t) − cos(3t) − cos(5t) − t sin(3t) + t cos(t)
64 3072 256 3072 256 128
3. Compléments : Aspects topologiques, théorème de Poincaré-Bendixson 139

2.1 Application

La linéarisation permet aussi d’utiliser les propriétés infinitésimales du flot pour en


déduire des propriétés globales. Par exemple, l’équation

ẍ + ∇V (t, x) = 0

se réécrit
ẋ = y, ẏ = −∇V (t, x)
son flot ϕtt0 (x, y) préserve le volume n-dimensionnel (et donc en dimension deux φtt0 pré-
serve l’aire.). En effet, le linéarisé du flot est donné par

ξ˙ = η, η̇ = V ′′ (t, x(t))η

dont la matrice associée est


# $
0 1
′′
−V (t, x(t) 0

qui est de trace nulle. D’après le théorème de Liouville, dϕtt0 (x) préserve donc le volume,
ou encore det(dϕtt0 (x)) = 1, et on a donc :

Théorème 5.12 (Théorème de Liouville non-linéaire). Soit ϕtt0 le flot d’une équation
différentielle X(t, x) définie sur Rn , telle que ∇ · X(t, x) = trace(dX(t, x)) = 0. Alors ϕtt0
préserve la mesure de Lebesgue.

Démonstration. D’après le théorème de Liouville linéaire, le linéarisé dϕtt0 (x) vérifie


det(dϕtt0 (x)) = 1. D’après la formule de changement de variable pour les intégrales, notant,
µ mesure de Lebesgue, on a
" " "
t t
µ(ϕt0 (U)) = dµ = | det(dϕt0 (x)|dµ = dµ = µ(U)
ϕtt (U ) U U
0

3 Compléments : Aspects topologiques, théorème de


Poincaré-Bendixson

Une des premières applications de type topologique du théorème des sections de Poin-
caré est le théorème de Poincaré-Bendixson. Ce théorème permet sous certaines hypo-
thèses de montrer l’existence d’orbites périodiques pour un champ de vecteurs du plan.
L’importance des orbites périodiques vient tout d’abord de ce qu’elles correspondent à des
140 Chapitre 5. Équations différentielles non-linéaires II

solutions oscillantes d’un système mécanique ou électrique. Mais ces solutions se sont avé-
rées jouer un rôle fondamental non seulement pour les systèmes dynamiques, mais aussi
dans de nombreux autres domaines, que ce soit pour l’étude des équations aux dérivées
partielles, ou en géométrie différentielle.

Définissons d’abord la notion d’ensemble ω-limite d’une orbite ;


Définition 5.13. Soit X un champ de vecteurs, de flot ϕt . On appelle ensemble ω-limite
de x, l’ensemble des valeurs d’adhérence de ϕt (x) lorsque t tend vers +∞, ou encore
l’ensemble des limn→∞ ϕtn (x) avec limn→∞ tn = +∞. On le note Lω (x). On note Lα (x)
l’ensemble des valeurs d’adhérence
) de ϕt (x) lorsque
) t tend vers −∞. Enfin si Z est un
ensemble, on note Lω (Z) = Lω (z), Lα (Z) = Lα (z).
z∈Z z∈Z

Voici quelques propriété importantes de ces ensembles :

(A) si Z ⊂ Y et Y est fermé, invariant par le flot positif (i.e. ϕt (Y ) ⊂ Y pour tout
t > 0), alors Lω (Z) ⊂ Y .
(B) Lω (z) est fermé (exercice (C) du chapitre 1).
(C) Lω (Z) est invariant par le flot, car si u = limn ϕtn (z) on a ϕτ (u) = limn ϕτ +tn (z).
(D) si Lω (z) est borné, il est connexe (cf. exercice (I))

Il résulte en particulier des propriétés (A) et (C) que Lω (Lω (z)) ⊂ Lω (z).

Théorème 5.14 (Poincaré-Bendixson). Soit x(t) une solution d’un champ de vecteurs
X du plan. Si x(t) reste bornée lorsque t tend vers +∞ alors l’adhérence de x(t) contient
un point singulier de X ou une orbite périodique. Dans ce dernier cas, et si x(t) n’est pas
elle-même périodique on dit que l’orbite périodique est un cycle limite .

Il s’agit d’abord de comprendre comment une trajectoire peut intersecter une section
de Poincaré, Σ, dans notre cas un segment du plan.
Définition 5.15. Soit γ une courbe paramétrée injectivement par un segment [a, b]. Étant
donnés trois points γ(t1 ), γ(t2 ), γ(t3 ) sur γ([a, b]), on dira que γ(t2 ) est entre γ(t1 ) et
γ(t3 ) sur γ, si t1 < t2 < t3 . Cette notion ne change pas si on inverse le sens de parcours
de γ (i.e. si on remplace γ par γ −1 (t) = γ((a + b) − t)). On dit par abus de langage que
les points sont ordonnés.

Considérons trois points x(t1 ), x(t2 ), x(t3 ) sur Σ. On a alors deux notions d’ordre, la
première donnée par leur position sur la trajectoire la deuxième par leur position sur Σ.

Lemme 5.16. Les ordres de x(t1 ), x(t2 ), x(t3 ) sur la trajectoire et sur Σ coïncident

Démonstration. D’après le théorème de redressement, la différence entre deux instants


de rencontre de γ avec Σ est minoré. On peut donc se ramener au cas où les instants
t1 , t2 , t3 sont trois instants consécutifs de rencontre avec Σ. En effet si t1 = τ1 < τ2 <
3. Compléments : Aspects topologiques, théorème de Poincaré-Bendixson 141

... < t2 = τk < .... < τn = t3 sont les instants de rencontre, il suffit de montrer que
x(τj ), x(τj+1 ), x(τj+2 ) sont ordonnés sur Σ pour conclure que x(t1 ), x(t2 ), x(t3 ) le sont.

Soit γ la courbe fermée constituée par {x(t) | t1 ≤ t ≤ t2 } et le segment de Σ délimité


par x(t1 ) et x(t2 ). On va montrer que x(t3 ) ne peut être se trouver sur ce dernier segment.
Dans le cas contraire, on aurait que pour ε assez petit, x(t2 + ε) et x(t3 − ε), qui sont
dans R2 − γ, sont dans des composantes connexes distinctes de R2 − γ. En effet, x traverse
Σ dans le même sens en t = t2 et t = t3 , et donc x(t2 + ε) et x(t3 + ε) sont dans la
même composante connexe de R2 − γ. Comme on passe de x(t3 − ε) à x(t3 + ε) par un
chemin qui traverse γ en un point unique, x(t3 ), on aura d’après le théorème de Jordan
(cf. Appendice) que x(t2 +ε) et x(t3 −ε) sont dans des composantes connexes distinctes de
R2 −γ. D’autre part, {x(t) | t2 +ε ≤ t ≤ t3 −ε} est un arc contenu dans le complémentaire
de γ, ce qui est contradictoire.

x(t2) x(t 2+ε)

x(t3- ε) x(t3)

x(t1)

Fig. 5.5 – Illustration du Lemme 1 : dans la situation de la figure, les points bleus seraient
dans la même composante connexe du complémentaire de γ, contredisant le théorème de
Jordan
Lemme 5.17. L’ensemble Lω (x) est une réunion d’orbites qui ne rencontre une section
de Poincaré qu’en un point au plus.

Démonstration. Il est clair d’après la propriété (C) que Lω (x) est réunion d’orbites.
Soient alors y, z deux points de Lω (x) ∩ Σ. Il existe deux suites, sn , tn tendant vers +∞,
telles que limn x(sn ) = y et limn x(tn ) = z.

Mais quitte à extraire des sous-suites, on peut supposer que sn < tn < sn+1 < tn+1 .
Puisque pour n assez grand, les x(sn ) sont tous près de y et les x(tn ) près de z, et que
d’après le lemme, sur Σ, x(tn ) est entre x(sn ) et x(sn+1 ), on a nécessairement y = z.

Démonstration de Poincaré-Bendixson. Considérons Lω (x), qui est non vide par hypo-
thèse. On va montrer que si cet ensemble ne contient pas de zéro de X il est réduit à
142 Chapitre 5. Équations différentielles non-linéaires II

une orbite périodique. En effet, si z ∈ Lω (x), l’orbite de z est bornée, donc Lω (z) est
non-vide. Soit u ∈ Lω (z) alors il existe des points de l’orbite de z arbitrairement proches
de u. Si u n’est pas singulier, il existe une section de Poincaré en u, et l’orbite de z coupera
cette section une infinité de fois, ce qui contredit le lemme 5.17, sauf si ces points sont
confondus, auquel cas l’orbite est périodique.

On a donc montré que Lω (z) contient un zéro de X, ou une orbite périodique. Comme
d’après la remarque précédant l’énoncé du théorème, Lω (z) ⊂ Lω (x), cela termine la
démonstration.

On peut donner plus de détails sur la structure de Lω (x) dans le cas général. Si Lω (x)
contient une orbite périodique, alors Lω (x) est égal à cette orbite, et l’orbite de x « spirale »
vers cette courbe. Si Lω (x) contient des zéros de X, il peut alors y en avoir plusieurs, reliés
par des trajectoires, l’ensemble formant une courbe fermée, et la trajectoire de x spirale
vers cette réunion d’orbites 7 .

Fig. 5.6 – Cas où Lω (x) est réunion de points singuliers et de trajectoires hétéroclines

Notons qu’il n’y a pas vraiment d’analogue du théorème de Poincaré-Bendixson en


dimension supérieure (ni même pour des champs non-autonomes).
Remarque 3.1. Le résultat élémentaire suivant est utile pour appliquer le théorème de
Poincaré-Bendixson. Soit X un champ de vecteurs et Ω un domaine dont le bord est
la sous-variété Σ = ∂Ω. On dira que X est rentrant dans Ω si au voisinage de chaque
point Ω est donné par l’équation f < 0 et df (x)X(x) < 0. Comme dans ce cas ∇f (x) est
proportionnel à la normale extérieure de Σ, la condition se réécrit < n(x), X(x) >< 0.

Proposition 5.18. Si X est partout rentrant dans Ω, toute solution qui est dans Ω pour
t = 0 y reste pour tout t positif. En particulier si x ∈ Ω, alors Lω (x) ⊂ Ω
7
On ne peut exclure le cas où Lω (x) serait un ensemble connexe de zéros de X.
4. Appendice : Théorème de Jordan 143

Démonstration. Lorsque Ω = {x | f (x) ≤ 0}, c’est la proposition 4.5 du chapitre 4.


Dans le cadre présent, elle est basée sur le même principe. Il suffit en effet de montrer
que si τ est la borne supérieure de l’ensemble des réels tel que x([0, t]) ⊂ Ω alors τ = ∞.
Supposons donc τ < ∞. Alors x(τ ) est dans Ω car Ω est fermé.

Ensuite, notre affirmation est évidente si x(τ ) ∈ Ω. On peut donc supposer x(τ ) ∈ Σ.
Enfin, une carte nous ramène au cas où Ω = {(x1 , . . . , xn ) | xn ≤ 0} et Σ = {(x1 , . . . , xn ) |
xn = 0}.

Dire que le champ est rentrant, signifie que X(x) = u1 (x) ∂x∂ 1 + . . . + un (x) ∂x∂n où
un (x(τ )) < 0. Alors une solution vérifie ẋn (τ ) = un (x(τ )) < 0 et donc comme xn (τ ) = 0,
on en déduit xn (τ + t) < 0 pour t assez petit. Mais alors x(τ + t) ∈ Ω et cela contredit la
maximalité de τ .

4 Appendice : Théorème de Jordan

Ce théorème affirme que si γ est un courbe fermée continue plongée dans le plan,
c’est-à-dire l’image par une injection continue du cercle S 1 , alors son complémentaire a
deux composantes connexes, l’une bornée l’autre non bornée.

Théorème 5.19. Soit γ : S 1 → R2 une application bijective continue du cercle dans


un sous-ensemble du plan. Alors R2 − γ(S 1 ) a deux composantes connexes, l’une bornée,
l’autre non, telles que γ(S 1 ) soit leur frontière commune.

La démonstration de ce théorème intuitivement évident, l’est assez peu, et nous ren-


voyons à [Dieudonné], Appendice du chapitre 8 page 246. Il existe des nombreuses démons-
trations modernes, utilisant la théorie de l’homologie, qui ont l’avantage de se généraliser
en dimension supérieure (le complémentaire de l’image d’une hypersurface compacte dans
Rn a deux composantes connexes). La démonstration pour des courbes C 1 est plus facile.

Notons que si une courbe « traverse » γ en un point unique, c’est-à-dire si ρ : [−1, 1] →


R2 est continue, et ρ(t) = γ(s) ⇐⇒ s = t = 0 et ρ′ (0) et γ ′ (0) sont linéairement indé-
pendants, alors les ensembles ρ([−1, 0[) et ρ(]0, 1]) sont dans des composantes connexes
distinctes de R2 − γ. En effet F : (s, t) 6→ γ(s) + ρ(t) est alors un difféomorphisme local,
et donc si A et B sont les deux composantes connexes de R2 − γ, F −1 (A) et F −1 (B) sont
des ouverts au voisinage de (0, 0) ayant t = 0 comme frontière commune. Nécessairement
ces ouverts sont t < 0 et t > 0, et donc ρ(t) est dans des composantes connexes distinctes
suivant le signe de t.

Montrer que le complémentaire n’est pas connexe, est en fait nettement plus facile.
Pour cela la méthode la plus simple utilise le théorème des résidus. Encore faut il veiller
à ne pas utiliser une variante de Jordan pour le démontrer !

On utilise alors que


144 Chapitre 5. Équations différentielles non-linéaires II

a) si γ(z0 , r) est un cercle de centre z0 et de rayon r, parcouru dans le sens direct, on


a "
1 dz
=1
2iπ γ(z0 ,r) z − z0

b) si γs est une famille continue de lacets continus et C 1 par morceaux, évitant z0 ,


alors "
1 dz
2iπ γs z − z0
ne dépend pas de s.

5 Exercices
(A) Soit f : R → R l’application f (x) = (x2 − 1)ecos x . On considère l’équation

ẋ(t) = f (x(t))

x(0) = x0
(a) Montrer que si −1 < x0 < 1, les solutions sont définies pour tout temps.
Montrer que si x0 < −1 elles sont définies sur un intervalle contenant [0, +∞, [,
et si x0 > 1 sur un intervalle contenant ] − ∞, 0[.
(b) Lorsque x0 > 1 l’intervalle de définition contient-il [0, +∞[ ?
(B) On considère le système
!
ẋ(t) = y(t) + ε(x(t)2 + y(t)2 − 1)x(t)
(1)
ẏ(t) = −x(t) + ε(x(t)2 + y(t)2 − 1)y(t)

On suppose ε > 0.
(a) Quels sont les zéros du champ de vecteurs ?
(b) Montrer qu’une solution de condition initiale dans le disque {x2 + y 2 ≤ 1} reste
dans ce disque.
(c) Quel est le temps de vie des solutions ?
(d) Donner le développement limité de la solution de condition initiale xε (0) =
1/2, ẋε (0) = 0 en ε = 0 à l’ordre 1.
(C) Dessiner le portrait de phase d’un pendule avec frottement. On pourra comparer le
résultat avec celui fourni par Maple.
(D) Soit f un difféomorphisme de Rn préservant l’orientation (i.e. det(df (x)) > 0). On
veut montrer qu’il existe une équation différentielle X(t, x) dont le flot au temps
un, ϕ1 soit égal à f .
a) Montrer que s’il existe une famille continue ft de difféomorphismes de Rn telle
que f0 = Id et f1 = f alors ft est le flot d’une équation différentielle.
5. Exercices 145

Montrer qu’il en est de même si on suppose simplement que f0 est flot au temps un
d’un système dynamique.
b) En posant f0 (x) = df (0)x et ft (x) = 1t f (t · x), montrer en utilisant a) qu’il suffit
de trouver un chemin de difféomorphismes entre Id et un élément quelconque de
GL+ (n) = {A ∈ GL(n) | det(A) > 0}
c) Que dire dans le cas où f renverse l’orientation.
(E) Lemme de Morse. Soit f : Rn → R une application C 2 . Supposons que pour a < b,
le module du gradient de f , |∇f (x)|, soit minoré par une constante strictement
positive sur f −1 ([a, b]). Alors f −1 (a) et f −1 (b) sont difféomorphes8 .
∇f (x)
On pourra montrer que le flot de X(x) = |∇f (x)|2
est défini pour tout temps, et
envoie f (a) sur f (b) Indication : on calculera f (ϕt (x)) en calculant sa dérivée,
−1 −1

df (x)X(x).
(F) Soit γ(t) une orbite de période T du champ de vecteurs

ẋ1 = f1 (x1 (t), x2 (t)), ẋ2 (t) = f2 (x1 (t), x2 (t))


Montrer que les valeurs propres de dφT (γ(0)) ont pour logarithme 0 et
" T
1 ∂f1 ∂f2
( (γ(t)) + (γ(t))
T 0 ∂x1 ∂x2

(G) Séries de Lindstedt. 9


La théorie des perturbations élémentaires appliquée à une solution périodique, x0 (t)
de période T , telle que les solutions périodiques voisines soient aussi périodiques de
période Tµ , ignore cette périodicité en introduisant des termes séculaires. Ce phéno-
mène n’a rien de surprenant : le développement de Taylor de la fonction périodique
3 5
sin(x) = x − x3! + x5! + . . . est aussi une approximation d’une fonction périodique par
une série dont les termes sont non-périodiques. Bien que la série soit convergente,
le nombre de termes nécessaire pour avoir une approximation sur un intervalle de
longueur L augmente avec L.
a) Estimer le nombre de termes nécessaire pour calculer sin(x) sur [0, L] à 10−2 près.
Donner une méthode plus pratique pour calculer sin(100) à 10−2 près.
La méthode de Lindstedt consiste à approcher la solution par des fonctions pério-
diques.
On va étudier cette méthode sur l’exemple de ẍ + x + µx3 = 0. On note xµ (t) la
solution de cette équation avec condition initiale xµ (0) = a, ẋµ (0) = 0. On a donc
x0 (t) = a cos(t)
On pose comme nouvelle variable τ = Ω(µ) · t et zµ (τ ) = xµ (t).
L’équation en zµ est alors

Ω(µ)2 zµ′′ (τ ) + zµ (τ ) + µzµ (τ )3 = 0


8
ce qui signifie ici qu’il existe un difféomorphisme de Rn envoyant f −1 (a) sur f −1 (b).
9
A. Lindstedt, Mém. de l’Acad. Impér. de St Petersburg, vol 31, 1883. Voir aussi [Poincaré].
146 Chapitre 5. Équations différentielles non-linéaires II

On suppose que zµ (τ ) = a cos(τ ) + a1 µz1 (τ ) + a2 µ2 z2 (τ ) + . . . et Ω(µ) = 1 + α1 µ +


α2 µ2 + . . .
b) Écrire la relation entre α1 et z1 , et montrer que l’on peut choisir α1 pour que z1
soit périodique
c) Montrer que l’on peut choisir α2 , . . . , αk pour que z2 , . . . , zk soient périodiques.
On a donc éliminé les termes séculaires.
d) Justifier les développements asymptotiques de zµ , Ω(µ) et xµ (t) = zµ (Ω(µ)t) ainsi
obtenus
e) Calculer un développement asymptotique de la période T (µ) = Ω(µ) 2π
.
f) Comment varie la période des oscillations d’un pendule en fonction de l’amplitude
(on remplacera u par µx dans ü + sin(u) = 0).
Remarque 5.1. Nous avons étudié un cas particulièrement simple, où les solutions
sont toutes périodiques (car l’énergie |ẋ|2 + |x|2 + µ2 |x|4 est constant et les lignes
de niveau sont fermées). Les solutions sont alors réellement de période Tµ . Mais
la méthode s’applique dans le cas de dimension supérieure, ou les différentes fré-
quences du système linéarisé ne sont pas, en général égales. On a alors des solutions
quasi-périodiques, et si les séries de Lindstedt dans ce nouveau cadre fournissent un
développement asymptotique, la question de leur convergence est un sujet difficile,
commencé par Poincaré, qui les pensait généralement divergentes, poursuivi par
Kolmogorov, Arnold et Moser, dont le célèbre théorème KAM, affirme au contraire
qu’elles peuvent être assez souvent convergentes, dans certaines circonstances. Ces
questions sont encore le thème de travaux de recherche actuels, de H. Eliasson,
G. Gallavotti, etc...
(H) D’après G.B. Schiapparelli10 : Regarder dans un ouvrage sur la science hel-
lénistique (par exemple [Heath]) la méthode d’approximation des trajectoires des
planètes par des épicycloïdes. De quel type d’approximation s’agit-il ?
(I) a) Montrer que si Lω (z) est borné, il est connexe.
Indication : On pourra raisonner par l’absurde, et supposer qu’il existe deux ouverts
disjoints U, V dans R rencontrant tous les deux Lω (z), tels que

Lω (z) = (U ∩ Lω (z)) ∪ (Lω (z) ∩ V )

b) Donner un exemple où Lω (z) n’est pas connexe, et un exemple où Lω (z) est


connexe mais pas connexe par arcs.
(J) Calculer la différentielle du temps de premier retour au voisinage d’une orbite pé-
riodique. On pourra supposer que la section de Poincaré Σ est donnée par {x1 = 0},
et montrer que l’on peut appliquer le théorème des fonctions implicites à

(t, u) → x1 (ϕt (u))

(K) Donner un exemple où Lω (Z) n’est pas fermé. On pourra utiliser un segment ortho-
gonal à un des axes du portrait de phase d’un point selle.
10
cf Storia dell’Astronomia Antica, vol.1 t.2 p.11., ou l’article de G. Gallavotti,
http ://[Link]/pagine/deposito/1999/[Link]
5. Exercices 147

(L) Soit f une fonction ayant ses points critiques isolés. On pose X(x) = ∇f (x).
(a) Montrer que X n’a pas d’orbites périodiques non constantes
(b) Montrer que les seules trajectoires bornées de X sont les constantes en les points
critiques de f , et les trajectoires reliant deux points critiques de f , appelées
trajectoires hétéroclines.
(M) Indice d’un champ de vecteurs le long d’une courbe
Soit γ une courbe fermée de R2 paramétrée par [0, 2π], et X un champ de vecteurs
autonome défini sur γ et ne s’y annulant pas. On note ϕ(θ) la détermination continue
de l’angle que fait X(γ(θ)) avec l’axe Ox (voir l’exercice (O) du chapitre 1)).
On pose alors I(γ, X) = (ϕ(2π) − ϕ(0))/2π
a) Montrer que I(γ, X) est un entier
b) Montrer que si Xs (x) est une famille continue de champs de vecteurs vérifiant les
conditions de définition de I pour toutes les valeurs de s, alors I(γ, Xs ) ne dépend
pas de s.
c) Montrer de même que si γs , Xs (t, x) sont respectivement une famille de courbes
et de champ de vecteurs, pour lesquels I(γs , Xs (x)) soit définie, alors ce nombre est
constant.
d) Montrer que si une courbe γ est le bord d’un disque qui ne contient aucun zéro
du champ de vecteur X, alors I(γ, X) = 0.
e) Montrer que si γ est le cercle unité et X pointe toujours intérieurement, alors
I(γ, X) = 1 (on peut déformer X|γ en le champ X(eiθ ) = −eiθ , et montrer que ce
champ a indice 1)
f) (théorème de Brouwer)
Montrer que si f est une application continue du disque fermé dans lui-même, elle
possède au moins un point fixe (calculer l’indice de X(x) = f (x) − x sur le cercle
unité et conclure).
(N) (a) Soit X un champ de vecteurs défini sur un disque fermé, et x0 un point tel que
{ϕt (x) | t ≥ 0} soit contenu dans le disque. Montrer que X possède un zéro
à l’intérieur du disque. On pourra regarder « le plus petit » cycle limite (au
sens de l’inclusion des domaines délimités) défini par X et utiliser Poincaré-
Bendixson pour contredire sa minimalité.
(b) Que dire pour un champ de vecteurs défini sur un disque ouvert ? sur un anneau
fermé ?
Chapitre 6

Stabilité des solutions d’équations


différentielles

1 Introduction

Soit de nouveau l’équation différentielle

(1) ẋ(t) = X(t, x(t))

dont le flot est noté ϕtt0 . Comme d’habitude nous supposerons vérifiées les hypothèses
du théorème de Cauchy-Lipschitz, le flot défini pour tout temps, et le champ X suffisam-
ment régulier1 .

Étant donnée une condition initiale, on veut savoir si les trajectoires de conditions
initiales voisines, restent proches. En d’autres termes on veut estimer d(ϕtt0 (x), ϕtt0 (x0 ))
lorsque t tend vers ±∞.

Précisons dans ce cadre plus général quelques définitions.


Définition 6.1. On dira que la solution de condition initiale x0 au temps t0 est

- stable si quel que soit ε > 0 , il existe η > 0 tel que pour tout t > t0 , ϕtt0 (B(x0 , η)) ⊂
B(ϕtt0 (x0 ), ε).

- asymptotiquement stable si elle est stable et il existe un voisinage de x0 , tel que


pour tout x dans ce voisinage, limt→+∞ d(ϕtt0 (x), ϕtt0 (x0 )) = 0.

On ne parlera d’instabilité que si le contexte est clair. Ce terme signifie généralement


qu’il n’y a pas stabilité, mais parfois aussi que la trajectoire est asymptotiquement stable
1
on le suppose C ∞ sauf mention contraire, mais en général C 2 devrait suffire.

149
150 Chapitre 6. Stabilité des solutions d’équations différentielles

dans le passé (i.e. lorsque t tend vers −∞ au lieu de +∞)2 .

On se limitera au cas des équilibres et des orbites périodiques, seuls cas où la trajectoire
est compacte.
Remarque 1.1. (A) La condition que pour tout x dans un voisinage de x0
lim d(ϕt (x), ϕt (x0 )) = 0
t→+∞

n’entraîne pas la stabilité. En effet, la convergence de d(ϕt (x), ϕt (x0 )) vers 0 lorsque
t tend vers l’infini n’est pas nécessairement uniforme en x (cf. exercice (C)).
Exercice 1.1. Montrer que la stabilité asymptotique de l’orbite x0 (t) entraîne que
pour tout t0 , il existe un voisinage de x(t0 ) tel que si x est dans ce voisinage,
limt→∞ d(φtt0 (x), φtt0 (x0 )) = 0.

Le premier critère pour démontrer la stabilité asymptotique consiste en la comparaison


du flot avec son linéarisé. Pour un point d’équilibre, l’équation linéarisée est à coefficients
constants. On traitera plus tard le cas d’une solution périodique, pour lequel la linéarisée
est une équation à coefficients périodiques, ce qui permet d’utiliser la théorie de Floquet.

2 Fonctions de Liapounov et critère de Routh

Soit V une fonction sur Rn et considérons le flot du gradient de V , donné par le


système ẋ = −∇V (x). Un point d’équilibre correspond à un point critique x0 de V . Il
sera stable si c’est un minimum local.

En effet, étant donné un voisinage fixé U de x0 , l’ensemble U c = {x ∈ U | V (x) < c}


est contenu dans B(x0 , ε) pour c assez petit. Vu que t 6→ V (x(t)) est décroissante, les
solutions de l’équation qui sont dans U c en t = 0 restent dans U c pour t > 0. On en
conclut que si la condition initiale est assez proche de x0 , elle sera dans U c et la solution
restera dans U c , donc dans B(x0 , ε).

Les fonctions de Liapounov appliquent cette idée à des flots plus généraux que les
gradients.
Définition 6.2. Soit x0 un zéro du champ de vecteurs X, et U un voisinage de x0 . Une
fonction L continue et définie sur U est une fonction de Liapounov, si
(A) L atteint son minimum sur U en un point unique, x0 (qui est donc un minimum
strict pour L)
(B) pour x ̸= x0 , t 6→ L(ϕt (x)) est strictement décroissante sur son domaine de défini-
tion.

La seconde condition est évidemment vérifiée si ⟨∇L(x), X(x)⟩ < 0 pour x ̸= x0 . C’est
souvent cette condition que l’on vérifie en pratique.
2
Éviter en tous cas le terme ambigu : « asymptotiquement instable ».
2. Fonctions de Liapounov et critère de Routh 151

Théorème 6.3. S’il existe une fonction de Liapounov pour l’équilibre x0 , celui-ci est
asymptotiquement stable.

Démonstration : On suppose pour simplifier les notations que L(x0 ) = 0 et que U est
compact (sinon on le remplace par une boule fermée plus petite). Alors, quel que soit
ε > 0 il existe c > 0 tel que U c = {x ∈ U | L(x) < c} soit contenu dans B(x0 , ε). Sinon,
il existerait une suite zn dans le compact U \ B(x0 , ε), telle que L(zn ) tende vers 0. Une
valeur d’adhérence y de zn est nécessairement distincte de x0 , on aura L(y) = 0, et x0
n’est donc pas un minimum strict.

Soit alors c tel que U c = {x ∈ U | L(x) < c} ait son adhérence dans U (en d’autres
termes, U c ne rencontre pas la frontière de U).

Comme la fonction L(ϕt (x)) est strictement décroissante, si x est dans U c , ϕt (x) reste
dans U c qui est borné et donc le flot est défini pour tout t > 0. Puisque pour tout ε > 0,
il existe c tel que U c ⊂ B(x0 , ε), et que U c est un voisinage de x0 il existe δ > 0 tel que
B(x0 , δ) ⊂ U c . On aura alors pour tout t > 0,

x ∈ B(x0 , δ) =⇒ ϕt (x) ∈ U c ⊂ B(x0 , ε)

ce qui montre que l’équilibre est stable.

De plus L(ϕt (x)) étant décroissante, elle a pour limite 0, et alors vu que L−1 (0) = x0 ,
on a limt→+∞ x(t) = x0
- soit L(ϕt (x)) tend vers une limite finie l > 0.

Dans le second cas, puisque L−1 (l) est fermé dans U, donc compact, on peut consi-
dérer x̄ = limn→∞ ϕtn (x) une valeur d’adhérence3 de ϕt (x). Pour T > 0, et par conti-
nuité de L (et du flot), L(ϕT (x̄)) = limn→∞ L(ϕT +tn (x)). Comme L est décroissante,
limt→∞ L(ϕt (x)) = L(x̄) = l. Le point x̄ n’est donc pas un point de décroissance stricte
de L le long de son orbite : c’est donc x̄ = x0 .

Il existe des versions non-autonomes du théorème de Liapounov ([Lefschetz], p.112),


ainsi que des réciproques (ibid. p.137). Contentons-nous ici de traiter un cas simple

Proposition 6.4 (Théorème de Liapounov, version non-autonome). Soit L une fonction


C 1 définie au voisinage de x0 et ayant un minimum strict en x0 . Soit X(t, x) une équation
différentielle telle que
– X(t, x0 ) = 0 pour tout réel t
– Il existe une fonction a définie au voisinage de x0 , continue, positive, et ne s’annu-
lant qu’en x0 , telle que < ∇L(x), X(t, x) >≤ −a(x).
Alors x0 est un équilibre asymptotiquement stable pour X.
3
On entend par valeur d’adhérence de φt (x) la limite de n’importe quelle suite φtn (x) telle que
limn→∞ tn = +∞.
152 Chapitre 6. Stabilité des solutions d’équations différentielles

Fig. 6.1 – Trajectoires d’un champ de vecteurs et niveaux d’une fonction de Liapounov
du champ

Démonstration. La stabilité résulte du même argument que dans le cas autonome. La


stabilité asymptotique, résulte de ce que dtd L(φtt0 (x)) ≤ −a(φtt0 (x)). On en déduit que
L(φtt0 (x)) est strictement décroissante, et ne peut avoir une limite strictement positive,
car sinon, φtt0 (x)) resterait dans {z | L(z) ≥ l} où a est minorée par une constante
strictement positive, ε0 , et alors L(φtt0 (x)) ≤ −ε0 (t − t0 ) ce qui est absurde.
Remarques 2.1. (A) Notons que l’on peut toujours ramener, l’étude de la stabilité d’une
orbite quelconque, dans le cas non-autonome, au cas d’un équilibre, X(t, x0 ) = 0. En
effet, soit x0 (t) une orbite. On pose x(t) = y(t) + x0(t), et alors y(t) vérifie l’équation

ẏ(t) = X(t, x0 (t) + y(t)) − X(t, x0 (t)) = Y (t, y(t))

où Y (t, 0) = 0 pour tout t. Il est clair que la stabilité de l’origine pour Y équivaut
à celle de x0 pour X.
(B) On pourra appeler une fonction L vérifiant les hypothèses du théorème fonction de
Liapounov pour X(t, x) (en x0 ). Si dans le cas des champs de vecteurs, la termi-
nologie est indépendante des auteurs, ce n’est pas le cas pour une équation non-
autonome.
Exemples 2.1. (A) Soit ẋ = −∇V (x). Alors, si x0 est un minimum local strict de V , V est
fonction de Liapounov. Les minima locaux stricts de V sont donc asymptotiquement
stables.
(B) Si la fonction L est seulement décroissante au sens large sur les trajectoires, alors
on a stabilité de l’équilibre, mais pas nécessairement stabilité asymptotique. Le cas
le plus intéressant est celui des systèmes conservatifs (voir la remarque suivante).
(C) Soit ẍ + ∇V (x) = 0 un système conservatif. Le champ de vecteurs associé est
donné par X(x, p) = (p, −∇V (x)). Les points d’équilibre correspondent aux points
(x0 , 0) tels que le gradient de V s’annule en x0 . L’équilibre est alors stable si x0
est un minimum local strict de V , que l’on supposera égal à 0 pour simplifier. Soit
U un voisinage de x0 sur lequel V atteint son minimum absolu en x0 . L’ensemble
2. Fonctions de Liapounov et critère de Routh 153

U c = {x ∈ U | V (x) < c} est alors contenu dans B(x0 , ε) pour c assez petit (même
argument que dans la démonstration du théorème).

d 1
( |ẋ(t)|2 + V (x(t))) =< ẋ(t), ẍ(t) > + < ∇V (x(t)), ẋ(t) >= 0
dt 2

Donc 12 |x|2 + V (x) est constante sur les trajectoires. Cela montre que x0 est stable,
car un point de U c reste dans U c , mais n’est pas asymptotiquement stable.
(D) Soit ẍ + f ẋ + ∇V (x) = 0 un système conservatif auquel on ajoute un terme de
frottement (de coefficient f > 0). Alors l’énergie du système décroît au cours du
temps : 12 |ẋ|2 + V (x) est strictement décroissante :

d 1
( |ẋ(t)|2 + V (x(t))) =< ẋ(t), ẍ(t) > + < ∇V (x(t)), ẋ(t) >= −f |ẋ(t)|2
dt 2
qui est bien strictement négative en dehors des points où ẋ(t) = 0 qui sont isolés
(sinon ẍ(t) = 0 et la solution serait nulle). Donc 21 |p|2 + V (x) est fonction de Lia-
pounov, et l’équilibre est asymptotiquement stable. Notons qu’ici le critère plus fort
< ∇L(x), X(x) >< 0 n’est pas vérifié.
(E) Soit A une matrice dont toutes les valeurs propres sont de partie réelle négative. On
construit une fonction de Liapounov pour le système ẋ(t) = Ax(t) comme suit :
soit "
1 ∞ sA 2
L(x) = ∥e x∥ ds
2 0
Cette intégrale converge, car, comme on l’a vu dans la démonstration du critère
de Routh (3.3), si les λj sont les valeurs propres de A, les coefficients de etA sont
sommes de termes de la forme etλj tν , et donc ceux de ∥etA x∥2 sommes finies de
termes de la forme e2tλj tµ .
On a alors

" ∞
d
L(x(t)) = dL(x(t))ẋ(t) = < esA x(t), esA ẋ(t) > ds =
dt 0
" ∞ " +∞
sA sA d sA
< e x(t), e Ax(t) > ds = 2 |e x(t)|2 ds = −|x(t)|2
0 0 ds

Donc si A vérifie le critère de Routh de stabilité asymptotique, il existe une fonction


de Liapounov. Notons au passage que l’intérêt de cet exemple n’est certainement pas
de redémontrer le critère de Routh. Nous avons en effet utilisé la stabilité asympto-
tique du système pour montrer la convergence de l’intégrale définissant sa fonction
de Liapounov. L’intérêt d’une fonction de Liapounov, c’est qu’elle reste fonction de
Liapounov pour des champs de vecteurs voisins.
Exercice 2.1. Montrer que si A n’a pas toutes ses valeurs propres de partie réelle négative,
l’origine n’est pas asymptotiquement stable.
154 Chapitre 6. Stabilité des solutions d’équations différentielles

Si X a un équilibre en x0 , on peut écrire

X(x) = dX(x0 )(x − x0 ) + o(|x − x0 |)

On a alors
Théorème 6.5 (Critère de Routh non-linéaire). Soit x0 un point d’équilibre de X. Si
dX(x0 ) satisfait le critère de stabilité asymptotique de Routh (i.e. les valeurs propres de
dX(x0 ) sont de partie réelle strictement négative), alors x0 est un équilibre asymptotique-
ment stable pour X.

Démonstration : On suppose pour simplifier les notations que x0 = 0, et on pose A =


dX(0). Alors X(x) = Ax + ε(x) où limx→0 ε(x)
|x|
= 0. Soit L(x) la fonction de Liapounov
associée à A, calculons

dL(x)X(x) = dL(x)(Ax + ε(x)) = −|x|2 + dL(x)ε(x)

Comme L est une forme quadratique, il existe une constante C telle que |dL(x)| ≤ C|x|
1
et si on prend |x| assez petit pour que |ε(x)| ≤ 2C |x|, on aura −|x|2 + dL(x)ε(x) ≤ − 21 |x|2
et donc L est strictement décroissante sur les trajectoires non constantes.
Remarques 2.2. (A) Si une valeur propre au moins de dX0 est de partie réelle strictement
positive, alors le système est instable. (cf [Laudenbach] p. 118)
(B) Notons que la condition de Routh est souvent plus facile à vérifier sur R(t) = etA :
elle équivaut alors à ce que toutes les valeurs propres de R(t) (pour t ̸= 0 soient de
module strictement inférieur à 1.
Soit l’équation ẍ + f ẋ + ∇V (x) = 0, avec f positif petit. Sa linéarisée est

ẍ + f ẋ + D 2 V (x0 )x = 0

Pour voir si celle-ci vérifie le critère de Routh, on peut soit se#ramener à un système $
0 Id
d’ordre 1 auquel cas on doit trouver les valeurs propres de
−D 2 V (x0 ) −f · Id
où bien diagonaliser D 2 V (x0 ), ce qui réduit le système à une famille de systèmes
indépendants de la forme üj + f u̇j + λj uj = 0 (les λj étant les valeurs propres de
D 2 V (x0 )) qui a ses valeurs caractéristiques de partie réelle négative si f et les λj
sont positifs.
En conclusion ce système satisfait au critère de Routh si et seulement si toutes
les valeurs propres de D 2 V (x0 ) sont strictement positives. (On savait déjà que le
système est stable dans ce cas, car V a un minimum local en x0 ).
(C) Une particule chargée dans un champ électrique ne peut, en général, avoir d’équilibre
stable. En effet, elle satisfait une équation du type

mẍ(t) + e∇V (x(t)) = 0


3. Stabilité des orbites périodiques 155

où V satisfait l’équation de Laplace ∆V = trace(D2 V) = 0. La matrice D 2 V a donc


nécessairement des valeurs propres négatives et des valeurs propres positives (sauf
si celles -ci sont toutes nulles).
(D) Soit un système dépendant du temps ẋ(t) = A(t)x(t). Rappelons que même si en
chaque instant t la matrice A(t) a ses valeurs propres de partie réelle négative, on
n’a pas nécessairement stabilité de l’origine (cf. l’exemple des équations de Mathieu
au chapitre 2, section 5.1).
Par contre, si X(t, x) est de la forme Ax+X1 (t, x) avec X1 (t, x) uniformément o(|x|)
en t (i.e. limx→0 X1|x|
(t,x)
= 0 uniformément en t), le critère de Routh garantit la stabi-
lité asymptotique de l’origine, comme on le démontre en adaptant la démonstration
du théorème par l’utilisation du critère de Liapounov non-autonome (proposition
6.4) .

3 Stabilité des orbites périodiques

Soit X(t, x) périodique en t de période T , définissant le flot ϕtt0 , et supposons que x0


soit un point d’une orbite T -périodique4 c’est-à-dire que ϕtt00 +T (x0 ) = x0 . La périodicité
de X en t entraîne φtt10 +T t1
+T = φt0 .

On veut étudier la stabilité de la solution de condition initiale x0 . En posant x(t) −


= y(t), l’équation devient ẏ(t) = X(t, y + ϕtt0 (x0 )) − X(t, ϕtt0 (x0 )) = Y (t, y) qui
ϕtt0 (x0 )
est aussi à coefficients T -périodiques, et bien évidemment la solution ϕtt0 (x0 ) de (1) est
stable si et seulement si la solution y = 0 de notre nouvelle équation l’est aussi.

Comme Y (t, 0) = 0, écrivons Y (t, x) = A(t)y + Y1 (t, y) (où Y1 (t, y) est un o(|y|)). On
vérifie sans peine que A(t) et Y1 sont aussi T -périodiques.

La partie linéaire de cette équation est à coefficients périodiques, on peut donc lui
appliquer la théorie de Floquet de la section 4 du chapitre 3.

La résolvante R(t) de u̇(t) = A(t)u(t) vérifie R(t + T ) = R(t)R(T ). Définissons B


par eT B = R(T ), et5 posons U(t) = R(t)e−tB dont on rappelle qu’elle est périodique, et
z(t) = U(t)−1 y(t) = etB R(t)−1 y(t).

On aura

ż(t) = BetB R(t)−1 y(t) − etB R(t)−1 Ṙ(t)R(t)−1 y(t) + etB R(t)−1 ẏ(t) =
Bz(t) − etB R(t)−1 A(t)y(t) + etB R(t)−1 ẏ(t)

Il est essentiel dans la suite que la période de t → X(t, •) coïncide avec celle de t → x(t).
4

la matrice B est en général complexe, même si A(t) est réelle (cf. Appendice 1 du chap. 3). On ne
5

peut faire ici de changement de variables complexe, car X n’est définie que pour x réel. On se souviendra
que e2T B = R(T )2 a toujours une solution B réelle, et que quitte à considérer notre solution comme 2T
périodique, on peut toujours se ramener à ce cas.
156 Chapitre 6. Stabilité des solutions d’équations différentielles

Remplaçons A(t)y(t) par ẏ(t) − Y1 (t, y(t)), on obtient

Bz(t) + etB R(t)−1 Y1 (t, y(t)) = Bz(t) + Z1 (t, z(t))


Z1 (t, z) = U(t)−1 Y1 (t, U(t)z)

Comme U(t) est T -périodique, elle est bornée et donc Z1 , qui est encore T périodique,
est encore un o(|z|), uniformément en t.

En conclusion, on a ramené l’équation (1) à la forme

(2) ż(t) = Bz(t) + Z1 (t, z)

et notre problème de stabilité à celui de la stabilité de l’origine pour l’équation (2).

Il suffit alors de reprendre la fonction de Liapounov de B, et de voir qu’elle est encore


fonction de Liapounov pour l’équation perturbée.

Théorème 6.6 (Critère de Routh : cas périodique). Si la résolvante du linéarisé Rtt00 +T a


ses valeurs propres de module strictement inférieur à 1, alors la solution périodique ϕt (x0 )
est asymptotiquement stable.

Démonstration : On remarque tout d’abord que par périodicité de U,

R(T ) = U(T )eT B = U(0)eT B = eT B

et que eT B a ses valeurs propres de module strictement inférieur à 1 si et seulement si les


valeurs propres de B sont de partie réelle strictement négative.

Bien évidemment il suffit de montrer la stabilité asymptotique de l’origine pour le


système de la forme ż(t) = Bz(t) + Z1 (t, z) auquel on s’est ramené. Supposons que B
ait toutes ses valeurs propres de partie réelle strictement négative. Nous pouvons alors
appliquer la version non-autonome du théorème de Liapounov (proposition 6.4). En effet,
si L est la fonction de Liapounov pour B construite dans la section précédente, comme

dL(x)X(x) = dL(x)(Bx) + Z1 (t, x) = −|x|2 + dL(x)Z1 (t, x)


et qu’il existe une constante C telle que |dL(x)| < C|x|, la périodicité de Z1 en t nous
permet d’affirmer qu’il existe ε indépendant de t, tel que pour |x| < ε on a |Z1 (t, x)| <
1
2C
|x|.

Alors
1
−|x|2 + dL(x)Z1 (t, x) < − |x|2
2
3. Stabilité des orbites périodiques 157

au voisinage de x = 0 et le théorème de Liapounov non-autonome permet de conclure à


la stabilité asymptotique de l’origine.

3.1 Cas des systèmes autonomes

Il y a un cas important dans lequel le critère de Routh pour les solutions périodiques
ne peut être vérifié : le cas d’un système autonome.

En effet, si X est un champ de vecteurs, et ϕT (x0 ) = x0 , on a en dérivant en t = 0


l’équation ϕT +t (x0 ) = ϕt (x0 ) que dϕT (x0 )X(x0 ) = X(x0 ). Le vecteur X(x0 ) est donc
toujours vecteur propre associé à la valeur propre 1. Pour la même raison, l’orbite ne peut
être asymptotiquement stable, car si x0 et x1 sont tous deux sur l’orbite périodique, on a
ϕnT (x0 ) = x0 et ϕnT (x1 ) = x1 , et donc on ne peut avoir limt→∞ d(ϕt (x0 ); ϕt (x1 )) = 0.

On utilise une autre notion mieux adaptée : la stabilité orbitale. On rappelle que Ox
est l’orbite de x par le flot.
Définition 6.7. On dira que la solution de condition initiale x0 est :

- orbitalement stable si quel que soit ε > 0 il existe η > 0 tel que si d(x1 , x0 ) < η
et t > 0 on a d(ϕt (x1 ), Ox0 ) < ε.

- asymptotiquement orbitalement stable si elle est orbitalement stable et de plus,


pour x1 dans un voisinage de x0 on a limt→∞ d(ϕt (x1 ), Ox0 ) = 0.

On a alors

Théorème 6.8 (Critère de Routh : cas périodique autonome). Soit ẋ = X(x) un système
autonome ayant une solution périodique u0 , de période T et R(t) la linéarisée du flot en
u0 . Si R(T ) possède n − 1 valeurs propres de module < 1 alors la solution périodique est
asymptotiquement orbitalement stable.

Démonstration : Soit Σ un hyperplan, section du flot en u0 et r : Σ → Σ l’application


de premier retour de Poincaré. On a d’après la proposition 5.8 du chapitre 5
# $
1 ∗
R(T ) =
0 dr(u0)

Il est alors clair que sous les hypothèses du théorème, les valeurs propres de dr(u0) sont en
module strictement inférieures à 1. Cela entraîne que |dr(u0)n | tend vers 0 avec n et donc
que pour n assez grand d(r n )(u0 ). Quitte à remplacer r par r n on peut donc supposer que
|dr(u0)| < 1.
Lemme 6.9. Soit r une application C 1 définie sur un voisinage de 0 d’un espace de
Banach E. On suppose r(u0 ) = u0 et que ∥dr(u0)∥ < k < 1. Alors il existe un voisinage
158 Chapitre 6. Stabilité des solutions d’équations différentielles

U de u0 tel que pour tout n, r n soit définie sur U, et que

∀ε > 0, ∃N | n ≥ N =⇒ ∀x ∈ U, |r n (x)| ≤ ε

Démonstration. Par continuité il existe une boule B(u0 , α) sur laquelle ∥dr(x)∥ ≤ k <
1. D’après le théorème des accroissements finis, r est contractante de rapport k sur cette
boule. Donc r(B(u0 , α)) ⊂ B(u0 , kα) et donc r n est bien définie. De plus r n (B(u0 , α)) ⊂
B(u0 , k n α) et la convergence vers u0 est bien uniforme.

Du lemme il résulte que pour u dans un voisinage U de u0 dans Σ, r(U) ⊂ U.

Maintenant si Σ est une section de Poincaré passant par u0 , il suffit, pour montrer la
stabilité orbitale , de considérer les points u de Σ. En effet, si u est voisin de u0 , d’après
le théorème de redressement il existe un α proche de 0, tel que ϕα (u) ∈ Σ (pour α petit).

Soit T la période de u0 . La continuité uniforme du flot pour t ∈ [0, T + 1] permet de


dire que pour tout ε il existe δ tel que

ϕt (B(u0 , δ)) ⊂ B(ϕt (u0 ), ε)

Choisissons δ assez petit pour que r n (B(u0 , δ) ∩ Σ) ⊂ B(u0 , k n δ) ∩ Σ, ce qui est


possible puisque r est contractante près de u0 . On a alors pour u ∈ B(u0 , δ) ∩ Σ que
r n (u) = ϕtn (u) (u) ∈ B(u0 , δ) ∩ Σ pour tout n ≥ 0 et donc si t ∈ [tn (u), tn+1 (u)]

ϕt (u) = ϕt−tn (u) ϕtn (u) (u) = ϕt−tn (u) r n (u) ∈ ϕt−tn (u) B(u0 , δ)

Or par continuité du temps de premier retour, on peut supposer que pour


u ∈ B(u0 , δ) ∩ Σ, ce temps est majoré par T + 1 et donc pour t ∈ [tn (u), tn+1(u)],

ϕt−tn (u) B(u0 , δ) ⊂ B(ϕt−tn (u) u0 , ε)

En conclusion quel que soit t positif, en encadrant t par tn (u), tn+1(u) pour un n ≥ 0,
on voit que
∀t ≥ 0 ϕt (B(u0 , δ)) ⊂ B(Ou0 , ε)

On a donc stabilité orbitale.

Pour la stabilité asymptotique, soit U un ouvert donné par le lemme 6.9, et ε > 0.
Soit δ le réel associé à ε en exprimant la stabilité de l’orbite. Soit alors u ∈ U et n assez
grand pour que r n (u) ∈ B(u0 , δ). On a alors que pour t ≥ tn (u)

ϕt (u) = ϕt−tn (u) ϕtn (u) (u) ∈ ϕt−tn (u) (r n (u)) ⊂ ϕt−tn (u) B(u0 , δ) ⊂ B(Ou0 , ε)
3. Stabilité des orbites périodiques 159

Cela termine la démonstration de la stabilité asymptotique.

3.2 Stabilité pour les systèmes conservatifs et Hamiltoniens

L’exemple le plus courant de système conservatif est celui d’une particule soumise à
un champ de force dérivant du potentiel V indépendant du temps,

ẍ + ∇V (x) = 0

La propriété essentielle, exprimée par le terme « conservatif » est l’invariance de l’éner-


gie sur une trajectoire

1 2
|ẋ| + V (x)
2

Les points d’équilibre du champ de vecteur associé, X(x, p) = (p, −∇V (x)) sont de la
forme (0, x0 ) où x0 est un point critique de V , c’est-à-dire ∇V (x0 ) = 0.

Notons qu’un tel équilibre ne peut-être asymptotiquement stable, car si on part de x0


avec une vitesse initiale non nulle, on aura 21 |ẋ|2 + V (x) > V (x0 ), et cette quantité restant
constante, elle ne tend pas vers V (x0 ).

Il existe une définition plus générale des flots conservatifs, les flots Hamiltoniens, que
l’on découvre en ramenant les équations précédentes à des équations d’ordre un : posant
p = ẋ l’équation devient

ẋ = p , ṗ = −∇V (x)

Posant H(x, p) = 12 |p|2 + V (x) cela se réécrit

∂H ∂H
ẋ = (x, p) , ṗ = − (x, p)
∂p ∂x

Si maintenant H est une fonction C ∞ quelconque sur R2n , dont on note (x, p) les coor-
données, les équations ci-dessus -appelées équations de Hamilton- préservent les niveaux
de la fonction H 6 , car

∂H ∂H ∂H ∂H
dH(x)X(x, p) = − · + · =0
∂p ∂x ∂p ∂x
6
on suppose encore que H ne dépend pas de t.
160 Chapitre 6. Stabilité des solutions d’équations différentielles

Le champ de vecteurs XH (x, p) = ( ∂H


∂p
, − ∂H
∂x
) est dit Hamiltonien associé 7
à H.

Ses points d’équilibre correspondent aux points critiques de H, et on voit de nou-


veau que la préservation de H interdit la stabilité asymptotique d’un point critique. Il
n’est cependant pas interdit d’avoir stabilité simple, comme on le voit pour une particule
classique dans un puits de potentiel (i.e. V (x) = |x|2 ).

Plus généralement, si dH(x0 , p0 ) = 0 et (x0 , p0 ) est un minimum strict de H, les


ensembles {(x, p) | H(x, p) ≤ c} pour c proche de H(x0 , p0 ) sont des voisinages de (x0 , p0 ),
et le flot préservant ces ensembles, le point d’équilibre est stable.
Remarque 3.1. Le système ẍ + ∇V (x) = 0 modélise un système sans frottement. Pour
tenir compte de ces frottements, il faut remplacer l’équation ẍ + ∇V (x) = 0 par ẍ + f ẋ +
∇V (x) = 0 où f est un (petit) paramètre de frottement, en principe positif.

On voit qu’un système Hamiltonien ne peut vérifier le critère de Routh, mais un tel
système ne modélise la réalité qu’en faisant abstraction des frottements. On peut donc
se demander lorsqu’on ajoute un terme de frottement, sous quelles conditions le système
devient stable, puisqu’en pratique, ce n’est pas tant la stabilité du système original qui
nous intéresse, mais celle du système avec frottement.

Considérons donc le système

∂H ∂H
ẋ = (x, p) , ṗ = − (x, p) − εF (p)
∂p ∂x

où F : Rn → Rn est une application C 1 .

Si (x0 , p0 ) est un point d’équilibre, l’équation linéarisée s’écrit

* +
∂2H ∂2H
∂p∂x
(x0 , p0 ) ∂p∂p
(x0 , p0 )
2
∂ H 2
∂ H
∂x∂x
(x0 , p0 ) − ∂x∂p (x0 , p0 ) − ε∇F (p0)

On peut montrer que lorsque pour ε = 0 les valeurs propres de la matrice du système
linéarisé sont toutes imaginaires pures, simples et non nulles, et sous l’hypothèse
∂2H
(x0 , p0 )dF (p0 )
∂p2
soit définie négative, ces valeurs propres se déplacent, lorsque ε augmente, vers la région
de partie réelle négative.

Si par contre une des valeurs propres est nulle, sa partie réelle peut rester nulle. Cela
nous amène naturellement à la
7
On prendra garde à ce que l’on appelle encore Hamiltonien une équation associée à H(t, x), qui
sera non-autonome. Mais dans ce cas, il n’y a pas de conservation de l’énergie : H(t, x(t), p(t)) n’est pas
constante sur les trajectoires
4. Conclusion 161

Définition 6.10 (Stabilité linéaire des systèmes Hamiltoniens).


Un point d’équilibre z0 d’un système Hamiltonien est dit linéairement stable, si les valeurs
propres de * 2 +
∂ H ∂2H
∂p∂x
(z0 ) ∂p∂p
(z0 )
∂2H ∂2H
∂x∂x
(z 0 ) − (z )
∂x∂p 0

sont simples et imaginaires non nulles.

Le résultat suivant est une application de la théorie des perturbations :


Proposition 6.11 (Stabilité linéaire Hamiltonienne et critère de Routh des perturbations).
Si z0 = (0, 0) est un équilibre linéairement stable d’un système Hamiltonien, alors pour ε
strictement positif, le système
∂H ∂H
ẋ = (x, p) , ṗ = − (x, p) − εF (x, p)
∂p ∂x
∂ H 2 2
avec F (0, 0) = 0 et les matrices ∂p∂x (0, 0) ∂F
∂x
(0, 0) et ∂∂pH2 (0, 0) ∂F
∂p
(0, 0) sont définies po-
sitives, vérifient le critère de Routh pour ε assez petit et sont donc asymptotiquement
stables.

On verra dans le cas du pendule de Kapitsa, que l’on n’a pas stabilité asymptotique
pour le système sans frottement, mais on a bien stabilité asymptotique pour le système
avec frottement, ce que l’on peut constater expérimentalement.

Enfin, il y a essentiellement un cas simple de stabilité pour un équilibre de système


Hamiltonien, qui généralise le cas de potentiels traité dans l’exemple 1 de la section 2.
Proposition 6.12. Soit H un Hamiltonien tel que DH(0) = 0 et D 2 H(0) soit une forme
quadratique non dégénérée. Alors l’origine est stable si et seulement si D 2 H(0) est définie
(positive ou négative)

Démonstration de la suffisance. Soit U un voisinage de 0 dans lequel H a 0 pour mini-


mum strict. Le même raisonnement que dans l’exemple 1 de la section 2 montre que les
ensembles U c = {x ∈ R2n | H(x) ≤ c} forment une base de voisinages de 0 et sont inva-
riants par le flot, ce qui entraîne la stabilité. Lorsque H a un maximum strict en 0, on
remplace H(x) ≤ c par H(x) ≥ c.

On donnera une application concrète de ce résultat dans la section sur le solide en


rotation du chapitre 7.

4 Conclusion

Nous avons vu comment, dans deux cas importants, la propriété de stabilité d’un sys-
tème dynamique se lit sur sa partie linéaire. Le lecteur intéressé pourra maintenant se
162 Chapitre 6. Stabilité des solutions d’équations différentielles

tourner vers la dynamique, où apparaissent des phénomènes purement non-linéaires. Ce


n’est qu’après avoir compris les situations de stabilité que l’on peut aborder les phéno-
mènes d’instabilité, dits chaotiques.

5 Exercices
(A) Trouver une fonction de Liapounov pour le système

⎨ ẋ = −2x − 2xy

ẏ = 2x2 − y

(B) Montrer que la stabilité asymptotique de x0 pour le flot ϕt entraîne que pour un
r > 0 bien choisi, on a ∀η > 0, il existe T > 0 tel que

∀t ≥ T, ϕt (B(x0 , r)) ⊂ B(ϕt (x0 ), η)

(C) Donner un exemple d’équation telle que, pour tout x dans un voisinage de x0 , on
ait limt→+∞ d(ϕt (x), ϕt (x0 )) = 0, mais que la solution ne soit pas asymptotiquement
stable.
(D) Montrer que si dX(0) a une valeur propre de partie réelle strictement positive,
l’équilibre n’est pas stable.
(E) a)Donner un exemple de champ de vecteurs X tel que X(0) = 0, dX(0) ait toutes
ses valeurs propres imaginaires pures, et l’origine soit asymptotiquement stable. b)
trouver Y C 1 proche de X ayant aussi un équilibre en l’origine, mais tel que cet
équilibre ne soit pas asymptotiquement stable.
(F) a) Montrer que si X est un champ de vecteur ayant un équilibre non-dégénéré en
l’origine (i.e. X(0) = 0 et A = dX(0) est inversible), alors tout champ de vecteur Y
tel que Y − X est petit en norme C 1 possède un équilibre au voisinage de l’origine.
Indication : appliquer le théorème des fonctions implicites.
b) Montrer que si l’origine vérifie le critère de Routh pour X, l’équilibre de Y voisin
de l’origine est aussi asymptotiquement stable.
c) En déduire qu’il existe un voisinage de l’origine et un difféomorphisme ψ tel que
(ψ)∗ (Y ) = X
(G) Montrer que pour l’équation ẋ(t) = (A + B(t))x(t) où A a ses valeurs propres de
partie réelle strictement négative, et limt→+∞ B(t) = 0, alors l’origine est stable. Que
dire dans le cas non-linéaire (i.e. pour ẋ(t) = (A + B(t))x(t) + X1 (t, x)) ? Quelle
hypothèse sur X1 est nécessaire ?
(H) Montrer que pour un système de la forme ẋ = − ∂H ∂p
, ṗ = ∂H
∂x
, où (x, p) ∈ R2
toutes les solutions bornées sont soit périodiques, soit constantes, soit relient deux
solutions constantes (i.e. limt→±∞ x(t) = x± ).
(I) Démontrer le théorème 6.11.
5. Exercices 163

(J) (Smale) 8
Soit f : E → E une application C 2 , on considère l’équation différentielle

ẋ(t) = −df (x(t))−1 f (x(t))

définie sur Ω = {x ∈ E | df (x) est inversible}.


(a) Montrer que les zéros du champ de vecteur correspondent au zéros de f (dans
le domaine Ω) et que L(x) = |f (x)|2 est fonction de Liapounov pour ce champ
de vecteurs.
(b) Montrer que ∀x ∈ Ω, Lω (x) = x0 où x0 est un zéro de f .
(c) Montrer que pour toute solution x0 de f (x0 ) = 0, le bassin d’attraction de x0 ,
contient une composante connexe de Ω.
(K) (d’après un sujet de contrôle de D. Bennequin)
Soit f : R → R une fonction C ∞ impaire, bornée et strictement croissante. On note
λ = f ′ (0). On se propose d’étudier le système dynamique sur R2 associé au champ
de vecteurs X dont les composantes en x = (u, v) sont (−u + f (u) + f (v), −v +
f (v) − f (u)), c’est-à-dire l’équation différentielle

⎨ u̇ = −u + f (u) + f (v)
(1)
⎩ v̇ = −v + f (v) − f (u)

1. Notons J l’application de R2 dans lui-même définie par J(u, v) = (−v, u). Dé-
montrer que J∗ (X) = X.
2. Démontrer que l’origine 0 = (0, 0) est le seul équilibre de (1).
Indication : utiliser les symétries données par la question 1)
3. Montrer que les solutions de (1) ont un temps de vie infini.
4. Démontrer qu’il existe R0 > 0 tel que pour tout x, |x| ≥ R0 , entraîne X(x)·x < 0.
5. On suppose λ > 1.
5.a) Démontrer que 0 est répulsif.
5.b) Soit θ0 ∈ R. On note A la demi-droite ouverte {x | x = ρ(cos θ0 , sin θ0 ), ρ > 0}
et n le vecteur normal (− sin θ0 , cos θ0 ). Démontrer que pour tout x ∈ A, on a
X(x).n > 0, c’est-à-dire que X pointe vers la droite de A. Indication : utiliser les
symétries données par la question 1.
5.c) Soit x(t), t ∈ R une trajectoire de X. On admet qu’il existe une fonction θ
continue de R dans R telle que ∀t ∈ R, x(t) = ∥x(t)∥(cos θ(t), sin θ(t)) (cf. chapitre
1, exercice (O)). Démontrer que θ est croissante.
6. On reprend l’hypothèse de la question 5 : λ > 1.
6.a) Soit A comme au 4.b) et x0 ∈ A ; on note x(t), la solution maximale de (1)
telle que x(0) = x0 . Démontrer qu’il existe s > 0 tels que x(s) ∈ A.
On notera Φ(x0 ) = x(t0 ) pour le plus petit t0 > 0, tel que x(t0 ) ∈ A.
6.b) Établir que Φ est continue de A dans A.
8
Je remercie F. Cardin de m’avoir signalé cet exercice.
164 Chapitre 6. Stabilité des solutions d’équations différentielles

6.c) Établir que Φ possède un point fixe et en déduire l’existence d’une solution
périodique de (1).
7. Étudier la dynamique de (1) lorsque λ < 1. Indication : chercher une fonction de
Liapounov.
(L) (théorème d’invariance de Lassalle) Soit f : Rn → Rn définissant un flot complet,
et soit V une fonction telle que V soit continue, strictement positive sur Rn − {0}
et V̇ (x) =< ∇V (x), f (x) >≤ 0. Supposons que le plus grand ensemble invariant
contenu dans {x | V̇ (x) = 0} soit réduit à 0. Alors 0 est asymptotiquement stable
pour ẋ = f (x).
(M) On considère l’équation différentielle

(1) ẍ(t) − ε(1 − x(t)2 )ẋ(t) + x(t) = 0

pour des petites valeurs de ε (i.e. chaque fois qu’on le souhaite, on pourra supposer
ε petit).
(a) Quels sont les équilibres de l’équation ? Discuter leur stabilité.
On prend désormais ε > 0.
(b) Montrer qu’un changement de variables (coordonnées polaires) permet de se
ramener au système

!
ρ̇ = ε(1 − ρ2 cos(θ)2 )ρ sin(θ)2
(1’)
θ̇ = −1 + ε(1 − ρ2 cos(θ)2 ) sin(θ) cos(θ)

Montrer que les solutions sont définies pour tout temps positifs.

On note ϕtε le flot de l’équation dans le plan (x, y).


(c) Soit Ia,b =]a, b[×{0} un intervalle borné du demi-axe R+ x = {y = 0, x > 0}.
On suppose dans cette question a > 0. Montrer que l’application de premier
retour, notée Rε (x), de Ia,b dans R+ x est bien définie pour ε assez petit : il existe
T (ε, x) > 0 tel que
ϕTε (ε,x) (x, 0) = (Rε (x), 0)
et que (Rε (x), 0) est le premier passage de l’orbite de (x, 0) sur le demi-axe
y = 0, x > 0.
Montrer que x 6→ Rε (x) est de classe C ∞ sur ]a, b[.
(d) On suppose maintenant a = 0. Montrer que Rε est une injection de classe C ∞
de ]0, b[ dans ]0, +∞[, qui se prolonge par continuité en 0.
(e) Notons ρε la solution du système vérifiant ρε (0) = r0 , θε (0) = 0.
Montrer qu’il existe un développement limité quand ε −→ 0, de ρε , θε , et
calculer les termes d’ordre 1.
(f) Montrer que l’application S(ε, x) = Rε (x)−x
ε
possède une limite lorsque ε tend
vers 0. Calculer cette limite.
On note désormais S(ε, x) la fonction convenablement étendue pour ε = 0.
5. Exercices 165

(g) En déduire que l’équation (1) possède au moins une solution périodique non
constante pour ε > 0 assez petit.
(h) En utilisant la formule des accroissements finis sous la forme
" 1
f (ε) = f (0) + ε f ′ (tε)dt,
0

montrer que S est de classe C 1 comme fonction de (ε, x) et calculer ∂S


∂x
(x, 0).

(i) Montrer que pour ε > 0 suffisamment petit, et b suffisamment grand, que
l’équation (1) possède une unique solution périodique de période proche de 2π
coupant I 1 ,b . Pour cette solution périodique, quelle est la limite lorsque ε tend
b
vers 0 de ρε (t) ?
Bibliographie

Les Grands Classiques :

[Birkhoff] G. D. Birkhoff. Dynamical Systems. AMS, New-York,


1927.
[Laplace] P. S. de Laplace. Exposition du système du Monde.
P.-M. de Vroom, Bruxelles, 6ème édition,1827
[Poincaré] H. Poincaré. Les méthodes nouvelles de la mécanique
céleste, 3 vols. Gauthier-Villars, Paris, 1892-1899.
[Routh] E. J. Routh Treatise on the Dynamics of a system of
rigid bodies. The Elementary part (Part I). The Ad-
vanced part (Part II) MacMillan, N.Y. 1905 (Première
édition Londres, 1860)

Quelques ouvrages généraux plus récents :

[Arnold] V. I. Arnold. Méthodes mathématiques de la mécanique


classique. Mir, Moscou 1976.
[Coddington-Levinson] E. A. Coddington and N. Levinson. Theory of Ordi-
nary Differential equations. McGraw-Hill, New-York,
1955.
[Colmez] P. Colmez Eléments d’Analyse et d’Algèbre. Cours de
l’Ecole Polytechnique, Palaiseau, 2009.
[Dieudonné] J. Dieudonné Fondements de l’Analyse moderne.
Gauthier-Villars, Paris, 1963.
[Hartman] P. Hartman Ordinary Differential Equations. John
Wiley and Sons, New-York, 1964.
[Hirsch-Smale] M. Hirsch et S. Smale. Differential equations, dynami-
cal systems and linear algebra. Academic Press, Lon-
don, 1974.
[Katok-Hasselblatt] A. Katok, and B. Hasselblatt. Introduction to the Mo-
dern Theory of Dynamical Systems. Cambridge Uni-
versity Press, London, 1997.
[Landau-Lifschitz] L. Landau et L. Lifschitz Mécanique Mir, Moscou.

263
264 Bibliographie

[Laudenbach] F. Laudenbach Calcul Différentiel et Intégral. Editions


de l’École Polytechnique, Palaiseau, 2000.
[Golse] F. Golse Distributions et Analyse de Fourier. Cours
de l’École Polytechnique, Palaiseau, 2007.
[Lefschetz] S. Lefschetz Differential equations : geometric theory.
Dover, New-York 1977.
[Pontriaguine] L.S. Pontriaguine Équations différentielles. Mir, Mos-
cou, 1967.

Sur les équations intégrales :

[Courant-Hilbert] R. Courant and D. Hilbert. Methods of Mathematical


physics. Wiley Interscience.
[Tricomi] F.G. Tricomi. Integral equations. Dover, New-York,
1985.
[Volterra] V. Volterra. Leçons sur les fonctions de lignes.
Gauthier-Villars, 1913.

Sur la théorie des oscillations :

[Andronov-Khaikin-Vitt] A.A. Andronov, S.E. Khaikin, and A.A. Vitt. Theory


of oscillators. Dover, 1987
[Brillouin] L. Brillouin. Wave propagation in periodic structures.
Dover, New-York, 1953.
[Elmer] F.J. Elmer. The Pendulum Lab.
http ://[Link]/ elmer/pendulum/
[Maxwell] J. C. Maxwell. On Governors. Proceedings of the Royal
Society, no. 100 (1868). Reproduit dans « The Scien-
tific Papers of James Clerk Maxwell, Dover 1965 »
[Minorsky] N. Minorsky. Nonlinear oscillations. [Link]
Pub.C 0 , New-York 1974.
[Pippard] A. B. Pippard. The Physics of vibration Cambridge
University Press, 1978.

Sur les aspects numériques des équations différen-


tielles :

[Demailly] J.-P. Demailly. Analyse Numérique et équations dif-


férentielles. Presses Universitaires de Grenoble, Gre-
noble, 1996.
[Iserles] A. Iserles. A first Course in Numerical Analysis of
Differential Equations. Cambridge texts in applied
mathematics, Cambridge, 1996.
Bibliographie 265

Sur variétés et sous-variétés :

[Do Carmo] M. Do Carmo Differential Geometry of curves and


surfaces Prentice-Hall, 1976
[Milnor] J. Milnor Topology from the differentiable viewpoint.
The University Press of Virginia. Charlottesville, 1965.

Sur Frobenius, Chow et la robotique :

[Bellaïche-Risler] A. Bellaïche, J.J. Risler. Sub-Riemannian Geometry.


Birkhäuser, 1996.
[Bellaïche-Jean-Risler] A. Bellaïche, F .Jean, J.-J. Risler. The Geometry of
nonholonomic systems.
ftp ://[Link]/pub/ria/promotion/[Link]
[Godbillon] C. Godbillon Géométrie différentielle et Mécanique
analytique Hermann, 1985.

Aspects historiques :

[Bennett] S. Bennett. A history of control engineering 1800-


1930 IEE Control Engineering series, vol. 8. Peter
Peregrinus Ltd, 1979
[Daumas] M. Daumas. Histoire Générale des techniques, Tomes
3 et 4. Collection Quadrige. Presses Universitaires de
France, Paris 1996 (1re édition 1978)
[Ekeland] I. Ekeland. Le calcul l’imprévu. Les figures du temps
de Kepler à Thom. Seuil, Paris 1984.
[Heath] Sir T. Heath. Aristarchus of Samos, the ancient Co-
pernicus Dover, New-York, 1981.
[Israel] G. Israel. La mathématisation du réel. Seuil, Paris
1996.
[Thurston] R. Thurston. History of the growth of the steam
engine. D. Appleton and C˚, New-York,1878.
Edition « web » :
http ://[Link]/steam/thurston/1878
Types de portraits de phase des
systèmes linéaires 2d...
τ

Vous aimerez peut-être aussi