0% ont trouvé ce document utile (0 vote)
27 vues164 pages

Notesdecoursanalyse 2

Le document présente les notes de cours pour le cours d'Analyse avancée II, incluant des sujets tels que les intégrales généralisées, la topologie de Rn, et les fonctions de plusieurs variables réelles. Il est structuré en chapitres détaillant des concepts mathématiques avancés, allant des intégrales sur des intervalles bornés aux équations différentielles ordinaires. Les notes sont mises à jour pour l'année académique 2020-2021 par Boris Buffoni et Fabio Nobile.

Transféré par

Robert
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
27 vues164 pages

Notesdecoursanalyse 2

Le document présente les notes de cours pour le cours d'Analyse avancée II, incluant des sujets tels que les intégrales généralisées, la topologie de Rn, et les fonctions de plusieurs variables réelles. Il est structuré en chapitres détaillant des concepts mathématiques avancés, allant des intégrales sur des intervalles bornés aux équations différentielles ordinaires. Les notes sont mises à jour pour l'année académique 2020-2021 par Boris Buffoni et Fabio Nobile.

Transféré par

Robert
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Notes de cours

MATH-105(a)
Analyse avancée II

(Section MA)

Boris Buffoni, Fabio Nobile

2020-2021
Dernière mise à jour : 7 février 2022
2
Table des matières

0 Intégrales Généralisées 7
0.1 Intégrale généralisée sur un intervalle borné . . . . . . . . . . . . . . . . . 7
0.2 Intégrale généralisée absolument convergente . . . . . . . . . . . . . . . . 10
0.3 Intégrale généralisée sur un intervalle non borné . . . . . . . . . . . . . . . 12
0.4 Intégrales et séries numériques . . . . . . . . . . . . . . . . . . . . . . . . 15

1 L’espace Rn et sa topologie 17
1.1 Espaces vectoriels normés . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 L’espace Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3 Suites dans Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Topologie de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2 Fonctions de plusieurs variables réelles 29


2.1 Notions de limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3 Prolongement de fonctions par continuité . . . . . . . . . . . . . . . . . . 36
2.4 Fonctions continues sur un compact . . . . . . . . . . . . . . . . . . . . . 37

3 Dérivabilité 41
3.1 Dérivées partielles et directionnelles ; différentielle . . . . . . . . . . . . . . 41
3.2 Dérivation de fonctions composées . . . . . . . . . . . . . . . . . . . . . . 49
3.3 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . 52

4 Dérivées d’ordres supérieurs 55


4.1 Dérivées secondes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2 Dérivées partielles d’ordres supérieurs à 2 . . . . . . . . . . . . . . . . . . 58
4.3 Développement limité et Formule de Taylor . . . . . . . . . . . . . . . . . 59

5 Intégrales qui dépendent de paramètres 63


5.1 Intégrales sur un intervalle fermé et borné . . . . . . . . . . . . . . . . . . 63
5.2 Intégrales avec des bornes variables . . . . . . . . . . . . . . . . . . . . . . 65
5.3 Intégrales généralisées dépendant de paramètres . . . . . . . . . . . . . . . 67

3
4 TABLE DES MATIÈRES

6 Difféomorphismes locaux et fonctions implicites 69


6.1 Fonctions bijectives et difféomorphismes locaux . . . . . . . . . . . . . . . 69
6.2 Théorème d’inversion locale . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.3 Hypersurfaces et fonctions implicites . . . . . . . . . . . . . . . . . . . . . 76
6.4 Théorème des fonctions implicites – cas scalaire . . . . . . . . . . . . . . . 77
6.5 Théorème des fonctions implicites – cas vectoriel . . . . . . . . . . . . . . 82

7 Extrema de fonctions réelles 87


7.1 Extrema libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.2 Extrema liés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.3 Méthode des multiplicateurs de Lagrange . . . . . . . . . . . . . . . . . . 97
7.4 Extrema sous contraintes multiples . . . . . . . . . . . . . . . . . . . . . . 97
7.5 Conditions suffisantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

8 Intégrale multiple au sens de Riemann 101


8.1 Pavés de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.2 Fonctions intégrables sur un pavé . . . . . . . . . . . . . . . . . . . . . . . 103
8.3 Intégrales itérées sur un pavé et théorème de Fubini . . . . . . . . . . . . 108
8.4 Intégrale de Riemann sur un ensemble quelconque . . . . . . . . . . . . . 110
8.5 Ensembles mesurables au sens de Jordan . . . . . . . . . . . . . . . . . . . 113
8.6 Caractérisation des fonctions intégrables . . . . . . . . . . . . . . . . . . . 116
8.7 Généralisation de la formule des intégrales itérées . . . . . . . . . . . . . . 119
8.8 Changement de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8.9 Quelques changements de variables usuels . . . . . . . . . . . . . . . . . . 125
8.10 Intégrale de Riemann généralisée . . . . . . . . . . . . . . . . . . . . . . . 129

9 Équations différentielles ordinaires 133


9.1 Problème de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
9.2 Quelques méthodes de résolution d’EDO scalaires . . . . . . . . . . . . . . 136
9.3 EDO scalaires linéaires du premier ordre . . . . . . . . . . . . . . . . . . . 141
9.4 Existence et unicité de solutions . . . . . . . . . . . . . . . . . . . . . . . 145
9.5 EDO scalaires linéaires du second ordre . . . . . . . . . . . . . . . . . . . 157
TABLE DES MATIÈRES 5

Notations
R+ = {x ∈ R : x ≥ 0}
R∗+ = {x ∈ R : x > 0}
R = R ∪ {−∞, +∞}
N = {0, 1, 2, . . .}
N∗ = {1, 2, . . .}
6 TABLE DES MATIÈRES
Chapitre 0

Intégrales Généralisées

Ce chapitre reprend le dernier Rsujet du cours d’Analyse Avancée I, notamment la


construction de l’intégrale définie ab f (x)dx d’une fonction f : [a, b] → R continue où
continue par morceaux sur un intervalle borné et fermé. On rappelle qu’une fonction
f : [a, b] → R avec a < b dans R est dite continue par morceaux si limt→x+ f (t) existe
(sous-entendu, dans R) pour tout x ∈ [a, b[, limt→x− f (t) existe pour tout x ∈]a, b] et f
est continue en x pour tout x ∈ [a, b] avec au plus un nombre fini d’exceptions. Cette
définition se généralise à un intervalle I quelconque avec une infinité de points : une
fonction f : I → R est dite continue par morceaux (c.p.m.) si f est continue par morceaux
sur tout intervalle [a, b] ⊂ I avec a < b. R
On se pose ici la question de comment généraliser la définition de l’intégrale ab f (x)dx
dans le cas où l’intervalle d’intégration est borné mais pas fermé, et la fonction f n’est
pas définie en a ou en b, comme dans les exemples suivantes :
Z 1   Z 1 Z 1
1 1
sin dx, ln(x)dx, dx,
0 x 0 0 x
ou encore, comment généraliser la définition de l’intégrale sur un intervalle non borné, par
exemple :
Z ∞ Z ∞ Z ∞ Z ∞ Z ∞
2 1 1
sin(x)dx, sin(x )dx, e −x
dx, dx, dx,
0 0 0 1 x2 −∞ 1 + x2
où on entendra toujours ∞ par +∞, dans ce chapitre.

0.1 Intégrale généralisée sur un intervalle borné


On commence par définir l’intégrale généralisée sur un intervalle borné et “demi-ouvert”
(ouvert à droite et fermé à gauche ou bien ouvert à gauche et fermé à droite).
R
Définition 0.1. Pour a < b dans R, soit f : [a, b[ → R c.p.m. et F (x) = ax f (t)dt,
R
x ∈ [a, b[. Si limx→b− F (x) existe, on dit que ab f (x)dx existe (ou converge) et on pose
Z b
f (x)dx = lim F (x).
a x→b−

7
8 CHAPITRE 0. INTÉGRALES GÉNÉRALISÉES

R
Si limx→b− F (x) n’existe pas, on dit que ab f (x)dx diverge.
R
De façon similaire, soit f : ]a, b] → R c.p.m., et F (x) = xb f (t)dt, x ∈ ]a, b]. Si
R
limx→a+ F (x) existe, on dit que ab f (x)dx existe (ou converge) et on pose
Z b
f (x)dx = lim F (x).
a x→a+
Rb
Autrement on dit que l’intégrale a f (x)dx diverge.
Exemple 0.2. On étudie l’existence de l’intégrale généralisée
Z 1
1
dx
0 xα
Pour α ∈ R. R
Soit F (x) = x1 t1α dt, x ∈ ]0, 1] qui est bien définie car la fonction f (t) = t−α est
continue sur [x, 1] pour tout x ∈ ]0, 1]. Pour α 6= 1 on a
1
t−α+1 1 x1−α
F (x) = = −
−α + 1 x 1−α 1−α
tandis que pour α = 1 on a
1
F (x) = ln t x
= − ln x.
Donc (
1
1−αα<1
lim F (x) =
x→0+ +∞ α ≥ 1
R1 1
et l’intégrale généralisée 0 xα dx existe pour tout α < 1.

On vérifie facilement que si la fonction f admet une extension par continuité sur [a, b]
alors l’intégrale généralisé de f existe et coïncide avec l’intégrale sur l’intervalle fermé [a, b]
de l’extension par continuité de la fonction. Plus précisément, on a le résultat suivant,
dont la preuve est laissée comme exercice.
Lemme 0.3. Pour a < b dans R, soit f : [a, b[ → R c.p.m. telle que limx→b− f (x) existe
et définissons la fonction c.p.m. sur [a, b]
(
f (x), x ∈ [a, b[,
fb (x) =
limt→b− f (t), x = b.
R R R
Alors, l’intégrale généralisée ab f (x)dx existe et ab f (x)dx = ab fb (x)dx.
On a le même résultat pour une fonction f : ]a, b] → R c.p.m. telle que limx→a+ f (x)
existe.
On considère maintenant le cas d’un intervalle ouvert (à gauche et à droite).
R R
Définition 0.4. Soit f : ]a, b[ → R c.p.m., a < b. Pour c ∈ ]a, b[, si ac f (x)dx et cb f (x)dx
R R R R
existent, alors on pose ab f (x)dx = ac f (x)dx + cb f (x)dx, auquel cas ab f (x)dx est dite
Rb
exister ou converger, sinon a f (x)dx est dite diverger.
0.1. INTÉGRALE GÉNÉRALISÉE SUR UN INTERVALLE BORNÉ 9

Rb
Il est facile de montrer que l’existence (ou non) de a f (x)dx ne dépend pas du choix
de c ∈ ]a, b[. En fait, soit c̃ ∈ ]a, b[, c̃ 6= c. Alors
Z c̃ Z c Z c̃
f (x)dx = f (x)dx + f (x)dx
a a c
Rc
existe ssi a f (x)dx existe, car f est c.p.m. sur [c, c̃] ∪ [c̃, c]. De même,
Z b Z c Z b
f (x)dx = f (x)dx + f (x)dx
c̃ c̃ c
Rb
existe ssi c f (x)dx existe, et
Z c̃ Z b Z c Z c̃ Z c Z b Z b
f (x)dx + f (x)dx = f (x)dx + f (x)dx + f (x)dx + f (x)dx = f (x)dx.
a c̃ a c c̃ c a

Exemple 0.5. Dire si l’intégrale suivante


Z π/2
tan(x)dx
−π/2

existe ou non.
On est tenté de calculer
Z x Z x  
lim tan(t)dt = lim (− ln(cos t))0 dt = lim − ln(cos x) + ln(cos(−x))
x→π/2− −x x→π/2− −x x→π/2−
 
cos(−x)
= lim ln = lim ln(1) = 0
x→π/2− cos x x→π/2−

mais
Z x  
cos(0)
lim tan(t)dt = lim ln = +∞
x→π/2− 0 x→π/2− cos x
Z 0
et lim tan(t)dt = −∞.
x→π/2− −x
Z x2
R π/2
Donc −π/2 tan(x)dx diverge. En effet, lim tan(x)dx dépend de comment x1 et x2
x1 →−π/2+ x1
x2 →π/2−
R π/2−2
tendent respectivement vers −π/2 et π/2. Prendre par exemple lim→0+ −π/2+ tan(x)dx =
R π/2−
+∞ et lim→0+ −π/2+2 tan(x)dx = −∞.

L’intégrale généralisée a les propriétés suivantes :

Lemme 0.6 (Propriétés de l’intégrale généralisée). Soit a < b dans R, I de la forme [a, b[,
]a, b] ou ]a, b[, et des fonctions c.p.m. f, g : I → R. Alors
Rb R R
— a (αf (x)
+ βg(x))dx = α ab f (x)dx + β ab g(x)dx, ∀α, β ∈ R, l’intégrale généralisée
à gauche étant convergente si les deux intégrales généralisées à droite convergent.
10 CHAPITRE 0. INTÉGRALES GÉNÉRALISÉES

Rb R R
— a f (x)dx = ac f (x)dx + cb f (x)dx, ∀c ∈]a, b[, l’intégrale généralisée à gauche étant
convergente ssi chacune des deux intégrales à droite converge au cas où elle est
généralisée.
Rb Rb Rb
— si f (x) ≤ g(x), ∀x ∈ I et a f (x)dx et a g(x)dx existent, alors a f (x)dx ≤
Rb
a g(x)dx.

Pour établir si une intégrale généralisée existe, le critère de comparaison suivant est
souvent très utile.

Lemme 0.7 (Critère de comparaison). Soit f, g : [a, b[→ R deux fonctions c.p.m. et
supposons qu’il existe c ∈ [a, b[ tel que

0 ≤ f (x) ≤ g(x) ∀x ∈ [c, b[.


Rb Rb
— Si a g(x)dx existe, alors a f (x)dx existe aussi ;
Rb Rb
— si a f (x)dx diverge, alors a g(x)dx diverge aussi.
Rb Rb
Démonstration. Si a g(x)dx existe, alors c g(x)dx existe aussi. De plus, pour tout x ∈
[c, b[
Z x Z x Z b
F (x) = f (t)dt ≤ g(t)dt ≤ g(t)dt < +∞
c c c
Puisque F est une fonction R
croissante et bornée supérieurement sur [c, b[ on a que
limx→b− F (x) existe. Ainsi cb f (t)dt converge et
Z b Z x Z c Z x
f (t)dt = lim f (t)dt = f (t)dt + lim f (t)dt
a x→b− a a x→b− c

existe aussi. La seconde affirmation est la contraposée de la première.


Rb
Corollaire 0.8. Soit f : [a, b[→ R c.p.m., non négative et bornée. Alors a f (x)dx existe.

Démonstration.
Rb
Il suit immédiatement du fait que 0 ≤ f (x) ≤ M < +∞, ∀x ∈ [a, b[ et
a M dx converge.

Des versions analogues du Lemme 0.7 et Corollaire 0.8 existent pour f, g : ]a, b] → R
ou bien f, g : ]a, b[→ R.
Z 1
(sin x1 )2
Exemple 0.9. Grâce au Corollaire 0.8, on montre facilement que √ dx converge.
0 x
(sin 1 )2 1 R
En effet, 0 ≤ f (x) = √ x ≤ √ et 01 √1 dx
x
converge.
x x

0.2 Intégrale généralisée absolument convergente


Définition 0.10. Soit I un intervalle de la forme [a, b[, ]a, b] ou ]a, b[ et f : I →
R
R c.p.m.
On dit que l’intégrale généralisée est absolument convergente si l’intégrale ab |f (x)|dx
existe.
0.2. INTÉGRALE GÉNÉRALISÉE ABSOLUMENT CONVERGENTE 11

Rb
Théorème 0.11. Si l’intégrale a f (x)dx est absolument convergente, alors elle existe.

Démonstration. Soit f+ (x) = max{f (x), 0} et f− (x) = − min{f (x), 0}. On a f (x) =
f+ (x) − f− (x), |f (x)| = f+ (x) + f− (x),

0 ≤ f+ (x) ≤ |f (x)|, 0 ≤ f− (x) ≤ |f (x)|.


Rb Rb Rb
Donc, par le critère de comparaison, a f+ (x)dx et a f− (x)dx existent, et a f (x)dx =
Rb
a (f+ (x) − f− (x))dx existe aussi.

Corollaire 0.12.R
Soit f : I → R c.p.m. et bornée, où I est un intervalle borné comme
ci-dessus. Alors ab f (x)dx converge absolument et par conséquent, existe.
Rb
Démonstration. On a 0 ≤ |f (x)| ≤ M < +∞, ∀x ∈ I. Comme a M dx converge,
Rb Rb
a |f (x)|dx converge aussi et a f (x)dx converge absolument.

Exercice 0.13. Montrer que les intégrales généralisées


Z 1   Z 2π
1 sin x
sin dx, dx
0 x 0 x3/2

convergent absolument.

R
Théorème 0.14. Une condition suffisante pour que ab f (x)dx converge absolument avec
f : [a, b[→ R c.p.m. est qu’il existe α ∈] − ∞, 1[ tel que

lim (b − x)α f (x) = l ∈ R.


x→b−

Rb
Si ∃α ≥ 1 tel que limx→b− (b − x)α f (x) = l 6= 0, alors a f (x)dx diverge.

Démonstration. Soit α ∈] − ∞, 1[ tel que limx→b− (b − x)α f (x) = l ∈ R. Alors, pour tout
 > 0 il existe δ ∈]0, b − a[ tel que

∀x ∈ [b − δ , b[, (l − )(b − x)−α < f (x) < (l + )(b − x)−α .


R
Si α < 1, alors ab (b − x)−α dx converge et, puisque 0 ≤ |f (x)| < (|l| + )(b − x)−α pour
R R
x ∈ [b − δ , b[, on en déduit grâce au Lemme 0.7 que ab |f (x)|dx converge, donc ab f (x)dx
converge absolument.
Rb
Si, par contre, α ≥ 1 et l 6= 0, en prenant  ∈]0, |l|[ on a que b−δ 
(b − x)−α dx diverge, f
est non nul et de signe constant sur [b − δ , b[ et |f (x)| > (|l| − )(b
Rb  Rb
− x)−α , ∀x ∈R[b − δ , b[.
Grâce au Lemme 0.7 on déduit que b−δ |f (x)|dx diverge, et b−δ f (x)dx et ab f (x)dx
divergent aussi.
12 CHAPITRE 0. INTÉGRALES GÉNÉRALISÉES

Remarque 0.15. On a présenté le Théorème 0.14 pour un intervalle I de la forme [a, b[.
Il y a deux conditions suffisantes analogues en a pour I de la forme ]a, b]. Si I est de la
forme ]a, b[, on choisit c ∈]a, b[ et on étudie séparément l’intégrale généralisée sur [c, b[ et
celle sur ]a, c].

Exercice 0.16. Étudier, en utilisant le critère de puissance du Théorème 0.14 si l’intégrale


Z π/2
1
généralisée √ dx converge ou non.
0 tan x

0.3 Intégrale généralisée sur un intervalle non borné


Soit I de la forme [a, ∞[, ] − ∞, a], ]a, ∞[, ] − ∞, a[ ou ] − ∞, ∞[, et soit f : I → R
c.p.m. On définit l’intégrale généralisée de f sur I de façon similaire à ce qu’on a fait pour
I borné.
Rx
Définition
R
0.17. Si I = [a, ∞[ et limx→∞ a f (t)dt existe, on dit que l’intégrale générali-
sée a∞ f (x)dx existe et on pose
Z ∞
f (t)dt = lim F (x).
a x→∞
R R
On dit que a∞ f (x)dx est absolument convergente si a∞ |f (x)|dx existe.
R Ra
Si I =]−∞, a] et limx→−∞ xa f (t)dt existe, on dit que l’intégrale généralisée −∞ f (x)dx
existe et on pose Z Z
a a
f (t)dt = lim f (t)dt.
−∞ x→−∞ x
R R
On dit que −∞ a
f (x)dx est absolument convergente si ∞ a
|f (x)|dx existe.
R
Soit I de la forme ]a, ∞[, ] − ∞, a[ ou R, et soit c ∈ I. On dit que l’intégrale généralisée
I (t)dt existe si les intégrales généralisées de f sur I1 = I∩] − ∞, c] et sur I2 = I ∩ [c, ∞[
f
existent les deux, auquel cas on pose
Z Z Z
f (t)dt = f (t)dt + f (t)dt
I I1 I2
R
(ceci
R
ne dépend pas du choix de c dans I). On dit que I f (x)dx est absolument convergente
si I |f (x)|dx converge.
Si une intégrale généralisée existe, on dit aussi qu’elle converge, sinon on dit qu’elle
diverge.

Exemple 0.18. On étudie l’existence de l’intégrale généralisée


Z ∞
1
dx
1 xα
0.3. INTÉGRALE GÉNÉRALISÉE SUR UN INTERVALLE NON BORNÉ 13

pour α ∈ R.
On a
Z x
1 t−α+1 x
x1−α 1
F (x) = dt = = − , α 6= 1
1 tα −α + 1 1 1−α 1−α
F (x) = ln x α=1
Donc (
1
< ∞, α>1
lim F (x) = α−1
x→∞ +∞, α ∈] − ∞, 1]
R∞ 1
et l’intégrale généralisée 1 xα dx existe pour tout α > 1.

Il est intéressant de comparer ce dernier exemple avec l’exemple 0.2. On voit que
R1 1
l’intégrale
R∞ 1
généralisée 0 xα dx existe pour tout α < 1 alors que l’intégrale généralisée
1 xα dx existe pour tout α > 1.
L’intégrale généralisée sur un intervalle non borné a les mêmes propriétés que celui sur
un intervalle borné. En particulier, étant donné un intervalle I non borné et des fonctions
c.p.m. f, g : I → R.
R R R
— linéarité : I (αf (x) + βg(x))dx = α I f (x)dx + β I g(x)dx, ∀α, β ∈ R, l’intégrale
généralisée à gauche étant convergente si les deux intégrales généralisées à droite
convergent.
R R R
— I f (x)dx = I∩]−∞,c] f (x)dx + I∩[c,∞[ f (x)dx, ∀c ∈ I, l’intégrale généralisée à
gauche étant convergente ssi chacune des deux intégrales à droite converge au cas où
elle est généralisée.
R R
— relation
R
d’ordre
R
: si f (x) ≤ g(x) ∀x ∈ I et I f (x)dx et I g(x)dx existent, alors
I f (x)dx ≤ I g(x)dx.
Les critères de comparaison énoncés au Lemme 0.7 et au Théorème 0.14 se généralisent
aussi au cas d’un intervalle non borné.
Lemme 0.19 (Critères de comparaison – intervalles non bornés).
— Soit f, g : [a, +∞[→ R c.p.m. et supposons qu’il existe c ∈ [a, ∞[ tel que
0 ≤ f (x) ≤ g(x), ∀x ∈ [c, +∞[.
R∞ R∞ R∞ R∞
Si a g(x)dx existe alors a f (x)dx existe. Si a f (x)dx diverge alors a g(x)dx
diverge.
— Soit f : [a, +∞[→ R c.p.m.
Z ∞
Si ∃β > 1 : lim xβ f (x) = l ∈ R alors f (x)dx converge absolument.
x→∞ a
Z ∞
Si ∃β ∈] − ∞, 1] : lim x f (x) = l 6= 0
β
alors f (x)dx diverge.
x→∞ a

Remarque 0.20. Attention, comparez les conditions sur β avec les conditions du Théorème
0.14 sur α ! Il y a des résultats analogues pour I de la forme ] − ∞, a]. Si I est de la
forme ]a, ∞[, ] − ∞, a[ ou ] − ∞, ∞[, on choisit c ∈ I et on étudie séparément l’intégrale
généralisée sur I ∩ [c, +∞[ et celle sur I∩] − ∞, c].
14 CHAPITRE 0. INTÉGRALES GÉNÉRALISÉES

Exercice 0.21. Étudier à l’aide du Lemme 0.19 l’existence des intégrales suivantes
Z ∞ Z ∞  
1 1
α −x
x e dx, α ∈ R, √ ln 1 + dx.
1 1 x x

On remarque qu’une intégrale généralisée peut être convergente mais pas absolument
convergente, comme l’exemple suivant le montre.
R ∞ sin x
Exemple 0.22. On montre dans cet exemple que l’intégrale généralisée π x dx est
convergente maisR pas absolument convergente.
Soit F (x) = πx sint t dt. On a
Z x
cos t − cos t x
F (x) = − dt +
π t2 t π
Z x
cos t cos π cos x
=− dt + −
π t2 π x
Z x
cos t cos x
Donc limx→∞ F (x) = limx→∞ − dt − π1 − lim existe.
π t2 x→∞
| {z x }
| {z }
absolument convergent =0
R donc la limite existe
En revanche, π∞ sinx x dx ne converge pas absolument. En effet, pour tout k ∈ N, k > 1
Z kπ
| sin x|
F (kπ) = dx
π x
Z
X (j+1)π
k−1
| sin x|
= dx
j=1 jπ
x
Z (j+1)π
k−1
X 1
≥ | sin x|dx
j=1
(j + 1)π jπ
| {z }
=2
k−1
X 2
= −−−→ +∞.
k→∞

j=1
(j + 1)π
R
Remarque 0.23. Si a∞ f (x)dx converge et limx→∞ f (x) existe, alors nécessairement
lim
R ∞x→∞
f (x) = 0 (cf le critère du Lemme 0.19 avec β = 0). En revanche le fait que
a f (x)dx converge absolument n’implique pas que f est bornée.
Par exemple, considérons la fonction φ(x) = max{1 − |x|, 0} et la fonction f : [0, ∞[→
R+ définie par

X  
f (x) = nφ n3 (x − n)
n=1
0.4. INTÉGRALES ET SÉRIES NUMÉRIQUES 15

qui est continue mais pas bornée sur [0, ∞[.


Puisque
Z ∞   Z ∞ Z 1
3
nφ n (x − n) dx = n −2
φ(y)dy = n −2
φ(y)dy = n−2 ,
0 −n4 −1

on a que pour tout x ∈ [0, ∞[

Z x Z dxe dxe Z ∞
X   ∞
X 1
F (x) = |f (t)|dt ≤ ≤ nφ n3 (t − n) dt ≤ <∞
0 0 n=1 0 n=1
n2

Donc, F est non décroissante est bornée


R
supérieurement et la limite limx→∞ F (x) existe. Il
s’ensuit que l’intégrale généralisée 0∞ f (x)dx converge absolument, même si lim supx→∞ f (x) =
+∞.

Remarque 0.24. Soit un intervalle I qui n’est pas simultanément borné fermé, et une
fonction c.p.m. f : I → [0, ∞[. Comme f ≥ 0, la limite (ou chacune des deux limites)
intervenant dans la définition d’intégrale
R
généralisée tend vers un nombre réel ≥ 0 ou vers
+∞.
R
On peut donc dans ce cas écrire I (x)dx < ∞ si l’intégrale généralisée converge et
f
I f (x)dx = ∞ = +∞ si elle diverge.

0.4 Intégrales et séries numériques


L’intégrale généralisée peut être utilisé aussi pour étudier la convergence d’une série
P
numérique ∞ n=1 an . L’idée est de construire la fonction c.p.m. f : [1, ∞[ → R telle que
f (x) = an pour x ∈ [n, n + 1[ ou bien la fonction c.p.m. f˜ : [0, ∞[ → R, telle que f˜(x) = an ,
pour x ∈ [n − 1, n[. Alors, pour tout N ≥ 0,

N
X N Z n+1
X Z N +1 Z N
an = an dx = f (x)dx = f˜(x)dx
n=1 n=1 n 1 0

et on peut utiliser les critères de comparaison pour les intégrales généralisées afin d’établir
la convergence de la série.
1 P
Exemple 0.25. On veut étudier la convergence de la série numérique S = ∞ n=1 n2 .
Soit f : [1, ∞[→ R c.p.m. définie par f (x) = 1/n2 si x ∈ [n, n + 1[, n ∈ N∗ de telle
R N +1
PN 1
sorte que SN R= n=1 n2 = R1 f (x)dx. On vérifie facilement que R0 ≤ f (x) ≤ 1/(x − 1)2
1 1
sur [2, ∞[ et 2 (x−1)

2 dx = 1

x2
dx converge, d’où on déduit que 1∞ f (x)dx converge et

Z N +1

X 1 N
X 1
= lim = lim f (x)dx < +∞.
n=1
n2 N →∞
n=1
n2 N →∞ 1

On peut encore utiliser les propriétés des intégrales généralisées pour donner des bornes par
dessous et par dessus à la série S. En effet, on a x12 ≤ f (x) ≤ (x−1)
1
2 pour tout x ∈ ]1, ∞[
16 CHAPITRE 0. INTÉGRALES GÉNÉRALISÉES

du coup
Z ∞ Z 2 Z ∞

X 1 1
S= = f (x)dx ≤ f (x)dx + dx = 2,
n=1
n2 1 1 2 (x − 1)2
Z ∞ Z ∞
X∞
1 1
S= = f (x)dx ≥ dx = 1,
n=1
n2 1 1 x2
P∞ 1
On conclut donc 1 ≤ n=1 n2 ≤ 2.

X 1
Exercice 0.26. Étudier si la série converge ou non.
n=2
n ln n
Chapitre 1

L’espace Rn et sa topologie

1.1 Espaces vectoriels normés


On rappelle ici les notions générales d’espace vectoriel, norme, distance et produit
scalaire.

Définition 1.1 (Espace vectoriel réel). Un ensemble V est un espace vectoriel réel si
les opérations de somme et multiplication par un scalaire (réel) sont définies sur V avec
les propriétés suivantes :
1. somme : V × V → V, (x, y) ∈ V × V 7→ z = x + y ∈ V ,
— ∀x, y ∈ V, x + y = y + x,
— ∀x, y, z ∈ V, (x + y) + z = x + (y + z),
— ∃ élément nul 0 : x + 0 = x,
— ∀x ∈ V, ∃ élément opposé −x : x + (−x) = 0,
2. multiplication par un scalaire : R × V → V, (λ, x) ∈ R × V 7→ z = λx ∈ V ,
— ∀λ, µ ∈ R, ∀x ∈ R, λ(µx) = (λµ)x,
— ∀x ∈ V, 1 · x = x,
— ∀λ, µ ∈ R, ∀x ∈ V, (λ + µ)x = λx + µx,
— ∀λ ∈ R, ∀x, y ∈ V, λ(x + y) = λx + λy.

Définition 1.2 (Norme). Soit V un espace vectoriel réel. Une norme sur V est une
application N : V → R+ qui satisfait les propriétés suivantes :
1. ∀x ∈ V, N (x) ≥ 0, et N (x) = 0 ⇔ x = 0,
2. ∀x ∈ V, λ ∈ R, N (λx) = |λ|N (x),
3. ∀x, y ∈ V, N (x + y) ≤ N (x) + N (y) (inégalité triangulaire).
On note souvent une norme par k · k (N (x) = kxk).

Un espace vectoriel muni d’une norme est appelé espace vectoriel normé et souvent
noté (V, k · k). On dit que deux normes N1 et N2 sur un espace vectoriel V sont équivalentes
s’ils existent deux constants c, c > 0 telles que cN1 (x) ≤ N2 (x) ≤ cN1 (x) pour tout x ∈ V .

17
18 CHAPITRE 1. L’ESPACE Rn ET SA TOPOLOGIE

Définition 1.3 (distance). Soit X un ensemble. Une distance ou métrique sur X est
une application d : X × X → R+ qui satisfait les propriétés suivantes :
1. ∀x, y ∈ X, d(x, y) ≥ 0, et d(x, y) = 0 ⇔ x = y,
2. ∀x, y ∈ X, d(x, y) = d(y, x),
3. ∀x, y, z ∈ X, d(x, y) ≤ d(x, z) + d(z, y) (inégalité triangulaire).

Un ensemble X muni d’une distance (X, d) est appelé espace métrique. Si (V, k · k)
est un espace vectoriel normé, alors l’application

d : V × V → R, d(x, y) = kx − yk, ∀x, y ∈ V,


est une distance (vérifiez-le) appelée la distance induite par la norme k·k. Donc (V, d(x, y) =
kx − yk) est un espace métrique.

Exercice 1.4. Soit V un espace vectoriel, d(·, ·) : V × V → R+ une distance sur V et


h : [0, ∞) → R+ une fonction différentiable telle que h(0) = 0, h0 (x) > 0 pour x > 0 et
h0 (x) décroissante sur [0, ∞). Montrer que d˜ = h ◦ d est aussi une distance sur V . Vérifier
que les hypothèses sont satisfaites par la fonction h(x) = x/(1 + x), mais que la distance
d˜ = h ◦ d n’est pas induite par une norme lorsque V 6= {0}, même si ceci est vrai pour d.

Définition 1.5 (Produit scalaire). Un produit scalaire sur un espace vectoriel réel V
est une application b : V × V → R qui satisfait les propriétés suivantes :
1. (symétrie) ∀x, y ∈ V, b(x, y) = b(y, x),
2. (bi-linéarité) ∀x, y ∈ V, ∀α, β ∈ R, b(αx + βy, z) = αb(x, z) + βb(y, z),
3. (positivité) ∀x ∈ V, b(x, x) ≥ 0, et b(x, x) = 0 ⇔ x = 0.

Un produit scalaire satisfait l’importante inégalité suivante :

Lemme 1.6 (Inégalité de Cauchy–Schwarz). Soit V un espace vectoriel réel et b :


V × V → R un produit scalaire sur V . Alors
1 1
∀x, y ∈ V, |b(x, y)| ≤ b(x, x) 2 b(y, y) 2 .

Démonstration. ∀α ∈ R, ∀x, y ∈ V

0 ≤ b(αx + y, αx + y) = α2 b(x, x) + 2αb(x, y) + b(y, y) = p2 (α)

où p2 (α) est un polynôme de degré 2 en α. Par la positivité de b, on obtient la condition


suivante pour le discriminant : ∆ ≤ 0 ce qui implique b2 (x, y) − b(x, x)b(y, y) ≤ 0, d’où la
thèse.

Grâce à cette propriété, un espace vectoriel réel muni d’un produit scalaire est toujours
un espace normé.

Théorème 1.7. Soit b : V × V → R un produit scalaire sur un espace vectoriel réel V .


Alors kxkb = b(x, x) 2 : V → R+ est une norme et (V, k · kb ) un espace vectoriel normé.
1
1.2. L’ESPACE Rn 19

Démonstration. Il faut vérifier que k · kb satisfait toutes les propriétés d’une norme selon
la Définition 1.2. Les propriétés 1. et 2. suivent directement de la positivité du produit
scalaire (propriété 3. de 1.5) et de sa bi-linéarité (propriété 2. de 1.5).
Quant à l’inégalité triangulaire (propriété 3.) elle est une conséquence de l’inégalité de
Cauchy–Schwarz :

kx + yk2b = b(x + y, x + y) = b(x, x) + 2b(x, y) + b(y, y)


≤ b(x, x) + b(y, y) + 2b(x, x) 2 b(y, y) 2
1 1

= (kxkb + kykb )2

1.2 L’espace Rn
n fois
z }| {
On note Rn = R × R × · · · × R l’ensemble des n-uples x = (x1 , . . . , xn ), avec xi ∈ R,
pour i = 1, . . . , n, muni des opérations de
— somme : pour tout x = (x1 , . . . , xn ), y = (y1 , . . . , yn ), x+y = (x1 +y1 , . . . , xn +yn ),
— multiplication par un scalaire : pour tout x = (x1 , . . . , xn ), λ ∈ R, λx = (λx1 , . . . , λxn ).
Ainsi, Rna une structure d’espace vectoriel réel. Sur Rn , on peut introduire plusieurs
normes. Voici les plus communes :
— Norme euclidienne : v
u n
uX
kxkE = t x2i ,
i=1

— Norme p :
n
!1
X p
kxkp = |xi |p , p ≥ 1,
i=1

— Norme ∞ :
kxk∞ = max |xj |.
1≤j≤n

La norme euclidienne correspond à la norme p avec p = 2, i.e. kxkE = kxk2 . On vérifie


(exercice) que toutes les applications k · kp : Rn → R+ , pour tout p ≥ 1 et p = ∞, sont
P 1
des normes. Par contre, kxkp = ( ni=1 |xi |p ) p avec 0 < p < 1 n’est pas une norme lorsque
n ≥ 2 (elle ne vérifie pas l’inégalité triangulaire).
Toutes les normes k · kp , p ≥ 1, sont équivalentes, c’est-à-dire, ∀p, q ≥ 1, il existe
0 < c1 (p, q) < c2 (p, q) :

c1 (p, q)kxkp ≤ kxkq ≤ c2 (p, q)kxkp , ∀x ∈ Rn .

Plus généralement, sur Rn , toutes les normes sont équivalentes, c’est-à-dire, si k · k


et ||| · ||| sont deux normes sur Rn , alors ∃ 0 < c1 < c2 tels que.

c1 kxk ≤ |||x||| ≤ c2 kxk ∀x ∈ Rn .


20 CHAPITRE 1. L’ESPACE Rn ET SA TOPOLOGIE

La preuve de ce résultat sera proposée plus loin dans le cours.


P
Seule la norme euclidienne kxk2 = ( ni=1 x2i ) 2 parmi toutes les normes k · kp , p ≥ 1 est
1

une norme induite par un produit scalaire, nommément le produit scalaire euclidien :
n
X
(x, y) = xi yi = y> · x = y> x.
i=1

Dans ces deux dernières expressions, x et y sont des vecteurs colonnes, y> est la transposée
de y et le produit est la multiplication matricielle. En effet, kxk2 = (x, x) 2 et l’inégalité
1

de Cauchy Schwarz sur Rn devient :

|(x, y)| ≤ kxk2 kyk2 .

1.3 Suites dans Rn


Définition 1.8 (Suite convergente). Soit {x(k) }∞ n
k=0 ⊂ R une suite d’éléments de R ,
n
(k) (k)
x(k) = (x1 , . . . , xn ) ∈ Rn . On dit que {x(k) }k∈N converge s’il existe x ∈ Rn tel que
limk→∞ kx − x(k) k = 0, c.-à-d. :

∀ > 0, ∃N > 0 : ∀k ≥ N, kx − x(k) k ≤ .

Dans ce cas, on note limk→∞ x(k) = x.

Puisque toutes les normes sont équivalentes sur Rn , la convergence de la suite x(k)
ne dépend pas de la norme choisie. De même que la valeur limite x (si elle existe) ne
dépend pas de la norme. En particulier, si on prend la norme k · k∞ dans la définition de
limk→∞ x(k) = x, on en tire la propriété suivante.

Lemme 1.9. Une suite {x(k) }∞ k=0 ⊂ R converge vers x ∈ R si et seulement si


n n
(k) ∞
{xj }k=0 ⊂ R converge vers xj ∈ R pour toute composante j = 1, . . . , n.

Démonstration. Soit limk→∞ x(k) = x, et considérons la norme k · k∞ dans la définition


de convergence d’une suite de Rn . Alors,
(k)
∀ > 0, ∃N > 0 : ∀k ≥ N, kx − x(k) k∞ = max |xj − xj | ≤ ,
j=1,...,n

(k)
ce qui implique que limk→∞ xj = xj , ∀j = 1, . . . , n.
(k)
Réciproquement, supposons qu’il existe x = (x1 , . . . , xn ) ∈ Rn tel que limk→∞ xj = xj ,
∀j = 1, . . . , n. Alors,
(k)
∀ > 0, ∃Nj > 0 : ∀k ≥ Nj , |xj − xj | ≤ .

(k)
En prenant N̄ = max{N1 , . . . , Nn } on a maxj=1,...,n |xj − xj | ≤  pour tout k ≥ N̄ , ce
qui implique limk→∞ x(k) = x.
1.4. TOPOLOGIE DE Rn 21

Définition 1.10 (Suite de Cauchy). Une suite {x(k) }k∈N ⊂ Rn est dite de Cauchy si
∀ > 0, ∃N > 0 : ∀k, j ≥ N, kx(k) − x(j) k ≤ .
En suivant la même démonstration du lemme 1.9, on peut montrer qu’une suite
(k)
{x(k) }k∈N ⊂ Rn est de Cauchy si et seulement si chaque suite {xj }k∈N ⊂ R, j = 1, . . . , n
est de Cauchy.
Théorème 1.11. Une suite {x(k) }k∈N ⊂ Rn est convergente si et seulement si elle est de
Cauchy.
Démonstration. Ceci est vrai pour n = 1 (voir cours d’Analyse I). En utilisant la norme
(k)
k · k∞ et le lemme 1.9, on a : {x(k) }k∈N converge ⇐⇒ {xi }k∈N converge pour tout i
(k)
⇐⇒ {xi }k∈N est de Cauchy pour tout i ⇐⇒ {x(k) }k∈N est de Cauchy.

Théorème 1.12 (Bolzano–Weierstrass sur Rn ). Soit {x(k) }k∈N ⊂ Rn une suite bornée, c.-
à-d., ∃M ∈]0, +∞[ tel que kx(k) k ≤ M, ∀k ≥ 0. Alors il existe une sous-suite {x(kj ) }j∈N ⊂
{x(k) }k∈N qui est convergente.
Démonstration. On utilise le théorème de Bolzano–Weierstrass sur R : puisque {x(k) }k∈N
(k) (k) (k) (k)
est bornée, en particulier {x1 }k∈N est bornée où x(k) = (x1 , x2 , . . . , xn ). Donc on
(k )
peut extraire une sous-suite x1 j qui converge vers x1 ∈ R. Prenons maintenant la suite
(j) (k ) (j )
y2 = x2 j . Puisqu’elle est bornée, on peut extraire une sous-suite y2 ` qui converge
(kj ) (kj )
vers x2 ∈ R. Ainsi lim`→∞ x2 ` = x2 et lim`→∞ x1 ` = x1 . En itérant ce raisonnement
n fois, on peut extraire une sous-suite de x(k) dont chaque composante converge vers
(x1 , x2 , . . . , xn ).

Ce qui est important dans la preuve de ce théorème est que l’on fait un nombre fini
d’itérations (n est fini). Si n était ∞ la preuve ne porterait pas à conclusion.

1.4 Topologie de Rn
1.4.1 Concepts de base
On s’intéresse ici à l’étude et classification des sous-ensembles de Rn . On commence
par définir les boules.
Définition 1.13 (Boule de Rn ). Pour tout x ∈ Rn et δ > 0, on appelle
— B(x, δ) = {y ∈ Rn : kx − yk < δ} : la boule ouverte centrée en x et de rayon δ,
— S(x, δ) = ∂B(x, δ) = {y ∈ Rn : kx − yk = δ} : la sphère centrée en x et de rayon δ,
— B(x, δ) = B(x, δ) ∪ S(x, δ) = {y ∈ Rn : kx − yk ≤ δ} : la boule fermée centrée en x
et de rayon δ.
La Figure 1.1 montre la forme des boules de R2 selon la norme qu’on choisit. On
travaille par la suite avec la norme euclidienne kxk = kxk2 mais toutes les définitions ci
après s’appliquent à n’importe quelle norme puisque toutes les normes sont équivalentes
sur Rn .
On considère maintenant un sous-ensemble quelconque E de Rn .
22 CHAPITRE 1. L’ESPACE Rn ET SA TOPOLOGIE

y y y
k · k2 k · k∞ k · k1

x x x

Figure 1.1 – Forme des boules de R2 pour des normes différentes

Définition 1.14 (sous-ensembles ouverts, fermés, bornés). Soit E ⊂ Rn . On dit que


— E est ouvert si ∀x ∈ E, ∃δ > 0 tel que B(x, δ) ⊂ E. En particulier E est ouvert
s’il est vide.
— E est fermé si son complémentaire E c = Rn \E = {x ∈ Rn , x ∈
/ E} est ouvert.
— E est borné s’il existe M > 0 tel que kxk ≤ M, ∀x ∈ E.
On vérifie facilement que si un sous-ensemble E est ouvert par rapport a une norme, il
est aussi ouvert par rapport à n’importe quelle autre norme puisque toutes les normes sont
équivalentes sur Rn . La même conclusion est vraie pour les ensembles fermé ou bornés.
L’ensemble des ouverts de Rn est appelé la topologie de Rn (induite par une norme).
Remarque 1.15. Pour x ∈ Rn et δ > 0,
— B(x, δ) est ouvert car ∀z ∈ B(x, δ), B(z, δ − kz − xk) ⊂ B(x, δ) ;
— de même, B(x, δ) est fermé car ∀z ∈ Rn \B(x, δ), B(z, kz − xk − δ) ⊂ Rn \B(x, δ).
Étant donné un sous-ensemble E ⊂ Rn , on peut classifier les points x ∈ Rn par rapport
à E de la façon suivante :
Définition 1.16. Soit E ⊂ Rn et x ∈ Rn . On dit que
— x est un point intérieur de E si

∃δ > 0 : B(x, δ) ⊂ E.

L’ensemble des points intérieurs de E est noté E̊ ou int(E) et appelé l’intérieur


de E.
— x est un point frontière si

∀δ > 0, B(x, δ) ∩ E 6= ∅ et B(x, δ) ∩ E c 6= ∅.

L’ensemble des points frontières de E est noté ∂E et appelé la frontière ou le bord


de E.
— x est un point adhérent à E si

∀δ > 0, B(x, δ) ∩ E 6= ∅.

Un point adhérent est soit un point intérieur, soit un point frontière. L’ensemble des
points adhérents à E est noté E, et appelé l’adhérence ou la fermeture de E, et
coïncide avec E = E ∪ ∂E = E̊ ∪ ∂E.
1.4. TOPOLOGIE DE Rn 23

— x est un point isolé de E si

∃δ > 0 : B(x, δ) ∩ E = {x}

— x est un point d’accumulation de E si ∀δ > 0, B(x, δ) contient au moins un


point de E autre que x, c.-à-d. B(x, δ) ∩ (E\{x}) 6= ∅. (Rappel : E\{x} = E si
x 6∈ E.)
Il s’ensuit que si x est un point d’accumulation de E, alors ∀δ > 0, B(x, δ) contient
une infinité de points de E. Les points d’accumulation de E sont tous les points de
E = E ∪ ∂E qui ne sont pas isolés.

On remarque que pour tout y ∈ Rn et δ > 0, on a B(y, δ) ∩ E 6= ∅ ⇔ B(y, δ) ∩ E 6= ∅.


En effet, l’implication ⇒ est claire car E ⊂ E. Pour montrer l’implication ⇐, soit
z ∈ B(y, δ) ∩ E. Puisque z est point adhérent à E, il existe w ∈ B(z, δ − kz − yk) ∩ E ⊂
B(y, δ) ∩ E. Donc B(y, δ) ∩ E 6= ∅.

Exercice 1.17. Soit E = {(x, y) ∈ R2 : x2 + y 2 > 1} ∪ {(0, 0)} le sous-ensemble montré en


figure. Déterminer son intérieur E̊, sa frontière ∂E, son complémentaire E c , son adhérence
E, ainsi que tous ses points isolés et d’accumulation.
y

Quelques remarques sur les ensemble ouverts :


— E̊ est ouvert.

Démonstration. En effet, si x ∈ E̊, il existe δ > 0 tel que B(x, δ) ⊂ E. Vérifions


que B(x, δ) ⊂ E̊, ce qui prouvera que E̊ est ouvert. Pour tout z ∈ B(x, δ), on a
B(z, δ − kz − xk) ⊂ B(x, δ) ⊂ E, et donc z ∈ E̊.

— E est ouvert si et seulement si E = E̊.


— Toute réunion quelconque (même infinie, dénombrable ou non) de sous-ensembles
ouverts de Rn est un sous-ensemble ouvert.
24 CHAPITRE 1. L’ESPACE Rn ET SA TOPOLOGIE

S
Démonstration. Soit E = α Eα avec Eα ouvert. Pour tout x ∈ E, il existe α : x ∈
Eα . Mais, Eα étant ouvert, ∃δ > 0 : B(x, δ) ⊂ Eα ⊂ E. Donc E est ouvert.

— Toute intersection finie de sous-ensembles ouverts de Rn est un sous-ensemble ouvert.


T
Démonstration. Soit E = m i=1 Ei , avec Ei ouvert. Si x ∈ E, alors x ∈ Ei ∀i =
1, . . . , m et, puisque chaque Ei est ouvert, ∃δi : B(x, δi ) ⊂ Ei . Soit δ = min{δ1 , ..., δm }
T
alors B(x, δ) ⊂ B(x, δi ) ⊂ Ei , ∀i et donc B(x, δ) ⊂ m i=1 Ei = E.

— ∅ et Rn sont ouverts.

Quelques remarques sur les ensembles fermés :


— Rn \E = int(Rn \E) et Rn \E = Rn \E̊.
— L’adhérence E d’un ensemble E ⊂ Rn est toujours fermé.

Démonstration. La preuve est par “passage au complémentaire” : son complémentaire


Rn \E = int(Rn \E) est en effet ouvert.

— E est fermé si et seulement si E = E. (Preuve : par passage aux complémentaires.)


— Toute intersection quelconque (même infinie, dénombrable ou non) de sous-ensembles
fermés est fermée. (On passe aux complémentaires pour montrer cette propriété et
la suivante.)
— Toute union finie de sous-ensembles fermés est fermée.
— ∅ et Rn sont fermés.
Une caractérisation importante des ensembles fermés est la suivante.

Lemme 1.18. Un ensemble E ⊂ Rn non vide est fermé si et seulement si toute suite
{x(k) }k∈N ⊂ E convergente, converge vers un élément de E.

Démonstration. Soit E fermé et {x(k) }k∈N ⊂ E une suite convergente vers x ∈ Rn . Alors
x adhère à E et, puisque E est fermé, x ∈ E.
Réciproquement, supposons que E n’est pas fermé, autrement dit, que Rn \E n’est pas
ouvert. Il existe donc x ∈ Rn \E tel que ∀δ > 0 B(x, δ) 6⊂ (Rn \E). En choisissant δ = 1/k
avec k ∈ N∗ , on obtient x(k) ∈ B(x, 1/k) ∩ E. La suite {x(k) }k∈N∗ dans E converge alors
vers x 6∈ E.

On montre de même que x ∈ E ssi il existe une suite {x(k) }k∈N ⊂ E qui converge
vers x.

1.4.2 Ensembles compacts


On peut donner plusieurs définitions équivalentes d’un ensemble compact en Rn . On
présente ici la définition la plus “facile”, mais non pas celle qui caractérise le mieux la
notion de compacité.
1.4. TOPOLOGIE DE Rn 25

Définition 1.19 (Compacité). Un ensemble E ⊂ Rn est compact s’il est à la fois borné
et fermé. L’ensemble vide sera considéré comme compact.

Les deux autres caractérisations (équivalentes en Rn ) sont montrées dans les théorèmes
suivants.

Théorème 1.20 (Caractérisation de la compacité par sous-suites convergentes). Un


sous-ensemble non vide E ⊂ Rn est compact (fermé et borné) si et seulement si de toute
suite d’éléments de E on peut extraire une sous-suite qui converge vers un élément de E.

Démonstration.
1. Soit E compact (fermé et borné). Par le théorème de Bolzano–Weierstrass, de toute suite
{x(k) }k∈N ⊂ E bornée (car E est borné), on peut extraire une sous-suite {x(kj ) }j∈N ⊂ E
convergente telle que limj→∞ x(kj ) = x ∈ Rn . Puisque E est fermé, x ∈ E.
2. Supposons que E n’est pas compact, autrement dit, qu’il n’est pas fermé ou qu’il n’est
pas borné (ou ni l’un ni l’autre). Si E n’est pas fermé, il existe x ∈ Rn \E et une
suite {y(k) }k∈N ⊂ E telle que limk→∞ y(k) = x. Une telle suite n’a aucune sous-suite
qui converge vers un élément de E (car x 6∈ E). Si E n’est pas borné, il existe une
suite {x(k) }k∈N ⊂ E telle que kx(k) k > k pour tout k ∈ N. Toute sous-suite {x(kj ) }j∈N
satisfait kx(kj ) k > kj ≥ j et {x(kj ) }j∈N ne converge pas.

Théorème 1.21 (de Heine-Borel-Lebesgue – Caractérisation de la compacité par recou-


vrements finis). Un sous-ensemble non vide E ⊂ Rn est compact (fermé et borné) si et
seulement si de toute famille de sous-ensembles ouverts de Rn constituant un recouvrement
S
de E, c.-à-d. E ⊂ α Uα , avec Uα ouvert, on peut extraire une famille finie qui est encore
un recouvrement de E.

On dit qu’un ensemble E satisfait la propriété de Heine–Borel si de toute famille de


sous-ensembles ouverts de Rn constituant un recouvrement de E on peut extraire une
famille finie qui est encore un recouvrement de E. Le théorème précédent affirme donc que
un ensemble E est compact si et seulement si il satisfait la propriété de Heine–Borel. On
montre deux exemples d’application de la propriété de Heine–Borel pour montrer qu’un
ensemble n’est pas compact.
S
Exemple 1.22. R2 n’est pas compact. En fait, on peut écrire R2 = k∈N∗ B(0, k) mais
de ce recouvrement, on ne peut pas extraire de sous-recouvrement fini.

Exemple
 1.23.
c E = B(0, 1)\{0} n’est pas compact. En fait, on peut écrire E ⊂
S 1
k∈N∗ B(0, k ) qui est un recouvrement de E mais duquel on ne peut pas extraire
un sous-recouvrement fini.

Quelques remarques sur les ensembles compacts :


— La caractérisation du théorème 1.20, qui peut être prise comme définition alternative
de compacité, dit qu’un ensemble E est compact si et seulement si toute suite
{x(k) }k∈N de E admet une sous-suite qui converge vers un élément de E, c’est-à-dire
26 CHAPITRE 1. L’ESPACE Rn ET SA TOPOLOGIE

qu’il existe (au moins) un point x ∈ E (point d’accumulation de la suite) tel que,
pour toute boule B(x, δ), δ > 0, l’ensemble d’indices {k ∈ N : x(k) ∈ B(x, δ)} est
infini. Donc E est suffisamment contraignant (compact) pour que toute suite de E
s’accumule quelque part dans E.
— La caractérisation du théorème 1.21 est la définition la plus générale de compacité,
mais aussi la plus abstraite. Elle exprime le fait qu’on puisse décrire un ensemble
compact par un nombre fini de termes et est à la base de toute étape d’approximation.
S
Soit E ⊂ Rn un sous-ensemble quelconque. Clairement, pour tout ε > 0, x∈E B(x, ε)
est un recouvrement de E. Si E est compact, on peut extraire un sous-recouvrement
S
fini, c.-à-d. il existe s = s(ε) ∈ N∗ et {x(1) , . . . , x(s) } ∈ E tels que E ⊂ si=1 B(x(i) , ε).
Donc, E est bien approché par l’ensemble fini Ê = {x(1) , . . . , x(s) } au sens que pour
tout x ∈ E, dist(x, Ê) = inf i=1,...,s kx − x(i) k < ε. Le nombre s = s(ε) est appelé
nombre de recouvrement de E et est un indicateur de la difficulté d’approcher E par
un ensemble fini.

1.4.3 Ensembles connexes et connexes par arcs


Intuitivement, un ensemble E ⊂ Rn est connexe s’il est fait “d’un seul morceau”. Plus
rigoureusement, on dit qu’un ensemble E ouvert est connexe si on ne peut pas le séparer
en deux parties ouvertes non vides et disjointes. La définition générale pour un ensemble
quelconque est la suivante :

Définition 1.24 (Connexité). Soit E ⊂ Rn . On dit que E est connexe s’il n’existe pas
deux ouverts A, B ⊂ Rn disjoints (A ∩ B = ∅) tels que A ∩ E 6= ∅, B ∩ E 6= ∅ et E ⊂ A ∪ B.

En particulier ∅ est connexe. Les ensembles connexes de R sont les intervalles, par
exemple ∅, R, [0, 1], ]0, 1[, [0, 1[, ] − ∞, 0[ ,[0, ∞[, etc. Une notion un peu plus forte de
connexité est celle de connexité par arcs.

Définition 1.25. Soit E ⊂ Rn un ensemble non vide. On appelle chemin de E une


application γ : [0, 1] → E, t 7→ γ(t) = (γ1 (t), ..., γn (t)) ∈ E, dont les fonctions γi : [0, 1] →
R sont continues.

Définition 1.26 (Connexité par arcs). Un ensemble non vide E ⊂ Rn est connexe par
arcs si pour tout x, y ∈ E, il existe un chemin γ : [0, 1] → E tel que γ(0) = x, γ(1) = y
(et γ(t) ∈ E, ∀t ∈ [0, 1]). Nous considérerons ∅ comme connexe par arcs.

On peut montrer que tout ensemble E ⊂ Rn connexe par arcs est aussi connexe. Le
réciproque n’est toutefois pas vraie. On verra dans le chapitre suivant que les propriétés
de compacité, connexité et connexité par arcs sont des propriétés topologiques, préservées
par les applications continues. Autrement dit, si E ⊂ Rn est un ensemble compact (resp.
connexe ou connexe par arcs) et f : Rn → Rm une fonction continue, alors f (E) ⊂ Rm est
compact (resp. connexe ou connexe par arcs).
1.4. TOPOLOGIE DE Rn 27

y
x x
y

Figure 1.2 – Gauche : ensemble connexe par arcs. Droite : ensemble non connexe
28 CHAPITRE 1. L’ESPACE Rn ET SA TOPOLOGIE
Chapitre 2

Fonctions de plusieurs variables


réelles ; limites et continuité

Soit E ⊂ Rn un ensemble non vide. On appelle fonction sur E à valeurs réelles une
application f : E → R. C’est à dire, ∀x = (x1 , . . . , xn ) ∈ E, f (x) = f (x1 , . . . , xn ) ∈ R est
l’image de x par f . La fonction f est donc une fonction de n variables réelles. On note :
— E ou D(f ) le domaine de f ;
— Im(f ) = {f (x) ∈ R : x ∈ E} l’image de f (notée aussi f (E)) ;
— G(f ) = {(x, f (x)) ∈ Rn+1 : x ∈ E} le graphe de f.
Une fonction de 2 variables réelles à valeurs réelles, (x, y) 7→ f (x, y) ∈ R, peut être
visualisée par son graphe (surface de R3 ), ou par ces lignes de niveau Nf (c) = {(x, y) ∈
R2 : f (x, y) = c}. La figure 2.1 montre le graphe et les lignes de niveau de la fonction
f (x, y) = e−x −y , (x, y) ∈ [−1, 1]2 .
2 2

2.1 Notions de limite


Définition 2.1 (limite). Soit f : E → R et x0 ∈ Rn un point d’accumulation de E. On
dit que limx→x0 f (x) existe et est égale à l ∈ R si
 
∀ > 0 ∃δ > 0 : ∀x ∈ E 0 < kx − x0 k ≤ δ ⇒ |f (x) − l| ≤  .

On écrit alors limx→x0 f (x) = l

La propriété limx→x0 f (x) = l ne dépend pas du choix de la norme k · k sur Rn car les
normes sur Rn sont deux à deux équivalentes. On note que dans la définition de limite
ci dessus, on exclut le point x0 de l’ensemble {x ∈ E, 0 < kx − x0 k ≤ δ}. Cette limite
est parfois appelée limite épointée et notée aussi x→x
lim f (x) ou x→x
lim f (x). Dans ces notes
0 0
6= x6=x0

on entendra toujours par limx→x0 f (x) la limite épointée. Le fait que x0 ∈ E ou x0 6∈ E


n’intervient pas dans cette définition.
Le théorème suivant donne une caractérisation équivalente de limite par les suites.

29
30 CHAPITRE 2. FONCTIONS DE PLUSIEURS VARIABLES RÉELLES

0.5
1
0

y
0.5
1 −0.5

−1 0
−0.5 0 −1
0.5 1 −1
y −1 −0.5 0 0.5 1
x x

Figure 2.1 – Graphe (gauche) et lignes de niveau (droite) de la fonction f (x, y) =


e−x −y , (x, y) ∈ [−1, 1]2 .
2 2

Théorème 2.2. Soit f : E → R et x0 ∈ Rn un point d’accumulation de E. Alors f admet


pour limite l lorsque x tend vers x0 si et seulement si, pour toute suite {x(k) }k∈N ⊂ E\{x0 }
telle que limk→∞ x(k) = x0 , on a limk→∞ f (x(k) ) = l. De plus la limite l est unique (si
elle existe).

Démonstration. Identique au cas d’une fonction f : R → R en remplaçant la boule 1D


]x0 − δ, x0 + δ[ par la boule de Rn , B(x0 , δ). Voici la démonstration complète.
1. Supposons que f admet pour limite l lorsque x tend vers x0 et donc, pour tout  > 0,
il existe δ > 0 tel que, pour tout x ∈ E vérifiant 0 < kx − x0 k ≤ δ, on a |f (x) − l| ≤ .
Soit, maintenant, {x(k) }k∈N ⊂ E \ {x0 } une suite telle que limk→∞ x(k) = x0 . Alors il
existe N ∈ N tel que kx(k) − x0 k ≤ δ pour tout k ≥ N et donc |f (x(k) ) − l| ≤ , ce qui
montre que limk→∞ f (x(k) ) = l.
2. Supposons que limk→∞ f (x(k) ) = l pour toute suite {x(k) }k∈N qui converge vers x0 .
En raisonnant par l’absurde, supposons que f n’admet pas pour limite l lorsque x tend
vers x0 . Alors il existe  > 0 tel que pour tout δ > 0 on a l’existence de x0 6= x ∈ E,
kx − x0 k ≤ δ (puisque x0 est un point d’accumulation de E) tel que |f (x) − l| > . Prenons
δ = k1 , k ∈ N∗ . Alors il existe une suite {x(k) }k∈N∗ telle que kx(k) − x0 k ≤ k1 (et donc
limk→∞ x(k) = x0 ) et |f (x(k) ) − l| > , ce qui est contradictoire.

Bien que la définition de limite soit la même pour des fonctions d’une seule ou de
plusieurs variables réelles, le calcul des limites pour des fonctions de plusieurs variables
réelles est bien plus compliqué. Prenons la caractérisation de limite par les suites :

∀{x(k) }k∈N ⊂ E\{x0 }, lim x(k) = x0


lim f (x) = l
k→∞
⇐⇒ (k)
x→x0 on a lim f (x )=l
k→∞

Pour affirmer que limx→x0 f (x) = l existe, il faut s’assurer que f (x(k) ) −−−→ l pour
k→∞

n’importe quelle suite s’approchant de x0 .


2.1. NOTIONS DE LIMITE 31

x0

Figure 2.2 – Exemples de chemins possibles qu’on peut suivre pour atteindre x0 .

Exemple 2.3. Considérons la fonction f : E = R2 \ {(0, 0)} → R, f (x, y) = √ x


et
x2 +y 2
x0 = (0, 0), qui est un point d’accumulation de E. Est-ce que limx→x0 f (x) existe ?
Prenons la suite
1
x(k) = ( , 0) k ∈ N∗ x(k) −−−→ (0, 0).
k→∞
k
On a que
1
f (x(k) ) = qk =1 ∀k ⇒ lim f (x(k) ) = 1.
1 k→∞
k2
Prenons maintenant la suite
1
y(k) = (0, ) y(k) −−−→ (0, 0).
k→∞
k ∈ N∗
k
On a que
f (y(k) ) = 0 ∀k ⇒ lim f (y(k) ) = 0.
k→∞

On a donc trouvé deux suites différentes {( k , 0)}k∈N∗ et {(0, k1 )}k∈N∗


1
qui donnent des
limites différentes. On conclut donc que limx→x0 f (x) n’existe pas.
Exemple 2.4. Considérons la fonction f : E = R2 \ {(0, 0)} → R, f (x, y) = x2xy+y4 , et
2

x0 = (0, 0), qui est un point d’accumulation de E. Est-ce que limx→x0 f (x) existe ?
Prenons la suite x(k) = ( αk , βk ), k ≥ 1, avec α, β ∈ R non nuls en même temps. On a
que
αβ 2 k
αβ 2
(k)
f (x ) = α2 k β 4 = 2 2 −−−→ 0, ∀(α, β) 6= (0, 0).
3 k→∞

2 + 4
α k + β 2
k k
Donc si on se rapproche de x0 par un chemin “droit” la limite est 0. Toutefois, si on prend
la suite x(k) = ( k12 , k1 ) −−−→ (0, 0), on a que
k→∞

1
1 1
f (x(k) ) = 1
k4
1 = ∀k ≥ 1 =⇒ lim f (x(k) ) = .
k4
+ k4
2 k→∞ 2
Donc limx→x0 f (x) n’existe pas !
32 CHAPITRE 2. FONCTIONS DE PLUSIEURS VARIABLES RÉELLES

2.1.1 Propriétés de l’opération de limite


L’opération de limite limx→x0 f (x) pour des fonctions f : E ⊂ Rn → R de plusieurs
variables réelles a les mêmes propriétés que pour des fonctions f : R → R d’une seule
variable réelle.
Théorème 2.5. Soit E ⊂ Rn , x0 un point d’accumulation de E et f, g : E → R tels que
limx→x0 f (x) = l1 et limx→x0 g(x) = l2 . Alors
— ∀α, β ∈ R, limx→x0 (αf (x) + βg(x)) = αl1 + βl2
— limx→x0 f (x)g(x) = l1 l2
f (x)
— Si l2 6= 0, limx→x0 g(x) = l1
l2

Comme pour les fonctions f : R → R d’une seule variable réelle, on a un critère de


comparaison qui peut être très utile pour établir l’existence d’une limite.
Théorème 2.6 (des deux gendarmes). Soient f, g, h : E ⊂ Rn → R, x0 un point
d’accumulation de E et limx→x0 h(x) = limx→x0 g(x) = l. S’il existe α > 0 tel que
h(x) ≤ f (x) ≤ g(x) ∀x ∈ E, 0 < kx − x0 k ≤ α
alors limx→x0 f (x) = l.
Remarque 2.7. Dans le théorème des deux gendarmes, on utilise souvent des fonctions
h et g qui dépendent uniquement de la distance kx − x0 k. Soit par exemple g : E → R
avec E = Rn ou E = Rn \{x0 }, et supposons que
∀x ∈ E\{x0 } g(x) = g̃(kx − x0 k),
où g̃ :]0, ∞[→ R. Alors limx→x0 g(x) = l si et seulement si limr→0+ g̃(r) = l. En effet
∀ > 0 ∃δ > 0 : ∀x ∈ B(x0 , δ)\{x0 } |g(x) − l| = |g̃(kx − x0 k) − l| ≤ 
si et seulement si
∀ > 0 ∃δ > 0 : ∀r ∈]0, δ] |g̃(r) − l| ≤ .
Exemple 2.8. Soit f : E = R2 \ {(1, 0)} → R, f (x, y) = y ln((x − 1)2 + y 2 ). Calculer si
elle existe lim(x,y)→(1,0) f (x, y).
Prenons la suite x(k) = (1, k1 ) Alors limk→∞ f (x(k) ) = limk→∞ k1 ln k12 = 0. Donc si la
limite existe elle doit être égale à l = 0. On a de plus
0 ≤ |f (x, y)| = |y| | ln((x − 1)2 + y 2 )|
q
≤ (x − 1)2 + y 2 | ln((x − 1)2 + y 2 )|.

p
Notons ρ = (x − 1)2 + y 2 = k(x, y) − (1, 0)k. Puisque
q
lim (x − 1)2 + y 2 | ln((x − 1)2 + y 2 )| = lim ρ| ln ρ2 | = lim ρ(− ln ρ2 ) = 0
(x,y)→(1,0) ρ→0+ ρ→0+

(par la remarque appliquée à la norme euclidienne), on conclut par le théorème des deux
gendarmes que lim(x,y)→(1,0) |f (x, y)| = 0 et lim(x,y)→(1,0) f (x, y) = 0.
2.1. NOTIONS DE LIMITE 33

Théorème 2.9 (Critère de Cauchy). Soit f : E ⊂ Rn → R et x0 un point d’accumulation


de E. Alors limx→x0 f (x) existe (dans R) si et seulement si

∀ > 0 ∃δ > 0 : ∀x, y ∈ B(x0 , δ) ∩ (E\{x0 }) |f (x) − f (y)| ≤ .

Démonstration. Le sens ⇒ est clair. Montrons le sens ⇐. Il existe δ1 > 0 tel que

∀x, y ∈ B(x0 , δ1 ) ∩ (E\{x0 }) |f (x) − f (y)| ≤ 1.

Pour δ ∈]0, δ1 ], soit les nombres réels

α(δ) = inf{f (x) : x ∈ B(x0 , δ) ∩ (E\{x0 })}, β(δ) = sup{f (x) : x ∈ B(x0 , δ) ∩ (E\{x0 })}

(deux fonctions monotones en δ). Il en résulte que

∀ > 0 ∃δ ∈]0, δ1 ] 0 ≤ β(δ) − α(δ) ≤ 

et donc, comme β − α est croissante en δ, limr→0+ (β(r) − α(r)) = 0. Posons ` =


limr→0+ β(r) = limr→0+ α(r). Comme

∀x ∈ B(x0 , δ1 ) ∩ (E\{x0 }) α(kx − x0 k) ≤ f (x) ≤ β(kx − x0 k),

le théorème des deux gendarmes assure que limx→x0 f (x) = `.

2.1.2 Limite de fonctions à valeurs dans Rm


La définition de limite s’étend sans difficultés aux fonctions à valeurs dans Rm . Soit
f : E ⊂ Rn → Rm , c’est-à-dire,

∀x ∈ E f (x) = f (x1 , . . . , xn ) = (f1 (x1 , . . . , xn ), . . . , fm (x1 , . . . , xn ))

où fi : E → R. Donc une fonction f : E → Rm est une collection de m fonctions fi : E → R.


Lorsque n = m, la norme dans l’espace de départ n’est pas nécessairement la même que
celle dans l’espace d’arrivée.
Dans ce qui suit, nous choisirons la norme euclidienne, sauf mention du
contraire.

Définition 2.10. Soit f : E ⊂ Rn → Rm et x0 un point d’accumulation de E. On dit que


limx→x0 f (x) = l ∈ Rm si

∀ > 0, ∃δ > 0 : ∀x ∈ E, 0 < kx − x0 k ≤ δ kf (x) − lk ≤ .

Comme pour les fonctions à valeurs dans R, limx→x0 f (x) = l existe si et seulement
si pour toute suite {x(k) }k∈N ⊂ E \ {x0 } telle que x(k) −−−→ x0 on a limk→∞ f (x(k) ) = l
k→∞

(limite dans Rm ). Il est aussi facile de montrer que limx→x0 f (x) = l si et seulement si
toutes les limites limx→x0 fi (x) = li , i = 1, . . . , m existent.
34 CHAPITRE 2. FONCTIONS DE PLUSIEURS VARIABLES RÉELLES

2.2 Fonctions continues


Soit E ⊂ Rn un ensemble non vide et f : E → R.

Définition 2.11 (fonction continue en un point). Soit x0 ∈ E.


— Si x0 est un point isolé, on admettra (par définition) que f est continue en x0 .
— Si x0 n’est pas isolé (il est donc un point d’accumulation de E) on dit que f est
continue en x0 si limx→x0 f (x) existe et limx→x0 f (x) = f (x0 ).

De la définition 2.1 de limite d’une fonction ainsi que du théorème 2.2, caractérisant
les limites par les suites, il s’ensuit que, pour tout x0 ∈ E, les trois affirmations suivantes
sont équivalentes :
i. f : E → R est continue en x0 ;
 
ii. ∀ > 0 ∃δ = δ(, x0 ) > 0 : ∀y ∈ E ky − x0 k ≤ δ ⇒ |f (y) − f (x0 )| ≤  ;

iii. limk→∞ f (x(k) ) = f (x0 ) pour toute suite {x(k) }k∈N ⊂ E qui converge vers x0 .

Définition 2.12 (fonction continue sur un ensemble). On dit que f : E → R est continue
sur E si elle est continue en tout point x ∈ E. Dans ce cas, on note f ∈ C 0 (E) (ou
f ∈ C 0 (E, R)).

Il en résulte que f est continue en tout x ∈ E si et seulement si


 
∀ > 0 ∀x ∈ E ∃δ = δ(, x) > 0 : ∀y ∈ E kx − yk ≤ δ ⇒ |f (x) − f (y)| ≤  .

Définition 2.13 (fonction uniformément continue). On dit que f : E → R est uniformé-


ment continue sur E si
 
∀ > 0 ∃δ = δ() > 0 : ∀x, y ∈ E kx − yk ≤ δ ⇒ |f (x) − f (y)| ≤  .

On note que ici δ peut être choisi de manière qui ne dépend pas de x, contrairement à la
caractérisation précédente de continuité sur E.

On remarque qu’une fonction f : E → R uniformément continue sur E est aussi


continue sur E. Le contraire n’est pas nécessairement vrai.

Exemple 2.14. La fonction x 7→ kxk ∈ R+ est uniformément continue sur Rn (et donc
continue) car, pour tous x, y ∈ Rn ,

kxk − kyk ≤ kx − yk

(inégalité triangulaire inverse, qui découle de l’inégalité triangulaire).

Exemple 2.15. Toute fonction constante x 7→ C ∈ Rm et, pour i ∈ {1, . . . , n} fixé, la


i-ème projection x 7→ xi ∈ R sont des fonctions uniformément continues sur Rn . En effet
|xi − yi | ≤ kx − yk (norme euclidienne) pour tous x, y ∈ Rn .
2.2. FONCTIONS CONTINUES 35

Les définitions de continuité et continuité uniforme s’étendent sans difficultés à des


fonctions f : E ⊂ Rn → Rm .

Définition 2.16. Soit x0 ∈ E.


— Si x0 est un point isolé, on admettra (par définition) que f est continue en x0 .
— Si x0 n’est pas isolé, on dit que f est continue en x0 si limx→x0 f (x) existe et
limx→x0 f (x) = f (x0 ).

Il s’ensuit que, pour tout x0 ∈ E, les quatre affirmations suivantes sont équivalentes :
i. f = (f1 , . . . , fm ) : E → Rm est continue en x0 ;
 
ii. ∀ > 0 ∃δ = δ(, x0 ) > 0 : ∀y ∈ E ky − x0 k ≤ δ ⇒ kf (y) − f (x0 )k ≤  ;

iii. limk→∞ f (x(k) ) = f (x0 ) pour toute suite {x(k) }k∈N ⊂ E qui converge vers x0 ;
iv. pour chaque i ∈ {1, . . . , m} la fonction fi : E → R est continue en x0 .
Il en résulte aussi que f est continue en tout x ∈ E si et seulement si
 
∀ > 0 ∀x ∈ E ∃δ = δ(, x) > 0 : ∀y ∈ E kx − yk ≤ δ ⇒ kf (x) − f (y)k ≤  .

Dans ce cas, on note f ∈ C 0 (E, Rm ) (ou simplement f ∈ C 0 (E)).

Définition 2.17. On dira que f : E → R est uniformément continue sur E si


 
∀ > 0 ∃δ = δ() > 0 : ∀x, y ∈ E kx − yk ≤ δ ⇒ kf (x) − f (y)k ≤  . (2.1)

Remarque 2.18. Soit ∅ = 6 A ⊂ E et la restriction f : A → Rm de f à A (notée aussi


f |A ). Si f : E → Rm est continue sur E, alors f : A → Rm est continue sur A.

2.2.1 Propriétés des fonctions continues


Théorème 2.19. Soient f et g deux fonctions de E ⊂ Rn dans R continues en x0 ∈ E.
— ∀α, β ∈ R, αf + βg est continue en x0 ;
— f · g, |f |, |g| sont continues en x0 ;
— si g(x0 ) 6= 0, alors f
g est continue en x0 .

Théorème 2.20 (Composition de fonctions continues). Soit f : E ⊂ Rn → Rm continue


en x0 ∈ E et g : A ⊂ Rp → Rn continue en y0 ∈ A et telle que x0 = g(y0 ). Alors
h = f ◦ g : B = {y ∈ A : g(y) ∈ E} → Rm est continue en y0 .

Démonstration. Pour toute suite {y(k) }k∈N ⊂ B telle que limk→∞ y(k) = y0 , on a par
la continuité de g que g(y(k) ) −−−→ g(y0 ) = x0 et par la continuité de f en x0 ,
k→∞

f (g(y(k) )) −−−→ f (x0 ). Donc, h(y(k) ) −−−→ f (x0 ) = f (g(y0 )) = h(y0 ) ce qui montre
k→∞ k→∞

la continuité de h en x0 .
36 CHAPITRE 2. FONCTIONS DE PLUSIEURS VARIABLES RÉELLES

2.3 Prolongement de fonctions par continuité


Définition 2.21. Soit f : E ⊂ Rn → Rm et x0 ∈ E\E. Une fonction f̃ : E ∪ {x0 } → Rm
est appelée un prolongement par continuité de f en x0 si f̃ = f sur E et f̃ est continue en
x0 .

Il est facile de vérifier qu’un prolongement f̃ existe si et seulement si limx→x0 f (x)


existe (dans Rm ), auquel cas f̃ est uniquement déterminée par f̃ (x) = f (x), ∀x ∈ E et
f̃ (x0 ) = limx→x0 f (x).

Théorème 2.22. Soit E ⊂ Rn un ensemble non vide et f : E → Rm une fonction continue


sur E. Supposons que, pour tout x ∈ Ē \ E, la limite limy→x f (y) existe. Alors la fonction
f̃ : Ē → Rm définie par f̃ (x) = f (x) si x ∈ E et f̃ (x) = limy→x f (y) si x ∈ Ē \ E est
continue et appelée le prolongement de f par continuité sur E.

Démonstration. Soit x ∈ Ē et prouvons la continuité de f̃ en x à l’aide de suites. Soit donc


une suite {x(k) }k∈N ⊂ Ē qui converge vers x. Remplaçons-la par une suite {y(k) }k∈N ⊂ E
qui converge aussi vers x et telle que limk→+∞ kf (y(k) ) − f̃ (x(k) )k = 0 : si x(k) ∈ E, on
pose y(k) = x(k) et, si x(k) ∈ Ē\E, on choisit y(k) ∈ E tel que

ky(k) − x(k) k ≤ 2−k et kf (y(k) ) − f̃ (x(k) )k ≤ 2−k .

Par définition de f̃ (x), on a limk→+∞ f (y(k) ) = f̃ (x) ; en effet, si x ∈ E, alors f̃ (x) = f (x) et
ceci découle de la continuité de f enx et, si x ∈ Ē\E, ceci découle de la définition de f̃ (x).
Donc limk→+∞ f̃ (x(k) ) = limk→+∞ f̃ (x(k) ) − f (y(k) ) + limk→+∞ f (y(k) ) = f̃ (x).

Le prochain théorème est un résultat important. Il montre que sous l’hypothèse que la
fonction soit uniformément continue sur E, on n’a pas besoin de vérifier l’existence des
limites au bord pour pouvoir prolonger la fonction par continuité. L’hypothèse d’uniforme
continuité est bien plus facile à vérifier que l’existence de la limite en chaque point du
bord. On verra, par exemple, dans le chapitre suivant, que si la fonction est dérivable
sur un ensemble E convexe avec dérivées partielles bornées, alors elle est uniformément
continue sur E.

Théorème 2.23 (Prolongement de fonctions uniformément continues). Soit E ⊂ Rn un


ensemble non vide et f : E → Rm une fonction uniformément continue sur E. Alors f
peut être prolongée par continuité sur E et son prolongement continu f̃ : E → Rm est
uniformément continu.

Démonstration. Vérification que f peut être prolongée par continuité sur E. Il faut vérifier
que limy→x f (x) existe en tout x ∈ E \ E (la limite en x ∈ E existe car f est continue sur
E). Par hypothèse, la fonction f est uniformément continue sur E. Pour tout  > 0, soit
δ > 0 la valeur correspondante dans la définition (2.1) de continuité uniforme.
Pour chaque a ∈ E \ E, choisissons une suite {a(k) }k∈N ⊂ E qui converge vers a. Pour
a ∈ E\E fixé, la suite choisie {a(k) }k∈N est une suite de Cauchy. Il existe donc N = N (δ) tel
que ∀j, k ≥ N ka(j) − a(k) k ≤ δ. Il s’ensuit que, pour tous j, k ≥ N , kf (a(j) ) − f (a(k) )k ≤ .
D’où {f (a(k) )}k∈N est une suite de Cauchy dans Rm , qui admet pour limite un certain
2.4. FONCTIONS CONTINUES SUR UN COMPACT 37

l = limk→∞ f (a(k) ) ∈ Rm . Cette limite ne dépend pas de la suite choisie. En effet, soit
{b(k) }k∈N ⊂ E une autre suite telle que limk→∞ b(k) = a et m = limk→∞ f (b(k) ). Alors
il existe Ñ > N : ∀k ≥ Ñ , km − f (b(k) )k ≤ , kl − f (a(k) )k ≤ , ka(k) − b(k) k ≤ δ. Par
conséquent,

kl − mk ≤ kl − f (a(k) )k + kf (a(k) ) − f (b(k) )k + km − f (b(k) )k ≤ 3

ce qui implique l = m par l’arbitrarité de  et donc la limite limx→a f (x) existe en tout
a ∈ E et f peut être prolongée par continuité. On dénote f̃ le prolongement par continuité
de f .
Vérification que f̃ est uniformément continue sur E. Soit  > 0 et x, y ∈ E tels que kx−
yk ≤ 3δ , où δ = δ() est comme ci-dessus. Introduisons deux suites {x(k) }k∈N , {y(k) }k∈N ⊂ E
qui convergent à x et y, respectivement. Alors, il existe M > 0 tel que, pour tout k ≥ M ,
kx − x(k) k ≤ 3δ et ky − y(k) k ≤ 3δ , d’où kx(k) − y(k) k ≤ kx(k) − xk + kx − yk + ky − y(k) k ≤ δ.
Puisque f̃ est continue sur E on a limk→∞ f (x(k) ) = f̃ (x), limk→∞ f (y(k) ) = f̃ (y) et il
existe M̃ > M tel que, pour tout k ≥ M̃ , kf̃ (x) − f (x(k) )k ≤  et kf̃ (y) − f (y(k) )k ≤ . On
a alors

kf̃ (x) − f̃ (y)k ≤ kf̃ (x) − f (x(k) )k + kf (x(k) ) − f (y(k) )k + kf (y(k) ) − f̃ (y)k ≤ 3.

Ainsi, si x, y ∈ E satisfont kx − yk ≤ 3δ , on a kf̃ (x) − f̃ (y)k ≤ 3, ce qui prouve que f̃ est
uniformément continue sur E.

2.4 Fonctions continues sur un compact


On commence par introduire la notion de fonction bornée et de borne supérieure et
inférieure.
Définition 2.24 (fonction bornée). On dit que f : E ⊂ Rn → R est bornée s’il existe
C > 0 tel que |f (x)| ≤ C, ∀x ∈ E.
Définition 2.25 (bornes supérieure et inférieure). Soit E ⊂ Rn non vide et f : E → R.
— Soit M = supx∈E f (x). Si M < +∞, alors on a f (x) ≤ M, ∀x ∈ E et il existe
une suite {x(k) }k∈N ⊂ E telle que limk→∞ f (x(k) ) = M . On dit que M est la borne
supérieure ou le supremum de f sur E.
— S’il existe xM ∈ E tel que f (xM ) = M , alors on dit que M est le maximum de f
sur E, M = maxx∈E f (x) et f atteint son maximum au point xM . On dit aussi que
xM (pas nécessairement unique) est un point de maximum de f .
— Si M = +∞, on dit que f n’est pas bornée supérieurement.
— On a des définitions du même type pour la borne inférieure ou l’infimum m =
inf x∈E f (x), le minimum m = minx∈E f (x) et un point de minimum xm ∈ E tel que
f (xm ) = m.
Théorème 2.26. Soit E ⊂ Rn un ensemble non vide et compact, et f : E → R une
fonction continue. Alors f est bornée et atteint ses bornes, c’est-à-dire, il existe xM , xm ∈ E
tels que f (xM ) = supx∈E f (x) = maxx∈E f (x) et f (xm ) = inf x∈E f (x) = minx∈E f (x).
38 CHAPITRE 2. FONCTIONS DE PLUSIEURS VARIABLES RÉELLES

Démonstration. Similaire au cas des fonctions f : [a, b] → R sur un intervalle fermé et


borné. Montrons d’abord que f est bornée. Ab absurdo, si f n’était pas bornée, alors
∀k ∈ N, ∃x(k) ∈ E : |f (x(k) )| > k. Puisque E est compact, on peut extraire une sous-suite
{x(kj ) }j∈N qui converge vers un certain x ∈ E. Mais, f étant continue en x, pour tout
 > 0 il existe K ∈ N tel que |f (x(kj ) )| ≤ |f (x)| +  pour tout j > K , ce qui contredit
|f (x(kj ) )| > kj ≥ j, ∀j.
Soit maintenant M = supx∈E f (x). Il existe une suite {x(k) }k∈N ⊂ E telle que
limk→∞ f (x(k) ) = M . A nouveau, on peut extraire une sous-suite {x(kj ) }j∈N qui converge
vers un certain xM ∈ E et, par continuité de f , on a f (xM ) = M , ce qui prouve que
M = supx∈E f (x) = f (xM ) = maxx∈E f (x). Idem pour le minimum.

Théorème 2.27. Soit E ⊂ Rn un ensemble non vide, compact et connexe par arcs, et
f : E → R une fonction continue sur E. Alors f atteint toutes les valeurs entre son
minimum m et maximum M sur E, et Im(f ) = [m, M ].

Démonstration. Puisque E est compact et f : E → R continue, il existe xm et xM t.q.


f (xm ) = minx∈E f (x) et f (xM ) = maxx∈E f (x). Puisque E est connexe par arcs, il existe
un chemin γ(t) = (γ1 (t), . . . , γn (t)) avec γi : [0, 1] → R continues et γ(t) ∈ E, ∀t ∈
[0, 1], γ(0) = xm , γ(1) = xM . Soit g : [0, 1] → R, g(t) = f (γ(t)) = f (γ1 (t), . . . , γn (t)),
qui est continue sur [0, 1] puisqu’elle est la composition de fonctions continues. D’après
le théorème de la valeur intermédiaire d’Analyse I, Im(g) est un intervalle, et il contient
g(0) = m et g(1) = M , et donc tout [m, M ]. D’où

[m, M ] ⊂ Im(g) ⊂ Im(f ) ⊂ [m, M ]

et Im(f ) = [m, M ].

Les deux théorèmes précédents montrent deux propriétés importantes des fonctions
continues, qui se généralisent comme suit aux fonctions à valeurs dans Rm .
Soit f : E → Rm continue et ∅ =6 A ⊂ E ⊂ Rn .
— Si A est compact, alors f (A) ⊂ Rm est aussi compact.
— Si A est connexe (resp. connexe par arcs), alors f (A) est connexe (resp. connexe par
arcs).
On conclut par une propriété importante des fonctions continues sur un compact.

Théorème 2.28 (Cantor-Heine). Soit E ⊂ Rn un ensemble non vide et compact, et


f : E → Rm une fonction continue. Alors f est uniformément continue sur E (théorème
de Cantor-Heine).
Plus généralement, soit un ensemble quelconque E ⊂ Rn , un sous-ensemble non vide
et compact K ⊂ E, et une fonction continue f : E → Rm . Alors
 
∀ > 0 ∃δ = δ() > 0 : ∀x ∈ K ∀y ∈ E kx − yk ≤ δ ⇒ |f (x) − f (y)| ≤ 

(théorème de Cantor-Heine généralisé).


2.4. FONCTIONS CONTINUES SUR UN COMPACT 39

Démonstration. Donnons la preuve de la version générale, le cas particulier K = E non


vide et compact du théorème de Cantor-Heine en découlant. Ab absurdo supposons qu’il
n’est pas vrai que
 
∀ > 0 ∃δ > 0 : ∀x ∈ K ∀y ∈ E kx − yk ≤ δ ⇒ |f (x) − f (y)| ≤  .

Ainsi
 
∃ > 0 : ∀δ > 0 ∃x ∈ K ∃y ∈ E kx − yk ≤ δ et |f (x) − f (y)| >  .

Pour un tel  > 0, considérons δ = 1/k avec k ∈ N∗ : il existe x(k) ∈ K, y(k) ∈ E tels que
1
kx(k) − y(k) k ≤ et kf (x(k) ) − f (y(k) )k > .
k

La suite {x(k) }k∈N∗ étant bornée (puisque K est borné), il existe une sous-suite {x(ki ) }i∈N
qui converge vers un certain x ∈ K puisque K est fermé. On a alors
1
ky(ki ) − xk ≤ ky(ki ) − x(ki ) k + kx(ki ) − xk ≤ + kx(ki ) − xk → 0, si i → ∞.
ki

Ainsi limi→∞ y(ki ) = x. Puisque f est continue sur E on a

lim f (x(ki ) ) = f (x) = lim f (y(ki ) ),


i→∞ i→∞

ce qui contredit kf (x(k) ) − f (y(k) )k >  pour tout k.


40 CHAPITRE 2. FONCTIONS DE PLUSIEURS VARIABLES RÉELLES
Chapitre 3

Dérivabilité

On commence ce chapitre en rappelant la notion de dérivée d’une fonction réelle d’une


seule variable réelle, f : E ⊂ R → R, en un point x0 ∈ E̊ :
f (x0 + h) − f (x0 )
f 0 (x0 ) = lim si la limite existe.
h→0 h
Elle représente le taux d’accroissement de la fonction en x0 . De la définition, il suit
immédiatement qu’il existe δ > 0 tel que ]x0 − δ, x0 + δ[⊂ E et

∀h ∈] − δ, δ[ f (x0 + h) = f (x0 ) + f 0 (x0 )h + o(|h|)

c’est-à-dire,
f (x0 + h) − f (x0 ) = f 0 (x0 )h +o(|h|)
| {z }
application linéaire en h

et l’incrément f (x0 + h) − f (x0 ) est bien approché par une application linéaire en h. Ici
o(|h|) dénote une fonction g définie sur un ouvert contenant 0 (un “voisinage” de 0) et
telle que limh→0 g(h)
h = 0 (voir plus loin pour une définition plus générale). En fait il suffit
de poser g(h) = f (x0 + h) − f (x0 ) − f 0 (x0 )h pour |h| < δ.
On a donc une double interprétation de la notion de dérivée : comme limite du taux
d’accroissement en x0 , ainsi que comme application linéaire approchant localement la
fonction dans un voisinage de x0 (on appelle voisinage de x0 un ouvert contenant x0 ). En
particulier, f dérivable en x0 implique que f est aussi continue en x0 . Dans ce chapitre,
on va généraliser ces deux notions pour des fonctions f : Rn → R ou f : Rn → Rm de
plusieurs variables réelles.

3.1 Dérivées partielles, dérivées directionnelles, différentielle


Définition 3.1. Soit f : E ⊂ Rn → R une fonction de n variables réelles, x0 ∈ E̊ un
point intérieur de E et v un vecteur arbitraire de Rn . On dit que f est dérivable dans la
direction v au point x0 si la limite limt→0 f (x0 +tv)−f
t
(x0 )
existe. Dans ce cas on pose

f (x0 + tv) − f (x0 )


Dv f (x0 ) = lim
t→0 t

41
42 CHAPITRE 3. DÉRIVABILITÉ

Si kvk = 1 pour la norme euclidienne, on appelle Dv f (x0 ) la dérivée directionnelle de


f dans la direction v au point x0 .
Si on définit la fonction f˜(t) = f (x0 + tv) dans un voisinage de 0 (ce qui est toujours
possible car x0 est un point intérieur de E), alors Dv f (x0 ) = f˜0 (0). On peut donc
interpréter la dérivée directionnelle Dv f (x0 ) comme la limite du taux d’accroissement
en suivant la direction v. En particulier, si on prend v = ei , le i-ème vecteur de la base

Figure 3.1 – Interprétation géométrique de dérivée directionnelle pour une fonction f (x, y) de
deux variables réelles

canonique de Rn , alors la dérivée directionnelle correspondante est appelée i-ème dérivée


partielle et est notée
∂f f (x0 + tei ) − f (x0 )
(x0 ) = Dei f (x0 ) = lim .
∂xi t→0 t
Autrement dit, pour x = (x1 , . . . , xn ) ∈ E̊ point intérieur,
∂f f (x1 , . . . , xi + t, . . . , xn ) − f (x1 , . . . , xi , . . . , xn )
(x) = lim ,
∂xi t→0 t
ce qui revient à calculer la dérivée de la fonction xi 7→ f (·, xi , ·) pensée comme une fonction
uniquement de la variable xi , en traitant les autres variables x1 , . . . , xi−1 , xi+1 , . . . , xn
comme des paramètres. Pour cela, on peut donc utiliser les règles de dérivation des fonctions
d’une seule variable réelle.
Définition 3.2 (vecteur gradient). Soit f : E ⊂ Rn → R et x0 un point intérieur de
E. Si toutes les dérivées partielles de f existent en x0 , on appelle matrice jacobienne
Df (x0 ) ∈ Rn×1 (vecteur ligne) le vecteur
h i  
Df (x0 ) = ∂x1 (x0 ), . . . , ∂xn (x0 )
∂f ∂f
= ∂x1 (x0 )
∂f
... ∂xn (x0 )
∂f
3.1. DÉRIVÉES PARTIELLES ET DIRECTIONNELLES ; DIFFÉRENTIELLE 43

et vecteur gradient, noté ∇f (x0 ), son transposé


 ∂f   ∂f 
∂x1 (x0 ) ∂x1 (x0 )
 ..   .. 
∇f (x0 ) = Df (x0 )> = 
 .
=
  .
.

∂xn (x0 ) ∂xn (x0 )
∂f ∂f

Exemple 3.3. Soit f (x, y) = x2 cos y. Alors


" #
∂f ∂f 2x cos y
(x, y) = 2x cos y, (x, y) = −x2 sin y, ∇f (x, y) = .
∂x ∂y −x2 sin y

Une fonction peut avoir des dérivées partielles ou directionnelles en un point x0 sans
pour autant être continue en ce point, comme les exemples suivants le montrent.

Exemple 3.4. Soit f : R2 → R donnée par


( xy
x2 +y 2
, (x, y) 6= (0, 0)
f (x, y) =
0, (x, y) = (0, 0).

Alors,

∂f f (t, 0) − f (0, 0) ∂f f (0, t) − f (0, 0)


(0, 0) = lim = 0, (0, 0) = lim =0
∂x t→0 t ∂y t→0 t

1
mais f n’est pas continue en (0, 0). En effet, on a limt→0 f (t, t) = limt→0 t2
2t2
= 2 6= 0.
Pour cette fonction, les autres dérivées directionnelles n’existent pas :

f (tv1 , tv2 ) − f (0, 0) t2 v1 v2 v1 v2


lim = lim 3 2 2 = lim
t→0 t t→0 t (v1 + v2 ) t→0 t(v12 + v22 )

n’existe pas si v1 v2 6= 0 (ici v = (v1 , v2 ) ∈ R2 , kvk = 1 pour la norme euclidienne)

Exemple 3.5. Soit f : R2 → R donnée par



 xy2 , si (x, y) 6= (0, 0)
f (x, y) = x +y
2 4

0, si (x, y) = (0, 0).

Toutes les dérivées directionnelles existent. En effet,


 2
v1 v22  v2 , si v1 6= 0,
Dv f (0, 0) = lim 2 = v1
t→0 v1 + t2 v24 0, si v1 = 0.

1
Toutefois, f n’est pas continue en (0, 0) car limt→0 f (t2 , t) = 2 6= f (0, 0).
44 CHAPITRE 3. DÉRIVABILITÉ

Comme l’exemple précédent le montre, la notion de dérivée partielle est trop faible et
n’implique pas la continuité de la fonction. Si on veut introduire une notion de dérivabilité
qui permet d’approcher une fonction au voisinage de x0 par une fonction affine, on a besoin
d’une définition de dérivée plus forte. On rappelle qu’une application linéaire L : Rn → Rm
est telle que L(αx + βy) = αL(x) + βL(y), ∀x, y ∈ Rn et ∀α, β ∈ R. Elle peut être
représentée par la matrice A ∈ Rm×n (m lignes et n colonnes) telle que L(ei ) est la ième
colonne de A, où {ei }ni=1 est la base canonique de Rn , de telle sorte que L(x) = A · x = Ax,
∀x ∈ Rn (produit matriciel entre une matrice m × n et un vecteur colonne dans Rn ). Le
produit matriciel Ax ∈ Rm donne dans cette formule un vecteur colonne.
Définition 3.6 (Dérivabilité et différentielle). Soit f : E ⊂ Rn → R et x0 un point
intérieur de E. On dit que f est différentiable (ou dérivable) en x0 s’il existe une application
linéaire L : Rn → R et une fonction g : E → R tels que
g(x)
∀x ∈ E f (x) = f (x0 ) + L(x − x0 ) + g(x), et lim = 0.
x→x0 kx − x0 k

L’application linéaire L est alors appelée la différentielle de f en x0 .


On remarque que la fonction g satisfait nécessairement g(x0 ) = 0 et est continue en x0 .
Notation. Pour p ≥ 0, on utilise souvent la notation g(x) = o(kx − x0 kp ) pour indiquer
une fonction g définie au moins sur B(x0 , δ)\{x0 } pour un certain δ > 0 et telle que
limx→x0 kx−x
g(x)
0k
p = 0.

Avec la notation o(·), dans la définition 3.6 on peut ainsi écrire f (x) = f (x0 ) + L(x −
x0 ) + o(kx − x0 k) sur E (ici p = 1 et g est définie sur E).
Le théorème suivant met en relation l’application linéaire L de la définition précédente
avec la matrice jacobienne (ou bien le gradient) de f en x0 et montre aussi que la
différentielle de f en x0 , si elle existe, est unique.
Théorème 3.7. Soit f : E → R différentiable en x0 ∈ E̊. Alors, toutes les dérivées
partielles de f existent en x0 et la différentielle de f en x0 est unique, donnée par
L(x − x0 ) = Df (x0 ) · (x − x0 ) = Df (x0 )(x − x0 )
(produit matriciel entre un vecteur ligne et un vecteur colonne), ce qui s’écrit aussi
L(x − x0 ) = ∇f (x0 )> · (x − x0 ) = ∇f (x0 )> (x − x0 ) (produit matriciel). On peut aussi
utiliser le produit scalaire usuel entre deux vecteurs colonnes : L(x − x0 ) = ∇f (x0 ) · (x − x0 )
(produit scalaire). De plus, f est continue en x0 .
P
Démonstration. On note ai = L(ei ) de sorte que L(x − x0 ) = ni=1 ai (xi − x0i ). Par
définition de la différentiabilité en x0 , on a f (x0 + tei ) = f (x0 ) + tL(ei ) + g(x0 + tei ) et,
si on note xt = x0 + tei ,
∂f f (x0 + tei ) − f (x0 )
(x0 ) = lim
∂xi t→0 t
g(x0 + tei )
= L(ei ) + lim
t→0 t
sign(t)g(xt )
= L(ei ) + lim = ai ,
t→0 kxt − x0 k
| {z }
=0
3.1. DÉRIVÉES PARTIELLES ET DIRECTIONNELLES ; DIFFÉRENTIELLE 45

donc toutes les dérivées partielles existent et L(x − x0 ) = Df (x0 ) · (x − x0 ). De plus, on a


n
X ∂f
lim f (x) = f (x0 ) + lim (x0 )(xi − x0i ) + lim g(x) = f (x0 ),
x→x0
i=1 |
x→x0 ∂xi x→x0
| {z }
{z }
=0 =0

ce qui montre que f est continue en x0 .

Une conséquence immédiate du théorème précédent est que, si f : E ⊂ Rn → R est


différentiable en x0 ∈ E̊, alors toutes les dérivées directionnelles existent et Dv f (x0 ) =
Df (x0 ) · v = ∇f (x0 )> v (produit matriciel). En effet,
f (x0 + tv) − f (x0 ) g(x0 + tv)
Dv f (x0 ) = lim = L(v) + lim = L(v) = ∇f (x0 )> v.
t→0 t t→0
| {z t }
=0

En particulier, Dv f (x0 ) est dans ce cas une application linéaire en v. On a de plus, pour
la norme euclidienne,

k∇f (x0 )k = maxn ∇f (x0 )> v = maxn Dv f (x0 ),


v∈R v∈R
kvk=1 kvk=1

∇f (x0 )
le maximum étant atteint en v = k∇f (x0 )k si ∇f (x0 ) n’est pas nul. S’il n’est pas nul, le
vecteur gradient donne donc la direction de croissance maximale pour la fonction f . On a
aussi que toute direction w ⊥ ∇f (x0 ) est une direction de croissance nulle.
Exemple 3.8. Considérons la fonction f : R2 → R, f (x, y) = x2 + y 2 . Son gradient
est donné par ∇f (x, y) = (2x, 2y)> . En (x, y) ∈ R2 \{(0, 0)}, la direction de croissance
 >
∇f (x,y)
maximale est v = k∇f (x,y)k = √ x
, √ y
(norme euclidienne normalisée à 1 ici),
x2 +y 2 x2 +y 2
 >
∇f (x,y)
la direction de croissance minimale est v = − k∇f (x,y)k = −
√ x
, √ y
, tandis
x2 +y 2 x2 +y 2
 >
que la direction de croissance nulle est w = ± − √ y
, √ x
.
x2 +y 2 x2 +y 2

Enfin, si f est différentiable en x0 , on peut construir l’hyperplan tangent au graphe de


f en (x0 , f (x0 )), ainsi qu’un vecteur normal au graphe de f en (x0 , f (x0 )).
Définition 3.9. Soit f : E ⊂ Rn → R différentiable en x0 ∈ E̊ et notons y0 = f (x0 ) et
Gf = {(x, y) ∈ Rn+1 : x ∈ E, y = f (x)} le graphe de f . On définit l’hyperplan tangent
à Gf en (x0 , y0 ) comme le sous-ensemble de Rn+1

Π(x0 ,y0 ) (Gf ) = {(x, y) ∈ Rn+1 : y = y0 + ∇f (x0 )> (x − x0 )}

Le vecteur
 >
1 ∂f ∂f
n= p − (x0 ), · · · , − (x0 ), 1 ⊂ Rn+1
1 + k∇f (x0 )k2 ∂x1 ∂xn
est un vecteur normal au graphe de f en (x0 , y0 ).
46 CHAPITRE 3. DÉRIVABILITÉ

En effet, on vérifie facilement que le vecteur n est normal à l’hyperplan tangent


Π(x0 ,y0 ) (Gf ) en (x0 , y0 ), c’est-à-dire, il satisfait

n · ((x, y) − (x0 , y0 )) = 0, ∀(x, y) ∈ Π(x0 ,y0 ) (Gf ).

De plus n est de norme euclidienne 1, comme d’ailleurs −n.


Les définitions de différentiabilité et dérivées partielles/directionnelles s’étendent sans
difficultés aux fonctions à valeurs dans Rm .

Définition 3.10. Soit f : E ⊂ Rn → Rm ,


   
f1 (x)
 .   f1 (x) 
f (x) = (f1 (x), . . . , fm (x)) = 
>
 ..  =  . . .  ,

fm (x) fm (x)

noté aussi sous forme ligne (nous préciserons si nécessaire)

h i  
f (x) = (f1 (x), . . . , fm (x)) = f1 (x) . . . fm (x) = f1 (x) . . . fm (x) ,

et soit x0 ∈ E̊. On appelle dérivée partielle de la i-ème composante de f par rapport à la


j-ème variable en x0 , notée ∂x
∂fi
j
(x0 ), la quantité

∂fi fi (x0 + tej ) − fi (x0 )


(x0 ) = lim ,
∂xj t→0 t

si la limite existe, et matrice jacobienne de f en x0 la matrice Df (x0 ) ∈ Rm×n de


composantes (Df (x0 ))ij = ∂x
∂fi
j
(x0 ), autrement dit,
 ∂f1   ∂f1 
∂x1 (x0 ) ∂x2 (x0 ) ∂xn (x0 ) ∂x1 (x0 ) ∂x2 (x0 ) ∂xn (x0 )
∂f1 ∂f1 ∂f1 ∂f1
··· ···
   
 ..   .. 
 ∂f2 (x ) .   ∂f2 (x ) . 
 ∂x1 0   ∂x1 0 
Df (x0 ) = 

=
 
,

 .. ..   .. .. 
 . .   . . 
   
∂x1 (x0 ) ∂xn (x0 ) ∂x1 (x0 ) ∂xn (x0 )
∂fm ∂fm ∂fm ∂fm
··· ··· ··· ···

si toutes les dérivées partielles existent.

De façon similaire, on introduit la notion de différentiabilité.

Définition 3.11. On dit que f : E ⊂ Rn → Rm est différentiable (ou dérivable) en x0 ∈ E̊


s’il existe une application linéaire L : Rn → Rm et une fonction g : E → Rm telles que

∀x ∈ E f (x) = f (x0 ) + L(x − x0 ) + g(x)

et g(x) = o(kx − x0 k), c.-à-d. limx→x0 kg(x)k


kx−x0 k = 0.
3.1. DÉRIVÉES PARTIELLES ET DIRECTIONNELLES ; DIFFÉRENTIELLE 47

Si plus généralement kg(x)k = o(kx − x0 kp ) dans le sens déjà introduit, on notera


simplement g(x) = o(kx − x0 kp ). Si f est différentiable en x0 , alors toutes les dérivées
partielles et directionnelles existent, et f est continue en x0 . De plus, l’application linéaire
L est unique et donnée par
m X
X n
∂fi
L(x − x0 ) = (x0 )(xj − x0j )ei
i=1 j=1
∂xj

où ei est le ième vecteur de la base canonique de Rm . Ceci s’écrit aussi

L(x − x0 ) = Df (x0 ) · (x − x0 ) = Df (x0 )(x − x0 ),

où intervient ici le produit matriciel entre une matrice Rm×n et un vecteur colonne dans
Rn , ce qui donne un vecteur colonne dans Rm . La dérivée de f dans la direction v au point
x0 , v 7→ Dv f (x0 ) = L(v) = Df (x0 )v, est linéaire en v ∈ Rn (si f est différentiable en x0 ).
La condition de différentiabilité d’une fonction f : E ⊂ Rn → R (ou f : Rn → Rm )
n’est pas immédiate à vérifier. Heureusement, on a une condition suffisante, facile à vérifier,
qui nous permet de conclure si f est différentiable en x0 ∈ E̊. On donne ici la version du
résultat pour une fonction à valeurs dans R mais le résultat se généralise sans difficulté au
cas d’une fonction à valeurs dans Rm .

Théorème 3.12. Soit f : E ⊂ Rn → R et x0 ∈ E̊. S’il existe δ > 0 tel que B(x0 , δ) ⊂ E
∂f
et les dérivées partielles ∂x i
(x) existent pour tout x ∈ B(x0 , δ) et sont continues en x0 ,
alors f est différentiable en x0 .

Démonstration. On utilise la norme euclidienne et, pour alléger la notation, on renomme


x0 = a = (a1 , . . . , an ). Pour un x = (x1 , . . . , xn ) ∈ B(a, δ) donné, on introduit la notation
xk = (x1 , . . . , xk , ak+1 , . . . , an ) de sorte que xn = x et x0 = a. Alors, la différence
f (x) − f (a) peut être écrite comme somme télescopique
n
X
f (x) − f (a) = (f (xk ) − f (xk−1 )).
k=1

Par le théorème des accroissements finis on a que ∀k = 1, . . . , n, il existe un θk ∈]0, 1[ tel


que

f (xk ) − f (xk−1 ) = f (x1 , . . . , xk−1 , xk , ak+1 , . . . , an ) − f (x1 , . . . , xk−1 , ak , ak+1 , . . . , an )


∂f
= (x1 , . . . , xk−1 , ak + θk (xk − ak ), ak+1 , . . . , an )(xk − ak )
∂xk
∂f k−1
= (x + θk (xk − xk−1 ))(xk − ak ).
∂xk

Puisque les dérivées partielles sont continues en a, on a que

∂f k−1 ∂f
gk (x) := (x + θk (xk − xk−1 )) − (a) −−−→ 0.
x→a
∂xk ∂xk
48 CHAPITRE 3. DÉRIVABILITÉ

En effet, la continuité de ∂f
∂xk en a implique que

∂f ∂f
∀ > 0 ∃δe ∈]0, δ/2] : ∀y ∈ B(a, 2δ)
e (y) − (a) < ,
∂xk ∂xk

et de plus, pour y(x) = xk−1 + θk (xk − xk−1 ) avec 1 ≤ k ≤ n, on a

ky(x) − ak = k(1 − θk )(xk−1 − a) + θk (xk − a)k ≤ kxk−1 − ak + kxk − ak ≤ 2kx − ak

et donc

e |g (x)| = ∂f (y(x)) − ∂f (a) < ,


∀ > 0 ∃δe ∈]0, δ/2] : ∀x ∈ B(a, δ) k
∂xk ∂xk

ce qui montre que limx→a gk (x) = 0 pour tout k = 1, . . . , n. Ainsi,


n
X
f (x) − f (a) = (f (xk ) − f (xk−1 ))
k=1
Xn
∂f k−1
= (x + θk (xk − xk−1 ))(xk − ak )
k=1
∂xk
n 
X 
∂f
= (a)(xk − ak ) + gk (x)(xk − ak )
k=1
∂xk
= Df (a) · (x − a) + g(x)
Pn
(produit matriciel entre un vecteur ligne et un vecteur colonne), avec g(x) = k=1 gk (x)(xk −
Pn 1
ak ). Par l’inégalité de Cauchy-Schwarz, on a |g(x)| ≤ k=1 gk (x)2 2 kx − ak et donc
v
n u
|g(x)| uX
lim ≤ lim t gk (x)2 = 0
x→a kx − ak x→a
k=1

ce qui montre que g(x) = o(kx − ak).

3.1.1 L’espace C 1
Le théorème 3.12 montre que si toutes les dérivées partielles existent dans un voisinage
d’un point intérieur x0 et sont continues en x0 , alors la fonction est différentiable (et
continue) en x0 et donc toutes les dérivées directionnelles existent en x0 .

Définition 3.13 (Espace C 1 ). Soit E ⊂ Rn ouvert non vide. On dit que f : E → R est
continûment différentiable sur E si toutes les dérivées partielles ∂x ∂f
i
pour i = 1, . . . , n,
existent et sont continues en tout point x ∈ E. Dans ce cas on note f ∈ C 1 (E) (f est de
classe C 1 ). De même, on dit que f : E → Rm est de classe C 1 , f ∈ C 1 (E, Rm ), si chaque
composante de f = (f1 , . . . , fm ) satisfait fk ∈ C 1 (E), k = 1, . . . , m.
3.2. DÉRIVATION DE FONCTIONS COMPOSÉES 49

Grâce au théorème 3.12, si f ∈ C 1 (E) alors f est différentiable en tout point x0 ∈ E


(E étant ouvert) et donc elle est aussi continue, c’est-à-dire f ∈ C 1 (E) ⇒ f ∈ C 0 (E) ;
de même, on a C 1 (E, Rm ) ⊂ C 0 (E, Rm ). De plus, toutes les dérivées directionnelles Dv f
existent et sont continues sur E.
On vérifie facilement que C 1 (E) a une structure d’espace vectoriel réel. En effet, pour
tous f, g ∈ C 1 (E) et toutes constantes λ, µ ∈ R on a λf + µg ∈ C 1 (E). On vérifie aussi
facilement les règles de dérivation suivantes : Soit E ⊂ Rn ouvert, f, g ∈ C 1 (E) et des
constantes λ, µ ∈ R. Alors

i) λf + µg ∈ C 1 (E), D(λf + µg)(x) = λDf (x) + µDg(x), ∀x ∈ E,


1
ii) f g ∈ C (E), D(f g)(x) = Df (x)g(x) + f (x)Dg(x), ∀x ∈ E.

3.2 Dérivation de fonctions composées


Soit f : E ⊂ Rn → Rm et g : F ⊂ Rm → Rp avec E, F ouverts non vides. Si Im(f ) ⊂ F ,
on peut définir la fonction composée

ϕ = g ◦ f : E → Rp , ϕ(x) = g(f (x)), ∀x ∈ E.

Par composantes :

x = (x1 , . . . , xn ), f (x) = (f1 (x1 , . . . , xn ), . . . , fm (x1 , . . . , xn )),


y = (y1 , . . . , ym ), g(y) = (g1 (y1 , . . . , ym ), . . . , gp (y1 , . . . , ym )),
 
ϕ(x) = g1 (f1 (x), . . . , fm (x)) , . . . , gp (f1 (x), . . . , fm (x)) .

Théorème 3.14. Soient f : E ⊂ Rn → Rm , g : F ⊂ Rm → Rp ; E, F des ouverts


contenant respectivement x0 et y0 ; Im(f ) ⊂ F et y0 = f (x0 ). Si f est différentiable en x0
et g est différentiable en y0 , alors ϕ = g ◦ f : E → Rp est différentiable en x0 et

Dϕ(x0 ) = Dg(f (x0 )) · Df (x0 ) = Dg(f (x0 ))Df (x0 ).

(produit matriciel des matrices jacobiennes). Par composantes on a :

Xm
∂ϕi ∂gi ∂fk
∀i ∈ {1, . . . , p} ∀j ∈ {1, . . . , n} (x0 ) = (f (x0 )) (x0 ).
∂xj k=1
∂yk ∂xj

Si de plus f ∈ C 1 (E, Rm ) et g ∈ C 1 (F, Rp ) alors ϕ ∈ C 1 (E, Rp ).

Démonstration. Par hypothèse on a

Rf (x)
f (x) = f (x0 ) + Df (x0 ) · (x − x0 ) + Rf (x), lim = 0,
x→x0 kx − x0 k
Rg (y)
g(y) = g(y0 ) + Dg(y0 ) · (y − y0 ) + Rg (y), lim = 0.
y→y0 ky − y0 k
50 CHAPITRE 3. DÉRIVABILITÉ

On écrit

Rf (x) = kx − x0 krf (x) avec lim rf (x) = 0 et rf (x0 ) := 0,


x→x0
Rg (y) = ky − y0 krg (y) avec lim rg (y) = 0 et rg (y0 ) := 0.
y→y0

On veut montrer qu’il existe une application linéaire Lϕ : Rn → Rp et une fonction


Rϕ : E → Rp telles que

Rϕ (x)
ϕ(x) = ϕ(x0 ) + Lϕ (x − x0 ) + Rϕ (x) et lim = 0.
x→x0 kx − x0 k

On a :
h(x)
 z }| {
ϕ(x) = g(f (x)) = g f (x0 ) + Df (x0 ) · (x − x0 ) + kx − x0 krf (x)
= g(y0 ) + Dg(y0 ) · h(x) + kh(x)krg (f (x))
= g(y0 ) + Dg(y0 ) · Df (x0 ) · (x − x0 ) + kx − x0 kDg(y0 ) · rf (x) + kh(x)krg (f (x)) .
| {z } | {z }
A(x) B(x)

Rϕ (x)
Il faut montrer que Rϕ (x) := A(x) + B(x) satisfait limx→x0 kx−x0 k = 0. Pour A(x) on a

kA(x)k
lim = lim kDg(y0 ) · rf (x)k ≤ |||Dg(y0 )||| lim krf (x)k = 0,
x→x0 kx − x0 k x→x0 x→x0

où on a noté |||C||| la norme matricielle |||C||| = sup y∈Rm kCyk


kyk < +∞ pour C ∈ Rp×m (et
y6=0
on utilise finalement le théorème des deux gendarmes).
Pour B(x) on a pour tout x0 6= x ∈ E

kB(x)k kh(x)k
= krg (f (x))k
kx − x0 k kx − x0 k
kDf (x0 ) · (x − x0 )k + kx − x0 kkrf (x)k
≤ krg (f (x))k
kx − x0 k
≤ (|||Df (x0 )||| + krf (x)k)krg (f (x))k

Puisque f est continue en x0 et rg en y0 = f (x0 ), la composée rg ◦ f est continue en x0 .


D’où limx→x0 rg (f (x)) = rg (f (x0 )) = rg (y0 ) = 0. D’autre part limx→x0 rf (x) = 0 (par
hypothèse) et on conclut que

kB(x)k
lim ≤ (|||Df (x0 )||| + lim krf (x)k) lim krg (f (x))k = 0.
x→x0 kx − x0 k x→x0 x→x0

On a donc montré que

Rϕ (x)
ϕ(x) = ϕ(x0 ) + Dg(f (x0 )) · Df (x0 ) · (x − x0 ) + Rϕ (x) où lim = 0.
x→x0 kx − x0 k
3.2. DÉRIVATION DE FONCTIONS COMPOSÉES 51

On conclut donc que ϕ est différentiable en x0 et


Dϕ(x0 ) = Dg(f (x0 )) · Df (x0 ).
Si maintenant f ∈ C 1 (E, Rm ) et g ∈ C 1 (F, Rp ), alors chaque composante des matrices
Df (x) et Dg(y) est une fonction continue de x (resp. y) et Dϕ(x) = Dg(f (x)) · Df (x)
est continue en x pour tout x ∈ E. Donc ϕ ∈ C 1 (E, Rp ).

Remarque 3.15. Dans cette preuve, on a utilisé la norme matricielle |||C||| = sup y∈Rm kCyk
kyk <
y6=0
+∞ pour C ∈ Rp×m . C’est effectivement une norme sur l’espace vectoriel des matrices
R p×m , appelée plus spécifiquement la norme “spectrale”. Il y a d’autres normes matricielles
possibles sur Rp×m .
Exemple 3.16. Soient f : R2 → R3 et g : R3 → R2 donnés par
 
xy " #
  u+w
f (x, y) = x + 2y  , g(u, v, w) = ,
v2
sin x
avec matrices jacobiennes
 
y x " #
1 0 1
2  ∈ R3×2 , ∈ R2×3 .
 
Df (x, y) =  1 Dg(u, v, w) =
0 2v 0
cos x 0
Alors, " #
xy + sin x
ϕ(x, y) = g ◦ f (x, y) = : R2 → R2
(x + 2y)2
et
 
" # y x " #
y + cos x x 1 0 1  
Dϕ(x, y) = = Dg(f (x, y))·Df (x, y) =  1 2 .
2(x + 2y) 4(x + 2y) 0 2v 0
v=x+2y cos x 0

Un cas particulier du théorème 3.14 est celui de la composition d’une fonction f : E ⊂


Rn → R, de classe C 1 sur l’ouvert non vide E et un chemin dans E, γ : I ⊂ R → E, I
ouvert non vide et t 7→ γ(t) = (γ1 (t), . . . , γn (t)), avec γi ∈ C 1 (I), ∀i = 1, . . . , n. Dans ce
cas, la fonction composée ϕ = f ◦ γ : I → R, t 7→ ϕ(t) = f (γ1 (t), . . . , γn (t)) est dérivable
sur I, ϕ ∈ C 1 (I) et
d
ϕ(t) = Df (γ(t)) · Dγ(t)
dt  
γ̇ (t)
h i 1 
= ∂x1 (γ(t)),
∂f
..., ∂f
∂xn (γ(t))  ... 


γ̇n (t)
n
X ∂f
= (γ(t))γ̇i (t).
i=1
∂xi

La quantité d
dt ϕ(t) = dt f (γ1 (t), . . . , γn (t))
d
est appelée la dérivée totale de f le long du
chemin γ(t).
52 CHAPITRE 3. DÉRIVABILITÉ

3.3 Théorème des accroissements finis


On rappelle d’abord le théorème des accroissements finis pour une fonction réelle d’une
seule variable réelle : soit f : [a, b] → R continue et dérivable sur ]a, b[, alors il existe
c ∈ ]a, b[ tel que f (b) − f (a) = f 0 (c)(b − a). On vise à généraliser ce résultat pour des
fonctions f : U ⊂ Rn → R ou f : U ⊂ Rn → Rm de plusieurs variables réelles.
On introduit la notation suivante : pour x, y ∈ Rn , x 6= y, on note [x, y] le segment
fermé d’origine x et d’extrémité y : [x, y] = {z ∈ Rn : z = x + t(y − x), t ∈ [0, 1]} et par
]x, y[ le segment “ouvert” ]x, y[ = {z ∈ Rn : z = x + t(y − x), t ∈ ]0, 1[} (si n ≥ 2, ]x, y[
n’est ni ouvert ni fermé). Lorsque x = y, on pose [x, x] = {x}.

Théorème 3.17. Soit E ⊂ Rn un ouvert non vide et f : E → R une fonction dérivable


sur E. Si x, y ∈ E distincts sont tels que [x, y] ⊂ E, alors il existe z ∈ ]x, y[, tel que

f (y) − f (x) = Df (z) · (y − x)

(produit matriciel entre un vecteur ligne et un vecteur colonne).

Démonstration. On pose g(t) = f (x + t(y − x)) avec t ∈ [0, 1]. Alors g est continue sur
[0, 1] et dérivable sur ]0, 1[, car composée de fonctions dérivables : g(t) = f (v(t)), où
v(t) = x + t(y − x). Par la règle de dérivation d’une composée, g 0 (t) = Df (v(t)) · v0 (t) =
Df (x + t(y − x)) · (y − x) . Par le théorème des accroissements finis pour des fonctions
d’une seule variable, il existe θ ∈ ]0, 1[ t.q. g(1) − g(0) = g 0 (θ) ce qui équivaut à

f (y) − f (x) = Df (x + θ(y − x)) · (y − x), θ ∈ ]0, 1[


= Df (z) · (y − x), z = x + θ(y − x) ∈ ]x, y[.

Dans la démonstration ci-dessus on a g 0 (t) = Df (x + t(y − x)) · (y − x).


R1 0
Si on suppose,
1 1
maintenant, que f est de classe C , on a g ∈ C (]0, 1[) et g(1) − g(0) = 0 g (t)dt. On en
déduit Z 1
f (y) − f (x) = Df (x + t(y − x)) · (y − x)dt. (3.1)
0

Considérons maintenant une fonction f : E ⊂ Rn → Rm avec E ouvert non vide et f


dérivable sur E. L’analogue du théorème des accroissements finis pour une telle fonction
vectorielle est en défaut ! En fait, on peut appliquer le théorème à chaque composante
fk , k = 1, . . . , m de f . Donc il existe zk ∈ ]x, y[, k = 1, . . . , m tels que

fk (y) − fk (x) = Dfk (zk ) · (y − x).

Toutefois, on n’a aucune garantie que les zk coïncident. On ne peut donc pas trouver, en
général, un seul z pour lequel f (y) − f (x) = Df (z) · (y − x) (produit matriciel entre une
matrice m × n et un vecteur colonne dans Rn , ce qui donne un vecteur colonne dans Rm ).
Néanmoins, la formule (3.1) se généralise pour toute fonction vectorielle f : E ⊂ Rn → Rm
de classe C 1 .
3.3. THÉORÈME DES ACCROISSEMENTS FINIS 53

Lemme 3.18. Soit f : E ⊂ Rn → Rm de classe C 1 sur E ouvert non vide et x, y ∈ E


tels que [x, y] ⊂ E. Alors
Z 1
f (y) − f (x) = Df (x + t(y − x)) · (y − x)dt.
0

Ici l’intégrale d’une fonction continue [0, 1] → Rm est comprise comme le vecteur dans
Rm obtenu en prenant l’intégrale de chaque composante (chaque composante étant une
fonction continue [0, 1] → R).
Le Lemme précédent, demande que la fonction f soit de classe C 1 sur E. On peut
obtenir une version faible du théorème des accroissements finis qui demande uniquement
que les dérivées partielles existent et soient bornées sur le segment [x, y].

Lemme 3.19. Soit f : E ⊂ Rn → Rm dérivable sur E ouvert non vide et x, y ∈ E


distincts tels que [x, y] ∈ E. S’il existe M > 0 tel que |||Df (z)||| ≤ M, ∀z ∈]x, y[, alors

kf (y) − f (x)k ≤ M ky − xk.

Démonstration. Le résultat est évident si f (y) − f (x) = 0. Supposons donc f (y) − f (x) 6= 0
et considérons f (u) comme un vecteur colonne, u ∈ E. Soit un vecteur ligne w ∈ Rm fixé
et considérons la fonction fw : E → R définie par fw (u) = wf (u) pour u ∈ E, où apparaît
le produit matriciel entre w et f (u). On sait alors qu’il existe z ∈]x, y[ (qui peut dépendre
de w) tel que fw (y) − fw (x) = Dfw (z)(y − x), c’est-à-dire

w(f (y) − f (x)) = wDf (z)(y − x).

Choisissons w = (f (y) − f (x))> , ce qui donne

kf (y) − f (x)k2 = wDf (z)(y − x) ≤ kwk kDf (z)(y − x)k

≤ kwk |||Df (z)|||ky − xk ≤ kf (y) − f (x)k M ky − xk,


et donc kf (y) − f (x)k ≤ M ky − xk.
54 CHAPITRE 3. DÉRIVABILITÉ
Chapitre 4

Dérivées d’ordres supérieurs

4.1 Dérivées secondes


Soit E ⊂ Rn ouvert, une fonction f : E → R et un indice j ∈ {1, . . . , n} fixé, tels que
∂xj (x)
∂f
existe en tout x ∈ E. On considère maintenant la fonction ∂x ∂f
j
: E → R et soit
k ∈ {1, . . . , n} fixé. Si cette fonction admet une dérivée
  partielle par rapport à xk en tout
∂f

x ∈ E, on peut définir la dérivée partielle seconde : E → R. On utilise la notation
∂xj

  ∂xk  
∂f ∂f
∂ ∂
∂xk ∂xj (x) := (x). Pour k = j on utilise la notation (x) = (x).
∂2f ∂xj ∂2f ∂xj
∂xk ∂x2j ∂xj

Définition 4.1 (espace C 2 (E)). Soit E ⊂ Rn ouvert non vide. On dit que f : E → R est
de classe C 2 , f ∈ C 2 (E), si toutes les dérivées partielles secondes ∂x∂i ∂x : E → R, i, j =
2f

j
1, . . . , n existent et sont continues sur E.
Définition 4.2 (matrice hessienne). Soit E ⊂ Rn ouvert non vide et f : E → R telle que
: E → R, i, j = 1, . . . , n existent. On appelle
2f
toutes les dérivées partielles secondes ∂x∂i ∂x j
matrice hessienne de f en x ∈ E la matrice Hf (x) ∈ Rn×n :
 ∂2f 
2 (x) ∂x1 ∂x2 (x) ∂x1 ∂xn (x)
∂2f ∂2f
...
 ∂x1 
 .. .. 
Hf (x) =  . . 
 
∂xn ∂x1 (x) (x)
∂2f ∂2f
··· ··· ∂x2
n
 ∂2f 
2 (x) ∂x1 ∂x2 (x) ∂x1 ∂xn (x)
∂2f ∂2f
...
 ∂x1 
 .. .. 
= . . .
 
∂xn ∂x1 (x) (x)
∂2f ∂2f
··· ··· ∂x2
n

On peut aussi définir les dérivées directionnelles mixtes : soit f : E → R différentiable


sur E et Dv f (x) = ∇f (x)> v la dérivée directionnelle de f dans la direction fixée v ∈
Rn , kvk = 1 (norme euclidienne). Si Dv f : E → R admet une dérivée directionnelle dans
la direction fixée w en tout point x ∈ E, on note
2
Dwv f (x) = Dw (Dv f )(x)

55
56 CHAPITRE 4. DÉRIVÉES D’ORDRES SUPÉRIEURS

la dérivée directionnelle mixte.


Lemme 4.3. Soit f ∈ C 2 (E), E ⊂ Rn ouvert non vide et v, w ∈ Rn , kvk = kwk = 1.
Alors
2
Dwv f (x) = w> Hf (x)v,
où il y a deux produits matriciels, et v et w sont des vecteurs colonnes. Ceci s’écrit aussi

2
n
X ∂2f
Dwv f (x) = (x)vj wi .
i,j=1
∂xi ∂xj

Démonstration. Puisque f ∈ C 2 (E), toutes les dérivées partielles ∂f


∂xj , j = 1, . . . , n sont
Pn
continues sur E et f est différentiable sur E. Donc Dv f (x) = Df (x) · v = j=1 ∂xj (x)vj
∂f

∂(Dv f )
et Dv f : E → R est continue. De plus, ses dérivées partielles ∂xi , i = 1, . . . , n existent
et sont continues sur E car
P 
n ∂f
∂(Dv f ) ∂ j=1 ∂xj vj
n
X ∂2f
= = vj
∂xi ∂xi j=1
∂xi ∂xj

et ∂2f
∂xi ∂xj ∈ C 0 (E) pour tout i, j = 1, . . . , n puisque f ∈ C 2 (E). Donc Dv f ∈ C 1 (E) et
n
X ∂(Dv f ) n
X ∂2f
Dw (Dv f )(x) = (x)wi = (x)vj wi = w> Hf (x)v.
i=1
∂xi i,j=1
∂xi ∂xj

Exemple 4.4. Soit f : R2 √ → R, (x, y) 7→ f (x, y) = x2 y, et considérons les deux directions


v = ( √12 , √12 ) et w = ( 21 , − 23 ). On a

∂f ∂f
(x, y) = 2xy, (x, y) = x2 ,
∂x ∂y
∂2f ∂2f ∂2f ∂2f
(x, y) = 2y, (x, y) = 2x, (x, y) = 2x, (x, y) = 0.
∂x2 ∂y∂x ∂x∂y ∂y 2
Donc " #
2 2y 2x
Df (x, y) = (2xy, x ), Hf (x, y) =
2x 0
et
" #" 1 #
2
h √ i 2y 2x √
2 1 √
Dwv f (x, y) = w Hf (x, y)v =
> 1
− 3
√1
= √ (x(1 − 3) + y).
2 2 2x 0 2 2
2 f (x, y) = D 2 f (x, y) puisque H est symétrique.
On remarque de plus que Dwv vw f

Dans l’exemple précédent on a ∂2f


∂x∂y = ∂y∂x .
∂2f
Sous des conditions assez générales, on
aura toujours ∂2f
∂xi ∂xj = ∂2f
∂xj ∂xi , i, j = 1, . . . , n. Ceci est garanti par l’important résultat
suivant :
4.1. DÉRIVÉES SECONDES 57

Théorème 4.5 (de Schwarz). Soit deux indices fixés i, j ∈ {1, . . . , n}, E ⊂ Rn ouvert
non vide avec n ≥ 2, x ∈ E fixé et f : E → R telle que ∂x
∂f ∂f
i
, ∂x j
, ∂2f
∂x i ∂x j
, ∂2f
∂xj ∂xi
existent
dans E et ∂2f ∂2f
∂xi ∂xj , ∂xj ∂xi sont continues en cet x ∈ E. Alors ∂xi ∂xj (x)
∂2f
= ∂xj ∂xi (x).
∂2f

Démonstration. Soient s, t > 0 fixés suffisamment petits de sorte que le rectangle rempli
fermé de sommets x, x + sei , x + tej , x + sei + tej est contenu dans E. Ceci est toujours
possible car x est un point intérieur de E. On considère la quantité

∆(s, t) = f (x + sei + tej ) − f (x + sei ) − f (x + tej ) + f (x)

et les deux fonctions auxiliaires

g(ξ) = f (x+ξei +tej )−f (x+ξei ), ξ ∈ [0, s], h(ξ) = f (x+sei +ξej )−f (x+ξej ), ξ ∈ [0, t].

La fonction g est dérivable dans ]0, s[ par hypothèse ( ∂x ∂f


i
existe dans E) et donc, par le
théorème des accroissements finis, il existe s̃ ∈ ]0, s[ tel que
 
∂f ∂f
g(s) − g(0) = g 0 (s̃)s = (x + s̃ei + tej ) − (x + s̃ei ) s.
∂xi ∂xi

Soit maintenant
∂f
ϕ(η) = (x + s̃ei + ηej ), η ∈ [0, t].
∂xi

La fonction ϕ est dérivable dans ]0, t[ car ∂2f


∂xj ∂xi existe dans E, et donc il existe t̃ ∈ ]0, t[
tel que
∂2f
ϕ(t) − ϕ(0) = ϕ0 (t̃)t = (x + s̃ei + t̃ej )t.
∂xj ∂xi
On a finalement
  ∂2f
∆(s, t) = g(s) − g(0) = g 0 (s̃)s = ϕ(t) − ϕ(0) s = ϕ0 (t̃)st = (x + s̃ei + t̃ej )st.
∂xj ∂xi

On répète maintenant les mêmes arguments pour la fonction h :


!
∂f ∂f
∃t̂ ∈ ]0, t[ : ∆(s, t) = h(t) − h(0) = h0 (t̂)t = (x + sei + t̂ej ) − (x + t̂ej ) t
∂xj ∂xj

Soit ψ(η) = ∂xj (x


∂f
+ ηei + t̂ej ), η ∈ [0, s], alors

∂f ∂f ∂2f
∃ŝ ∈ ]0, s[ : ψ(s) − ψ(0) = (x + sei + t̂ej ) − (x + t̂ej ) = (x + ŝei + t̂ej )s
∂xj ∂xj ∂xi ∂xj

et donc
∂2f ∂2f
∆(s, t) = (x + ŝei + t̂ej )st = (x + s̃ei + t̃ej )st.
∂xi ∂xj ∂xj ∂xi
58 CHAPITRE 4. DÉRIVÉES D’ORDRES SUPÉRIEURS

Si on prend maintenant s = t → 0+ , on obtient ŝ, s̃ → 0+ et t̂, t̃ → 0+ . Puisque ∂2f


∂xi ∂xj et
∂2f
∂xj ∂xi sont continues en x, on a

1 ∂2f ∂2f
lim 2
∆(s, s) = (x) = (x).
s→0+ s ∂xi ∂xj ∂xj ∂xi

Corollaire 4.6. Soit E ⊂ Rn ouvert non vide avec n ≥ 2 et f ∈ C 2 (E). Alors

∂2f ∂2f
(x) = (x), ∀x ∈ E, ∀i, j = 1, . . . , n.
∂xi ∂xj ∂xj ∂xi

Le résultat du théorème de Schwarz n’est pas forcément vrai sans l’hypothèse de


continuité des dérivées partielles secondes, comme l’exemple suivant le montre.

Exercice 4.7. Considérons la fonction f : R2 → R définie par



 xy3 , (x, y) 6= (0, 0),
f (x, y) = x +y
2 2

0, (x, y) = (0, 0).

∂x∂y (0, 0), ∂y∂x (0, 0)


∂2f ∂2f
On vérifie que existent mais elles ne sont pas égales.

Grâce au théorème de Schwarz on a que si f : E → R admet toutes les dérivées


partielles secondes ∂x∂i ∂x : E → R i, j = 1, . . . , n et qu’elles sont continues en x ∈ E, alors
2f

Hf (x) est une matrice symétrique. Donc, en fait, il suffit de calculer seulement n(n+1) 2
dérivées partielles secondes au lieu de n2 . Si de plus f est de classe C 2 (E), il s’ensuit aussi
que les dérivées directionnelles secondes Dvw f (x) existent pour tout v, w ∈ Rn de norme
1 et que Dvw f (x) = Dwv f (x).

4.2 Dérivées partielles d’ordres supérieurs à 2


Soit f : E → R, avec E ⊂ Rn ouvert non vide, et (i1 , . . . , ip ) ∈ {1, . . . , n}p . On
généralise facilement la notion de dérivée partielle d’ordre p de f par rapport aux variables
x i1 , . . . , x ip :
    
∂f
∂ ... ∂xi
...
∂ 1
∂xip−1

∂pf
(x) = (x).
∂xip ∂xip−1 . . . ∂xi1 ∂xip

Définition 4.8 (espace C p (E)). Soit E ⊂ Rn ouvert non vide et f : E → R. On dit que f
est de classe C p , f ∈ C p (E), si toutes les dérivées partielles d’ordre p, ∂xi ∂···f∂xi : E → R,
p

1 p
existent pour tout (i1 , . . . , ip ) ∈ {1, . . . , n}p et sont continues sur E.
4.3. DÉVELOPPEMENT LIMITÉ ET FORMULE DE TAYLOR 59

Grâce au théorème de Schwarz, si f ∈ C p (E), alors


∂pf ∂pf
=
∂xi1 · · · ∂xip ∂xiσ(1) · · · ∂xiσ(p)

où σ(1), . . . , σ(p) est une permutation arbitraire des indices 1, . . . , p. Autrement dit, l’ordre
de dérivation n’est pas importante si f ∈ C p (E).
On remarque que si f ∈ C p (E), alors f ∈ C q (E), ∀0 ≤ q ≤ p, c.-à-d., C p (E) ⊂
C (E) ⊂ · · · ⊂ C 1 (E) ⊂ C 0 (E).
p−1

Notation par multi-entiers. Considérons une dérivée partielle d’ordre p, ∂xi ∂···f∂xi .
p

1 p
Soit α = (α1 , . . . , αn ) où l’entier αj ≥ 0 est le nombre de fois que l’indice j ∈ {1, . . . , n}
P
apparaît dans la suite i1 , . . . , ip . On note |α| = nj=1 αj (dans ce cas |α| = p). On utilise
souvent la notation
∂ |α| f ∂ |α| f ∂pf
α
= α1 αn =
∂x ∂x1 · · · ∂xn ∂xi1 · · · ∂xip
où ∂xj j signifie qu’on dérive αj fois par rapport à xj . Cette notation ne distingue pas
α

l’ordre de dérivation.
Exemple 4.9. f (x) = x1 x22 x33 . Calculons ∂ |α| f
∂xα pour α = (1, 2, 0) et α = (1, 1, 1).

∂3f ∂3f ∂3f ∂3f


α = (1, 2, 0) ⇒ = = = = 2x33
∂x1 ∂x22 ∂x1 ∂x2 ∂x2 ∂x2 ∂x1 ∂x2 ∂x2 ∂x2 ∂x1

∂3f ∂3f ∂3f ∂3f


α = (1, 1, 1) ⇒ = = =
∂x1 ∂x2 ∂x3 ∂x3 ∂x1 ∂x2 ∂x2 ∂x3 ∂x1 ∂x1 ∂x3 ∂x2
3
∂ f 3
∂ f
= = = 6x2 x23
∂x2 ∂x1 ∂x3 ∂x3 ∂x2 ∂x1
Remarquons que le nombre de dérivées partielles d’ordre |α| qui correspondent à un
multi-entier α ∈ Nn , est !
|α| |α|!
= .
α α1 ! · · · αn !

4.3 Développement limité et Formule de Taylor


Rappelons d’abord la formule de Taylor pour une fonction d’une seule variable réelle
définie sur un intervalle ouvert I =]a, b[⊂ R et p fois continûment dérivable sur I, f ∈ C p (I) :
∀x, y ∈ I
f 00 (x) f (p) (x)
f (y) = f (x) + f 0 (x)(y − x) + (y − x)2 + · · · + (y − x)p + Rp (y)
2 p!
f (k) (x)
p
X
= (y − x)k +Rp (y)
k=0
k!
| {z }
=Txp (y)
60 CHAPITRE 4. DÉRIVÉES D’ORDRES SUPÉRIEURS

P
où Txp (y) = pk=0 f k!(x) (y−x)k est le polynôme de Taylor de degré p et Rp (y) est le reste de
(k)

Rp (y)
la formule de Taylor t.q. limy→x |y−x| p = 0 (ou avec notation “petit o”, Rp (y) = o(|y −x| )).
p

La formule de Taylor donne donc le développement limité d’ordre p de la fonction f autour


de x. Si, de plus, la dérivée d’ordre p + 1 existe sur I et est continue, alors le reste de la
formule peut être caractérisé par

f (p+1) (x + t(y − x))


Reste de Lagrange : Rp (y) = (y − x)p+1 pour un t ∈ ]0, 1[,
(p + 1)!
Z 1
f (p+1) (x + t(y − x))
Reste (sous forme d’) intégrale : Rp (y) = (1 − t)p (y − x)p+1 dt.
0 p!
Considérons maintenant le cas n ≥ 2. Pour un multi-entier α = (α1 , . . . , αn ) ∈ Nn ,
on utilise les notations suivantes :
n
Y n
Y
α! = αi !, xα = xαi i .
i=1 i=1

Un polynôme de degré p dans les variables x = (x1 , . . . , xn ) s’écrit


X
q(x) = cα xα , cα ∈ R.
α∈Nn
|α|≤p

Définition 4.10. Soit f : E → R et x ∈ E̊. S’il existe un polynôme y = (y1 , . . . , yn ) 7→


P
q(y) = α∈Nn cα (y − x)α de degré p en y et une fonction Rp : E → R tels que
|α|≤p

f (y) = q(y) + Rp (y), ∀y ∈ E (4.1)


R (y)
et limy→x ky−xk
p
p = 0, alors on dit que (4.1) est un développement limité d’ordre p de f

autour de x.
Observons que Rp (y) est défini à partrir de f (y) et q(y) pour tout y ∈ E par
Rp (y) = f (y) − q(y) ; nous verrons, sous certaines conditions, des formules plus explicites
pour Rp (y) si y est suffisamment proche de x. Comme pour les fonctions d’une seule
variable réelle, si un développement limité d’ordre p de f autour d’un point existe, alors
il est unique et peut être construit en utilisant la formule de Taylor. On va détailler sa
dérivation pour une fonction f ∈ C p+1 (E), avec E ⊂ Rn ouvert non vide.
Soit x, y ∈ E tels que le segment [x, y] = {z = x + t(y − x), t ∈ [0, 1]} ⊂ E. On note
g(t) = f (x + t(y − x)), qui est bien définie et de classe C p+1 sur un intervalle ouvert
I =] − δ, 1 + δ[ qui contient [0, 1], grâce au fait que x, y ∈ E sont des points intérieurs.
L’idée pour dériver une formule de Taylor pour f est d’utiliser la formule de Taylor pour
g:I→R:
g 00 (0) 2 g p (0) p
g(t) = g(0) + g 0 (0)t + t + ··· + t + Rpg (t), t ∈ [0, 1]
2 p!
où Z t
(t − τ )p (p+1) g (p+1) (θ) p+1
Rpg (t) = g (τ )dτ = t pour un θ ∈ ]0, t[.
0 p! (p + 1)!
4.3. DÉVELOPPEMENT LIMITÉ ET FORMULE DE TAYLOR 61

Or, si on note xt = x + t(y − x) :

g(t) = f (xt )
n
X X ∂ |α| f
∂f
g 0 (t) = (x + t(y − x))(yi1 − xi1 ) = (xt )(y − x)α
i1 =1
∂xi1 |α|=1
∂xα
 
n
X n
∂ X ∂f
g 00 (t) = (x + t(y − x))(yi1 − xi1 ) (yi2 − xi2 )
i =1
∂xi2 i =1 ∂xi1
2 1
n
X ∂2f
= (xt )(yi1 − xi1 )(yi2 − xi2 )
i1 ,i2 =1
∂xi1 ∂xi2
X 2! ∂ |α| f
= (xt )(y − x)α
|α|=2
α! ∂xα
..
.
n
X
(p) ∂pf
g (t) = (x + t(y − x))(yi1 − xi1 ) · · · (yip − xip )
i1 ,...,ip =1
∂xi1 · · · ∂xip
X p! ∂ |α| f
= (xt )(y − x)α .
|α|=p
α! ∂xα

Finalement, on peut écrire la formule de Taylor

1 (k)
p
X
f (y) = g(1) = g (0) + Rpg (1)
k=0
k!
1 X k! ∂ |α| f
p
X
= (x)(y − x)α + Rp (y)
k=0
k! |α|=k α! ∂xα
X 1 ∂ |α| f
= (x)(y − x)α +Rp (y),
|α|≤p
α! ∂xα
| {z }
=Txp (y)

où on identifie :
X 1 ∂ |α| f
Txp (y) = (x)(y − x)α (polynôme de Taylor de degré p)
|α|≤p
α! ∂xα

et
X 1 ∂ (p+1) f
Rp (y) = α
(x + θ(y − x))(y − x)α pour un θ ∈]0, 1[ (reste de Lagrange),
|α|=p+1
α! ∂x
Z 1
X (p + 1) ∂ |α| f
= (1 − t)p (x + t(y − x))(y − x)α dt (reste intégrale).
|α|=p+1
α! 0 ∂xα
62 CHAPITRE 4. DÉRIVÉES D’ORDRES SUPÉRIEURS

4.3.1 Formule de Taylor pour des fonctions vectorielles


Soit E ⊂ Rn ouvert non vide, f ∈ C p+1 (E, Rm ) et x, y ∈ E t.q. [x, y] ⊂ E. On peut
appliquer la formule de Taylor à chaque composante fk de f = (f1 , . . . , fm ) : il existe
θ1 , θ2 , . . . , θm ∈ ]0, 1[ t.q.

X 1 ∂ |α| fk X 1 ∂ (p+1) fk
fk (y) = (x)(y − x)α + (x + θk (y − x))(y − x)α .
|α|≤p
α! ∂xα |α|=p+1
α! ∂x α

Toutefois, en général, les θ1 , . . . , θm ne sont pas égaux entre eux et on ne peut pas trouver
P 1 ∂ (p+1) f
un seul θ ∈]0, 1[ tel que Rp (y) = |α|=p+1 α! ∂xα (x + θ(y − x))(y − x) . D’un autre côté,
α

la formule de Taylor avec reste intégrale est valable aussi pour des fonctions vectorielles :
Z 1
X 1 ∂ |α| f X p+1 ∂ (p+1) f
f (y) = α
(x)(y − x)α + (1 − t)p (x + t(y − x))(y − x)α dt
|α|≤p
α! ∂x |α|=p+1
α! 0 ∂xα

et fournit le développement limité d’ordre p de f autour de x.


Chapitre 5

Intégrales qui dépendent de


paramètres

Soit I ⊂ R un intervalle avec une infinité de points et E ⊂ R un ensemble non vide.


On considère une fonction f : I × E → R, (t, x) 7→ f (t, x) telle que, pour tout x ∈ E,
l’intégrale (éventuellement généralisée)
Z
g(x) = f (t, x)dt
I
existe. On se pose la question si certaines propriétés de la fonction g : E → R comme, par
exemple, la continuité ou la dérivabilité, peuvent se déduire de celles de f et si on peut
passer les opérations de limite et dérivation sous le signe de intégrale :
Z Z
? ∂g ? ∂f
lim g(x) = lim f (t, x)dt, (x) = (t, x)dt.
x→x0 I x→x0 ∂xi I ∂xi
Que ceci ne soit pas toujours le cas est illustré par l’exemple suivant.
Exemple 5.1. Soit f : R × R → R, f (t, x) = x2 e−x t . On considère l’intégrale généralisée
2

Z ∞ Z ∞
g(x) = f (t, x)dt = x2 e−x t dt,
2
∀x ∈ R.
0 0
Clairement, f est continue sur R × R et l’intégrale généralisée g(x) existe pour tout x ∈ R.
Toutefois, par calcul direct, on trouve
(
1, x 6= 0
g(x) =
0, x=0
R∞
ce
R∞
qui montre que la fonction g n’est pas continue sur R et limx→0 0 f (t, x)dt 6=
0 f (t, 0)dt.

5.1 Intégrales sur un intervalle fermé et borné


Le fait que dans l’exemple 5.1 la continuité de la fonction f n’implique pas la continuité
de la fonction g est dû à un manque d’uniformité dans la continuité de f . On va d’abord se
restreindre au cas où le domaine d’intégration est un intervalle fermé et borné (compact).

63
64 CHAPITRE 5. INTÉGRALES QUI DÉPENDENT DE PARAMÈTRES

Théorème 5.2. Soient a, b ∈ R, Ra < b et E ⊂ Rn non vide. Si f : [a, b] × E → R est


continue, alors la fonction g(x) = ab f (t, x)dt est bien définie ∀x ∈ E et continue sur E.
En particulier, pour tout x0 ∈ E :
Z b Z b
lim g(x) = g(x0 ) = f (t, x0 )dt = lim f (t, x)dt.
x→x0 a a x→x0

Démonstration. Fixons d’abord x0 dans E et ensuite  > 0. D’après le théorème de


Cantor-Heine généralisé 2.28 appliqué au sous-ensemble compact K = [a, b] × {x0 } ⊂ E, il
existe δ > 0 tel que,
  
∀t0 ∈ [a, b] ∀(t, x) ∈ [a, b] × E |t − t0 | + kx − x0 k ≤ δ ⇒ |f (t, x) − f (t0 , x0 )| ≤ .
b−a

En choisissant t = t0 ∈ [a, b], ceci donne


  
∀(t, x) ∈ [a, b] × E kx − x0 k ≤ δ ⇒ |f (t, x) − f (t, x0 )| ≤ .
b−a

Pour tout x ∈ RE, la fonction t 7→ f (t, x) est continue sur l’intervalle fermé [a, b], donc
l’intégrale g(x) = ab f (t, x)dt existe. De plus, pour tout x ∈ B(x0 , δ),
Z b
|g(x) − g(x0 )| = (f (t, x) − f (t, x0 ))dt
a
Z b

≤ dt = ,
a b−a

ce qui prouve la continuité de g en x0 ∈ E. Puisque x0 est arbitraire, g est continue


sur E.
2 R1
Exercice 5.3. Soit f : R2 → R, (x, y) 7→ f (x, y) = ex y
x2 +y 2 +1
, et g(y) = −1 f (x, y)dx.
Calculer limy→0 g(y).

Rb
On considère maintenant la dérivabilité de la fonction g(x) = a f (t, x)dt lorsque E
est ouvert.

Théorème 5.4. Soient


Rb
a, b ∈ R, a < b, E ⊂ Rn ouvert non vide, f : [a, b] × E → R
continue et g(x) = a f (t, x)dt, ∀x ∈ E. Soit encore i ∈ {1, . . . , n} fixé. Si ∂x
∂f
: [a, b]×E →
i
R b ∂f
R existe et est continue, alors ∂g
∂xi existe pour tout x ∈ E et ∂xi (x)
∂g
= a ∂xi (t, x)dt est
continue en tout x ∈ E.

Démonstration. Soit x0 ∈ E arbitraire. Puisque E est ouvert, ∃η > 0 t.q. B(x0 , η) ⊂ E,


et la fonction continue ∂x
∂f
i [a,b]×B(x0 ,η)
est uniformément continue puisque [a, b] × B(x0 , η)
5.2. INTÉGRALES AVEC DES BORNES VARIABLES 65

est compact. Donc, pour  > 0 donné, il existe δ ∈]0, η[ tel que, pour tous (t, x), (s, y) ∈
[a, b] × B(x0 , η),
  ∂f ∂f 
|t − s| ≤ δ et kx − yk ≤ δ ⇒ (t, x) − (s, y) ≤
∂xi ∂xi b−a
et, en particulier, si on prend s = t et y = x0
∂f ∂f 
∀(t, x) ∈ [a, b] × B(x0 , δ) (t, x) − (t, x0 ) ≤ .
∂xi ∂xi b−a
On a pour 0 < |s| ≤ δ
Z b Z b 
g(x0 + sei ) − g(x0 ) ∂f f (t, x0 + sei ) − f (t, x0 ) ∂f
− (t, x0 )dt = − (t, x0 ) dt
s a ∂xi a s ∂xi
Z b Z s   
1 ∂f ∂f
= (t, x0 + σei ) − (t, x0 ) dσ dt
a s 0 ∂xi ∂xi
Z b Z s
1 ∂f ∂f
≤ (t, x0 + σei ) − (t, x0 ) dσ dt ≤ ,
a |s| 0 ∂xi ∂xi
g(x0 +sei )−g(x0 ) R b ∂f
ce qui montre que ∂xi (x0 ) = lims→0 existe et vaut a ∂xi (t, x0 )dt. Puisque
∂g
s
∂f
∂xi est continue sur [a, b] × E, ∂g
∂xi est continue sur E.

5.2 Intégrales avec des bornes variables


Considérons maintenant le cas où les bornes d’intégration dépendent aussi de x :
Z b(x)
g(x) = f (t, x)dt
a(x)

avec a, b : E ⊂ Rn →]α, β[⊂ R et f :]α, β[×E → R.


Théorème 5.5. Soit −∞ ≤ α < β ≤ +∞, E ⊂ Rn ouvert non vide, a, b ∈ C 1 (E) tels que
Im(a), Im(b) ⊂]α, β[ et f :]α, β[×E → R continue, avec dérivées partielles ∂x
∂f
i
:]α, β[×E →
1
R, i = 1, . . . , n continues. Alors g ∈ C (E) et
Z b(x)
∂g ∂b ∂a ∂f
(x) = (x)f (b(x), x) − (x)f (a(x), x) + (t, x)dt.
∂xi ∂xi ∂xi a(x) ∂xi
Rs
Démonstration. Soit c ∈]α, β[ et définissons la fonction G(s, x) = c f (t, x)dt, (s, x) ∈
]α, β[×E. Alors
Z c Z b(x)
g(x) = f (t, x)dt + f (t, x)dt = G(b(x), x) − G(a(x), x).
a(x) c

Montrons que la fonction G(s, x) a toutes les dérivées partielles en tout (s, x) ∈]α, β[×E.
∂s (s, x) existe et vaut f (s, x).
Par un résultat fondamental d’analyse I, ∂G
66 CHAPITRE 5. INTÉGRALES QUI DÉPENDENT DE PARAMÈTRES

R
Pour s ∈]c, β[, le théorème 5.4 assure que ∂x ∂G
i
(s, x) existe
Rc
et vaut cs ∂x∂f
i
(t, x)dt. La
même conclusion est vraie pour s ∈]α, c[ car la fonction x 7→ s f (t, x)dt admet une dérivée
R ∂f R s ∂f
partielle en xi et qu’elle vaut sc ∂xi
(t, x)dt. Ainsi ∂G
∂x i
(s, x) existe et vaut c ∂xi (t, x)dt.
Enfin, pour s = c on a G(c, x) = 0 sur E et donc ∂x ∂G
(c, x) existe et est nul et ∂xi (c, x) =
∂G
R c ∂f i
0 = c ∂xi (t, x)dt. En résumé, pour tout s ∈]α, β[ et x ∈ E, ∂xi (s, x) existe et vaut
∂G
R s ∂f
c ∂xi (t, x)dt.
Montrons que les dérivées partielles sont continues sur ]α, β[×E. Ceci est vrai pour
∂s (s, x)= f (s, x). Pour i ∈ {1, . . . , n} fixé, soit la fonction H : ]α, β[ × E → R définie par
∂G
R ∂f
H(s, x) = cs ∂x i
(t, x)dt. Cette fonction est bien continue sur ]α, β[×E, la preuve étant
similaire à celle du théorème 5.2. En effet, soit (s0 , x0 ) ∈]α, β[×E et η > 0 t.q.
h i
A := min{s0 , c} − η, max{s0 , c} + η × B(x0 , η) ⊂]α, β[×E.

Puisque ∂f
∂xi est uniformément continue sur le compact A, pour tout  > 0 il existe δ ∈]0, η]
t.q.
h i ∂f ∂f 
∀(t, x) ∈ Ã := min{s0 , c}−η, max{s0 , c}+η ×B(x0 , δ) (t, x) − (t, x0 ) ≤ .
∂xi ∂xi 2|s0 − c| + 1

De plus, ∂f
∂xi est continue sur le compact A, et soit M son maximum. Alors, si on prend
δ̂ = min{δ, 2M+1 }, on a ∀(s, x) ∈ [s0 − δ̂, s0 + δ̂] × B(x0 , δ̂) ⊂ Ã ⊂ A

|H(s, x) − H(s0 , x0 )| ≤ |H(s, x) − H(s0 , x)| + |H(s0 , x) − H(s0 , x0 )|


Z s Z s0  
∂f ∂f ∂f
≤ (t, x)dt + (t, x) − (t, x0 ) dt
s0 ∂xi c ∂xi ∂xi
|s0 − c|  
≤ M |s − s0 | + ≤M + ≤ .
2|s0 − c| + 1 2M + 1 2
A ce stade, nous avons donc prouvé que G est de classe C 1 sur ]α, β[×E. Par les
propriétés de dérivation de fonctions composées on a que g(x) = G(b(x), x) − G(a(x), x)
est de classe C 1 sur E et
∂g ∂G ∂b ∂G ∂G ∂a ∂G
(x) = (b(x), x) (x) + (b(x), x) − (a(x), x) (x) − (a(x), x)
∂xi ∂s ∂xi ∂xi ∂s ∂xi ∂xi
Z b(x) Z a(x)
∂b ∂f ∂a ∂f
= f (b(x), x) (x) + (t, x)dt − f (a(x), x) (x) − (t, x)dt
∂xi c ∂x i ∂x i c ∂xi
Z b(x)
∂b ∂a ∂f
= f (b(x), x) (x) − f (a(x), x) (x) + (t, x)dt.
∂xi ∂xi a(x) ∂xi

R √y e−xy
Exercice 5.6. Soit g(y) = 1 x dx, y > 0. Calculer g 0 (y) si elle existe.
5.3. INTÉGRALES GÉNÉRALISÉES DÉPENDANT DE PARAMÈTRES 67

5.3 Intégrales généralisées dépendant de paramètres


On considère maintenant le cas où l’intégrale est définie sur un intervalle non compact.
On se limite à discuter le cas d’un intervalle de la forme [a, b[ où b pourrait être +∞ mais
tous les autres cas se traitent de façon similaire.
Soit donc E ⊂ Rn un ouvert non vide, et f : [a, b[×E → R une fonction continue telle
que l’intégrale généralisée
Z b
g(x) = f (t, x)dt
a
R
converge pour tout x ∈ E, c-à-d, limc→b− ac f (t, x)dt existe pour tout x ∈ E. Comme
dans la section précédente, pour pouvoir établir la continuité de la fonction g, on a besoin
de quelque forme d’uniformité en x pour la convergence de l’intégrale.

Définition 5.7. Soit E ⊂ Rn un R


sous-ensemble non vide et f : [a, b[×E → R une fonction
continue. On dit que l’intégrale ab f (t, x)dt converge uniformément sur E si elle converge
pour tout x ∈ E et si
Z b
∀ > 0 ∃c̄ ∈]a, b[: ∀c ∈ [c̄, b[ ∀x ∈ E f (t, x)dt ≤ .
c

Avec cette définition, on peut établir le résultat suivant.

Théorème 5.8. Soient −∞ R< a < b ≤ +∞ et E ⊂ Rn ouvert non vide. Si f : [a, b[×E →
R est continue et l’intégrale ab f (t, x)dt converge uniformément sur E, alors la fonction
R
g(x) = ab f (t, x)dt est continue sur E.

Démonstration. Rb
Soit x0 ∈ E quelconque et  > 0. Alors, il existe η > 0 t.q. B(x0 , η) ⊂ E et
c̄ ∈]a, b[ t.q. | c̄ f (t, x)dt| ≤ , ∀x ∈ B(x0 , η), grâce à la convergence uniforme de l’intégrale.
La restriction de f à [a, c̄] × B(x0 , η) étant uniformément continue, il existe δ ∈]0, η] t.q.
|f (t, x) − f (t, x0 )| ≤ c̄−a

, ∀t ∈ [a, c̄], x ∈ B(x0 , δ). Donc, pour tout x ∈ B(x0 , δ),
Z c̄ Z b Z b
|g(x) − g(x0 )| ≤ (f (t, x) − f (t, x0 ))dt + f (t, x)dt + f (t, x0 )dt ≤ 3,
a c̄ c̄

ce qui montre la continuité de g en tout x0 ∈ E.

On a un résultat similaire pour la dérivabilité de g qu’on énonce sans démonstration.

Théorème 5.9.R Soit −∞ < Ra < b ≤ +∞ et E ⊂ Rn ouvert non vide. Si f ∈ C 1 ([a, b[×E)
et les intégrales ab f (t, x)dt, ab ∂x
∂f
(t, x)dt, i = 1, . . . , n, convergent uniformément sur E,
Rb i
R b ∂f
alors la fonction g(x) = a f (t, x)dt est de classe C 1 sur E et ∂xi (x)
∂g
= a ∂xi (t, x)dt.

Vérifier la condition de convergence uniforme de l’intégrale n’est parfois pas immédiat.


Voici un critère de majoration qui est souvent plus simple à vérifier.

Théorème 5.10. Soit −∞ < a < b ≤ +∞ et E ⊂ Rn ouvert non vide. R


Si f : [a, b[×E →
R est continue et il existe une fonction h : [a, b[→ R+ telle que ab h(t)dt converge et
68 CHAPITRE 5. INTÉGRALES QUI DÉPENDENT DE PARAMÈTRES

R
|f (t, x)| ≤ h(t), ∀(t, x) ∈ [a, b[×E, alors la fonction g(x) = ab f (t, x)dt est continue sur
E.
Rb
Si en plus f est de classe C 1 et il existe h1 , . . . , hn : [a, b[→ R t.q. pour tout i = 1, . . . , n,
1
a hi (t)dt existe et | ∂xi (t, x)| ≤ hi (t), ∀(t, x) ∈ [a, b[×E, alors g ∈ C (E).
∂f

Démonstration.R Il suffit de remarquer que la condition de majoration duRthéorème implique


que l’intégrale ab f (t, x)dt converge uniformément. En effet, puisque ab h(t)dt converge,
R R
pour tout  > 0 il existe c̄ ∈]a, b[ t.q. cb h(t)dt ≤ , ∀c ∈ [c̄, b[, et donc | cb f (t, x)dt| ≤ , ce
R
qui implique que l’intégrale ab f (t, x)dt converge uniformément. Une remarque analogue
R ∂f
est valable pour chacune des intégrales ab ∂x i
(t, x)dt.

Remarque
Rb
5.11.
R b ∂f
Dans les théorèmes 5.8 et 5.9, la condition d’intégrabilité uniforme de
a f (t, x)dt et a ∂xi (t, x)dt, 1 ≤ i ≤ n, sur tout l’ensemble E est parfois trop contraignante.
Elle peut être affaiblie de la façon suivante :
S
Il existe un recouvrement
Rb
{Uα }Rα de E, avec Uα ouverts et E ⊂ α Uα , tel que, pour
tout α, les intégrales a f (t, x)dt et ab ∂x
∂f
i
(t, x)dt, 1 ≤ i ≤ n, convergent uniformément sur
Uα ∩ E.
Alors, les conclusions des théorèmes 5.8, 5.9 sont encore valables. Pour généraliser
leur démonstration il suffit de remarquer que, pour tout x0R ∈ E, il existeR α tel que x0 ∈ Uα
(puisque {Uα }α est un recouvrement de E). Les intégrales ab f (t, x)dt et ab ∂x
∂f
i
(t, x)dt étant
uniformément convergentes sur Uα ∩ E, on conclut que g(x) est continue / différentiable
S
sur Uα ∩ E pour tout α et donc sur E = α (Uα ∩ E).
Le même raisonnement s’applique au théorème 5.10 où on peut remplacer la condition
de majoration par la suivante :
S
Il existe un recouvrement {Uα }α de E, avec Uα ouvertsR et E ⊂ α Uα , et, pour chaque
α, des fonctions hi,α : [a, b[→ R+ , i = 0, . . . , n, telles que ab hi,α (t)dt converge et
• |f (t, x)| ≤ h0,α (t) pour tout (t, x) ∈ [a, b[×(Uα ∩ E),
∂f
• | ∂x i
(t, x)| ≤ hi,α (t) pour tout (t, x) ∈ [a, b[×(Uα ∩ E) et tout i ∈ {1, . . . , n}.
Chapitre 6

Difféomorphismes locaux et
fonctions implicites

6.1 Fonctions bijectives et difféomorphismes locaux


Considérons une fonction f : E ⊂ Rn → F ⊂ Rn bijective. Alors on peut définir
l’application inverse (ou “réciproque”) g : F → E telle que

g ◦ f = idE : ∀x ∈ E g(f (x)) = x x y


f ◦ g = idF : ∀y ∈ F f (g(y)) = y. g
E F

Un premier intérêt à étudier la bijectivité d’une fonction est de pouvoir garantir


l’existence d’une solution unique x = g(y) du système d’équations non-linéaires

f (x , . . . , xn ) = y1
 1 1


..
f (x) = y, ⇐⇒ .



f (x , . . . , x ) = y
n 1 n n

pour tout y = (y1 , . . . , yn ) ∈ F . Souvent, on souhaite avoir aussi de bonnes propriétés de


stabilité aux petites perturbations, i.e. si x̃ = g(ỹ) et ỹ → y on souhaite que x̃ → x ce
qui revient à demander la continuité de la fonction inverse (en plus de la continuité de f ).
On parle d’homéomorphisme lorsque f est une bijection continue avec inverse continu.

Définition 6.1 (Homéomorphisme). Soient E, F ⊂ Rn ouverts non vides. Une application


f : E → F est un homéomorphisme si elle est bijective et si f et son inverse g sont
continues.

Un autre intérêt d’étudier des bijections est pour introduire un changement de variables.
Soit f : E → F une bijection et φ : F → R, y 7→ φ(y) = φ(y1 , . . . , yn ), une fonction réelle.

69
70 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES

Grâce à l’application f , on peut exprimer φ en fonction des variables x = (x1 , . . . , xn ) ∈ E :


φ̃ = φ ◦ f : E → R, φ̃(x) = φ(f (x)), x∈E
et vice versa, étant donné φ̃ : E → R, on peut l’exprimer en fonction des variables y :
φ = φ̃ ◦ g : F → R, φ(y) = φ̃(g(y)), y ∈ F,
où g : F → E est l’inverse de f . Dans ce cas, si φ est une fonction régulière, par exemple de
classe C k , on souhaite que la fonction transformée φ̃ soit aussi de classe C k , et vice-versa.
Ceci est garanti si le changement de variables f et son inverse sont de classe C k .
Exemple 6.2. Transformation en coordonnées polaires :
! !
x ρ cos θ
= f (ρ, θ) = f : ]0, +∞[ × ]−π, π[ → R2 \ {(x, y) ∈ R2 : x ≤ 0, y = 0}.
y ρ sin θ
Cette transformation est continue, même de classe C ∞ , et inversible. De plus, l’application
inverse est continue, même de classe C ∞ , sur R2 \ {(x, y) ∈ R2 : x ≤ 0, y = 0} →
]0, +∞[ × ]−π, π[.
On va étudier dans ce chapitre des bijections continûment différentiables avec applica-
tion inverse continûment différentiable. Ces applications sont appelées difféomorphismes.
Définition 6.3 (Difféomorphisme). Soient E, F ⊂ Rn ouverts non vides. Une application
f : E → F inversible de classe C 1 , f ∈ C 1 (E, Rn ), est un difféomorphisme si l’application
inverse g : F → E (t.q. g ◦ f = idE et f ◦ g = idF ) est de classe C 1 sur F , g ∈ C 1 (F, Rn ).
De plus, on dit que f est un k-difféomorphisme si f ∈ C k (E, Rn ) et l’application inverse
g ∈ C k (F, Rn ).
Remarque 6.4. A strictement parler, f : E → F est un difféomorphisme (E et F étant
des ouverts non vides) si f est différentiable en tout point de E, bijective et son inverse
g : F → E est différentiable en tout point de F . Dans ce cours, sauf mention contraire,
nous rajouterons l’hypothèse que f et g sont de classe C 1 .
Établir si une application f : E → F est un difféomorphisme est souvent compliqué.
On introduit une définition plus faible qui est plus facile à vérifier :
Définition 6.5 (Difféomorphisme local). Soit E ⊂ Rn ouvert non vide, x0 ∈ E et
f : E → Rn une application de classe C 1 . On dit que f est un difféomorphisme local en
x0 s’il existe un ouvert U ⊂ E contenant x0 (un voisinage de x0 ) et un ouvert V ⊂ Rn
contenant f (x0 ) (un voisinage de f (x0 )) tels que f : U → V est un difféomorphisme
(fonction bijective avec inverse g : V → U de classe C 1 ). Si f et g sont de classe C k sur
U et V respectivement, on dit que f est un k-difféomorphisme local. Nous appellerons g
un inverse local de f restreinte à un voisinage de x0 .
Soient E, F, G ⊂ Rn ouverts non vides. Il est facile de montrer (exercice !) que si
f : E → F est un difféomorphisme local en x0 ∈ E et h : F → G est un difféomorphisme
local en y0 = f (x0 ) ∈ F , alors h ◦ f est un difféomorphisme local en x0 .
On pourrait penser que si f : E → F , avec E, F ⊂ Rn ouvert, est un difféomorphisme
local en tout point x0 ∈ E, alors elle est un difféomorphisme global entre E et F . Ceci
n’est en général pas vrai, comme l’exemple suivant le montre.
6.2. THÉORÈME D’INVERSION LOCALE 71

Exemple 6.6. Soit f : R2 → R2 donnée par


! !
y1 ex1 cos x2
= f (x1 , x2 ) = .
y2 ex1 sin x2

On verra par la suite que f est un difféomorphisme local en tout point x0 ∈ R2 . Toutefois,
elle n’est pas un difféomorphisme global car elle n’est pas une bijection : f (0, 0) = f (0, 2kπ),
∀k ∈ Z.
Toutefois, si on ajoute l’hypothèse que f est une bijection, alors le difféomorphisme est
global.
Théorème 6.7. Soient E, F ⊂ Rn ouverts non vides et f : E → F un difféomorphisme
local en tout point x ∈ E. Si f est une bijection entre E et F , alors elle est un difféomor-
phisme global.
La démonstration de ce théorème est laissée comme exercice.

6.2 Théorème d’inversion locale


On s’intéresse à comprendre sous quelles conditions une application f : E → Rn , avec
E ⊂ Rn ouvert, est un difféomorphisme local en x0 ∈ E. Pour cela, on va d’abord étudier
le cas d’une application affine f : Rn → Rn ,

f (x) = Ax + b, A ∈ Rn×n , b ∈ Rn

qui est clairement de classe C 1 (même C ∞ ). Cette transformation est une bijection si et
seulement si la matrice A est inversible, c.-à-d. si et seulement si det(A) 6= 0. Dans ce cas,
l’application inverse est donnée par x = g(y) = A−1 (y − b) et g est de classe C 1 (même
C ∞ ). Donc f (x) = Ax + b est un difféomorphisme (global) si et seulement si det(A) 6= 0.
On considère maintenant le cas d’une application non linéaire f : E → Rn de classe C 1
sur E ⊂ Rn ouvert. La différentiablilité de f en x0 ∈ E assure que l’on peut écrire
kRf (x)k
f (x) = f (x0 ) + Df (x0 )(x − x0 ) + Rf (x), lim = 0,
x→x0 kx − x0 k
pour tout x ∈ E. Donc, localement autour de x0 , f (x) est bien approchée par la fonction
affine T1x0 (x) = f (x0 ) + Df (x0 )(x − x0 ). On soupçonne alors que f est un difféomorphisme
local en x0 si et seulement si det(Df (x0 )) 6= 0.
On remarque que la condition det(Df (x0 )) 6= 0 n’est pas nécessaire pour que f soit
localement inversible. Par exemple, la fonction f : R2 → R2 , (x, y) 7→ f (x, y) = (x3 , y) est
localement inversible autour 2
" #de (x, y) = (0, 0) (et même globalement sur tout R ) même
0 0
si det(Df (0, 0)) = det = 0. Toutefois, cette condition est nécessaire pour que la
0 1
fonction f soit un difféomorphisme local, comme le lemme suivant le montre.
Lemme 6.8. Soit f : E → Rn , avec E ⊂ Rn ouvert, un difféomorphisme local autour de
x0 ∈ E. Alors det(Df (x0 )) 6= 0.
72 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES

Démonstration. Puisque f : E → Rn est un difféomorphisme local en x0 ∈ E, il existe un


ouvert U ⊂ E contenant x0 et un ouvert V ⊂ Rn contenant f (x0 ) = y0 t.q. f : U → V est
bijective et la fonction inverse g : V → U est de classe C 1 . Puisque g(f (x)) = x, ∀x ∈ U ,
f (g(y)) = y, ∀y ∈ V et f et g sont différentiables en x0 et y0 , on a :

Df (x0 )Dg(y0 ) = Dg(y0 )Df (x0 ) = I

ce qui implique que Df (x0 ) est inversible et det(Df (x0 )) 6= 0.

La condition det(Df (x0 )) 6= 0 est aussi suffisante pour que f soit un difféomorphisme
local autour de x0 , comme le théorème suivant le montre.

Théorème 6.9 (d’inversion locale). Soit E ⊂ Rn ouvert, f ∈ C 1 (E, Rn ) et x0 ∈ E. Si


det(Df (x0 )) 6= 0, alors f est un difféomorphisme local en x0 , c.-à-d. qu’il existe un ouvert
U ⊂ E contenant x0 et un ouvert V ⊂ Rn contenant f (x0 ) = y0 tels que f : U → V est une
bijection et la fonction inverse g : V → U est de classe C 1 . De plus Dg(f (x)) = (Df (x))−1
pour tout x ∈ U .

Avant de démontrer ce théorème, nous allons prouver des résultats intermédiaires.


Commençons par le théorème du point fixe de Banach.

Théorème 6.10 (du point fixe de Banach). Soit un fermé non vide K ⊂ Rn et une
fonction φ : K → Rn telle que
• φ(K) ⊂ K,
• il existe ρ ∈]0, 1[ tel que ∀v, w ∈ K kφ(v) − φ(w)k ≤ ρkv − wk.
Alors il existe un unique v∗ ∈ K tel que φ(v∗ ) = v∗ .

Démonstration.
Existence. Fixons v(0) dans K et définissons {v(k) }k∈N ⊂ K par récurrence comme
suit :
v(k+1) = φ(v(k) ) ∈ K, k ≥ 0.
Vérifions que {v(k) }k∈N est de Cauchy. Pour k ∈ N,

kv(k+1) − v(k) k = kφ(v(k) ) − φ(v(k−1) )k ≤ ρkv(k) − v(k−1) k ≤ . . . ≤ ρk kv(1) − v(0) k.

Soit  > 0. Alors pour k > m ≥ 0,

kv(k) − v(m) k ≤ kv(k) − v(k−1) k + . . . + kv(m+1) − v(m) k ≤ (ρk−1 + . . . + ρm )kv(1) − v(0) k


 

X
≤ ρm  ρj  kv(1) − v(0) k = ρm (1 − ρ)−1 kv(1) − v(0) k < 
j=0

si m (et donc k) est suffisamment grand.


Soit v∗ ∈ Rn la limite de {v(k) }k∈N . Alors v∗ ∈ K car K est fermé, et

kv∗ − φ(v∗ )k ≤ kv∗ − vk+1 k + kvk+1 − φ(v∗ )k = kv∗ − vk+1 k + kφ(vk ) − φ(v∗ )k
6.2. THÉORÈME D’INVERSION LOCALE 73

≤ kv∗ − vk+1 k + ρkvk − v∗ k → 0


lorsque k → +∞. D’où φ(v∗ ) = v∗ .
Unicité. Supposons qu’il existe un autre u∗ ∈ K tel que φ(u∗ ) = u∗ . Alors

ku∗ − v∗ k = kφ(u∗ ) − φ(v∗ )k ≤ ρku∗ − v∗ k

avec ρ ∈]0, 1[. D’où ku∗ − v∗ k = 0 et u∗ = v∗ .

Définition 6.11. Avec les notations du théorème 6.10, puisque ρ < 1, on dit que l’appli-
cation φ : K → Rn est contractante ou une contraction.

Pour la démonstration du théorème 6.9 nous avons encore besoin de deux lemmes
suivants.

Lemme 6.12. Soit A ∈ Rm×n . On note par |||A||| la norme spectrale de A, |||A||| =
sup ξ∈Rn kAξk, où k · k denote la norme euclidienne, et par kAkF la norme de Frobenius
kξk=1
qP
m Pn 2
de A, kAkF = i=1 j=1 Aij . Alors, on a |||A||| ≤ kAkF .

Démonstration. Grâce à l’inégalité de Cauchy-Schwarz,


 2   
m
X n
X m
X n
X n
X
|||A|||2 = sup  Aij ξj  ≤ sup  A2ij   ξj2  = kAk2F .
ξ∈Rn ξ∈Rn
kξk=1 i=1 j=1 kξk=1 i=1 j=1 j=1

Lemme 6.13. Soit −∞ < a < b < ∞ et f : [a, b] → Rm , t 7→ f (t) = (f1 (t), . . . , fm (t))
une fonction continue. Alors
Z b Z b
f (t)dt ≤ kf (t)kdt,
a a

où k · k est la norme euclidienne.

Démonstration. Chaque fonction fi : [a, b] → R, i = 1, . . . , m est intégrale, ainsi que la


fonction g = kf k : [a, b] → R+ , étant une composition
Rb
de fonctions continues sur [a, b].
Notons v ∈ R le vecteur de composantes vi = a fi (t)dt, i = 1, . . . , m. Alors
m

Z b 2 m Z bX
m Z b
X
f (t)dt = kvk2 = vi vi = vi fi (t)dt ≤ kvkkf (t)kdt,
a i=1 a i=1 a

d’où le résultat.

Démonstration du théorème 6.9 d’inversion locale. On va couper la preuve en trois étapes :


(i) On montre qu’il existe r, r̃ > 0 tel que ∀y ∈ B(y0 , r̃) l’équation f (x) = y pour
x ∈ B(x0 , r) a une solution unique x ∈ B(x0 , r) (on utilise le théorème du point fixe
de Banach).
74 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES

(ii) Soit V = B(y0 , r̃) et U = B(x0 , r) ∩ f −1 (V ) = {x ∈ B(x0 , r) : f (x) ∈ V }, on montre


que f : U → V est une bijection et la fonction inverse g : V → U est continue.
(iii) On montre que g : V → U est de classe C 1 (V, Rn ) et Dg(f (x)) = (Df (x))−1 pour
tout x ∈ U .

Première étape. On étudie l’équation f (x) = y avec y ∈ Rn fixé dans un voisinage


convenable de y0 . En notant par I ∈ Rn×n la matrice identité, observons d’abord que
l’application x 7→ I − Df (x0 )−1 Df (x) ∈ Rn×n est continue sur E (c.-à-d. chaque compo-
sante de la matrice I − Df (x0 )−1 Df est une fonction continue sur E) et s’annule en x0 .
De même l’application x 7→ det Df (x) ∈ R est continue et, par hypothèse, ne s’annule pas
en x0 . Il existe donc r > 0 tel que, pour tout x ∈ B(x0 , r),
• x ∈ E,
h i
1 1
• chaque composante de la matrice I − Df (x0 )−1 Df (x) est dans − 2n , 2n ,
• det Df (x) 6= 0 et donc la matrice jacobienne Df (x) est inversible.
L’équation f (x) = y est équivalente à x = φy (x) où φy (x) = x − Df (x0 )−1 (f (x) − y),
grâce au fait que Df (x0 ) est inversible. On remarque, en particulier, que φy ∈ C 1 (E, Rn ).
Alors f (x) = y a une solution dans B(x0 , r) si et seulement si φy a un point fixe dans
B(x0 , r). Mais, pour tout x ∈ B(x0 , r),

Dφy (x) = I − Df (x0 )−1 Df (x)


∂φy 1
et donc ∂xj (x)
i
≤ 2n , ∀x ∈ B(x0 , r). Ceci implique
 1
2
n
1
2
X ∂φyi
|||Dφ (x)||| ≤ kDφ (x)kF = 
y y
(x)  ≤ , ∀x ∈ B(x0 , r).
i,j=1
∂xj 2

Par le théorème des accroissements finis (version intégrale, où apparaît le produit matricielle
d’une matrice et d’un vecteur colonne, donnant un vecteur colonne) et les lemmes 6.12-6.13,
on a pour x1 , x2 ∈ B(x0 , r),
Z 1
kφy (x2 ) − φy (x1 )k = Dφy (x1 + t(x2 − x1 )) · (x2 − x1 )dt
0
Z 1
≤ kDφy (x1 + t(x2 − x1 )) · (x2 − x1 )kdt
0
Z 1
1
≤ |||Dφy (x1 + t(x2 − x1 ))||| kx2 − x1 kdt ≤ kx2 − x1 k
0 | {z } 2
∈B̄(x0 ,r)

et φ est contractante sur B(x0 , r) pour tout y ∈ Rn . De plus, pour tout x ∈ B(x0 , r) et
y ∈ B(y0 , r̃), avec r̃ = 2|||Df (xr 0 )−1 ||| , on a

kφy (x) − x0 k ≤ kφy (x) − φy (x0 )k + kφy (x0 ) − x0 k


1 r
≤ kx − x0 k + kDf (x0 )−1 (y0 − y)k ≤ + |||Df (x0 )−1 ||| ky0 − yk < r.
2 2
6.2. THÉORÈME D’INVERSION LOCALE 75

Donc, si on prend y ∈ B(y0 , r̃), on a φy (B(x0 , r)) ⊂ B(x0 , r). Par conséquent, φy :
B(x0 , r) → B(x0 , r) a un point fixe unique x ∈ B(x0 , r). Mais puisque φy (B(x0 , r)) ⊂
B(x0 , r), ce point fixe est dans la boule ouverte B(x0 , r). On a donc montré que ∀y ∈
B(y0 , r̃), il existe un unique x ∈ B(x0 , r) t.q. x = φy (x), c.-à-d. t.q. f (x) = y.
Deuxième étape. Soit V = B(y0 , r̃) et U = B(x0 , r) ∩ f −1 (V ) = {x ∈ B(x0 , r) : f (x) ∈
B(y0 , r̃)}. On remarque que f −1 (V ) est ouvert (f est continue sur l’ouvert E, donc la
pré-image d’un ouvert est un ouvert), donc U est ouvert. Par l’étape précédente, f : U → V
est une bijection donc on peut définir la fonction inverse g : V → U . On montre que g est
continue. Soit  > 0 et δ = 2|||Df (x 0 )−1 ||| , alors, pour tous y1 , y2 ∈ V tels que ky1 − y2 k ≤ δ,
et en notant x1 = g(y1 ) et x2 = g(y2 ), on a

kx1 − x2 k = kφy1 (x1 ) − φy2 (x2 )k


≤ kφy1 (x1 ) − φy1 (x2 )k + kφy1 (x2 ) − φy2 (x2 )k
1
≤ kx1 − x2 k + kDf (x0 )−1 (y1 − y2 )k,
2
et donc
kx1 − x2 k = kg(y1 ) − g(y2 )k ≤ 2|||Df (x0 )−1 ||| ky2 − y1 k ≤ 
ce qui montre la continuité (uniforme) de g : V → U . Même plus, le calcul précédent
montre que g est Lipschitz.
Troisième étape. Il reste à montrer que g : V → U est de classe C 1 et Dg(y) = (Df (x))−1 ,
∀y ∈ V , où x = g(y). Par le choix de r, Df (x) est inversible pour tout x ∈ B(x0 , r). Soit
maintenant y1 ∈ V et x1 = g(y1 ). Puisque f ∈ C 1 (E, Rn ), on a

kRf (x1 )k
f (x1 ) − f (x) = Df (x)(x1 − x) + Rf (x1 ) avec lim = 0.
x1 →x kx1 − xk
Ceci implique

x1 − x = g(y1 ) − g(y) = Df (x)−1 (y1 − y) −Df (x)−1 Rf (x1 )


| {z }
Rg (y1 )

Rg (y1 )
On va montrer que limy1 →y ky1 −yk = 0. En effet,

kRg (y1 )k kDf (x)−1 Rf (x1 )k kRf (x1 )k


lim = lim ≤ lim |||Df (x)−1 |||
y1 →y ky1 − yk y1 →y ky1 − yk y 1 →y ky1 − yk
kR (x1 )k kx 1 − xk
= |||Df (x)−1 ||| lim
f
.
y1 →y kx1 − xk ky1 − yk

D’un autre côté, comme on l’a vu au point précédent

kx1 − xk ≤ 2|||Df (x0 )−1 ||| ky1 − yk,

et donc
kRg (y1 )k kRf (x1 )k
lim ≤ 2|||Df (x)−1 ||||||Df (x0 )−1 ||| lim = 0.
y1 →y ky1 − yk x1 →x kx1 − xk
76 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES

On conclut que g : V → U est différentiable en tout y ∈ V et Dg(y) = Df (x)−1 , avec


x = g(y). Enfin, puisque Df (x) est continue en tout x ∈ B(x0 , r), Df (x)−1 est continue
pourvu que det(Df (x)) 6= 0, ce qui est vrai dans B(x0 , r). Ceci montre que g ∈ C 1 (V, Rn ).

6.3 Hypersurfaces et fonctions implicites


Considérons une fonction continue φ : U ⊂ R2 → R. Le graphe de la fonction φ, qu’on
appellera Σ par la suite, donné par Σ = G(φ) = {z = (x, y) ∈ U × R : y = φ(x)} représente
une surface de R3 . Plus généralement, si on a une fonction continue φ : U ⊂ Rn → R, le
graphe Σ = G(φ) ⊂ Rn+1 sera une (hyper)surface de Rn+1 .
Le fait d’avoir une représentation explicite de l’hypersurface Σ ⊂ Rn+1 comme graphe
d’une fonction φ : U ⊂ Rn → R nous permet de définir facilement certaines quantités
locales comme, par exemple, l’hyperplan tangent ou un vecteur normal à l’hypersurface en
un point z0 = (x0 , φ(x0 )) ∈ Σ, si la fonction φ est de classe C 1 . En effet, la fonction φ est
bien approchée, dans un voisinage de x0 , par l’application affine
n
X ∂φ
Tφ1 (x) = φ(x0 ) + (x0 )(xi − x0,i )
| {z } i=1
∂xi
=y0

dont le graphe est l’hyperplan Πz0 (Σ) = {z ∈ Rn+1 : (−Dφ(x0 ), 1) · (z − z0 ) = 0}


appelé l’hyperplan tangent à la surface Σ au point z0 = (x0 , φ(x0 )). Le vecteur n =
(−Dφ(x0 ), 1) ∈ Rn+1 est un vecteur normal à la surface Σ au point z0 , étant un vecteur
normal à l’hyperplan tangent à Σ en z0 (voir la définition 3.9 du Chapitre 3). On parle,
alors, d’une surface différentiable ou bien d’une variété différentiable. De plus, si φ est de
classe C 2 , on peut introduire des notions de courbure de la surface au point z0 ∈ Σ, liées à
la matrice hessienne de la fonction φ en x0 . On ne va pas détailler plus ces notions dans
ce cours.
Considérons maintenant un ensemble Σ ⊂ Rn+1 . On peut se poser la question si, autour
d’un point z0 ∈ Σ, l’ensemble peut être représenté localement comme le graphe d’une
fonction continue φ : U ⊂ Rn → R. Si ceci est le cas, on dit que Σ est une hypersurface de
Rn+1 localement autour de z0 .

Définition 6.14. Soit Σ ⊂ Rn+1 , z0 ∈ Σ et k ∈ N. On dit que Σ est une hypersurface de


classe C k autour de z0 si elle est le graphe d’une fonction de classe C k localement autour
de z0 , c.-à-d., s’il existe un voisinage V de z0 , un indice i ∈ {1, . . . , n + 1}, un ouvert
U ⊂ Rn et une fonction φ : U → R de classe C k tels que

Σ ∩ V = {x ∈ Rn+1 : xi = φ(x∼i ), x∼i = (x1 , . . . , xi−1 , xi+1 , . . . , xn+1 ) ∈ U }.

On dit que Σ est une hypersurface de classe C k si elle est le graphe d’une fonction de
classe C k localement autour de chacun de ses points.

On s’intéresse par la suite à des ensembles définis par

Σ = {x ∈ E : f (x) = 0}, avec f : E ⊂ Rn+1 → R régulière (à préciser),


6.4. THÉORÈME DES FONCTIONS IMPLICITES – CAS SCALAIRE 77

c.-à-d. que Σ est la courbe de niveau zéro de la fonction f définie sur l’ouvert E ⊂ Rn+1 .
Si Σ est une hypersurface, localement autour d’un point z0 ∈ Σ, alors elle peut être
représentée comme le graphe d’une fonction continue φ : U ⊂ Rn → R localement autour
de z0 , c’est-à-dire il existe un ouvert V ⊂ Rn+1 contenant z0 , un ouvert U ⊂ Rn et un
indice i ∈ {1, . . . , n + 1} tels que
Σ ∩ V = {x ∈ Rn+1 : xi = φ(x∼i ), x∼i ∈ U }
= {x ∈ V : f (x1 , . . . , xn+1 ) = 0}.
On dit dans ce cas que l’équation f (x) = 0 définit implicitement une fonction xi = φ(x∼i )
localement autour du point z0 . Autrement dit, la relation
f (x1 , . . . , xn+1 ) = 0 (6.1)
permet d’exprimer la variable xi en fonction des autres variables, xi = φ(x∼i ), et le graphe
de φ coïncide avec l’ensemble des zéros de f dans un voisinage de z0 . On se pose alors
la question de savoir quand l’équation (6.1) peut être explicitée par rapport à une des
variables.

6.4 Théorème des fonctions implicites – cas scalaire


Regardons plus en détail le cas d’une fonction f : R2 → R de deux variables réelles.
Exemple 6.15. Soit Σ = {(x, y) ∈ R2 : f (x, y) = x2 − y = 0}. L’équation f (x, y) = 0
définit implicitement la fonction y = φ(x) = x2 , ∀x ∈ R. C’est à dire, pour tout x ∈ R,
f (x, φ(x)) = x2 − φ(x) = 0 et G(φ) = Σ.
Exemple 6.16. Soit Σ = {(x, y) ∈ R2 : f (x, y) = x2 +y 2 −1 = 0}. Clairement, l’ensemble
Σ correspond au cercle unitaire.
y y y

y= 1 − x2
Σ
x x x

y = − 1 − x2

x
p
x= 1 − y2

√ p
Les quatre fonctions y = ± 1 − x2 et x = ± 1 − y 2 sont définies implicitement par
f (x, y) = 0, Toutefois, on ne peut pas trouver une seule fonction y = φ(x) ou x = φ(y)
qui décrit tout l’ensemble Σ. En revanche, soit z0 ∈ Σ arbitraire. Alors, autour de z0 , on
peut définir une fonction y = φ(x) ou x = φ(y). Par exemple, soit z0 = (x0 , y0 ) ∈ Σ.
78 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES


— Si y0 > 0, alors on peut prendre y = φ(x) = 1 − x2 et on a f (x, φ(x)) = 0 dans un
voisinage de x0 et G(φ) coïncide avec Σ dans un voisinage de z0 .

— Si y0 < 0 alors on peut prendre y = φ(x) = − 1 − x2 et on a f (x, φ(x)) = 0 dans
un voisinage de x0 et G(φ) coïncide avec Σ dans un voisinage de z0 .
— Si y0 = 0, ppar exemple z0 = (1, 0), alors on peut expliciter x en fonction de y,
x = φ(y) = 1 − y 2 mais non pas y en fonction de x.
Exemple 6.17. Soit Σ = {(x, y) ∈ R2 : f (x, y) = x2 − y 2 = 0}. Clairement, l’équation
f (x, y) = 0 est satisfaite si et seulement si x = y ou x = −y.
y y y

Σ y=x

x x x
y = −x

Soit z0 = (x0 , y0 ) ∈ Σ.
— Si x0 y0 > 0 alors f (x, y) = 0 définit implicitement la fonction y = φ(x) = x (ou
bien la fonction x = φ(y) = y) et G(φ) coïncide avec Σ dans un voisinage de z0 .
— Pareillement, si x0 y0 < 0 alors f (x, y) = 0 définit implicitement la fonction y =
φ(x) = −x (ou bien la fonction x = φ(y) = −y) et G(φ) coïncide avec Σ dans un
voisinage de z0 .
— En revanche, si (x0 , y0 ) = (0, 0), il n’est pas possible de trouver ni une fonction
y = φ(x) ni une fonction x = φ(y) définies implicitement par l’équation f (x, y) = 0
qui décrivent Σ dans un voisinage de z0 = (0, 0). On dit dans ce cas que (0, 0) est
un point singulier de Σ. On remarque que ∇f (0, 0) = (0, 0).
Exemple 6.18. Soit Σ = {(x, y) ∈ R2 : f (x, y) = xey + yex = 0}. L’équation f (x, y) =
xey + yex = 0 ne peut pas être explicitée sous forme simple ni par rapport à x ni par
rapport à y. Est-ce que l’équation f (x, y) = 0 définit implicitement une fonction y = φ(x)
ou x = φ(y) au moins localement autour de chaque point z0 ∈ Σ, dont le graphe coïncide
avec Σ dans un voisinage de z0 ? On verra que la réponse à cette question est positive.
Soit f : R2 → R et z0 = (x0 , y0 ) tel que f (x0 , y0 ) = 0. Supposons que f (x, y) = 0
définit implicitement une fonction y = φ(x) autour de z0 , c’est-à-dire ∃δ > 0 et φ :
]x0 − δ, x0 + δ[ → R tels que y0 = φ(x0 ) et f (x, φ(x)) = 0, ∀x ∈ ]x0 − δ, x0 + δ[. Supposons
de plus que f et φ sont de classe C 1 et notons f˜(x) = f (x, φ(x)). Alors, par la formule de
dérivation de fonctions composées, on a :
d ˜ d ∂f ∂f
0= f (x) = f (x, φ(x)) = (x, φ(x)) + (x, φ(x))φ0 (x), ∀x ∈ ]x0 − δ, x0 + δ[.
dx dx ∂x ∂y
On en tire que si ∂y (x0 , y0 )
∂f
6= 0, alors
∂f
(x0 , y0 )
φ0 (x0 ) = − ∂f
∂x
.
∂y (x0 , y0 )
6.4. THÉORÈME DES FONCTIONS IMPLICITES – CAS SCALAIRE 79

Plus généralement, si ∂y (x0 , y0 )


∂f
6= 0, alors ∂y (x, φ(x))
∂f
6= 0 pour tout x suffisamment
proche de x0 et
∂f
(x, φ(x))
φ0 (x) = − ∂f
∂x

∂y (x, φ(x))

Même si on ne connaît pas φ, on peut quand même évaluer sa dérivée φ0 (x0 ) si ∂y (x0 , y0 )
∂f
6= 0.
De plus, si f et φ sont de classe C 2 , on peut itérer le raisonnement :

d2
0= f (x, φ(x))
dx2 
∂ ∂f ∂f
= (x, φ(x)) + (x, φ(x))φ0 (x)
∂x ∂x ∂y
2
∂ f 2
∂ f ∂2f ∂f
= 2
(x, φ(x)) + 2 (x, φ(x))φ 0
(x) + 2
(x, φ(x))(φ0 (x))2 + (x, φ(x))φ00 (x).
∂x ∂x∂y ∂y ∂y

Par conséquent,
!
1 ∂2f ∂2f ∂2f
φ (x0 ) = − ∂f
00
(x 0 , y0 ) + 2 (x0 , y0 )φ 0
(x 0 ) + (x0 , y0 )(φ0 (x0 ))2 .
∂y (x0 , y0 )
∂x2 ∂x∂y ∂y 2

et, pour tout x suffisamment proche de x0 ,


!
1 ∂2f ∂2f ∂2f
φ (x) = − ∂f
00
(x, φ(x)) + 2 (x, φ(x))φ 0
(x) + (x, φ(x))(φ0 (x))2 .
∂y (x, φ(x))
∂x2 ∂x∂y ∂y 2

Plus généralement, si f est de classe C k , alors φ sera aussi de classe C k et on peut calculer
explicitement φ(k) (x0 ). Tous les calculs précédents sont valables sous l’hypothèse qu’une
fonction implicite φ de classe C k existe et que ∂f ∂y (x0 , y0 ) 6= 0. Cette dernière condition
s’avère être suffisante pour l’existence d’une fonction implicite.

Théorème 6.19 (des fonctions implicites — cas n = 2). Soit f : E ⊂ R2 → R, E


ouvert non vide, de classe C 1 , Σ = {(x, y) ∈ E : f (x, y) = 0} et z0 = (x0 , y0 ) ∈ Σ t.q.
∂y (x0 , y0 ) 6= 0. Alors il existe un voisinage U = ]x0 − δ, x0 + δ[ de x0 , un ouvert V ⊂ E
∂f

contenant z0 et une unique fonction φ : U → R de classe C 1 tels que


— y0 = φ(x0 ) ;
— (x, φ(x)) ∈ V et f (x, φ(x)) = 0, ∀x ∈ U ;
— G(φ) = Σ ∩ V .

∂y (x, φ(x)) 6= 0 et
∂f
De plus, pour tout x ∈ U ,

∂f
(x, φ(x))
φ0 (x) = − ∂f
∂x
,
∂y (x, φ(x))

et si f ∈ C k (E), alors φ ∈ C k (U ).
80 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES

Démonstration. Supposons ∂y (x0 , y0 )


∂f
> 0 (le cas ∂y (x0 , y0 )
∂f
< 0 est identique). Puisque
∂f
∂y est continue sur E (f étant de classe C 1 ), il existe δ1 , δ2 > 0 tels que, pour tout
(x, y) ∈ W := [x0 − δ1 , x0 + δ1 ] × [y0 − δ2 , y0 + δ2 ], on a
∂f
(x, y) ∈ E et (x, y) > 0.
∂y
Pour tout x ∈ [x0 − δ1 , x0 + δ1 ], la fonction y 7→ gx (y) = f (x, y) est strictement croissante
dans l’intervalle [y0 − δ2 , y0 + δ2 ] car gx0 (y) = ∂f
∂y (x, y) > 0. En particulier

gx0 (y0 − δ2 ) < gx0 (y0 ) = f (x0 , y0 ) = 0 < gx0 (y0 + δ2 ).

Puisque f est continue, il existe 0 < δ ≤ δ1 tel que

gx (y0 −δ2 ) = f (x, y0 −δ2 ) < 0 et gx (y0 +δ2 ) = f (x, y0 +δ2 ) > 0, ∀x ∈ U := ]x0 −δ, x0 +δ[

comme illustré dans la figure ci dessous.

+ + +
∂f
∂y >0

− − − − −

Pour x ∈ U , gx (y) est continue et strictement croissante sur l’intervalle [y0 − δ2 , y0 + δ2 ],


et donc il existe un unique y = φ(x) ∈ ]y0 − δ2 , y0 + δ2 [ tel que gx (y) = f (x, y) = 0. Cette
procédure permet de définir de façon unique une fonction φ : U → R telle que

φ(x0 ) = y0 et f (x, φ(x)) = 0 ∀x ∈ U.

De plus, si on note V = ]x0 − δ, x0 + δ[ × ]y0 − δ2 , y0 + δ2 [, on a G(φ) = {(x, y) ∈ V :


f (x, y) = 0} = Σ ∩ V .
Continuité de φ. Soit x̄ ∈ U et ȳ = φ(x̄). Pour tout  ∈]0, δ2 − |ȳ − y0 | ], considérons
W = [x0 − δ1 , x0 + δ1 ] × [ȳ − , ȳ + ]. Puisque W ⊂ W on a que ∂f ∂y > 0 sur W . En
raisonnant comme auparavant, mais sur W au lieu de W , il existe δ > 0 et une fonction
φ̄ : ]x̄ − δ , x̄ + δ [ ∩ U → R tels que ȳ = φ̄(x̄) et f (x, φ̄(x)) = 0, ∀x ∈ ]x̄ − δ , x̄ + δ [ ∩ U . Par
l’unicité de la fonction implicite sur W et le choix de W , on a φ̄(x) = φ(x) ∈ [ȳ − , ȳ + ],
∀x ∈ ]x̄ − δ , x̄ + δ [ ∩ U . On a donc montré que pour tout  > 0 il existe δ > 0 tel que
|φ(x) − φ(x̄)| ≤  pour tout x ∈ ]x̄ − δ , x̄ + δ [ ∩ U ce qui montre la continuité de φ en
tout point x̄ ∈ U .
6.4. THÉORÈME DES FONCTIONS IMPLICITES – CAS SCALAIRE 81

Continuité de φ0 . Soient x1 =6 x2 dans U , y1 = φ(x1 ) et y2 = φ(x2 ). Puisque f ∈ C 1 (E),


on a
∂f ∂f
0 = f (x2 , y2 ) − f (x1 , y1 ) = (ξ, η)(x2 − x1 ) + (ξ, η)(y2 − y1 )
∂x ∂y
avec (ξ, η) = (x1 + θ(x2 − x1 ), y1 + θ(y2 − y1 )) et θ ∈ ]0, 1[. Alors

φ(x2 ) − φ(x1 ) ∂x (ξ, η)


∂f
y2 − y1
= = − ∂f
∂y (ξ, η)
x2 − x1 x2 − x1

et ∂y (ξ, η)
∂f
> 0 car (ξ, η) ∈ V ⊂ W . Il s’ensuit

φ(x2 ) − φ(x1 ) ∂x (x1 , y1 )


∂f
φ0 (x1 ) = lim = − ∂f ,
∂y (x1 , y1 )
x2 →x1 x2 − x1
∂f
(x,φ(x))
donc φ est dérivable en tout x ∈ U . De plus, φ0 (x) = − ∂f
∂x
est continue grâce au
∂y
(x,φ(x))
fait que ∂f
∂y , ∂x et φ sont continues et ∂y (x, φ(x)) 6= 0, ∀x ∈ U . La démonstration que
∂f ∂f

φ ∈ C k (U ) si f ∈ C k (E) se fait par récurrence sur k ≥ 1.

On a montré le théorème des fonctions implicites pour une fonction de deux variables
réelles (x, y) 7→ f (x, y) : R2 → R. Toutefois, la démonstration de ce théorème se généralise
sans difficulté au cas d’une fonction de n variables f : Rn → R.
Théorème 6.20 (des fonctions implicites à plusieurs variables). Soit E ⊂ Rn+1 ouvert
non vide, f : E → R de classe C 1 , Σ = {(x, y) ∈ E, x ∈ Rn , y ∈ R : f (x, y) = 0} et
z0 = (x0 , y0 ) ∈ Σ tel que ∂f
∂y (x0 , y0 ) 6= 0. Alors, il existe un voisinage U = B(x0 , δ) ⊂ R
n

de x0 , un ouvert V ⊂ E contenant z0 et une unique application φ : U → R de classe C 1


telle que :
— y0 = φ(x0 ) ;
— (x, φ(x)) ∈ V et f (x, φ(x)) = 0, ∀x ∈ U ;
— G(φ) = Σ ∩ V , (i.e. le graphe de φ décrit Σ dans un voisinage de z0 ).
De plus, pour tout x ∈ U , ∂y (x, φ(x))
∂f
6= 0 et

∂xi (x, φ(x))


∂f
∂φ
(x) = − ∂f ,
∂y (x, φ(x))
∂xi

et si f ∈ C k (E) alors φ ∈ C k (U ).
Le théorème précédent montre que si ∂f ∂y (z0 ) 6= 0, l’ensemble Σ coïncide avec le graphe
d’une fonction y = φ(x) dans un voisinage de z0 . Ceci permet de définir l’hyperplan
tangent à Σ en z0 , noté Πz0 (Σ), comme l’hyperplan tangent au graphe de φ en x0 , qui est
donné par
( n
)
X ∂φ
Πz0 (Σ) = (x, y) ∈ R n+1
: y = φ(x0 ) + (x0 )(xi − x0,i ) .
i=1
∂xi
82 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES

En se rappelant de l’expression des dérivées partielles de φ en x0 , l’hyperplan tangent peut


s’écrire de façon équivalente comme
Xn
∂f ∂f
(z0 )(y − y0 ) + (z0 )(xi − x0,i ) = 0,
∂y i=1
∂xi

qui conduit à l’expression simple

Πz0 (Σ) = {z ∈ Rn+1 : ∇f (z0 ) · (z − z0 ) = 0}. (6.2)

Cette équation montre que le vecteur ∇f (z0 ) est un vecteur normal à Σ en z0 .


∂y (z0 ) = 0 mais ∇f (z0 ) 6= 0, alors il existe un i ∈ {1, . . . , n}
Enfin, on remarque que si ∂f
tel que ∂x
∂f
i
(z0 ) 6= 0 et on peut encore appliquer le théorème des fonctions implicites en
exprimant la variable xi en fonction des autres variables. L’expression de l’hyperplan
tangent (6.2) et du vecteur normal sont inchangées.

6.5 Théorème des fonctions implicites – cas vectoriel


Les idées présentées dans la section précédente se généralisent au cas d’une fonction
continue à valeurs vectorielles f : E ⊂ Rn+m → Rm , (x, y) 7→ f (x, y), x ∈ Rn , y ∈ Rm ,
où E est ouvert non vide. Soit Σ = {(x, y) ∈ E : f (x, y) = 0} l’ensemble des solutions
de l’équation f (x, y) = 0. Cette équation correspond au système sous-déterminé des m
équations 
 f (x , . . . , xn , y1 , . . . , ym ) = 0
 1 1


..
(6.3)
.


f (x , . . . , x , y , . . . , y ) = 0
m 1 n 1 m

des n + m inconnues (x1 , . . . , xn , y1 , . . . , ym ). Du point de vue géométrique,


m
\
Σ= Σi , où Σi = {(x, y) ∈ E : fi (x, y) = 0}.
i=1

Si chaque ensemble Σi est une surface de Rn+m , alors Σ est l’intersection de m surfaces. Par
exemple, si f1 (x, y, z) = 0 et f2 (x, y, z) = 0 définissent des surfaces en R3 , leur intersection
Σ = {(x, y, z) ∈ R3 : f1 (x, y, z) = 0 et f2 (x, y, z) = 0} sera en générale une courbe de R3
(voir Figure 6.1). On peut se poser de nouveau la question de savoir si l’ensemble Σ peut
être représenté comme le graphe d’une fonction continue, au moins localement autour de
chaque point z0 ∈ Σ. De façon équivalente, on veut savoir si pour l’équation f (x, y) = 0 on
peut exprimer m variables, disons (y1 , . . . , ym ), comme fonctions continues des n variables
restantes (x1 , . . . , xn ), dans un voisinage de z0 = (x0 , y0 ) ; autrement dit, si le système
(6.3) définit implicitement une fonction continue φ : U ⊂ Rn → Rm autour de x0 telle que
f (x, φ(x)) = 0, ∀x ∈ U et Σ = G(φ) dans un voisinage de z0 .
Avant de donner le résultat d’existence générale, il est utile de considérer le cas d’une
fonction fa affine :

fa (x, y) = A1 x + A2 y + b, A1 ∈ Rm×n , A2 ∈ Rm×m , b ∈ Rm .


6.5. THÉORÈME DES FONCTIONS IMPLICITES – CAS VECTORIEL 83

Figure 6.1 – Courbe Σ = {(x, y, z) ∈ R3 : f1 (x, y, z) = 0 et f2 (x, y, z) = 0} obtenue par


l’intersection des deux surfaces f1 (x, y, z) = x tan x + y − z = 0 et f2 (x, y, z) =
10 − y − 3z + 3 = 0.
x

L’équation fa = 0 équivaut à A2 y = −(A1 x + b). Donc on peut écrire de façon unique y


en fonction de x si et seulement si la matrice A2 est inversible, c.-à-d. det(A2 ) 6= 0. Dans
ce cas on a
y = −A−12 A1 x − A2 b.
−1

Considérons maintenant une fonction non-linéaire f : E ⊂ Rn+m → Rm de classe C 1


et z0 = (x0 , y0 ) ∈ Σ = {(x, y) ∈ Rn × Rm : (x, y) ∈ E, f (x, y) = 0}. La différentiablilité
de f en z0 ∈ E assure que l’on peut écrire pour tout z ∈ E
*0 Rf (z)
f (z) = 
f (z ) + Df (z0 )(z − z0 ) + Rf (z),
0 lim = 0.
z→z0 kz − z0 k
Il est pratique d’écrire la matrice jacobienne Df (z0 ) ∈ Rm×(n+m) par blocs comme
 ∂f1 
∂x1 (z0 ) ∂xn (z0 ) ∂y1 (z0 ) ∂ym (z0 )
∂f1 ∂f1 ∂f1
··· ···
 ..  h i
Df (z0 ) =   = Dx f (z0 ) Dy f (z0 ) .
 . 
∂x1 (z0 ) ∂xn (z0 ) ∂y1 (z0 ) ∂ym (z0 )
∂fm ∂fm ∂fm ∂fm
··· ···
Donc, dans un voisinage de z0 , la fonction f est bien approchée par la fonction affine
fa (z) = Df (z0 )(z − z0 ) = Dx f (z0 )(x − x0 ) + Dy f (z0 )(y − y0 )
et on s’attend à pouvoir exprimer y en fonction de x si det(Dy f (z0 )) 6= 0. Le théorème
suivant rend ce raisonnement rigoureux.
Théorème 6.21. Soit E ⊂ Rn+m ouvert non vide, f ∈ C 1 (E, Rm ), Σ = {(x, y) ∈ E :
f (x, y) = 0} et z0 = (x0 , y0 ) ∈ Σ tel que det(Dy f (z0 )) 6= 0. Alors il existe une boule
ouverte U = B(x0 , δ) ⊂ Rn , un ouvert V ⊂ E contenant z0 et une unique fonction
φ : U → Rm de classe C 1 tels que
84 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES

1.y0 = φ(x0 ) ;
2.pour tout x ∈ U , (x, φ(x)) ∈ V et f (x, φ(x)) = 0 ;
3.Σ ∩ V = G(φ) ;
4.det(Dy f (x, φ(x)) 6= 0 et Dφ(x) = −(Dy f (x, φ(x)))−1 Dx f (x, φ(x)), ∀x ∈ U (dans
cette dernière formule, il y a un produit matriciel).
De plus, pour tout entier k ≥ 1, si f est de classe C k , alors φ l’est aussi.
Démonstration. On utilise le théorème d’inversion locale. Soit F : E → Rn+m , F(x, y) =
(x, f (x, y)). On a F(x0 , y0 ) = (x0 , 0) et
" #
In×n 0
DF(x0 , y0 ) = , det(DF(x0 , y0 )) = det(Dy f (z0 )) 6= 0.
Dx f (z0 ) Dy f (z0 )
Donc il existe un voisinage V 0 de (x0 , y0 ) et un voisinage U 0 de (x0 , 0) tels que V 0 ⊂ E et F
est un difféomorphisme de V 0 à U 0 . Soit G la fonction inverse. On peut toujours trouver une
boule ouverte U = B(x0 , δ) ⊂ Rn et un ouvert W ⊂ Rm contenant 0 tels que U × W ⊂ U 0 .
On considère alors la restriction F : V → U × W où V = G(U × W ). La fonction inverse
a la forme G(x, w) = (x, ϕ(x, w)) avec ϕ(x0 , 0) = y0 . On note, en particulier, que si
(x, y) ∈ V , alors x ∈ U . La fonction implicite cherchée est alors φ(x) = ϕ(x, 0) : U → Rm .
En effet :
∀x ∈ U, (x, 0) = F ◦ G(x, 0) = F(x, ϕ(x, 0)) = F(x, φ(x)) = (x, f (x, φ(x))),
donc f (x, φ(x)) = 0, ∀x ∈ U , et
∀(x, y) ∈ Σ ∩ V, (x, y) = G ◦ F(x, y) = G(x, f (x, y)) = (x, ϕ(x, 0)) = (x, φ(x)),
| {z }
=0

donc Σ ∩ V = G(φ).
Montrons l’unicité de φ : si φ? : U → Rm satisfait aussi Σ ∩ V = G(φ? ), alors
G(φ? ) = G(φ) et donc φ∗ = φ.
Finalement, φ est de classe C 1 puisque G est de classe C 1 , F étant un difféomorphisme.
De plus, 0 6= det(DF(x, y)) = det(Dy f (x, y)) ∀(x, y) ∈ V , donc Dy f est inversible sur V .
Par la formule de dérivation des fonctions composées, on a
0 = D(f (x, φ(x))) = Dx f (x, φ(x)) + Dy f (x, φ(x)) · Dφ(x).
d’où
Dφ(x) = −(Dy f (x, φ(x)))−1 Dx f (x, φ(x)).
La démonstration que φ ∈ C k (U ) si f ∈ C k (E) se fait par récurrence sur k ≥ 1.
Remarque 6.22. Dans le théorème 6.21, la décomposition du vecteur z ∈ Rn+m en
z = (x, y) est arbitraire. Le théorème reste valable sous la condition plus générale :
Rang(Df (z0 )) = m.
En effet, dans ce cas on sait qu’il existe m colonnes de Df (z0 ) linéairement indépendantes.
Notons ces colonnes i1 , . . . , im . On peut alors définir (y1 , . . . , ym ) = (zi1 , . . . , zim ) et
(x1 , . . . , xn ) les variables restantes. On aura donc det(Dy f (z0 )) 6= 0 et on peut appliquer
le théorème pour exprimer ces m variables y en fonction des autres n variables x.
6.5. THÉORÈME DES FONCTIONS IMPLICITES – CAS VECTORIEL 85

Sous les hypothèses du théorème 6.21, grâce à l’existence d’une fonction implicite on
peut définir l’hyperplan tangent à Σ en z0 :

Πz0 (Σ) = {(x, y) ⊂ Rn+m : y − y0 − Dφ(x0 )(x − x0 ) = 0}


= {(x, y) ⊂ Rn+m : Df (z0 )(z − z0 ) = 0}

On remarque que Πz0 (Σ) est l’ensemble des points de Rn+m qui satisfont m équations
linéaires. Puisque Df (z0 ) a rang maximal, Πz0 (Σ) est un sous-espace affine de Rn+m de
dimension n.
86 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES
Chapitre 7

Extrema de fonctions réelles

Soit E ⊂ Rn pas forcément ouvert pour le moment. On considère ici une fonction
f : E → R à valeurs dans R (fonction scalaire) et on se pose la question de trouver le
maximum et le minimum de f sur E s’ils existent. Ceci est un problème d’optimisation.
On commence par donner la définition de point de minimum et maximum local ou global.
Définition 7.1 (Minima et maxima locaux et globaux). Soit E ⊂ Rn et x∗ ∈ E.
— On dit que f admet un maximum local (ou relatif) au point x∗ ∈ E s’il existe δ > 0 :

f (x) ≤ f (x∗ ), ∀x ∈ B(x∗ , δ) ∩ E.

Si l’inégalité est stricte (i.e. f (x) < f (x∗ ), ∀x ∈ B(x∗ , δ) ∩ E, x 6= x∗ ) alors le


maximum local est strict. Le point x∗ est appelé point de maximum local (strict)
pour f .
— On dit que f admet un minimum local (ou relatif) au point x∗ ∈ E s’il existe δ > 0 :

f (x) ≥ f (x∗ ), ∀x ∈ B(x∗ , δ) ∩ E.

Le minimum est strict si l’inégalité est stricte. Le point x∗ est appelé point de
minimum local (strict) pour f .
— Par extremum local (strict) on entend un minimum ou maximum local (strict).
— On dit que f admet un maximum (global ou absolu), resp. minimum (global ou
absolu) au point x∗ ∈ E si f (x) ≤ f (x∗ ), ∀x ∈ E, resp. f (x) ≥ f (x∗ ), ∀x ∈ E. Le
maximum/minimum est strict si l’inégalité est stricte

7.1 Extrema libres


On considère d’abord le cas où l’ensemble E est ouvert et la fonction f : E → R
différentiable (une ou plusieurs fois) sur E.
Rappelons ce qu’on sait dire sur la caractérisation des extrema locaux pour une fonction
d’une seule variable réelle f : I → R, définie sur un ouvert I ⊂ R. Soit x∗ ∈ I.
— Si f est dérivable en x∗ et x∗ est un point d’extremum local de f , alors f 0 (x∗ ) = 0
(condition nécessaire du premier ordre).

87
88 CHAPITRE 7. EXTREMA DE FONCTIONS RÉELLES

— Si f est deux fois dérivable sur I et x∗ est un point de minimum (resp. maximum)
local, alors f 0 (x∗ ) = 0 et f 00 (x∗ ) ≥ 0 (resp. f 00 (x∗ ) ≤ 0) (condition nécessaire du
second ordre).
— Soit f deux fois dérivable sur I et x∗ un point stationnaire de f , c.-à-d. que f 0 (x∗ ) = 0.
Si f 00 (x∗ ) > 0 (resp. f 00 (x∗ ) < 0) alors x∗ est un point de minimum (resp. maximum)
local strict (condition suffisante).
— Si f 0 (x∗ ) = f 00 (x∗ ) = 0, on ne peut rien conclure. Pour décider si x∗ est un point de
minimum / maximum / inflexion, il faut regarder les dérivées d’ordres supérieurs
(si elles existent) en x∗ , ou bien étudier le signe de la fonction g(x) = f (x) − f (x∗ )
autour de x∗ . Par exemple, si on peut montrer que g est non négative dans un
voisinage de x∗ , alors x∗ est un point de minimum local de f . Par contre, si g change
de signe en x∗ , alors x∗ est un point d’inflexion (sous l’hypothèse f 0 (x∗ ) = 0).
Considérons maintenant le cas d’une fonction de plusieurs variables f : E → R, avec
E ⊂ Rn ouvert non vide. Soit x∗ ∈ E (point intérieur car E est ouvert). On peut regarder
le comportement de f le long des droites : soit v ∈ Rn , kvk = 1 et gv (t) = f (x∗ + tv).
Si f est différentiable sur E et x∗ est un point d’extremum local de f , alors pour tout
v ∈ Rn , la fonction gv est dérivable et admet un extremum local en t = 0 (voir Figure
7.1). Il s’ensuit

Figure 7.1 – Si x∗ est point de maximum, alors la fonction gv (t) = f (x∗ + tv) à maximum en
t = 0 pour tout v ∈ Rn .

 
∀v ∈ Rn 0 = gv0 (0) = Dv f (x∗ ) = ∇f (x∗ ) · v ⇐⇒ ∇f (x∗ ) = 0

(produit scalaire entre deux vecteurs colonnes). On s’attend alors à ce que ∇f (x∗ ) = 0
soit une condition nécessaire pour que f admette un extremum local en x∗ . Le théorème
suivant formalise cette idée.
7.1. EXTREMA LIBRES 89

Définition 7.2 (Point stationnaire). Soit E ⊂ Rn ouvert non vide, x∗ ∈ E et f : E → R


différentiable en x∗ . On dit que x∗ est un point stationnaire de f si ∇f (x∗ ) = 0 (i.e.
∂xi (x ) = 0, i = 1, . . . , n ou, de façon équivalente, Df (x ) = 0).
∂f ∗ ∗

Théorème 7.3 (condition nécessaire de premier ordre). Soit E ⊂ Rn un ouvert non vide,
et f : E → R différentiable en x∗ ∈ E et admettant un extremum local en x∗ . Alors x∗ est
un point stationnaire de f , c.-à-d. que ∇f (x∗ ) = 0.
Démonstration. Puisque E est ouvert, ∃δ > 0 : B(x∗ , δ) ⊂ E. Alors x∗ + tej ∈ E pour
tout t ∈ ]−δ, δ[ et gj (t) = f (x∗ + tej ) : ]−δ, δ[ → R est dérivable en t = 0. Puisque
x∗ est un point d’extremum local pour f , 0 est un point d’extremum local pour gj et
gj0 (0) = ∂x
∂f
j
(x∗ ) = 0.

On considère maintenant le cas f ∈ C 2 (E), qui assure que la matrice hessienne Hf (x∗ )
est symétrique. Soit x∗ un point de minimum local de f . Alors t = 0 est un point de
minimum local de gv pour tout v ∈ Rn de norme 1. Il s’ensuit que
2
0 ≤ gv00 (0) = Dvv f (x∗ ) = v> Hf (x∗ )v

et ainsi v> Hf (x∗ )v ≥ 0 pour tout v ∈ Rn . Donc, la condition v> Hf (x∗ )v ≥ 0, ∀v ∈ Rn ,


est aussi nécessaire pour que f admette un minimum local en x∗ , pourvu que f soit de
classe C 2 sur E. De même, la condition v> Hf (x∗ )v ≤ 0, ∀v ∈ Rn , est nécessaire pour que
f admette un maximum local en x∗ , pourvu que f soit de classe C 2 sur E. On a donc
démontré
Théorème 7.4 (condition nécessaire du second ordre). Soit E ⊂ Rn un ouvert non vide
et f : E → R de classe C 2 sur E, admettant un minimum (resp. maximum) local en
x∗ ∈ E. Alors x∗ est un point stationnaire de f et v> Hf (x∗ )v ≥ 0 (resp. v> Hf (x∗ )v ≤ 0)
pour tout v ∈ Rn .
Si l’inégalité dans la condition précédente est stricte, i.e. si v> Hf (x∗ )v > 0, ∀v ∈
Rn \{0}, la condition devient suffisante pour que f admette un minimum en x∗ , pourvu
que x∗ soit un point stationnaire. Ceci est montré dans le théorème 7.8 ci-dessous. Avant
de présenter le théorème, on rappelle quelques notions d’algèbre linéaire sur les matrices
définies positives ou négatives.
Définition 7.5. Soit A ∈ Rn×n symétrique. On dit que A est
— définie positive (ou simplement « positive ») si x> Ax > 0, ∀ 0 6= x ∈ Rn ;
— semi-définie positive si x> Ax ≥ 0, ∀x ∈ Rn ;
— définie négative (ou simplement « négative ») si x> Ax < 0, ∀ 0 6= x ∈ Rn ;
— semi-définie négative si x> Ax ≤ 0, ∀x ∈ Rn ;
— indéfinie s’il existe x, y ∈ Rn : x> Ax > 0 et y> Ay < 0.
À une matrice symétrique A ∈ Rn×n on peut associer une forme quadratique
n
X
QA (x) = x> Ax = Aij xi xj , ∀x ∈ Rn .
i,j=1
90 CHAPITRE 7. EXTREMA DE FONCTIONS RÉELLES

Lemme 7.6. Une matrice symétrique A ∈ Rn×n est définie positive si et seulement si
∃c > 0 : x> Ax ≥ ckxk2 , ∀x ∈ Rn .
(On peut prendre n’importe quelle norme k · k sur Rn ; la constante c dépendra de la norme
choisie.)
Démonstration. Soit A définie positive et QA la forme quadratique associée à A. Clairement
QA est une fonction continue sur Rn . De plus, ∀t ∈ R, QA (tx) = t2 QA (x). Considérons
l’ensemble compact S = {x ∈ Rn : kxk = 1}. QA admet un maximum et un minimum sur
S. Soit c = minx∈Rn QA (x). Clairement, c > 0 car QA (x) > 0, ∀x ∈ S, et
 
x
x> Ax = QA (x) = kxk2 QA ≥ ckxk2 , ∀x ∈ Rn .
kxk
Inversement, s’il existe c > 0 tel que x> Ax ≥ ckxk2 , ∀x ∈ Rn , on conclut immédiatement
que A est définie positive.

Lemme 7.7. Soit A ∈ Rn×n une matrice symétrique. A est définie positive si et seulement
si toutes les valeurs propres λ1 , . . . , λn de A sont positives. De plus x> Ax ≥ λmin kxk22 , où
λmin = min{λi : 1 ≤ i ≤ n}.
Démonstration. On sait de l’algèbre linéaire qu’une matrice A ∈ Rn×n symétrique est
toujours diagonalisable avec valeurs propres réelles λ1 , . . . , λn et n vecteurs propres ortho-
normés v1 , . . . , vn (de norme euclidienne 1 et deux à deux orthogonaux ; chacun est écrit
sous forme colonne dans ce qui suit) :
 
λ1
 .. 
AV = V D, D=
 .  , λi ∈ R,
 V = [v1 , . . . , vn ] : V > V = V V > = I.
λn

Si A est définie positive, c’est-à-dire x> Ax > 0, ∀ 0 6= x ∈ Rn , en particulier l’inégalité de


l’énoncé est vraie pour x = vj et
vj> Avj = λj vj> vj = λj > 0, ∀j = 1, . . . , n.
Inversement, supposons λj > 0, ∀j = 1, . . . , n. Puisque {vj }nj=1 forme une base orthonor-
P
mée de Rn , on peut écrire de façon unique tout vecteur x ∈ Rn comme x = nj=1 βj vj = V β
(β étant un vecteur colonne) et kxk2 = kβk2 . Donc x> Ax = β > V > AV β = β > Dβ =
Pn 2 2 2
j=1 λj βj ≥ λmin kβk2 = λmin kxk2 .

Le Lemme précédent montre que la plus grande constante c possible du Lemme 7.6
est c = λmin si la matrice A est symétrique et si on utilise la norme euclidienne. On
revient maintenant à la question de caractériser les points d’extremum local d’une fonction
f : E → R.
Théorème 7.8 (condition suffisante pour extrema locaux). Soit E ⊂ R ouvert non vide,
f : E → R une fonction de classe C 2 sur E et x∗ ∈ E un point stationnaire de f ,
c’est-à-dire ∇f (x∗ ) = 0. Si Hf (x∗ ) est définie positive (resp. définie négative) alors f a
un minimum (resp. maximum) local strict en x∗ .
7.1. EXTREMA LIBRES 91

Démonstration. Considérons le cas Hf (x∗ ) définie positive (la démonstration pour Hf (x∗ )
définie négative est la même). Puisque f est de classe C 2 sur E on peut écrire un
développement limité d’ordre 2 de f au point x∗ :
1
f (x) = f (x∗ ) + ∇f (x∗ ) · (x − x∗ ) + (x − x∗ )> Hf (x∗ )(x − x∗ ) + Rf (x), ∀x ∈ E,
| {z } 2
=0

où on a utilisé que ∇f (x∗ ) = 0 (x∗ est un point stationnaire) et où Rf (x) est tel que
Rf (x) 2
limx→x∗ kx−x ∗ k2 = 0. Puisque Hf (x ) est définie positive, ∃c > 0 : v Hf (x )v ≥ ckvk
∗ > ∗

R (x)
pour tout v ∈ Rn . De plus, puisque limx→x∗ kx−xf
∗ k2 = 0, il existe δ > 0 tel que, pour tout

x ∈ B(x , δ) \ {x }, on a x ∈ E et |Rf (x)| ≤ 4 kx − x∗ k2 . Donc


∗ ∗ c

1
∀x ∈ B(x∗ , δ)\{x∗ }, f (x) = f (x∗ ) + (x − x∗ )> Hf (x∗ )(x − x∗ ) + Rf (x)
2| {z } | {z }
≥ckx−x∗ k2 ≥− 4c kx−x∗ k2
c
≥ f (x∗ ) + kx − x∗ k2 > f (x∗ ),
4
ce qui montre que x∗ est un point de minimum local strict de f .

D’après ce théorème, si la matrice hessienne est définie (positive ou négative) en un


point stationnaire, on peut conclure que ce point stationnaire est un point d’extremum
local. On se pose alors la question de savoir la nature d’un point stationnaire lorsque la
matrice hessienne en ce point est semi-définie ou indéfinie. On donne d’abord la définition
suivante.
Définition 7.9 (Point selle). Soit f : E → R, où E ⊂ Rn est ouvert non vide et f est
différentiable en un certain point stationnaire x∗ ∈ E. On dit que x∗ est un point selle de
f si  
∀δ > 0 ∃x, y ∈ B(x∗ , δ) ∩ E f (x) > f (x∗ ) et f (y) < f (x∗ ) .

Avec cette définition et le résultat du théorème 7.8, on a la classification suivante des


points stationnaires {x∗ ∈ E : ∇f (x∗ ) = 0}, où les λi (Hf (x∗ )) sont les valeurs propres de
Hf (x∗ ) (i = 1, . . . , n).
— Si Hf (x∗ ) est définie positive (i.e. x> Hf (x∗ )x > 0, ∀ 0 = 6 x ∈ Rn ou, de façon
équivalente, λi (Hf (x )) > 0, ∀i = 1, . . . , n), alors x est un point de minimum local
∗ ∗

strict. Lorsque n = 2, Hf (x∗ ) est définie positive ssi à la fois la trace de Hf (x∗ ) est
> 0 et det(Hf (x∗ )) > 0.
— Si Hf (x∗ ) est définie négative (i.e. x> Hf (x∗ )x < 0, ∀ 0 6= x ∈ Rn ou, de façon
équivalente, λi (Hf (x∗ )) < 0, ∀i = 1, . . . , n), alors x∗ est un point de maximum local
strict. Lorsque n = 2, Hf (x∗ ) est définie négative ssi à la fois la trace de Hf (x∗ ) est
< 0 et det(Hf (x∗ )) > 0.
— Si Hf (x∗ ) est indéfinie (i.e. ∃x, y ∈ Rn : x> Hf (x∗ )x > 0, y> Hf (x∗ )y < 0 ou, de
façon équivalente, ∃i, j = 1, . . . , n : λi (Hf (x∗ )) > 0 et λj (Hf (x∗ )) < 0) alors x∗
est un point selle. Une condition suffisante pour que Hf (x∗ ) soit indéfinie est que
det(Hf (x∗ )) < 0.
92 CHAPITRE 7. EXTREMA DE FONCTIONS RÉELLES

— Si Hf (x∗ ) est seulement semi-définie positive (ou négative), on ne peut pas conclure
sur la nature du point stationnaire à partir des résultats précédents.
Exemple 7.10. Considérons les trois fonctions f1 , f2 , f3 : R2 → R
f1 (x, y) = x2 + y 2 , f2 (x, y) = 1 − x2 − y 2 , f3 (x, y) = x2 − y 2 .
Pour toutes les trois fonctions, le seul point stationnaire est x∗ = (0, 0). Étudions sa nature
dans les trois cas.

" # 2

2 0
Fonction f1 : Hf1 (0, 0) = définie positive 1
0 2
1
0
−1 0
−0.5 0
0.5 1 −1
y
x

" # 1

−2 0
Fonction f2 : Hf2 (0, 0) = définie négative 0
0 −2
1
−1
−1 0
−0.5 0
0.5 1 −1
y
x

" # 1

2 0
Fonction f3 : Hf3 (0, 0) = indéfinie 0
0 −2
1
−1
−1 0
−0.5 0
0.5 1 −1
y
x

Exercice 7.11. Trouver les extrema locaux de la fonction f (x, y) = x3 + y 3 − 3x − 12y + 1


et les caractériser.

Si Hf (x∗ ) est seulement semi-définie positive (ou négative), on ne peut pas conclure que
x∗ est un point de minimum local (ou maximum local). De plus, même si gv (t) = f (x∗ + tv)
a un minimum local en t = 0 pour tout v ∈ Rn , on ne peut pas conclure que f admet un
minimum local en x∗ comme l’exemple suivant le montre.
Exemple 7.12. Considérons la fonction f (x, y) = y 2 − 3x2 y + 2x4 . On a
" # " #
−6xy + 8x3 −6y + 24x2 −6x
∇f (x, y) = , Hf (x, y) = .
2y − 3x2 −6x 2
7.2. EXTREMA LIÉS 93

Donc
" # (
0 −6xy + 8x3 = 0
∇f (x, y) = =⇒ ⇐⇒ (x, y) = (0, 0)
0 y = 32 x2
" #
0 0
et P = (0, 0) est le seul point stationnaire. De plus Hf (0, 0) = est semi-définie
0 2
positive. Pour toute droite x = (x, y) = tv, t ∈ R, v 6= (1, 0), on a
!
v
v Hf (0, 0)v = (v1 , v2 ) Hf (0, 0) 1
>
= 2v22 > 0,
v2

donc la fonction gv (t) = f (tv) a un minimum local strict en t = 0. De plus pour v = (1, 0),
gv (t) = f (t(1, 0)) = 2t4 a un minimum local srict en t = 0, donc ∀v ∈ R2 , gv (t) = f (tv) a
un minimum local strict t = 0. Toutefois, si on prend x = t et y = 32 t2 on a
3 9 9 1
f (t, t2 ) = t4 − t4 + 2t4 = − t4
2 4 2 4
qui a un maximum local strict en t = 0 ! Donc (0, 0) n’est pas un point d’extremum local
de f .

7.2 Extrema liés


Il est souvent le cas dans les applications, qu’on cherche a trouver le minimum (ou
maximum) d’une fonction minz∈E f (z) mais les variables z = (z1 , . . . , zn ) ne peuvent pas
être choisies arbitrairement et sont liées par des contraintes.
Exemple 7.13. Considérons une canette de forme cylindrique. On veut trouver la forme
optimale qui minimise la surface (qui requiert le minimum de matériel) tout en gardant
un volume constant. Soit ΣR,H = {(x, y, z) ∈ R3 : x2 + y 2 ≤ R2 , 0 ≤ z ≤ H} un cylindre
plein de hauteur H > 0 et de rayon R > 0.

2R

Ce cylindre a un volume V (R, H) = πR2 H et une surface S(R, H) = 2πR2 + 2πRH. Le


problème d’optimisation prend la forme suivante : pour V > 0 donné, discuter
min S(R, H) sous la contrainte V (R, H) = V .
R,H>0

Ceci est un problème de minimisation sous contrainte.


94 CHAPITRE 7. EXTREMA DE FONCTIONS RÉELLES

Soit E ⊂ Rn ouvert non vide et f, g : E → R de classe C 1 . On pose le problème de


minimisation (maximisation) sous contrainte suivant

min f (z) sous la contrainte g(z) = 0.


z∈E

Si on dénote par Σg = {z ∈ E : g(z) = 0} l’ensemble des points qui satisfont la contrainte


(appelé aussi ensemble faisable ou admissible), le problème de minimisation sous contrainte
peut s’écrire de façon équivalente comme

min f (z).
z∈Σg

Déterminer si le minimum est fini et effectivement atteint fait partie de la discussion.


Définition 7.14. On dit que z∗ ∈ Σg est un point de minimum local de f sur Σg si

∃δ > 0 ∀z ∈ B(z∗ , δ) ∩ Σg f (z∗ ) ≤ f (z)

Le minimum est strict si l’inégalité est stricte, dans le même sens qu’expliqué plus haut.
De la même façon, on dit que z∗ ∈ Σg est un point de maximum local de f sur Σg si

∃δ > 0 ∀z ∈ B(z∗ , δ) ∩ Σg f (z∗ ) ≥ f (z).

Le maximum est strict si l’inégalité est stricte. On utilise aussi la terminologie de mini-
mum/maximum (strict ou non) lié.
On se pose la question de caractériser les points d’extremum (minimum/maximum)
liés. Voyons quelques exemples :
Exemple 7.15. On considère le problème de minimisation suivante :

min x2 + y 2 sous la contrainte x + y − 1 = 0.


(x,y)∈R2

La fonction f (x, y) = x2 + y 2 à minimiser est convexe et a un minimum global en (0, 0).


Toutefois, ce point ne satisfait pas la contrainte. Le minimum lié est caractérisé par le fait
que ∇f est perpendiculaire à la contrainte au point de minimum lié. Voir la figure 7.2
(gauche) pour une interprétation graphique.
Exemple 7.16. On considère le problème de minimisation suivante :

min x + y sous la contrainte x2 + y 2 − 1 = 0.


(x,y)∈R2

La fonction f (x, y) = x + y n’a pas de minimum ou maximum sur R2 . Toutefois, l’ensemble


Σg = {(x, y) : x2 + y 2 − 1 = 0} est compact, donc f étant continue, elle atteint son
maximum et minimum sur Σg . On voit encore qu’aussi bien au point de minimum lié
qu’au point de maximum lié, le vecteur ∇f est perpendiculaire à la courbe Σg (c’est-à-dire,
orthogonal au plan tangent).
Soit g(x, y) = x2 + y 2 − 1 et xM le point de maximum lié. Puisque ∇g = (2y, 2y)> 6=
0, ∀(x, y) ∈ Σg , l’équation g = 0 définit implicitement une fonction y = φ(x) ou x = φ(y),
y

7.2. EXTREMA LIÉS 95

Minimum lié

Contrainte x + y − 1 = 0
∇f maximum lié

∇f
x

Contrainte Σg ∇f

minimum lié
Courbes de niveau de f

Figure 7.2 – Gauche : Problème de minimisation, Exemple 7.15. Droite : Problème de minimisa-
tion, Exemple 7.16.

et, autour de chaque point z ∈ Σg , l’ensemble Σg peut être représenté par le graphe d’une
fonction. De plus, le vecteur ∇g(z) est normal au plan tangent Πz (Σ) à Σg en z.
Puisqu’au point du maximum lié on a que ∇f (xM ) est aussi un vecteur normal au
plan tangent ΠxM (Σ), il s’ensuit que ∇f (xM ) k ∇g(xM ), c’est-à-dire ∃λ ∈ R : ∇f (xM ) =
λ∇g(xM ). Ceci est en fait une condition nécessaire pour avoir un extremum lié comme le
théorème suivant le montre.

Théorème 7.17 (Condition nécessaire d’optimalité). Soit n ≥ 2, E ⊂ Rn ouvert non


vide, f, g : E → R deux fonctions de classe C 1 (E) et z∗ ∈ Σg = {z ∈ E : g(z) = 0}
un point d’extremum local de f sur Σg . Alors, si ∇g(z∗ ) 6= 0, il existe λ∗ ∈ R tel que
∇f (z∗ ) = λ∗ ∇g(z∗ ).

Démonstration. Puisque ∇g(z∗ ) 6= 0, il y a au moins une composante non nulle, soit


∂zj (z ) 6= 0. Pour se fixer les idées, supposons que j = n, le cas général se traitant de la
∂g ∗

même manière en permutant le rôle des coordonnées. Notons y = zn et x = (z1 , . . . , zn−1 ) ∈


Rn−1 , de sorte que tout point z ∈ E puisse s’écrire comme z = (x, y) ; en particulier
z∗ = (x∗ , y ∗ ). Par le théorème des fonctions implicites, il existe δ > 0 et une unique
fonction φ : B(x∗ , δ) ⊂ Rn−1 → R telle que φ(x∗ ) = y ∗ , (x, φ(x)) ∈ E et g(x, φ(x)) = 0
sur B(x∗ , δ), et le graphe de φ coïncide avec Σg dans un voisinage de z∗ .
Alors la fonction f˜(x) = f (x, φ(x)) admet un extremum local (libre) en x∗ et ∇f˜(x∗ ) =
0. Donc
∂ f˜ ∗ ∂f ∗ ∂f ∗ ∂φ ∗
0= (x ) = (x , φ(x∗ )) + (x , φ(x∗ )) (x ), ∀i = 1, . . . , n − 1.
∂xi ∂xi ∂y ∂xi
D’autre part,
∂φ ∗
∂g
(z∗ )
(x ) = − ∂xi
.
∂y (z )
∂xi ∂g ∗
96 CHAPITRE 7. EXTREMA DE FONCTIONS RÉELLES

Par conséquent, on a

∂f ∗ ∂xi (z )
∂g ∗
∂f ∗
(z ) − (z ) ∂g = 0, ∀i = 1, . . . , n − 1.
∂y (z )
∂xi ∂y ∗

∂f
(z∗ )
Si on pose λ∗ = ∂y
, alors
∂g
∂y
(z∗ )

∂f ∗ ∂g ∗
(z ) = λ∗ (z ), ∀i = 1, . . . , n − 1
∂xi ∂xi
et, par définition, ∂y (z )
∂f ∗
= λ∗ ∂y (z ). On a donc bien
∂g ∗

∇f (z∗ ) = λ∗ ∇g(z∗ ).

D’après le théorème, une condition nécessaire pour que z∗ ∈ Σg , avec ∇g(z∗ ) 6= 0, soit
un point d’extremum lié de f sur Σg est que (z∗ , λ∗ ) soit solution du système
(
∇f (z) = λ∇g(z)
(7.1)
g(z) = 0
de n + 1 équations à n + 1 inconnues (z, λ) = (z1 , . . . , zn , λ). On remarque, en particulier,
qu’un point z∗ d’extremum lié de f sur Σg n’est généralement pas un point stationnaire
de f car ∇f (z∗ ) = λ∗ ∇g(z∗ ) 6= 0 si λ∗ 6= 0.
Exemple 7.18. On cherche les extrema de f (x, y) = x+y, liés par la contrainte g(x, y) = 0,
où g(x, y) = x2 + y 2 − 1. On résout d’abord le système de 3 équations à trois inconnues
(x, y, λ) :
 
 ∂x (x, y) = λ ∂x (x, y) 1 = 2λx
(  ∂f ∂g 
 
∇f (x, y) = λ∇g(x, y)
=⇒ ∂y (x, y) = λ ∂y (x, y)
∂f ∂g
=⇒ 1 = 2λy
g(x, y) = 0 

g(x, y) = 0


x2 + y 2 = 1

On remarque que λ = 0 n’est pas une solution. Alors, les premières deux équations donnent
1
x = y = 2λ et, de la troisième équation, on obtient λ2 = 12 qui admet les deux solutions
λ∗ = ± √12 . On a alors deux points candidats :
1 1 1 1
P1 = ( √ , √ ), P2 = (− √ , − √ ).
2 2 2 2
Puisque l’ensemble Σg = {(x, y) : g(x, y) = 0} est compact et f est continue, alors f
admet un maximum et un minimum sur Σg et nécessairement P1 ou P2 doit être un point
de maximum lié et l’autre un point de minimum lié. Par évaluation directe de f en P1 et
P2 on conclut :
1 1 2
P1 = ( √ , √ ) est un point de maximum lié, max f (x, y) = f (P1 ) = √ ,
2 2 (x,y)∈Σg 2
1 1 2
P2 = (− √ , − √ ) est un point de minimum lié, min f (x, y) = f (P2 ) = − √ .
2 2 (x,y)∈Σg 2
7.3. MÉTHODE DES MULTIPLICATEURS DE LAGRANGE 97

7.3 Méthode des multiplicateurs de Lagrange


Le système (7.1) donne des conditions nécessaires d’optimalité. Il y a une autre façon
d’obtenir ce système qui utilise la fonction de Lagrange (ou lagrangienne)
L : E × R → R, L(z, λ) = f (z) − λg(z).
La variable λ ∈ R est appelée dans ce cas le multiplicateur de Lagrange.
Si z∗ ∈ Σg = {z ∈ E : g(z) = 0} est un point d’extremum lié de f sur Σg avec
∇g(z∗ ) 6= 0, alors d’après le théorème 7.17, il existe λ∗ ∈ R tel que (z∗ , λ∗ ) est solution
de (7.1). On vérifie facilement que ceci est équivalent à dire que (z∗ , λ∗ ) est un point
stationnaire de la fonction de Lagrange. En effet
( (
∇z L(z∗ , λ∗ ) = 0 ∇f (z∗ ) = λ∗ ∇g(z∗ )
∇L(z∗ , λ∗ ) = 0 ⇐⇒ ⇐⇒
∂λ L(z , λ ) = 0 g(z∗ ) = 0.
∂ ∗ ∗

Donc pour trouver les extrema liés de f sur Σg , il faut d’abord chercher les points
stationnaires de L.

7.4 Extrema sous contraintes multiples


Dans les sections précédentes on a considéré le cas où les variables z = (z1 , . . . , zn )
sont liées par une contrainte g(z) = 0. Les arguments présentés se généralisent au cas où
les variables z = (z1 , . . . , zn ) sont liées par plusieurs contraintes.
Soit E ⊂ Rn ouvert non vide et f, g1 , g2 , . . . , gm : E → R de classe C 1 (E), avec m < n.
On pose le problème de minimisation sous contraintes multiples suivant
min f (z) sous les contraintes gi (z) = 0, i = 1, . . . , m. (7.2)
z∈E

Soit g = (g1 , . . . , gm ) : E → Rm et Σg = {z ∈ E : g(z) = 0} = {z ∈ E : gi (z) = 0, ∀i =


1, . . . , m} l’ensemble faisable. Alors le problème (7.2) est équivalent à
min f (z).
z∈Σg

Le théorème 7.17 sur les conditions nécessaires d’optimalité se généralise de la façon


suivante.
Théorème 7.19 (condition nécessaire d’optimalité – contraintes multiples). Soit E ⊂ Rn
ouvert non vide, f, g1 , . . . , gm ∈ C 1 (E) et z∗ ∈ Σg = {z ∈ E : gi (z) = 0, i = 1, . . . , m}
un point d’extremum local lié de f sur Σg (avec m < n). Si Rang(Dg(z∗ )) = m, c’est-à-
dire si les vecteurs {∇g1 (z∗ ), . . . , ∇gm (z∗ )} sont linéairement indépendants, alors il existe
λ∗ = (λ∗1 , . . . , λ∗m ) ∈ Rm tel que
m
X
∇f (z∗ ) = λ∗i ∇gi (z∗ )
i=1

ou, de façon équivalente, (z∗ , λ∗ )


∈E× Rm
est un point stationnaire de la fonction de
P
Lagrange L : E × Rm → R, L(z, λ) = f (z) − λ · g(z) = f (z) − mi=1 λi gi (z) i.e.

∇(z,λ) L(z∗ , λ∗ ) = 0.
98 CHAPITRE 7. EXTREMA DE FONCTIONS RÉELLES

Démonstration. Puisque Rang(Dg(z∗ )) = m, il existe m colonnes linéairement indépen-


dantes de la matrice Jacobienne Dg(z∗ ). Soient (i1 , . . . , im ) ces colonnes. Pour se fixer
les idées, supposons que ce soit les m dernières : (i1 , . . . , im ) = (n − m + 1, . . . , n), le cas
général se traitant de la même manière en permutant le rôle des n coordonnées. Notons
y = (zn−m+1 , . . . , zn ) et x = (z1 , . . . , zn−m ) les variables restantes, de sorte que z = (x, y)
et, en particulier, z∗ = (x∗ , y∗ ). De plus, nous décomposons la matrice jacobienne en
Dg(z∗ ) = [Dx g(z∗ )|Dy g(z∗ )] où
 ∂g1 ∗ 
∂zn−m+1 (z ) ∂zn (z )
∂g1 ∗ ···
 .. .. 
Dy g(z∗ ) = 
 . .
 ∈ Rm×m

∂zn−m+1 (z ) ∂zn (z )
∂gm ∗ ∂gm ∗
···

est inversible. Puisque det(Dy g(z∗ )) 6= 0, on peut appliquer le théorème des fonctions
implicites. Donc il existe une boule ouverte U = B(x∗ , δ) ⊂ Rn−m , un ouvert V ⊂ E ⊂ Rn
contenant z∗ et une fonction φ : U → Rm de classe C 1 (U ) tels que
— y∗ = φ(x∗ ) et, pour tout x ∈ U , (x, φ(x)) ∈ V et g(x, φ(x)) = 0 ;
— Σg ∩ V = G(φ)
— Dφ(x∗ ) = −(Dy g(z∗ ))−1 Dx g(z∗ ).
Introduisons f˜(x) = f (x, φ(x)), x ∈ U . Alors x∗ est un extremum local de f˜ sur U et
Df˜(x∗ ) = 0. On a
0 = Df˜(x∗ ) = Dx f (z∗ ) + Dy f (z∗ ) · Dφ(x∗ )
= Dx f (z∗ ) − Dy f (z∗ )Dy g(z∗ )−1 Dx g(z∗ ).

Si on pose λ∗ = Dy f (z∗ ) Dy g(z∗ )−1 ∈ R1×m (vecteur ligne), on a pour i = 1, . . . , n − m


| {z }| {z }
∈R1×m ∈Rm×m

Xm
∂f ∗ ∂f ∗ ∂gj ∗
0= (z ) − λ∗ Dxi g(z∗ ) = (z ) − λ∗j (z )
∂xi ∂xi j=1
∂xi

et, par définition, Dy f (z∗ ) = λ∗ Dy g(z∗ ) qui implique


Xm
∂f ∗ ∂gj ∗
(z ) = λ∗j (z ) i = 1, . . . , m.
∂yi j=1
∂yi

Donc finalement m
∂f ∗ X ∂gj ∗
(z ) = λ∗j (z ), i = 1, . . . , n
∂zi j=1
∂zi
que l’on peut écrire comme
m
X
∇f (z∗ ) = λ∗j ∇gj (z∗ )
j=1
ou encore
∇(z,λ) L(z∗ , λ∗ ) = 0.
7.5. CONDITIONS SUFFISANTES 99

Exercice 7.20. Chercher les extrema liés de f (x, y, z) = x + y + z sous les contraintes
g1 (x, y, z) = x2 + y 2 − 2 = 0, g2 (x, y, z) = x + z − 1 = 0.

7.5 Conditions suffisantes


On mentionne ici sans démonstration (laissée comme exercice) des conditions suffisantes
pour avoir un extremum local lié.

Théorème 7.21. Soit E ⊂ Rn ouvert non vide, f, g1 , . . . , gm ∈ C 2 (E) et (z∗ , λ∗ ) ∈ E×Rm


P
un point stationnaire de la fonction de Lagrange L(z, λ) = f (z) − m i=1 λi gi (z) (c’est-à-
dire ∇L(z∗ , λ∗ ) = 0). On note g = (g1 , . . . , gm ) : E → Rm et Σg = {z ∈ E : g(z) = 0}
l’ensemble faisable. Supposons encore Rang(Dg(z∗ )) = m et considérons l’espace vectoriel
tangent à Σg en z∗ :

Tz∗ (Σg ) = {w ∈ Rn : Dg(z∗ ) · w = 0}.

Si !
m
X
∀w ∈ Tz∗ (Σg )\{0} w >
Hf (z ) −

λ∗i Hgi (z∗ ) w > 0,
i=1

alors z∗ est un point de minimum local de f sur Σg .

La condition Dg(z∗ ) · w = 0 dans le théorème précédent implique (∇gi (z∗ ))> · w =


0, ∀i = 1, . . . , m. Donc les directions w sont des directions orthogonales à tous les vecteurs
∇gi (z∗ ) et donc tangentielles à la contrainte g(x) = 0.
(z)
Si on note HL (z, λ) la matrice Hessienne de L calculée uniquement par rapport aux
variables z :

(z)
 ∂2L ∂2f Xm
∂ 2 g`
HL (z, λ) = (z, λ) = (x) − λ` (x),
ij ∂zi ∂zj ∂zi ∂zj `=1
∂zi ∂zj

(z) P
on voit que HL (z, λ) = Hf (z) − m `=1 λ` Hg` (z). Le théorème précédent nous dit ainsi
que, si
(z)
∀w ∈ Tz∗ (Σg )\{0} w> HL (z∗ , λ∗ )w > 0,
alors z∗ est un point de minimum local lié. Il suffit de vérifier la positivité de la forme
(z)
quadratique w> HL (z∗ , λ∗ )w (et non pas de w> Hf (z∗ )w !) uniquement pour les directions
tangentielles à la contrainte g(z) = 0.
100 CHAPITRE 7. EXTREMA DE FONCTIONS RÉELLES
Chapitre 8

Intégrale multiple au sens de


Riemann

Soit E ⊂ Rn borné non vide et f : E → R bornée. On veut définir l’intégrale de f sur


E, noté Z
f (x)dx.
E
On parle d’intégrale double lorsque E ⊂ R2 , d’intégrale triple lorsque E ⊂ R3 et, plus
généralement, d’intégrale multiple pour n > 1. On commence notre étude par le cas
où le domaine E est un pavé de Rn , i.e. un rectangle fermé en dimension n = 2 et un
hyper-rectangle fermé en dimension n > 2.

8.1 Pavés de Rn
On commence par donner la définition de pavé ainsi que de partition d’un pavé et
raffinement d’une partition.
Définition 8.1 (Pavé). On appelle pavé tout ensemble R ⊂ Rn de la forme R = [a1 , b1 ] ×
· · · × [an , bn ] où aj ≤ bj , j = 1, . . . , n sont des nombres réels. Le volume de R, noté Vol(R),
est défini comme
n
Y
Vol(R) = (bj − aj ).
j=1

On dit que R est un pavé dégénéré s’il existe un ou plusieurs k = 1, . . . , n tels que ak = bk .
Dans ce cas on a Vol(R) = 0.
Définition 8.2 (Partition). On appelle partition d’un pavé R ⊂ Rn , une collection finie
S
P de pavés tels que Q∈P Q = R et, pour tout Q, Q0 ∈ P, Q 6= Q0 , on a Q̊ ∩ Q̊0 = ∅.
La figure 8.1(gauche) montre un exemple de partition d’un pavé.
Définition 8.3. Une partition P d’un pavé R = [a1 , b1 ] × . . . × [an , bn ] sera dite tensorielle
s’il existe, pour tout j ∈ {1, . . . , n},

aj = t0j ≤ . . . ≤ tj j = bj dans R, Nj ∈ N∗ ,
N

101
102 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

Q
R R

Figure 8.1 – Exemple d’une partition d’un pavé de R2 (gauche) et d’un possible raffinement de
cette partition (droite).

tels que
n o
P = [tα1 1 , t11+α1 ] × . . . × [tαnn , t1+α
n
n
] : 0 ≤ α1 ≤ N1 − 1, . . . , 0 ≤ αn ≤ Nn − 1 .

On notera alors P = (t01 , . . . , tN 0


1 ) ⊗ . . . ⊗ (tn , . . . , tn ). Le contexte devrait permettre de
1 Nn

ne pas confondre des indices supérieurs comme ici avec des puissances.
Définition 8.4 (Raffinement d’une partition). Soit P, P 0 deux partitions d’un pavé R ⊂
0 = {Q0 ∈
Rn . On dit que P 0 est un raffinement de P si, pour tout Q ∈ P, la collection PQ
P : Q ⊂ Q} est une partition du pavé Q.
0 0

La figure 8.1(droite) montre un exemple d’un raffinement d’une partition. À partir de


la définition 8.4 on peut montrer les propriétés suivantes des pavés d’un raffinement P 0
d’une partition P.
— Si Q0 ⊂ Q1 et Q0 ⊂ Q2 avec Q0 ∈ P 0 et Q1 6= Q2 dans P, alors Vol(Q0 ) = 0.
— Si Q0 ∈ P 0 n’est inclus dans aucun Q ∈ P, alors Vol(Q0 ) = 0.
— P 0 est un raffinement de P si et seulement si pour tout Q0 ∈ P 0 non dégénéré il
existe Q ∈ P tel que Q0 ⊂ Q.
— Si le raffinement P 0 de P est une partition tensorielle, alors, pour tout Q ∈ P,
PQ0 = {Q0 ∈ P 0 : Q0 ⊂ Q} est une partition tensorielle de Q.

On a aussi les résultats suivants.


Lemme 8.5. Soit P, P 0 deux partitions d’un pavé R ⊂ Rn . Alors il existe une partition
tensorielle P 00 qui est un raffinement à la fois de P et P 0 . En particulier, toute partition
P admet un raffinement tensoriel.
Démonstration. Notons R = [a1 , b1 ] × . . . × [an , bn ], et soit K et K 0 les nombres de pavés
dans P et P 0 . Notons aussi
n o
P ∪ P 0 = [ai1 , bi1 ] × . . . × [ain , bin ] : 1 ≤ i ≤ K + K 0

Pour chaque j ∈ {1, . . . , n}, ordonnons a1j , b1j , a2j , b2j , . . . , aK+K :
0 0
j , bK+K
j

2(K+K 0 ) 2(K+K 0 )
{a1j , b1j , a2j , b2j , . . . , aK+K } = {t0j , t1j , . . . , tj } avec t0j ≤ t1j ≤ . . . ≤ tj
0 0
j , bK+K
j .
8.2. FONCTIONS INTÉGRABLES SUR UN PAVÉ 103

Alors
2(K+K 0 )
P 00 = (t01 , . . . , t1 ) ⊗ . . . ⊗ (t0n , . . . , t2(K+K )
)
0
n

est un raffinement commun.

Lemme 8.6. Soit P une partition d’un pavé R ⊂ Rn . Alors


X
Vol(R) = Vol(Q)
Q∈P

Démonstration. Supposons d’abord que P est tensorielle :

P = (t01 , . . . , tN 0
1 ) ⊗ . . . ⊗ (tn , . . . , tn ).
1 Nn

Alors
X 1 −1
NX n −1 
NX   
Vol(Q) = ... t1+α
1
1
− tα1 1 · . . . · t1+α
n
n
− tαnn
Q∈P α1 =0 αn =0

1 −1 
NX  n −1 
NX     
= t11+α1 − tα1 1 · . . . · t1+α
n
n
− tαnn = tN 0 0
1 − t1 · . . . · tn − tn = Vol(R).
1 Nn

α1 =0 αn =0

Passons au cas général et appliquons le lemme 8.5 à P 0 = P, ce qui donne un raffinement


P 00 de P qui est une partition tensorielle. On a donc
X
Vol(R) = Vol(Q00 ) (cf début de la preuve)
Q00 ∈P 00
 
X X
=  Vol(Q00 ) (car P 00 est un raffinement de P)
Q∈P Q00 ∈P 00 , Q00 ⊂Q
X
= Vol(Q).
Q∈P

Pour la dernière égalité on a utilisé le fait que PQ


00 = {Q00 ∈ P 00 : Q00 ⊂ Q} est une partition

tensorielle de Q ; voir une remarque précédente.

8.2 Fonctions intégrables au sens de Riemann sur un pavé


Soit R ⊂ Rn un pavé et f : R → R une fonction bornée (pas nécessairement continue).
Définition 8.7 (Sommes de Darboux). Soit P une partition de R. On définit
X  
somme inférieure : S(f, P) = inf f (x) Vol(Q),
x∈Q
Q∈P
!
X
somme supérieure : S(f, P) = sup f (x) Vol(Q).
Q∈P x∈Q

On remarque que, puisque f est bornée et P est une partition finie, les quantités S(f, P)
et S(f, P) sont bien définies. Le lemme suivant montre aussi qu’une somme inférieure est
toujours plus petite qu’une somme supérieure.
104 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

Lemme 8.8. Soit P une partition de R, et P 00 un raffinement de P. Alors,

S(f, P) ≤ S(f, P 00 ) ≤ S(f, P 00 ) ≤ S(f, P).

De plus, pour toute partition P, P 0 de R on a S(f, P) ≤ S(f, P 0 ).

Démonstration. Puisque P 00 est un raffinement de P, on a


[ X
∀Q ∈ P Q= Q00 et Vol(Q) = Vol(Q00 ).
Q00 ∈P 00 Q00 ∈P 00
Q00 ⊂Q Q00 ⊂Q

Donc
X   X   X
S(f, P) = inf f (x) Vol(Q) = inf f (x) Vol(Q00 )
x∈Q x∈Q
Q∈P Q∈P Q00 ∈P 00
Q00 ⊂Q
X X  
≤ inf 00 f (x) Vol(Q00 ) = S(f, P 00 ).
x∈Q
Q∈P Q00 ∈P 00
Q00 ⊂Q

De la même façon, on prouve S(f, P 00 ) ≤ S(f, P). Enfin, l’inégalité S(f, P 00 ) ≤ S(f, P 00 )
est immédiate.
Puisque toute paire de partitions P, P 0 de R admet un raffinement commun, le résultat
précédent implique immédiatement S(f, P) ≤ S(f, P 0 ).

On est maintenant en mesure de donner la définition suivante de fonction intégrable


au sens de Riemann.

Définition 8.9 (Fonction intégrable au sens de Riemann). Soit R ⊂ Rn un pavé et


f : R → R une fonction bornée. On appelle
Z
intégrale de Riemann supérieure f (x)dx := inf{S(f, P), P partition de R},
Z R
intégrale de Riemann inférieure f (x)dx := sup{S(f, P), P partition de R}.
R

On dit que f est intégrable au sens de Riemann (ou “Riemann-intégrable” ou simplement


“intégrable”) si
Z Z
f (x)dx = f (x)dx.
R R

Dans ce cas on note Z Z Z


f (x)dx := f (x)dx = f (x)dx.
R R R

On note R(R) l’ensemble des fonctions f : R → R bornées et intégrables au sens de


Riemann.
8.2. FONCTIONS INTÉGRABLES SUR UN PAVÉ 105

Puisque dans la définition ci-dessus on a supposé f bornée, pour toute partition P de


R donnée, on a
Z Z
−∞ < S(f, P) ≤ f (x)dx ≤ f (x)dx ≤ S(f, P) < +∞.
R R
R R
On voit donc que R f (x)dx et R f (x)dx existent et sont finies. Une autre caractérisation
des fonctions intégrables au sens de Riemann est la suivante.

Lemme 8.10. Soit R ⊂ Rn un pavé et f : R → R bornée. Alors f est intégrable au sens


de Riemann si et seulement si pour tout  > 0 il existe une partition P de R telle que

S(f, P ) − S(f, P ) < .

Démonstration. « ⇐ » : Supposons que, pour tout  > 0, il existe une partition P de R


telle que S(f, P ) − S(f, P ) < . Alors
Z Z
f (x)dx ≤ S(f, P ), f (x)dx ≥ S(f, P )
R R

et Z Z
f (x)dx − f (x)dx ≤ S(f, P ) − S(f, P ) < .
R R
R R
Comme  > 0 est arbitraire, ceci implique R f (x)dx = R f (x)dx et par conséquent, f est
intégrable au sens de Riemann.
« ⇒ » : Supposons f intégrable au sens de Riemann. Par définition de sup et inf on a
que ∀ > 0
Z Z
 
∃P partition de R : S(f, P ) > f (x)dx − = f (x)dx − ,
R 2 R 2
Z Z
 
∃P0 partition de R : S(f, P0 ) < f (x)dx + = f (x)dx + .
R 2 R 2
Soit P00 un raffinement commun de P et P0 . Alors
Z

S(f, P00 ) ≥ S(f, P ) >
f (x)dx − ,
ZR
2

S(f, P ) ≤ S(f, P ) <
00 0
f (x)dx + ,
R 2
ce qui implique
S(f, P00 ) − S(f, P00 ) < .

À partir de cette caractérisation, on montre facilement le résultat suivant :

Théorème 8.11. Soit R ⊂ Rn un pavé et f : R → R une fonction continue. Alors f est


intégrable au sens de Riemann.
106 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

Démonstration. R est compact et f est continue sur R, donc uniformément continue. Ceci
implique que
  
∀ > 0 ∃δ > 0 ∀x, y ∈ R kx − yk < δ ⇒ |f (x) − f (y)| < ,
1 + Vol(R)
où on utilise dans cette démonstration la norme euclidienne de Rn . Soit P une partition
de R telle que
∀Q ∈ P diam(Q) = max kx − yk < δ .
x,y∈Q

Une telle partition existe toujours. Il suffit de prendre la partition tensorielle de R =


[a1 , b1 ] × · · · × [an , bn ] suivante : P = (t01 , . . . , tN 0
1 ) ⊗ . . . ⊗ (tn , . . . , tn ) avec
N

i
tij = aj + (bj − aj ) , 0 ≤ i ≤ N, 1 ≤ j ≤ n,
N
pP
et N ∈ N∗ choisi tel que N > i=1 (bi − ai ) /δ de telle sorte que pour tout Q ∈ P et
n 2

x, y ∈ Q on a kx − yk < δ . On a alors
X  
S(f, P) − S(f, P) = max f (x) − min f (x) Vol(Q)
x∈Q x∈Q
Q∈P
 X
≤ Vol(Q)
1 + Vol(R) Q∈P
< ,

ce qui montre que f est intégrable au sens de Riemann.

Grâce à ce résultat, on a immédiatement que C 0 (R) ⊂ R(R). D’autre part, si R est


dégénéré et f : R → R est bornée, alors f est toujours intégrable au sens de Riemann et
d’intégrale nulle.
On conclut cette section par un résultat qui sera utile par la suite.

Lemme 8.12. Soit deux pavés R et R b dans Rn tels que R ⊂ int(R),


b soit f : R → R une
fonction bornée et notons f : R → R le prolongement par zéro de f sur R
b b b :

fb(x) = f (x) pour tout x ∈ R et fb(x) = 0 pour tout x ∈ R\R.


b
R R
Alors f est Riemann-intégrable ssi fb l’est, auquel cas R f (x)dx = Rb fb(x)dx.

Démonstration. Supposons d’abord f Riemann-intégrable et soit  > 0. Choisissons une


partition P de R telle que
S(f, P ) − S(f, P ) < .
Soit encore un pavé R tel que

R ⊂ int(R ) ⊂ R ⊂ int(R)
b

et

Vol(R ) − Vol(R) < avec M > sup |f (x)|.
2M x∈R
8.2. FONCTIONS INTÉGRABLES SUR UN PAVÉ 107

Soit la partition tensorielle Pb de R


b définie à partir de toutes les composantes (éven-
tuellement répétées) de tous les sommets des pavés dans P et des sommets de R et
b Alors aucun Q ∈ P
R. b ne contient à la fois un point de R̊ et un point de R\R.b De
même aucun Q ∈ P ne contient à la fois un point de R̊ et un point de R\R . De plus
b b
{Q ∈ Pb : Q ⊂ R} est une partition de R qui raffine P . On a donc, où Q ∈ Pb ,
 
X X X 
S(fb, Pb ) =  + +  sup fb(x) Vol(Q)
Q⊂R Q⊂R \R̊ b R̊ x∈Q
Q⊂R\

X X M 
≤ S(f, P ) + M Vol(Q) + 0 ≤ S(f, P ) + = S(f, P ) + .
2M 2
Q⊂R \R̊ b R̊
Q⊂R\

De même

S(fb, Pb ) ≥ S(f, P ) −
2
et donc
S(fb, Pb ) − S(fb, Pb ) ≤ S(f, P ) − S(f, P ) +  < 2.
Comme  > 0 est arbitraire, fb est Riemann-intégrable. De plus, en considérant de nouveau
 > 0, ce qui précède donne
Z
 
S(f, P ) − ≤ fb(x)dx ≤ S(f, P ) +
2 b
R 2
et, par ailleurs,
Z
 
S(f, P )) − ≤ S(f, P ) ≤ f (x)dx ≤ S(f, P ) ≤ S(f, P ) + .
2 R 2
D’où Z Z
fb(x)dx − f (x)dx < 2
b
R R
et, puisque  > 0 est arbitraire, les deux intégrales sont égales.
Réciproquement, supposons fb Riemann-intégrable et soit  > 0. Choisissons une
partition Pb de R
b telle que
S(fb, Pb ) − S(fb, Pb ) < .
Soit encore un pavé R tel que
R ⊂ int(R ) ⊂ R ⊂ int(R)
b

et

Vol(R ) − Vol(R) < avec M > sup |f (x)|.
2M x∈R

Soit la partition tensorielle Pb0 de R


b définie à partir de toutes les composantes (éventuelle-
ment répétées) de tous les sommets des pavés dans Pb et des sommets de R et R . Alors
P = {Q ∈ Pb0 : Q ⊂ R} est une partition de R. On a, où Q ∈ Pb0 ,
 
X X X 
S(fb, Pb0 ) =  + +  sup fb(x) Vol(Q)
Q∈P Q⊂R \R̊ b R̊ x∈Q
Q⊂R\
108 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

M 
≥ S(f, P ) − + 0 = S(f, P ) − .
2M 2
De même

S(fb, Pb0 ) ≤ S(f, P ) +
2
et donc

S(f, P ) − S(f, P ) ≤ S(fb, Pb0 ) − S(fb, Pb0 ) +  ≤ S(fb, Pb ) − S(fb, Pb ) +  < 2.
R
Comme  > 0 est arbitraire, f est Riemann-intégrable et on conclut que R f (x)dx =
R b
b f (x)dx par le même argument qu’auparavant.
R

8.3 Intégrales itérées sur un pavé et théorème de Fubini


On montre ici une procédure simple pour calculer l’intégrale d’une fonction sur un
pavé. Elle se base sur le résultat suivant qui prend le nom de formule des intégrales itérées.

Théorème 8.13 (de Fubini). Soit R ⊂ Rn+m un pavé de la forme R = R(1) × R(2) , R(1) ⊂
Rn , R(2) ⊂ Rm et f : R → R une fonction bornée et intégrable au sens de Riemann,
f = f (x, y), x ∈ R(1) , y ∈ R(2) . Si ∀y ∈ R(2) la fonction
R
f (·, y) : R(1) → R est intégrable
au sens de Riemann, alors la fonction y 7→ G(y) = R(1) f (x, y)dx, y ∈ R(2) , est aussi
intégrable au sens de Riemann et
Z Z Z Z 
f (x, y)dxdy = G(y)dy = f (x, y)dx dy,
R R(2) R(2) R(1)
R
où R f (x, y)dxdy est une notation pour l’intégrale de f sur R.
Reciproquement, si ∀x ∈ R(1) la fonction
R
f (x, ·) : R(2) → R est intégrable au sens de
Riemann, alors la fonction x 7→ F (x) = R(2) f (x, y)dy, x ∈ R(1) , est aussi intégrable au
sens de Riemann et
Z Z Z Z 
f (x, y)dxdy = F (x)dx = f (x, y)dy dx,
R R(1) R(1) R(2)

Démonstration. Puisque f est intégrable, ∀ > 0 il existe une partition P de R telle que
S(f, P ) − S(f, P ) < . Cette partition admet toujours un raffinement P0 qui est une
partition tensorielle :

P0 = (t01 , . . . , tN 0
1 ) ⊗ . . . ⊗ (tn+m , . . . , tn+m ).
1 n+m N

Soit

P(1) = (t01 , . . . , tN 0 (2) 0 0


1 )⊗. . .⊗(tn , . . . , tn ) et P = (tn+1 , . . . , tn+1 )⊗. . .⊗(tn+m , . . . , tn+m ),
1 Nn n+1 N n+m N

des partitions de respectivement R(1) et R(2) . Alors, pour tout y ∈ R(2) ,


Z
S(f (·, y), P(1) ) ≤ f (x, y)dx = G(y) ≤ S(f (·, y), P(1) ).
R(1)
8.3. INTÉGRALES ITÉRÉES SUR UN PAVÉ ET THÉORÈME DE FUBINI 109

Donc
!
X
S(G, P(2) ) = inf G(y) Vol(Q(2) )
(2) y∈Q(2)
Q(2) ∈P
!
X
≥ inf S(f (·, y), P(1) ) Vol(Q(2) )
(2) y∈Q(2)
Q(2) ∈P
 
X X
inf f (x, y) Vol(Q(1) ) Vol(Q(2) )
 
= inf 
(2) y∈Q(2) (1) x∈Q(1)
Q(2) ∈P Q(1) ∈P
!
X X
≥ inf f (x, y) Vol(Q(1) ) Vol(Q(2) )
(2) (1) (x,y)∈Q(1) ×Q(2)
Q(2) ∈P Q(1) ∈P

= S(f, P0 ) ≥ S(f, P ).

(2)
De façon similaire, on montre que S(G, P ) ≤ S(f, P0 ) ≤ S(f, P ) et donc

S(G, P(2) ) − S(G, P(2) ) ≤ S(f, P ) − S(f, P ) < ,

ce qui implique que G est intégrable au sens de Riemann sur R(2) . De plus,
Z
S(f, P ) ≤ S(G, P(2) ) ≤ G(y)dy ≤ S(G, P(2) ) ≤ S(f, P )
R(2)

et Z
S(f, P ) ≤ f (x, y)dxdy ≤ S(f, P )
R

avec S(f, P ) − S(f, P ) <  ; par l’arbitrarité de , on conclut


Z Z
G(y)dy = f (x, y)dxdy.
R(2) R

Corollaire 8.14. Soit R = R(1) × R(2) ⊂ Rn+m et f ∈ C 0 (R). Alors


R
— ∀y ∈ R(2) , G(y) = R(1) f (x, y)dx existe,
R
— ∀x ∈ R(1) , F (x) = R(2) f (x, y)dy existe,
R R R
— R(2) G(y)dy = R(1) F (x)dx = R f (x, y)dxdy.

Détaillons ce résultat en dimension n = 2 : R = [a, b] × [c, d], f : R → R continue.


Alors Z Z d Z b ! Z b Z d !
f (x, y)dxdy = f (x, y)dx dy = f (x, y)dy dx
R c a a c

Cette formule prend le nom de formule des intégrales itérées. La Figure 8.2 donne une
interprétation géométrique.
110 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

Figure 8.2 – Interprétation géométrique de la formule des intégrales itérées

Exemple 8.15. Soit R = [1, 2] × [0, 1], et f (x, y) = x13 ey/x : R → R. Clairement, f est
continue sur R (fermé). On peut donc calculer l’intégrale double sur f par la formule des
intégrales itérées :
Z Z 2 Z 1  Z 1 Z 2 
f (x, y)dxdy = f (x, y)dy dx = f (x, y)dx dy .
R
|1 0
{z } |0 1
{z }
(A) (B)

Utilisons (A) :
Z 2 Z 1  Z 2
1 y/x 1 y/x y=1
3
e dy dx = 3
xe dx
1 0 x 1 x y=0
Z 2 Z 2 Z 2
1 1/x 1 1/x 1
= (e − 1)dx = e dx − dx
1 x2 2
x 1
2
1 x
Z 1/2 2
1 √ 1
=− et dt + =e− e− .
1 x 1 2
R √
On a donc R f (x, y)dxdy =e− e − 12 .

8.4 Intégrale de Riemann sur un ensemble quelconque


On souhaite maintenant, généraliser la définition d’intégrale au sens de Riemann d’une
fonction bornée f : E → R sur un sous-ensemble E ⊂ Rn quelconque borné. L’idée est
simple : puisque E est borné, il existe un pavé R ⊃ E qui le contient. On prolonge alors
par zéro la fonction f et on l’intègre sur le pavé R.
Définition 8.16 (Intégrale de Riemann sur un ensemble quelconque). Soit E ⊂ Rn borné,
f : E → R bornée et R ⊂ Rn un pavé contenant E. On dit que f est intégrable au sens de
Riemann si la fonction f˜ : R → R définie par
f˜(x) = f (x), si x ∈ E, f˜(x) = 0, si x ∈ R \ E
8.4. INTÉGRALE DE RIEMANN SUR UN ENSEMBLE QUELCONQUE 111

est intégrable au sens de Riemann. Dans ce cas, on définit l’intégrale de f sur E par
Z Z
f (x)dx = f˜(x)dx. (8.1)
E R

On note R(E) l’ensemble de fonctions f : E → R intégrables au sens de Riemann sur E.

Il est parfois commodeR e


de considérer E = ∅. Dans ce cas fe est R
nulle sur R et donc
Riemann-intégrable avec R f (x)dx = 0. On conviendra donc que E f (x)dx = 0 dès que
E = ∅.
Il est important de vérifier que la définition de l’intégrale en (8.1) ne dépende pas du
choix de R.

Lemme 8.17. Soit E ⊂ Rn borné, f : E → R bornée et f˜ : Rn → R le prolongement de


f par zéro au dehors de E. S’il existe un pavé R ⊃ E tel que la fonction f˜ : R → R est
intégrable,
R
alors
R
pour tout autre pavé R0 ⊃ E, la fonction f˜ : R0 → R est intégrable et on a
˜ ˜
R f (x)dx = R0 f (x)dx.

Démonstration. Soit R ⊃ E un pavé tel que la fonction f˜ : R → R est intégrable au sens


de Riemann, soit R0 ⊃ E un autre pavé et soit R̂ un troisième pavé dont l’intérieur contient
˚
aussi bien R que R0 , i.e. R̂ ⊃ R ∪ R0 .
Par le lemme 8.12 appliqué
R
àRf˜ : R → R et f˜ : R̂ → R, on sait que f˜ : R̂ → R est
Riemann-intégrable et R̂ f dx = R f˜dx. Par le même lemme appliqué à f˜ : R0 → R et
˜
R R
fR˜ : R̂ → R, on sait ensuite que f˜ : R0 → R est Riemann-intégrable et R0 f˜dx = R̂ f˜dx =
˜
R f dx.

L’intégrale multiple au sens de Riemann a les propriétés suivantes, analogues à celles


de l’intégrale en dimension n = 1.

Théorème 8.18 (Propriétés de l’intégrale de Riemann).


(i) R(E) est un espace vectoriel et l’intégrale de Riemann est linéaire, c’est-à-dire, si
f, g ∈ R(E) et α, β ∈ R, alors αf + βg ∈ R(E) et
Z Z Z
(αf + βg) = α f +β g.
E E E

(ii) Si f, g ∈ R(E) et f (x) ≤ g(x) ∀x ∈ E alors


Z Z
f (x)dx ≤ g(x)dx.
E E

(iii) Si f ∈ R(E), alors |f |, f+ , f− ∈ R(E), où f+ = max{f, 0} et f− = max{−f, 0} ; de


plus Z Z
f (x)dx ≤ |f (x)|dx.
E E

(iv) Si f, g ∈ R(E) alors f g ∈ R(E) (i.e. R(E) est une algèbre).


112 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

Démonstration. Soit R ⊂ Rn un pavé contenant E et f˜, g̃ : R → R les prolongements de


f et g par zéro en dehors de E.
La démonstration des points (i) et (ii) est laissée comme exercice aux étudiants.
(iii) Pour  > 0, soit P une partition de R telle que S(f˜, P ) − S(f˜, P ) < . Alors,
∀Q ∈ P , on a
sup f˜+ − inf f˜+ ≤ sup f˜ − inf f˜.
Q Q Q Q

En effet :
— si supQ f˜ ≥ inf Q f˜ ≥ 0, alors f˜+ (x) = f˜(x) ∀x ∈ Q et on a égalité ;
— si inf Q f˜ ≤ supQ f˜ ≤ 0, alors supQ f˜+ − inf Q f˜+ = 0 ≤ supQ f˜ − inf Q f˜ ;
— si inf Q f˜ ≤ 0 ≤ sup f˜, alors f˜+ (x) ≤ f˜(x) − inf Q f˜ ∀x ∈ Q et
Q

sup f˜+ − inf f˜+ = sup f˜+ ≤ sup f˜ − inf f˜.


Q Q Q Q Q

Il s’ensuit que S(f˜+ , P ) − S(f˜+ , P ) ≤ S(f˜, P ) − S(f˜, P ) <  et f˜+ ∈ R(R), donc
f+ ∈ R(E). Comme f− = (−f )+ on a aussi f− ∈ R(E) et |f | = f+ + f− ∈ R(E). Enfin,
Z Z
puisque f ≤ |f |, on a f (x)dx ≤ |f (x)|dx,
EZ EZ

puisque − f ≤ |f |, on a − f (x)dx ≤ |f (x)|dx,


E E
R R
ce qui implique que | E f (x)dx| ≤ E |f (x)|dx.
(iv) Supposons d’abord f, g ≥ 0 et f (x) ≤ M , g(x) ≤ M ∀x ∈ E avec M ∈]0, +∞[
(M existe car f et g sont bornées). Pour tout pavé Q ⊂ R on a

sup f˜ · g̃ − inf f˜ · g̃ ≤ sup f˜ · sup g̃ − inf f˜ · inf g̃


Q Q Q Q Q Q

≤ (sup f˜ − inf f˜) sup g̃ + inf f˜(sup g̃ − inf g̃)


Q Q Q Q Q Q

≤ M (sup f˜ − inf f˜) + M (sup g̃ − inf g̃).


Q Q Q Q

Soit maintenant  > 0 et P une partition de R telle que


 
S(f˜, P ) − S(f˜, P ) < , S(g̃, P ) − S(g̃, P ) < .
2M 2M
Alors

S(f˜g̃, P ) − S(f˜g̃, P ) ≤ M (S(f˜, P ) − S(f˜, P )) + M (S(g̃, P ) − S(g̃, P )) < 

et donc f˜g̃ ∈ R(R) ce qui implique que f g ∈ R(E). Si f n’est pas positive ou g n’est pas
positive (ou ni l’une ni l’autre), on a f g = (f+ −f− )(g+ −g− ) = f+ g+ −f+ g− −f− g+ +f− g−
et chaque terme f± , g± ∈ R(E), donc f g ∈ R(E).
8.5. ENSEMBLES MESURABLES AU SENS DE JORDAN 113

8.5 Ensembles mesurables au sens de Jordan


Il est clair que si E est un sous-ensemble quelconque borné de Rn et f : E → R
une fonction quelconque bornée, le fait que f soit intégrable sur E au sens de Riemann
dépendra aussi bien des propriétés de f que des propriétés de l’ensemble E. En particulier,
on peut se poser la question si une fonction f : E → R continue est intégrable. La réponse
à cette question n’est pas toujours affirmative et dépend des propriétés de E, notamment
qu’il soit mesurable au sens de Jordan, notion qu’on va introduire dans cette section.
On introduit la fonction caractéristique de l’ensemble E, notée 1E : Rn → R et définie
par
1E (x) = 1 si x ∈ E, 1E (x) = 0 si x ∈ / E.
On peut se poser la question de savoir pour quels sous-ensembles E ⊂ Rn bornés la
fonction 1E est intégrable au sens de Riemann.
Définition 8.19 (Ensemble mesurable au sens de Jordan). Soit E ⊂ Rn borné. On dit que
E est mesurable au sens de Jordan (ou “Jordan-mesurable” ou simplement “mesurable”)
si 1E ∈ R(E). Dans ce cas on pose
Z
Vol(E) = 1E (x)dx.
E

Un ensemble borné E ⊂ Rn est dit négligeable s’il est mesurable au sens de Jordan et
Vol(E) = 0.
Une caractérisation équivalente d’ensemble Jordan-mesurable est la suivante.
Lemme 8.20. Soit E ⊂ Rn borné et R ⊂ Rn un pavé contenant E. Alors E est Jordan-
mesurable si et seulement, pour tout  > 0, il existe une partition P de R telle que
X
Vol(Q) < .
Q∈P
Q∩E6=∅, Q∩(Rn \E)6=∅

Démonstration. Par le Lemme 8.10, E est Jordan-mesurable si, et seulement si, pour tout
 > 0, il existe une partition P de R telle que S(1E , P ) − S(1E , P ) < . Or
X
S(1E , P ) = Vol(Q)
Q∈P
Q∩E6=∅

et X
S(1E , P ) = Vol(Q).
Q∈P
Q∩(Rn \E)=∅

De façon similaire, on peut donner une caractérisation équivalente d’ensemble négli-


geable.
Lemme 8.21. Un ensemble borné E ⊂ Rn est négligeable si et seulement si ∀ > 0
S
il existe K ∈ N∗ et une collection finie de pavés R1 , . . . , RK tels que E ⊂ Ki=1 Ri et
PK
i=1 Vol(R i ) < .
114 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

Démonstration. Choisissons un pavé R ⊂ Rn tel que E ⊂ R̊. R


Supposons
R
d’abord que 1E est Riemann-intégrable sur R et R 1E (x)dx = 0. Rappelons
qu’alors R 1E (x)dx est l’infimum des sommes de Darboux supérieures sur toutes les
partitions de R. Soit  > 0. Il existe donc une partition P = {Qi ⊂ R : 1 ≤ i ≤ L} de R
telle que S(1E , P ) < . Or
X
S(1E , P ) = Vol(Qi ) < 
i∈{1,...,L}, Qi ∩E6=∅
[
et E ⊂ Qi . Ceci termine la première partie de la preuve.
i∈{1,...,L}, Qi ∩E6=∅
S P
Soit  > 0. Soit aussi des pavés R1 , . . . , RK tels que E ⊂ K
i=1 Ri et i=1 Vol(Ri ) < .
K

Sans perte de généralité, on peut supposer que Ri ⊂ R pour tout 1 ≤ i ≤ K et que


∀x ∈ E ∃i ∈ {1, . . . , K} x ∈ R̊i .
Soit la partition tensorielle P de R définie à partir de toutes les composantes de tous
les sommets de R1 , . . . , RK , R. Alors
[
∀i ∈ {1, . . . , K} Ri = {Q ∈ P : Q ⊂ Ri },

S(1E , P ) ≥ 0 et

X K
X X K
X
S(1E , P ) = Vol(Q) ≤ Vol(Q) = Vol(Ri ) < ,
Q∈P , Q∩E6=∅ i=1 Q∈P , Q⊂Ri i=1

où on a utilisé que
 
∀Q ∈ P Q ∩ E 6= ∅ ⇒ ∃i ∈ {1, . . . , K} Q ⊂ Ri .
R
Comme  > 0 est arbitraire, 1E est intégrable sur R et R 1E (x)dx = 0.

Remarque 8.22. Il résulte de ce lemme que toute union finie d’ensembles négligeables
est un ensemble négligeable, et que tout sous-ensemble d’un ensemble négligeable est aussi
négligeable.

Exemple 8.23. Considérons les ensembles suivants :


1. E = {(x, y) ∈ R2 : x ∈ [0, 1], y = 0}. Alors E est un pavé de volume nul et donc E est
négligeable. Dans le critère du lemme, on peut choisir K = 1 et R1 = E. Si on souhaite,
pour une raison ou une autre, une collection finie de pavés non dégénérés, on s’en sort
dans cet exemple en choisissant un seul pavé R = [0, 1] × [− 4 , 4 ] (K = 1), et on a bien
E ⊂ R avec Vol(R) < .


2
8.5. ENSEMBLES MESURABLES AU SENS DE JORDAN 115

2. E = {(x, y, z) ∈ R3 : x2 + y 2 ≤ 1, z = 0}. Soit R = [−1, 1] × [−1, 1] × [− 8 , 8 ], alors


E ⊂ R, Vol(R) =  donc E est négligeable.

3. E = {(x, y) ∈ R2 : x2 + y 2 = 1} est négligeable.

L’important résultat suivant caractérise les ensembles mesurables au sens de Jordan.


Théorème 8.24. Un ensemble borné E ⊂ Rn est mesurable au sens de Jordan si et
seulement si ∂E = Ē \ E̊ est négligeable.
Démonstration. Soit R ⊂ Rn un pavé tel que E ⊂ R.
« ⇒ » (E mesurable ⇒ ∂E négligeable) Soit  > 0. Par le Lemme 8.20, il existe une
P
partition P de R telle que Q∈E Vol(Q) < , où
E = {Q ∈ P : Q ∩ E 6= ∅, Q ∩ E c 6= ∅}.
Pour tout x ∈ ∂E, il existe au moins un pavé Q ∈ P qui le contient. Alors soit x ∈ ∂Q,
soit x ∈ Q̊, mais dans ce dernier cas on a nécessairement Q ∈ E. On a donc
   
[ [
∂E ⊂  Q ∪  ∂Q .
Q∈E Q∈P

Le bord de tout pavé étant une union finie de pavés de volume nul, ∂E est inclus dans
l’union d’une famille finie de pavés (éventuellement dégénérés) dont la somme des volumes
est < . Comme  > 0 est arbitraire, ∂E est négligeable.
R
« ⇐ » (∂E négligeable ⇒ E mesurable) Puisque 1∂E ∈ R(R) et R 1∂E (x)dx = 0,
∀ > 0 il existe une partition P de R telle que S(1∂E , P ) < . Mais pour Q ∈ P ,
supQ 1∂E = 1 si et seulement si Q ∩ ∂E 6= ∅. D’où
X
Vol(Q) < .
Q∈P , Q∩∂E6=∅
116 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

Observons que si un certain Q ∈ P rencontre à la fois E et E c , alors Q ∩ ∂E 6= ∅. Pour


le voir, considérons x ∈ Q ∩ E c et y ∈ Q ∩ E. L’ensemble {t ∈ [0, 1] : (1 − t)x + ty ∈ E}
n’est pas vide (il contient t = 1) ; soit t0 ∈ [0, 1] son infimum. Alors t0 x+(1−t0 )y ∈ Q∩∂E
et donc Q ∩ ∂E 6= ∅.
On obtient ainsi
X X
S(1E , P ) − S(1E , P ) = Vol(Q) ≤ Vol(Q) < .
Q∈P Q∈P
Q∩E6=∅, Q∩E c 6=∅ Q∩∂E6=∅

Comme  > 0 est arbitraire, ceci prouve que 1E est Riemann-intégrable, et donc E est
Jordan-mesurable.

Corollaire 8.25. Soient E, F ⊂ Rn des ensembles bornés et mesurables au sens de Jordan.


Alors
E ∩ F, E ∪ F, E \ F, E̊, E
sont mesurables.
Démonstration. Soit R ⊂ Rn un pavé contenant E ∪ F . Par hypothèse 1E , 1F ∈ R(R).
On a
— 1E∩F = 1E · 1F ∈ R(R) ;
— 1E∪F = 1E + 1F − 1E∩F ∈ R(R) ;
— 1E\F = 1E − 1E∩F ∈ R(R) ;
— 1E̊ = 1E − 1E∩∂E ∈ R(R) ;
— 1Ē = 1E∪∂E ∈ R(R).

Définition 8.26. On note J (Rn ) la collection des sous-ensembles de Rn compacts et


mesurables au sens de Jordan. Plus généralement, pour E ⊂ Rn , on note J (E) la collection
des sous-ensembles de E qui sont compacts et mesurables au sens de Jordan.

8.6 Caractérisation des fonctions intégrables


On souhaite maintenant donner une caractérisation des fonctions intégrables au sens
de Riemann sur un domaine quelconque. On commence par l’important résultat suivant :
Théorème 8.27. Soit un pavé R ⊂ Rn et une fonction bornée f : R → R. Si l’ensemble
des points de discontinuité de f est négligeable, alors f est Riemann-intégrable.
Démonstration. Soit M = supx∈R |f (x)|, notons par N l’ensemble des points de disconti-
nuité de f et fixons  > 0. Comme N est négligeable, il existe une partition P de R telle
que
X 
S(1N , P ) = Vol(Q) < .
Q∈P , Q∩N 6=∅
1 + 4M


Soit l’ensemble compact


K = ∪{Q ∈ P : Q ∩ N = ∅}
8.6. CARACTÉRISATION DES FONCTIONS INTÉGRABLES 117

(union finie de fermés bornés). Comme f : K → R est continue sur le compact K, elle est
uniformément continue sur K. Il existe donc δ > 0 tel que
  
∀x, y ∈ K kx − yk < δ ⇒ |f (x) − f (y)| <
1 + 2 Vol(R)
(si K = ∅, on peut choisir δ > 0 librement). Quitte à prendre un raffinement de P , nous
pouvons supposer que
 
∀Q ∈ P Q ⊂ K ⇒ diam(Q) < δ .

On obtient alors
X  
S(f, P ) − S(f, P ) = sup f − inf f Vol(Q)
Q Q
Q∈P
 
X X  
= +  sup f − inf f Vol(Q)
Q Q
Q∈P , Q⊂K Q∈P , Q∩N 6=∅
 
≤ Vol(R) + 2M < .
1 + 2 Vol(R) 1 + 4M
Comme  > 0 est arbitraire, ceci prouve que f est Riemann-intégrable.

Continuons avec un autre résultat important.


Théorème 8.28. Soit E ⊂ Rn borné et mesurable. Si f : E → R est bornée sur E et
continue sur E̊, alors f est intégrable sur E au sens de Riemann.
Démonstration. Soit R un pavé contenant E et f˜ le prolongement de f par zéro en dehors
de E. Comme E est Jordan-mesurable, ∂E est négligeable. De plus l’ensemble Ñ des
points de discontinuité de f˜ est inclus dans ∂E, et donc Ñ est négligeable. Par le théorème
précédent, f˜ ∈ R(R) et donc f est intégrable sur E au sens de Riemann.

Comme cas particulier, on obtient le théorème suivant :


Théorème 8.29. Soit E ∈ J (Rn ) (compact et mesurable au sens de Jordan) et f : E → R
continue. Alors f est intégrable sur E au sens de Riemann.
Ce dernier théorème implique, en particulier, que C 0 (E) ⊂ R(E) si E ∈ J (Rn ).
On conclut cette section en présentant d’autres propriétés de l’intégrale de Riemann,
au delà de celles déjà énoncées dans le théorème 8.18.
Théorème 8.30 (Propriétés de l’intégrale de Riemann – suite du théorème 8.18).
(v) Soit E ⊂ Rn borné et mesurable, et f : E → R bornée. Alors
Z Z
inf f (x) Vol(E) ≤ f˜(x)dx ≤ f˜(x)dx ≤ sup f (x) Vol(E)
x∈E R R x∈E

pour tout pavé R contenant E et le prolongement f˜ : R → R de f par la valeur 0.


En particulier, si f ∈ R(E),
Z Z
inf f (x) Vol(E) ≤ f˜(x)dx = f (x)dx ≤ sup f (x) Vol(E).
x∈E R E x∈E
118 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

(vi) Soit E ∈ J (Rn ) connexe par arcs et f ∈ C 0 (E). Si Vol(E) 6= 0, alors


Z
1
∃x0 ∈ E f (x)dx = f (x0 ).
Vol(E) E

Cette dernière égalité s’appelle le théorème de la moyenne.

Démonstration. (v) Soit M = 1 + supx∈E |f (x)| et fixons  > 0. Il existe une partition P
de R telle que

S(1E , P ) − S(1E , P ) <
M
et donc X 
Vol(Q) < .
Q∈P
M
Q∩E6=∅, Q∩(Rn \E)6=∅

On a donc, où Q ∈ P ,
 
X X X
S(f˜, P ) =  + +  sup fe(x) Vol(Q)
Q⊂E Q∩E6=∅, Q∩E c 6=∅ Q⊂E c x∈Q

X X 
≤ sup f (x) Vol(Q) + M Vol(Q) + 0 < sup f (x)S(1E , P ) + M +0
Q⊂E x∈E Q∩E6=∅, Q∩E c 6=∅ x∈E M

≤ sup f (x) Vol(E) + M |S(1E , P ) − Vol(E)| +  < sup f (x) Vol(E) + 2


x∈E x∈E
car

S(1E , P ) ≤ Vol(E) ≤ S(1E , P ) avec S(1E , P ) − S(1E , P ) < .
M
De même,
S(f˜, P ) > inf f (x) Vol(E) − 2.
x∈E

D’où Z
f˜(x)dx < sup f (x) Vol(E) + 2
R x∈E
et Z
f˜(x)dx > inf f (x) Vol(E) − 2.
R x∈E

Comme  > 0 est arbitraire, on obtient la conclusion voulue.


(vi) Par (v) et le fait que f est continue sur un compact non vide, on a
Z
1
min f ≤ f (x)dx ≤ max f.
E Vol(E) E E

Or, puisque E est compact et connexe par arcs,


 
Im(f ) = min f (x), max f (x) .
x∈E x∈E

1 R
Donc il existe x0 ∈ E tel que f (x0 ) = Vol(E) E f (x)dx.
8.7. GÉNÉRALISATION DE LA FORMULE DES INTÉGRALES ITÉRÉES 119

Voici un corollaire très utile :


Corollaire
R
8.31. Soit E ⊂ Rn borné et négligeable, et f : E → R bornée. Alors f ∈ R(E)
et E f (x)dx = 0.
Démonstration. En effet
Z Z
0 = inf f (x) Vol(E) ≤ f˜(x)dx ≤ f˜(x)dx ≤ sup f (x) Vol(E) = 0
x∈E R R x∈E

pour tout pavé R contenant E et le prolongement f˜ : R → R de f par la valeur 0.

Le théorème suivant montre l’additivité de l’intégrale par rapport au domaine d’inté-


gration.
Théorème 8.32. Soient E1 , E2 ⊂ Rn bornés, tels que E1 ∩ E2 est négligeable et notons
E = E1 ∪ E2 . Si f : E → R bornée est telle que ses restrictions f |Ei ∈ R(Ei ), i = 1, 2,
alors f ∈ R(E) et Z Z Z
f (x)dx = f (x)dx + f (x)dx. (8.2)
E E1 E2
Inversement, si E, E1 , E2 sont mesurables (avec E1 ∩ E2 négligeable) et f ∈ R(E), alors
f |Ei ∈ R(Ei ), i = 1, 2 et on a encore (8.2).
Démonstration. Notons par 1Ei : E → R la fonction caractéristique de Ei pour i ∈ {1, 2},
et par 1E1 ∩E2 : E → R la fonction caractéristique de E1 R∩ E2 . Supposons f |ERi ∈ R(Ei ),
i = 1, 2. Alors les fonctions f ·1Ei sont intégrables
R
sur E et E f (x)·1Ei (x)dx = Ei f (x)dx.
De plus f |E1 ∩E2 est intégrable sur E1 ∩ E2 et E1 ∩E2 f |E1 ∩E2 (x)dx
R
= 0, car E1 ∩ E2 est
négligeable. D’où la fonction f · 1E1 ∩E2 est intégrable sur E et E f (x) · 1E1 ∩E2 (x)dx = 0.
Puisque f = f · 1E1 + f · 1E2 − f · 1E1 ∩E2 on conclut que f ∈ R(E) et vérifie (8.2).
Soit maintenant f ∈ R(E). Puisque les fonctions 1Ei , i = 1, 2, sont aussi intégrables
sur E (car E1 , E2 sont mesurables), on a f · 1Ei ∈ R(E) (produit de fonctions intégrables),
ce qui équivaut à f |Ei ∈ R(Ei ) et on a encore (8.2).

On remarque que dans la deuxième partie du théorème précédent, sans hypothèse de


mesurabilité de E, E1 et E2 , le résultat n’est pas forcément vrai. Il suffit de prendre la
fonction constante 1 sur E = [0, 1] et prendre E1 = Q ∩ [0, 1] et E2 = [0, 1] \ Q pour s’en
convaincre.

8.7 Généralisation de la formule des intégrales itérées


On a déjà rencontré la formule des intégrales itérées pour le calcul de l’intégrale d’une
fonction sur un pavé. On va maintenant la généraliser à des domaines de formes plus
complexes.
Définition 8.33. On dit que E ⊂ Rn+1 est un domaine simple par rapport à la variable y
s’il existe un ensemble K ∈ J (Rn ) (compact et mesurable) et deux fonctions g, h : K → R
continues avec g(x) ≤ h(x), ∀x ∈ K, telles que E ait la forme

E = {(x, y) ∈ Rn+1 , x ∈ K, g(x) ≤ y ≤ h(x)}.


120 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

Théorème 8.34. Un domaine simple E = {(x, y) ∈ Rn+1 , x ∈ K, g(x) ≤ y ≤ h(x)}


avec K ∈ J (Rn ), et g, h : K → R
R
continues telles que g(x) ≤ h(x), ∀x ∈ K, est mesurable
au sens de Jordan et Vol(E) = K (h(x) − g(x))dx.
Remarque. Pour j ∈ {1, . . . , n} fixé, il y a une version où les rôles des variables xj et y sont
échangés. Ainsi, par exemple, g et h délimitent xj en fonction de (x1 , . . . , xj−1 , xj+1 , . . . , xn , y).

Démonstration. On considère d’abord un domaine de la forme E = {(x, y) ∈ Rn+1 : x ∈


K, 0 ≤ y ≤ h(x)}, avec h(x) ≥ 0, ∀x ∈ K. Soit R un pavé non dégénéré tel que K ⊂ R,
et R̃ = R × [0, M ] un pavé qui contient E, où M = maxx∈K h(x) + 1.
Puisque h est continue et K ∈ J (Rn ), h est intégrable sur K au sens de Riemann. Soit
 ∈]0, Vol(R)[. Il existe une partition P = {Ri }L i=1 de R telle que S(h̃, P ) − S(h̃, P ) < ,
où on a noté h̃ le prolongement par zéro de h en-dehors de K. Notons mi = inf x∈Ri h̃(x)
et Mi = supx∈Ri h̃(x), ∀i = 1, . . . , L, et considérons la partition suivante de R̃ (voir Figure
ci-dessous)
L 
[    
 
P̃ = Ri × [0, mi ], Ri × mi , Mi + , Mi + ,M .
i=1
Vol(R) Vol(R)

On a
X X
S(1E , P̃) = Vol(Ri × [0, mi ]) = mi Vol(Ri ) = S(h̃, P ),
i:Ri ⊂K i:Ri ⊂K
X X   

S(1E , P̃) = Vol (Ri × [0, mi ]) + Vol Ri × mi , Mi +
i:R ∩K6=∅ i:R ∩K6=∅
Vol(R)
i i
X   X

= Vol(Ri ) Mi + ≤ Vol(Ri )Mi +  = S(h̃, P ) + ,
i:R ∩K6=∅
Vol(R) i:Ri ∩K6=∅
i

ce qui implique que S(1E , P̃) − S(1E , P̃) < 2 et donc, puisque  ∈]0, Vol(R)[ est arbitraire,
1E ∈ R(R̃). De plus, puisque  > 0 peut être pris aussi petit qu’on veut et S(h̃, P ) =
S(1E , P̃) ≤ S(1E , P̃) ≤ S(h̃, P ) + , on conclut que
Z Z Z
Vol(E) = 1E (x, y)dxdy = h̃(x)dx = h(x)dx.
R̃ R K

Par les mêmes arguments, on vérifie facilement qu’un domaine de la forme E = {(x, y) :
x ∈ K, c ≤ y ≤ h(x)}, avec c ≤ minx∈K h(x), est aussi mesurable.
8.7. GÉNÉRALISATION DE LA FORMULE DES INTÉGRALES ITÉRÉES 121

Considérons maintenant le cas générale : E = {(x, y) : x ∈ K, g(x) ≤ y ≤ h(x)}. Soit


c = minx∈K g(x) et

Eh = {(x, y) ∈ Rn+1 : x ∈ K, c ≤ y ≤ h(x)},


Eg = {(x, y) ∈ Rn+1 : x ∈ K, c ≤ y ≤ g(x)}.

Eh et Eg sont mesurables, par les arguments ci-dessus, et


Z Z
Vol(Eh ) = (h(x) − c)dx et Vol(Eg ) = (g(x) − c)dx.
K K

D’autre part Eh = Eg ∪ E et Eg ∩ E = G(g) (le graphe de g). Or G(g) ⊂ ∂Eg et


∂Eg est négligeable car Eg est Jordan-mesurable. Donc G(g) est aussi négligeable. Ainsi
E = (Eh \Eg ) ∪ G(g) est Jordan-mesurable, Vol(Eh ) = Vol(Eg ) + Vol(E) et
Z  
Vol(E) = Vol(Eh ) − Vol(Eg ) = h(x) − g(x) dx.
K

Exemple 8.35. Considérons le triangle T = {(x, y) ∈ R2 , 0 ≤ x ≤ 1, 0 ≤ y ≤ 1 − x}. Si


on note K = [0, 1] et h(x) = 1 − x, on a donc T = {(x, y) ∈ R2 , x ∈ K, 0 ≤ y ≤ h(x)} et
l’aire de T peut se calculer par la formule
Z Z 1
1
Vol(T ) = h(x)dx = (1 − x)dx = .
K 0 2

Exemple 8.36. Considérons la boule unitaire


p p
E = {(x, y) : x2 + y 2 ≤ 1} = {(x, y) : −1 ≤ x ≤ 1, − 1 − x2 ≤ y ≤ 1 − x2 }.

Alors, l’aire de la boule peut être calculée par la formule


Z 1 p Z π/2 Z π/2
2
Vol(E) = 2 1− x2 dx = 2 cos θdθ = (cos 2θ + 1)dθ = π.
−1 −π/2 −π/2

Théorème 8.37 (Intégrales itérées). Soit E = {(x, y) ∈ Rn+1 : x ∈ K, g(x) ≤ y ≤ h(x)}


un domaine simple, avec K ∈ J (Rn ), g, h : K → R continues avec g ≤ h sur K, et
f : E → R une fonction continue. Alors f est intégrable sur E et
Z Z Z h(x) !
f (x, y)dxdy = f (x, y)dy dx.
E K g(x)

Remarque. Pour j ∈ {1, . . . , n} fixé, il y a une version où les rôles des variables xj et y
sont échangés.
122 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

Démonstration. Soient R un pavé contenant K, m ≤ minK g, M ≥ maxK h et R̃ =


R × [m, M ] ⊃ E. Par le théorème 8.34, E est mesurable et par le théorème 8.29 f ∈ R(E),
c’est-à-dire f˜ est intégrable sur R̃, où f˜ : R̃ → R est le prolongement de f par la valeur 0.
De plus, ∀x ∈ R, la fonction (de RM
y) f˜(x, ·) est intégrable sur [m, M ], car elle est continue
par morceaux. Donc F̃ (x) = Rm f˜(x, y)dy existeR pour tout x ∈ R et, par le théorème
de Fubini 8.13, F̃ ∈ R(R) et R̃ f˜(x, y)dxdy = R F̃ (x)dx. Comme F̃ : R → R est le
R h(x)
prolongement par la valeur 0 de la fonction K 3 x 7→ F (x) = g(x) f (x, y)dy, cette
dernière fonction est intégrable sur K et
Z Z
f (x, y)dxdy = f˜(x, y)dxdy
E R̃
Z Z Z Z h(x) !
= F̃ (x)dx = F (x)dx = f (x, y)dy dx.
R K K g(x)

R
Exercice 8.38. Calculer T x dxdydz où T = {(x, y, z) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1 − x, 0 ≤
z ≤ 1 − x − y} est un simplexe de R3 .

8.8 Changement de variables dans les intégrales de Rie-


mann
Soit F ⊂ RnR borné et mesurable, et f : F → R une fonction bornée et intégrable sur
F . Notons I = F f (x)dx. On introduit maintenant un changement de variables

x = ψ(u), ψ : E ⊂ Rn → Rn ,

tel que F = ψ(E). On se pose les questions suivantes : i) l’ensemble E est-il mesurable ? ii)
La fonction f˜(u) = f (ψ(u)) : E → R est-elle intégrable sur E ? iii) Comment l’intégrale I
se transforme suite au changement de variables ?
Rappelons d’abord le cas n = 1. Soit F = [α, β] ⊂ R un intervalle, f : F → R une
fonction continue et ψ : E = [a, b] → R une fonction de classe C 1 (jusqu’au bord) telle
que ψ(a) = α, ψ(b) = β et ψ(E) = F (avec a < b et α < β). On ne suppose pas que ψ soit
injective. Alors la fonction u 7→ f (ψ(u))ψ 0 (u), u ∈ E, est aussi continue et
Z β Z b
f (x)dx = f (ψ(u))ψ 0 (u)du.
α a

Ce résultat se montre à partir du théorème fondamental du calcul intégral. Soit G(t) =


R ψ(t)
α f (x)dx, alors G0 (t) = f (ψ(t))ψ 0 (t) et
Z β=ψ(b) Z b
f (x)dx = G(b) − G(a) = f (ψ(u))ψ 0 (u)du.
α=ψ(a) a
8.8. CHANGEMENT DE VARIABLES 123

On remarque, en particulier, que pour obtenir ce résultat, on n’a pas demandé que la
fonction ψ soit une bijection entre E et F . En effet, le résultat reste vrai même si la
fonction ψ n’est pas une bijection.
En dimension n > 1, on n’a plus un théorème fondamental du calcul intégral, donc
on cherche un résultat qui soit valable sous des conditions un peu plus fortes et qui soit
généralisable au cas n > 1. Pour n = 1, on va demander que la transformation ψ : E → F
soit un difféomorphisme (donc une bijection de classe C 1 avec application inverse de classe
C 1 ), où E = [a, b] avec a < b dans R. Alors, nécessairement, ψ 0 6= 0 sur E, F = [ψ(a), ψ(b)]
si ψ est strictement croissante, F = [ψ(b), ψ(a)] si ψ est strictement décroissante, et on a :
1. Si ψ 0 (u) > 0, ∀u ∈ [a, b], alors ψ est strictement croissante et ψ(a) < ψ(u) <
ψ(b), ∀u ∈]a, b[. Donc
Z Z ψ(b) Z b Z b
f (x)dx = f (x)dx = f (ψ(u))ψ 0 (u)du = f (ψ(u))|ψ 0 (u)|du.
F ψ(a) a a

2. Si ψ 0 (u) < 0, ∀u ∈ [a, b], alors ψ est strictement décroissante et ψ(b) < ψ(u) <
ψ(a), ∀u ∈]a, b[. Donc
Z Z ψ(a) Z ψ(b)
f (x)dx = f (x)dx = − f (x)dx
F ψ(b) ψ(a)
Z b Z b
=− f (ψ(u))ψ 0 (u)du = f (ψ(u))|ψ 0 (u)|du.
a a

Donc dans les deux cas on a


Z Z
f (x)dx = f (ψ(u))|ψ 0 (u)|du.
F E

On note que |ψ 0 (u)| = du


dx
représente le changement de l’élément infinitésimal de longueur.
C’est bien cette formule qui se généralise en dimension n > 1. On a l’important résultat
suivant qu’on ne va pas démontrer dans ce cours.

Théorème 8.39 (Changement des variables d’intégration). Soient U, V ⊂ Rn ouverts tels


que, pour tout r > 0, U ∩ B(0, r) et V ∩ B(0, r) sont Jordan-mesurables. Soit ψ : U → V
un difféomorphisme de classe C 1 tel que toutes les composantes de ψ et de Dψ ∈ Rn×n
sont bornés sur tout sous-ensemble borné de U . Soit encore un borné non-vide E ⊂ U et
F = ψ(E) ⊂ V , qui est aussi borné non-vide. Alors
1. E est Jordan-mesurable si et seulement si F l’est ;
2. si E est Jordan-mesurable et f : F = ψ(E) → R est continue et bornée, alors
f ∈ R(F ) et Z Z
f (x)dx = f (ψ(u)) | det Dψ(u)| du, (8.3)
F E
où apparaît la valeur absolue d’un déterminant dans le membre de droite.

Notons que f˜ = f ◦ ψ : E → R est continue (composition de fonctions continues) et


bornée, donc f˜ ∈ R(E) si E est mesurable. De plus on a fait l’hypothèse que toutes les
124 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

composantes de Dψ sont bornées sur E. Puisque elles sont aussi continues (car ψ ∈ C 1 (U )
et E ⊂ U ), donc intégrables sur E si celui ci est mesurable, on a que Jψ = det Dψ ∈ R(E)
(produit de fonctions intégrables) et l’intégrale à droite de (8.3) existe.
Le terme Jψ (u) = det Dψ(u) dans (8.3), souvent appelé le jacobien de ψ, représente
le changement infinitésimal de volume par le difféomorphisme ψ. En effet, soit u0 ∈ U et
r > 0 suffisamment petit tel que le pavé B̄r = {u ∈ Rn : ku − u0 k∞ ≤ r} soit contenu
dans U . Grâce au théorème 8.39 on a ψ(Br ) est mesurable puisque Br l’est et
Z
min |Jψ (u)| Vol(Br ) ≤ Vol(ψ(Br )) = |Jψ (u)|du ≤ max |Jψ (u)| Vol(Br ).
u∈B̄r Br u∈B̄r

En prenant la limite pour r → 0 et grâce à la continuité de |Jψ | on voit que

Vol(ψ(Br ))
lim = |Jψ (u0 )|.
r→0 Vol(Br )

Que le changement infinitésimal de volume en u0 soit donné par | det Dψ(u0 )| ne devrait
pas surprendre. Considérons par exemple une application affine en dimension n = 2 :
x = ψ(u) = Au+b, avec A ∈ R2×2 , b ∈ R2 et notons (a1 , a2 ) les deux colonnes de A. Alors,
un rectangle Br1 ,r2 de sommets {u0 , u0 + r1 e1 , u0 + r2 e2 , u0 + r1 e1 + r2 e2 } est transformé
en un parallélogramme ψ(Br1 ,r2 ) de sommets {x0 , x0 + r1 a1 , x0 + r2 a2 , x0 + r1 a1 + r2 a2 }
(voir figure ci-dessous),

ψ(B)
r2 e2 r2 a2 r1 a1 = r1 Ae1
B
r1 e1

où x0 = ψ(u0 ) = Au0 + b et

Vol(ψ(Br1 ,r2 )) = |r1 a1 ×r2 a2 | = r1 r2 | det A| = | det A| Vol(Br1 ,r2 ) = | det Dψ(u0 )| Vol(Br1 ,r2 ).

On peut montrer que le même résultat est vrai en dimension n quelconque pour une
application affine.
Considérons maintenant une transformation non linéaire x = ψ(u). Autour d’un point
x0 = ψ(u0 ) on peut écrire un développement limité à l’ordre 1

x = ψ(u0 ) + Dψ(u0 ) · (u − u0 ) + R(u)


= Dψ(u0 )u + (x0 − Dψ(u0 )u0 ) + R(u).

Négligeant le reste R(u) on s’attend donc à ce que le facteur du changement infinitésimal


de volume soit encore donné par | det Dψ(u0 )|.
8.9. QUELQUES CHANGEMENTS DE VARIABLES USUELS 125

8.9 Quelques changements de variables usuels


8.9.1 Changement en coordonnées polaires
Considérons le changement de variables
! !
x ρ cos θ
= ψ(ρ, θ) = ,
y ρ sin θ

qui est un difféomorphisme entre les ouverts U = ]0, +∞[×]−π, π[ et V = R2 \{(x, y) : y =


0, x ≤ 0}. En particulier,
!
cos θ −ρ sin θ
Dψ(ρ, θ) = , Jψ (ρ, θ) = det Dψ(ρ, θ) = ρ > 0 sur U.
sin θ ρ cos θ

Soit maintenant F ⊂ V borné et mesurable, et f : F → R continue et bornée, donc

y P = (x, y)
ρ

θ
x

Figure 8.3 – Changement en coordonnées polaires

intégrable. Notons f˜(ρ, θ) = f ◦ ψ(ρ, θ) = f (ρ cos θ, ρ sin θ). Puisque ψ −1 est bornée sur
tout ensemble borné, on a que E = ψ −1 (F ) est borné, ψ et Dψ sont bornées sur E et,
grâce au théorème 8.39, E est mesurable et
Z Z
f (x, y)dxdy = f˜(ρ, θ) ρ dρdθ.
F E
R
Exemple 8.40. On souhaite calculer F f (x, y)dxdy où F = {(x, y) : 1 ≤ x2 + y 2 ≤
4, x ≥ 0, y ≥ 0} ⊂ V et f (x, y) = 1+x12 +y2 , en utilisant le changement en coordonnées
polaires.
126 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

On a E = ψ −1 (F ) = {(ρ, θ) : 1 ≤ ρ ≤ 2, 0 ≤ θ ≤ π2 } ⊂ U . De plus, toutes les


hypothèse du théorème 8.39 sont vérifiées et on peut calculer l’intégrale par la formule (8.3)
Z Z Z 2 Z π/2 !
1
f (x, y)dxdy = f˜(ρ, θ)ρdρdθ = dθ ρdρ
F E 1 0 1 + ρ2
Z 2 2
π ρ π π 5
= dρ = log(1 + ρ2 ) = log .
1 2 1 + ρ2 4 1 4 2
R
Exemple 8.41. On souhaite calculer F f (x, y)dxdy où F = {(x, y) ∈ R2 : x2 + y 2 ≤ 1}
et f (x, y) = 1+x12 +y2 . L’intégrale existe car F est compact et mesurable, et f est continue.
Considérons de nouveau le changement en coordonnées polaires. Dans ce cas, F 6⊂ V
ce qui pose un problème. Toutefois, l’ensemble G = {(x, y) : y = 0, −1 ≤ x ≤ 0} est
négligeable, donc F̃ = F \ G ⊂ V est mesurable et
Z Z
f (x, y)dxdy = f (x, y)dxdy.
F F̃

On peut alors appliquer la formule (8.3) à cette dernière intégrale. On a Ẽ = ψ −1 (F̃ ) =


{(ρ, θ) : 0 < ρ ≤ 1, −π < θ < π} ⊂ U et
Z Z Z
f (x, y)dxdy = f (x, y)dxdy = f˜(ρ, θ)ρdρdθ
F F̃ Ẽ
Z 1 Z π 
1
= dθ ρdρ = π log 2.
0 −π 1 + ρ2
Observez que ([0, 1] × [−π, π])\E
e est négligeable et donc les intégrales sur [0, 1] × [−π, π] et
sur Ẽ sont égales.

8.9.2 Changement en coordonnées cylindriques


Considérons le changement de variables
   
x ρ cos θ
   
y
  = ψ(ρ, θ, ζ) =  ρ sin θ  ,
z ζ

qui est un difféomorphisme entre les ouverts U = ]0, +∞[ × ]−π, π[ × R et V = R3 \


{(x, y, z) : x ≤ 0, y = 0, z ∈ R} avec
 
cos θ −ρ sin θ 0
 
det Dψ(ρ, θ, ζ) = det  sin θ ρ cos θ 0 = ρ > 0 sur U.
0 0 1
Comme pour le changement en coordonnées polaires, si F ⊂ V est borné et mesurable,
alors E = ψ −1 (F ) est aussi borné et ψ, Dψ sont bornés sur E. Donc, si f : F → R est
continue et bornée et on note f˜ = f ◦ ψ, on peut appliquer le théorème 8.39 : E est
mesurable et Z Z
f (x, y, z)dxdydz = f˜(ρ, θ, ζ) ρ dρdθdζ.
F E
8.9. QUELQUES CHANGEMENTS DE VARIABLES USUELS 127

P = (x, y, z)

ζ
y

θ
ρ

Figure 8.4 – Changement en coordonnées cylindriques

Exercice 8.42. Calculer Vol(F ) où F = {(x, y, z) ∈ R3 : x2 +y 2 +z 2 ≤ 4, z ≥ 13 (x2 +y 2 )}


(voir figure ci-dessous).
128 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

8.9.3 Changement en coordonnées sphériques


Considérons le changement de variables
   
x ρ cos θ sin ϕ
   
y  = ψ(ρ, θ, ϕ) =  ρ sin θ sin ϕ  ,
z ρ cos ϕ

qui est un difféomorphisme entre les ouverts U = ]0, +∞[ × ]−π, π[ × ]0, π[ et V =
R3 \ {(x, y, z) : x ≤ 0, y = 0, z ∈ R}, avec
 
cos θ sin ϕ −ρ sin θ sin ϕ ρ cos θ cos ϕ
det Dψ(ρ, θ, ϕ) = det  sin θ sin ϕ ρ cos θ sin ϕ ρ sin θ cos ϕ  = −ρ2 sin ϕ < 0 sur U.
 
cos ϕ 0 −ρ sin ϕ

Comme pour le changement en coordonnées cylindriques ou polaires, si F ⊂ V est borné


et mesurable, et f : F → R est continue et bornée, notant f˜ = f ◦ ψ et E = ψ −1 (F ), on
peut appliquer le théorème 8.39 : E est bornée et mesurable, et
Z Z
f (x, y, z)dxdydz = f˜(ρ, θ, ϕ) ρ2 sin φ dρdθdϕ.
F E

ϕ
P = (x, y, z)
ρ

y
θ

Figure 8.5 – Changement en coordonnées sphériques

Exercice 8.43. Calculer le volume de la sphère de rayon R > 0 : F = {(x, y, z) ∈ R3 :


x2 + y 2 + z 2 ≤ R2 }.
8.10. INTÉGRALE DE RIEMANN GÉNÉRALISÉE 129

8.10 Intégrale de Riemann généralisée


Jusqu’à présent on a défini l’intégrale d’une fonction f : E → R bornée sur un ensemble
borné E ⊂ Rn par un prolongement f˜ : R → R de f par zéro sur un pavé R ⊃ E :
Z Z
f (x)dx = f˜(x)dx.
E R

On souhaite ici généraliser la définition de l’intégrale de Riemann aux cas où f ou E ne sont


pas bornés. Rappelons que, pour E ⊂ Rn , on note J (E) la collection des sous-ensembles
de E compacts et mesurables au sens de Jordan, et commençons par la définition suivante :

Définition 8.44 (Fonction absolument intégrable). Soit E ⊂ Rn ouvert non-vide et


f : E → R (les deux pas forcément bornés). Soit {Kj , j ∈ N} une suite de sous-ensembles
non-vides tels que :
— Kj ∈ J (E), ∀j ∈ N ;
— Kj ⊂ K̊j+1 ;
S
— j∈N Kj = E.
R
Soit f bornée et intégrable au sens de Riemann sur chaque Kj ( Kj f (x)dx existe ainsi
R R
que Kj |f (x)|dx). On dit que f est absolument intégrable sur E si limj→∞ Kj |f (x)|dx
existe et est finie. Dans ce cas on pose
Z Z
f (x)dx = lim f (x)dx.
E j→∞ Kj

On remarque que pour tout ensemble E ⊂ Rn on peut toujours trouver une suite de
sous-ensembles {Kj }j∈N qui satisfait les propriétés de la définition ci-dessus. Il suffit en
effet de considérer, par exemple, la suite {Kj , j ≥ j0 } d’ensembles compacts

1
Kj = {x ∈ E : kxk ≤ j, kx − yk ≥ , ∀y ∈
/ E},
j

où j0 ≥ 1 est tel que Kj0 6= ∅.


R
On remarque aussi que si limj→∞ Kj |f (x)|dx existe (sous-entendu : et est finie), alors
R R R
limj→∞ Kj f (x)dx existe aussi. En effet, les suites Kj f+ (x)dx et Kj f− (x)dx sont crois-
R R R
santes et bornées par limj→∞ Kj |f (x)|dx. Donc limj→∞ Kj f+ (x)dx et limj→∞ Kj f− (x)dx
R R R
existent et aussi limj→∞ Kj f (x)dx = limj→∞ Kj f+ (x)dx − limj→∞ Kj f− (x)dx.
R
Le théorème suivant assure que la valeur de l’intégrale E f (x)dx dans la définition
précédente ne dépend pas du choix de la suite {Kj }j∈N .

Théorème 8.45. Si f : E → R est absolument intégrable selon la définition (8.44), alors


S
pour toute autre suite {Kj0 }j∈N telle que Kj0 ∈ J (E), Kj0 ⊂ K̊ 0 j+1 , ∀j ∈ N, j∈N Kj0 = E,
on a que f est bornée et intégrable au sens de Riemann sur chaque Kj0 et
Z Z
f (x)dx = lim f (x)dx.
E j→∞ K 0
j
130 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN

S
Démonstration. Fixons j ∈ N et Kj0 ∈ J (E). Clairement Kj0 ⊂ E = m∈N Km ⊂
S
m∈N K̊m+1 donc {K̊m }m∈N est un recouvrement ouvert de Kj . Puisque Kj est com-
0 0

pact, on peut extraire un recouvrement fini Kj0 ⊂ K̊i1 ∪ · · · ∪ K̊i` , et puisque les K̊m sont
emboîtés, Kj0 ⊂ K̊Nj avec Nj = max{i1 , . . . , i` }. Puisque f est intégrable sur KNj et Kj0
est mesurable, on a que f est intégrable sur Kj0 , ∀j ∈ N. De plus,
Z Z Z
f+ (x)dx ≤ f+ (x)dx ≤ lim f+ (x)dx < +∞,
Kj0 KNj m→∞ Km
Z Z Z
f− (x)dx ≤ f− (x)dx ≤ lim f− (x)dx < +∞.
Kj0 KNj m→∞ Km
R
Donc limj→∞ Kj0 f± (x)dx existent et
Z Z Z Z
lim f+ (x)dx ≤ lim f+ (x)dx, lim f− (x)dx ≤ lim f− (x)dx.
j→∞ K 0 m→∞ Km j→∞ K 0 m→∞ Km
j j

De la même façon on peut montrer que ∀j ∈ N, ∃Nj0 : Kj ⊂ K̊N


0 et
0
j
Z Z
lim f+ (x)dx ≤ lim f+ (x)dx,
j→∞ Kj j→∞ K 0
j
Z Z
lim f− (x)dx ≤ lim f− (x)dx,
j→∞ Kj j→∞ K 0
j

ce qui implique
Z Z Z Z
lim f+ (x)dx = lim f+ (x)dx, lim f− (x)dx = lim f− (x)dx
j→∞ K 0 j→∞ Kj j→∞ K 0 j→∞ Kj
j j

et
Z Z Z
lim f (x)dx = lim f+ (x)dx − lim f− (x)dx
j→∞ K 0 j→∞ K 0 j→∞ K 0
j j j
Z Z Z
= lim f+ (x)dx − lim f− (x)dx = f (x)dx.
j→∞ Kj j→∞ Kj E

R
Exemple 8.46. On veut vérifier si on peut définir E f (x, y)dxdy où E = B((0, 0), 1) \
{(0, 0)} et
1
f (x, y) = p 2 : R2 \ {(0, 0)} → R.
x + y2
1 1
Considérons la suite de sous-ensembles Kj = {(x, y) ∈ R2 : j+2 ≤ x2 + y 2 ≤ 1 − j+2 },
S
j ∈ N, qui satisfait les bonnes propriétés : Kj ∈ J (E), Kj ⊂ K̊j+1 , j∈N Kj = E. On a
q
Z Z Z Z π 
1− j+2 1
1

|f (x, y)|dxdy = f (x, y)dxdy = · ρdθ dρ


Kj Kj √1 −π ρ
j+2
s !
1 1
= 2π 1− −√ ≤ 2π, ∀j ≥ 0.
j+2 j+2
8.10. INTÉGRALE DE RIEMANN GÉNÉRALISÉE 131

Donc f est absolument intégrable sur E et


Z Z
f (x, y)dxdy = lim f (x, y)dxdy = 2π.
E j→∞ Kj

L’exemple précédent montre que la fonction 1r , avec r = kxk, est (absolument) intégrable
pour x ∈ Rn , n = 2, dans un voisinage de zéro. Par un calcul similaire on trouve qu’elle
est absolument intégrable pour tout n ≥ 2. Toutefois, elle n’est pas intégrable pour
n = 1. Plus généralement, on a que la fonction f (x) = kxkα est absolument intégrable sur
E = B(0, 1) \ {0} pour tout α > −n.
R
Exemple 8.47. On veut vérifier si on peut définir E f (x, y)dxdy où E = B((0, 0), 1) \
{(0, 0)} et
x
f (x, y) = 2 : R2 \ {(0, 0)} → R.
(x + y 2 )2
1
De nouveau, on prend Kj = {(x, y) : j ≤ x2 + y 2 ≤ 1 − 1j }, j ≥ 2. On a
q
Z Z Z π
1− 1j ρ| cos θ|
|f (x, y)|dxdy = ρdρdθ
Kj √1 −π ρ4
j
q
  1− 1j
1 p 4 j→∞
=4 − =4 j−q −−−→ +∞.
1
ρ √1
j
1− j

Donc la fonction f n’est pas absolument intégrable. R


Attention : Si on n’avait pas mis la valeur absolue, alors Kj f (x, y)dxdy = 0, ∀j ≥ 2
R
et donc limj→∞ Kj f (x, y)dxdy = 0. Le problème est que cette limite dépend du choix de
la suite {Kj } car la fonction f n’est pas absolument intégrable !
132 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN
Chapitre 9

Équations différentielles ordinaires

Soient I un intervalle ouvert, E un ouvert inclus dans R et f : I × E → R une fonction


continue. Une fonction u : I → E différentiable, qui satisfait l’équation

u0 (t) = f (t, u(t)), ∀t ∈ I, (9.1)

est appelée une intégrale ou une solution globale de l’équation (9.1) qui, à son tour,
est appelée Équation Différentielle Ordinaire (EDO) scalaire du premier ordre car elle
introduit une relation entre la valeur de la fonction (scalaire) inconnue u(t) et la valeur de
sa dérivée première en tout t ∈ I.
L’adjectif « ordinaire » fait référence au fait que l’inconnue est une fonction d’une
seule variable t, donc sa dérivée est une dérivée ordinaire. Ceci est pour distinguer du
cas où l’inconnue est une fonction de plusieurs variables (t, x1 , . . . , xm ) et l’équation fait
intervenir les dérivées partielles de u. Dans ce dernier cas, on parle d’une Équation aux
Dérivées Partielles (EDP), qu’on ne va pas traiter dans ce cours.

Exemple 9.1. Soit I, E = R et f (t, x) = t2 + x, ce qui va définir l’équation différentielle


ordinaire du premier ordre

u0 (t) = f (t, u(t)) = t2 + u(t), ∀t ∈ R.

On vérifie facilement que u(t) = Cet − (t2 + 2t + 2), avec C ∈ R arbitraire, est une intégrale
de l’équation.

L’exemple précédent montre que la solution d’une EDO scalaire du premier ordre
dépend généralement d’un paramètre arbitraire, mais les exceptions sont courantes. On a
donc ici une famille infinie de solutions u(·, C) : I → R paramétrées par un paramètre réel.

Définition 9.2. On appelle intégrale générale de l’équation différentielle (9.1) l’ensemble


de toutes les solutions globales de (9.1).

La notion d’équation différentielle se généralise facilement à une dimension n quelconque.


Dans ce cas, on parle d’une EDO vectorielle du premier ordre ou bien d’un système d’EDO
du premier ordre. Soit I ⊂ R un intervalle ouvert, E ⊂ Rn un ouvert et f : I × E → Rn

133
134 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

une fonction à valeurs dans Rn continue. On considère l’EDO vectorielle




 u0 (t) = f1 (t, u1 (t), . . . , un (t))
 1

..
u0 (t) = f (t, u(t)) ⇐⇒ . ∀t ∈ I, (9.2)



u0 (t) = f (t, u (t), . . . , u (t))
n n 1 n

dont la solution sera une fonction vectorielle u : I → E ⊂ Rn différentiable, t 7→ u(t) =


(u1 (t), . . . , un (t)). On verra par la suite que, généralement, l’intégrale générale de (9.2) est
une famille de fonctions u(·, C1 , . . . , Cn ) : I → E paramétrée par n paramètres réels (mais
de nouveau les exceptions sont courantes).
On peut aussi introduire des équations différentielles d’ordres supérieurs à un. Par
exemple, soit I ⊂ R un intervalle ouvert, E ⊂ Rn un ouvert et f : I × E → R une fonction
scalaire continue. Considérons l’équation différentielle d’ordre n

u(n) (t) = f (t, u(t), u0 (t), . . . , u(n−1) (t)), ∀t ∈ I, (9.3)

dont la solution est une fonction u : I → R de classe C n telle que (u(t), u0 (t), . . . , u(n−1) (t)) ∈
E, ∀t ∈ I. Une telle équation peut toujours être écrite sous forme d’une EDO vectorielle
d’ordre 1 en introduisant les variables

u1 (t) = u(t), u2 (t) = u0 (t), ··· , un (t) = u(n−1) (t),

ainsi que la fonction vectorielle


 
u2
 .. 
 
f :I ×E →R , n
f (t, u1 , . . . , un ) = 

. ,

 un 
f (t, u1 , . . . , un )

ce qui permet d’écrire (9.3) comme u0 (t) = f (t, u(t)), ∀t ∈ I. Pour cette raison, une étude
complète des systèmes d’EDO du premier ordre est suffisante pour pouvoir traiter aussi
des équations d’ordres supérieurs.

9.1 Problème de Cauchy


Comme l’exemple 9.1 le montre, l’intégrale générale d’une EDO scalaire du premier
ordre dépend en générale d’un paramètre arbitraire (n paramètres pour une EDO vectorielle
en dimension n). Il est souvent pratique d’imposer des conditions supplémentaires pour
obtenir une solution unique. Par exemple on peut demander que la solution passe par un
point (t0 , u0 ) ∈ I × E. Ceci porte au Problème de Cauchy :
Problème 9.3 (de Cauchy). Étant donné f : I × E → Rn continue, avec I ⊂ R un
intervalle ouvert, E ⊂ Rn un ouvert et (t0 , u0 ) ∈ I × E, trouver u : I → E différentiable
sur I t.q. (
u0 (t) = f (t, u(t)), t ∈ I,
(9.4)
u(t0 ) = u0 .
9.1. PROBLÈME DE CAUCHY 135

Les équations différentielles ordinaires apparaissent souvent dans les applications pour
décrire l’évolution d’un système en fonction du temps. Dans ce cas, la condition u(t0 ) = u0
peut être interprétée comme une valeur initiale, c.-à-d. elle décrit l’état du système au
temps initial t0 , et on cherche à prédire l’état u(t) du système pour des temps futures
t > t0 . On parle alors d’un Problème à valeur initiale :
Problème 9.4 (à valeur initiale). Étant donné f : I+ ×E → Rn continue, avec I+ = [t0 , T [
et −∞ < t0 < T ≤ +∞, E ⊂ Rn un ouvert et u0 ∈ E, trouver u : I+ → E continue sur
I+ et différentiable sur ˚
I+ t.q.
(
u0 (t) = f (t, u(t)), t0 < t < T,
(9.5)
u(t0 ) = u0 .

Il arrive parfois qu’on souhaite modéliser l’évolution passée qui a porté à l’état actuel
u(t0 ) = u0 du système. On parle alors d’un Problème à valeur finale :
Problème 9.5 (à valeur finale). Étant donné f : I− × E → Rn continue, avec I− = ]T̃ , t0 ]
et −∞ ≤ T̃ < t0 < +∞, E ⊂ Rn un ouvert et u0 ∈ E, trouver u : I− → E continue sur
I− et différentiable sur ˚
I− t.q.
(
u0 (t) = f (t, u(t)), T̃ < t < t0 ,
(9.6)
u(t0 ) = u0 .

Soit I = ]T̃ , T [ = I− ∪ I+ . Il est clair que si u : I → E est une solution du problème


de Cauchy (9.4), alors les restrictions u|I+ et u|I− de u à I+ et I− sont solutions des
problèmes à valeur initiale (9.5) et finale (9.6), respectivement. Il est facile de montrer
(exercice) l’implication inverse :
Lemme 9.6. Si u+ : I+ → E et u− : I− → E sont solutions de (9.5), (9.6) et f est
continue sur I × E alors la fonction u : I → E définie par u(t) = u− (t) si t ∈ I− et
u(t) = u+ (t) si t ∈ I+ est de classe C 1 et est solution de (9.4).
Bien que le problème de Cauchy 9.3 soit formulé sur l’intervalle ouvert I, sa solution
(si elle existe) peut ne pas exister pour tout t ∈ I, comme l’exemple suivant le montre.
Exemple 9.7. Soit I, E = R, f (t, u) = u2 et considérons le problème de Cauchy
(
u0 (t) = u2 (t), t ∈ R,
u(0) = 1.
1
On vérifie facilement que u(t) = 1−t est une solution ∀t 6= 1. Toutefois, cette solution n’est
pas définie pour t = 1. En particulier, elle présente une « explosion en temps fini » lorsque
t → 1− . Du point de vue physique, prolonger cette solution pour t > 1 n’a pas vraiment de
sens. On dit alors que la solution existe seulement pour t < 1 et elle n’est pas une solution
globale du problème de Cauchy.
Les considérations précédentes nous portent à donner la définition suivante de solution
locale et solution maximale du problème de Cauchy (une terminologie analogue s’applique
aux problèmes à valeur initiale et à valeur finale).
136 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

Définition 9.8. On appelle solution locale du problème de Cauchy 9.3 un couple (J, u)
où J ⊂ I est un intervalle ouvert contenant t0 et où u ∈ C 1 (J) satisfait (9.4) sur J.
— On dit qu’une solution locale (K, w) du problème 9.3 prolonge strictement (J, u) si
J ⊂ K, J 6= K, et u(t) = w(t), ∀t ∈ J.
— On dit qu’une solution locale (J, u) est maximale s’il n’existe pas de solution locale qui
la prolonge strictement.
— On dit qu’une solution maximale (J, u) est une solution globale si J = I.
— Une solution maximale (J, u) est dite unique si toute solution locale (K, w) est telle
que K ⊂ J et w(t) = u(t), ∀t ∈ K.

Si on s’intéresse à l’EDO u0 (t) = f (t, u(t)) pour t dans l’intervalle ouvert I, sans
spécifier de condition initiale du type u(t0 ) = u0 , on peut aussi introduire une terminologie
analogue. Par exemple une solution locale est un couple (J, u) où J ⊂ I est un intervalle
ouvert non-vide et où u ∈ C 1 (J) est solution. Néanmoins, sans condition initiale, le concept
d’unicité d’une solution maximale n’est plus pertinent et, à la place, on introduit la notion
de solution générale : c’est l’ensemble de toutes les solutions maximales.

Remarque 9.9. Sans spécification de l’intervalle de définition d’une solution, il est


souvent sous-entendu par “solution” le concept de solution maximale.

Il est important de savoir sous quelles conditions sur f le problème de Cauchy admet
des solutions locales ou globales et si elles sont uniques. On investiguera cette question
dans la section 9.4.

9.2 Quelques méthodes de résolution d’EDO scalaires


On considère dans cette section le cas d’une EDO scalaire et le problème de Cauchy
correspondant
u0 (t) = f (t, u(t)), t ∈ I, u(t0 ) = u0 ,
avec I ⊂ R un intervalle ouvert contenant t0 , E ⊂ R un ouvert contenant u0 et f : I × E →
R continue.
Avant d’illustrer quelques méthodes de résolution, on présente d’abord une inter-
prétation géométrique de la solution du problème de Cauchy. Soit u : J → E une
solution maximale du problème de Cauchy (J étant un intervalle ouvert contenant t0
et inclus dans I), dont le graphe G(u) = {(t, y) ∈ J × E : y = u(t)}, appelé aussi
une courbe intégrale, est contenu dans I × E. Un vecteur tangent à G(u) en (t, u(t)) est
donné par v = (1, u0 (t)) = (1, f (t, u(t))). Définissons le champ vectoriel v : I × E → R2 ,
(t, y) 7→ v(t, y) = (1, f (t, y)). Alors, les courbes intégrales sont en tout point tangentes au
champ vectoriel v.
La figure 9.1 montre le champ vectoriel associé à la fonction f (t, u) = u(1 − u), ainsi
que les trois solutions des problèmes de Cauchy associés aux conditions initiales u(0) = 2,
u(0) = 0.25, u(0) = −0.25. On voit bien que les graphes des solutions (courbes intégrales)
sont en tout point tangentes au champ vectoriel v(t, y) = (1, y(1 − y)).
9.2. QUELQUES MÉTHODES DE RÉSOLUTION D’EDO SCALAIRES 137

y
3

u 0 =2
2

u 0 =0.25

0 t

u 0 =-0.25

-1

-2

-3
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

Figure 9.1 – Courbes intégrales associées aux conditions u(0) = 2, u(0) = 0.25, u(0) = −0.25
pour l’EDO u0 = u(1 − u).

9.2.1 Équations différentielles à variables séparées


Soit f : I × E → R de la forme f (t, u) = g(t)k(u) avec g : I → R et k : E → R
continues sur les intervalles ouverts I et E, et considérons le problème de Cauchy :
(
u0 (t) = g(t)k(u(t)), t ∈ I,
(9.7)
u(t0 ) = u0 ,

avec (t0 , u0 ) ∈ I × E. Si k(u0 ) = 0, le problème de Cauchy admet la solution globale


u(t) = u0 , ∀t ∈ I. Si par contre, k(u0 ) 6= 0, grâce à la continuité de k, il existe un intervalle
ouvert Ẽ ⊂ E contenant u0 où la fonction k ne s’annule pas. Dans ce cas, le résultat
suivant donne une procédure explicite pour calculer une solution locale du problème de
Cauchy.

Théorème 9.10. Soient I, Ẽ ⊂ R deux intervalles ouverts, g : I → R continue et


k : Ẽ →R R continue telle que k(u) 6=R0, ∀u ∈ Ẽ. Pour tout (t0 , u0 ) ∈ I × Ẽ, notons
1
G(t) = tt0 g(s)ds : I → R et F (u) = uu0 k(v) dv : Ẽ → R. Alors il existe un intervalle
ouvert J ⊂ I contenant t0 avec G(J) ⊂ Im(F ) et une fonction u : J → R définie par

u(t) = F −1 (G(t)) ∈ Ẽ, t ∈ J, (9.8)

tels que (J, u) est une solution locale du problème de Cauchy (9.7). De plus, une telle
solution locale (J, u) est unique au sens que toute autre solution locale (K, w) à valeurs
dans E satisfait w(t) = u(t) ∈ Ẽ, ∀t ∈ K ∩ J.

Démonstration. Notons tout d’abord que la fonction k, étant une fonction continue,
ne change pas de signe sur Ẽ, ce qui implique que F : Ẽ → R est continue strictement
monotone sur Ẽ, Im(F ) est ouvert et l’application inverse définie sur Im(F ) est continûment
138 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

différentiable (F est un difféomorphisme entre Ẽ et Im(F )). Puisque F (u0 ) = 0, il existe


η > 0 tel que ]−η, η[ ⊂ F (Ẽ) et par la continuité de G en t0 et le fait que G(t0 ) = 0, il
existe δη > 0 tel que J := ]t0 − δη , t0 + δη [ ⊂ I et G(t) ∈ ]−η, η[, ∀t ∈ J. On a donc montré
l’existence d’un intervalle ouvert J ⊂ I contenant t0 et tel que G(J) ⊂ Im(F ).
Grâce au fait que F −1 et G sont de classe C 1 , on a que u = F −1 ◦ G ∈ C 1 (J) et

G0 (t)
u0 (t) = = g(t)k(u(t)), ∀t ∈ J.
F 0 (F −1 (G(t)))

De plus, u(t0 ) = F −1 (0) = u0 , donc (J, u) est une solution locale du problème de Cauchy.
Montrons l’unicité de cette solution. En effet, soit (K, w) une autre solution locale à
valeurs dans E. Puisque w est continue et Ẽ est ouvert, w−1 (Ẽ) est un ouvert dans K
contenant t0 . Soit K̃ le plus grand intervalle ouvert inclus dans w−1 (Ẽ) et contenant t0 .
R w0 (s) R
Alors, pour tout t ∈ K̃ on a k(w(t)) 6= 0 (car w(t) ∈ Ẽ) et tt0 k(w(s)) ds = tt0 g(s)ds =
G(t). Mais, en faisant le changement de variable v = w(t), la même intégrale devient
R t w0 (s) R w(t) 1
t0 k(w(s)) ds = u0 k(v) dv = F (w(t)), ce qui implique, grâce à l’inversibilité de F : Ẽ →
Im(F ), que w(t) = F −1 (G(t)), ∀t ∈ K̃. Donc w = u sur l’intervalle ouvert J ∩ K̃ ⊂ J ∩ K.
Par l’absurde, supposons qu’il existe t̃ ∈ ∂(J ∩ K̃) ∩ (J ∩ K). Comme u(t̃) ∈ Ẽ, on
obtiendrait par continuité que w(t̃) = u(t̃) ∈ Ẽ, ce qui conduirait à la contradiction
t̃ ∈ J ∩ K̃. D’où J ∩ K̃ = J ∩ K.

Le théorème précédent montre l’existence d’un intervalle ouvert J ⊂ I contenant u0 et


tel que G(J) ⊂ Im(F ). Si maintenant on prend le plus grand intervalle J˜ ⊂ I contenant
˜ ⊂ Im(F ), qui sera non-vide grâce au résultat du théorème précédent,
u0 et tel que G(J)
on pourra calculer l’unique solution locale sur J˜ par la formule

u(t) = F −1 (G(t)), ˜
∀t ∈ J.

Il est possible qu’il existe une solution locale sur un intervalle ouvert plus grand Jˆ ⊃ J.
˜
Toutefois, le théorème 9.10 ne garantit plus l’unicité de la solution sur Jˆ \ J.˜ En effet,
ˆ
l’exemple 9.12 ci-dessous montre que dès que k(u(t)) = 0 pour quelque t ∈ J, la solution
peut ne plus être unique (observez que k n’est pas de classe C 1 dans cet exemple).
De façon informelle, on peut construire la solution d’un problème de Cauchy par
séparation de variables en utilisant le procédé suivant :
Z u Z t
du du dv
= g(t)k(u) ⇒ = g(t)dt ⇒ = g(s)ds
dt k(u) u0 k(v) t0
⇒ F (u) − F (u0 ) = G(t) − G(t0 ) ⇒ u=F −1
(G(t) − G(t0 ) + F (u0 ))
1
où F est une primitive quelconque de k et G une primitive quelconque de g.

Exemple 9.11. Soit I, E = R, et f (t, u) = u2 , (t, u) ∈ I × E. Considérons le problème


de Cauchy
(
u0 (t) = u2 (t), t ∈ I,
u(t0 ) = u0 > 0.
9.2. QUELQUES MÉTHODES DE RÉSOLUTION D’EDO SCALAIRES 139

On note g(t) = 1, t ∈ I, et k(u) = u2 , u ∈ E. Pour pouvoir appliquer la méthode de


séparation des variables, on se restreint à l’ensemble Ẽ = R∗+ ⊂ E, puisque u0 > 0. On a
Z u
1 1 1
F (u) = dy = − : Ẽ → R
u0 y2 u0 u

qui est bien inversible sur Ẽ, avec application inverse F −1 (v) = u0
1−u0 v continûment
R
différentiable sur ]−∞, u10 [. De plus, G(t) = tt0 1 dt = t − t0 et donc

u0 1
u(t) = , ∀t ∈ ]−∞, t0 + [
1 − (t − t0 )u0 u0

est l’unique solution du problème de Cauchy sur l’intervalle ]−∞, t0 + u10 [. Cette solution
est aussi la solution maximale car limt→(t0 + 1 )− = +∞ et elle ne peut pas être prolongée
u0
de façon continue sur un intervalle plus grand.
p
Exemple 9.12. Soit I, E = R, et f (t, u) = − |u|, (t, u) ∈ I ×E. Considérons le problème
de Cauchy ( p
u0 (t) = − |u(t)|, t ∈ I,
u(t0 ) = u0 > 0.

p déjà que toute solution locale u satisfait u ≤ 0. On note g(t) = −1,


Observons 0 t ∈ I, et
k(u) = |u|, u ∈ E. De nouveau, puisque u0 > 0, on se restreint à Ẽ = R∗+ ⊂ E et on
cherche une primitive de √1 pour y ∈ Ẽ :
|y|
Z u
1 √ √
F (u) = √ dy = 2 u − 2 u0 : Ẽ → R
u0 y
√ 2
qui est bien inversible sur Ẽ avec application inverse différentiable F −1 (v) = u0 + v2 , v ∈
√ R √
]−2 u0 , +∞[. D’autre part, G(t) = tt0 (−1)ds = t0 − t et G(t) ∈ ]−2 u0 , +∞[ pour tout

t ∈ ]−∞, 2 u0 + t0 [, et on a la solution locale
 2
√ t − t0 √
u(t) = u0 − , t ∈ ]−∞, 2 u0 + t0 [.
2
√ 0 2

La fonction u(t) = ( u0 − t−t 2 ) , t ∈ R, est bien définie pour t ≥ 2 u0 + t0 , mais

n’est pas solution car u0 (t) > 0 pour tout t > 2 u0 + t0 . Toutefois il existe des solutions
globales, mais pas uniques. En effet, les fonctions
( √ 2 ( √
√ t−t0 2 √
u0 − t−t
2
0
, t < 2 u0 + t0 , u0 − 2 , t < 2 u0 + t0 ,
ũ(t) = √ t−t0 2 √ û(t) = √
− u0 − 2 , t ≥ 2 u0 + t0 , 0, t ≥ 2 u0 + t0 ,

sont des solutions globales du même problème de Cauchy. On remarque que les deux

fonctions coïncident pour t < 2 u0 + t0 , ce qui est consistent avec le résultat du théorème

9.10, et que la solution n’est plus unique pour t > 2 u0 + t0 ,pc.-à-d. une fois que la solution
a touché la valeur critique ucr = 0 pour laquelle k(ucr ) = |ucr | = 0. Ces deux solutions
140 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

globales peuvent être vues comme les membres extrêmes de la famille suivante de solutions

globales, la famille étant paramétrée par s ∈]2 u0 + t0 , +∞[ :
 √
t−t0 2 √

 u0 − 2
 , t < 2 u0 + t0 ,

us (t) = 0, 2 u0 + t0 ≤ t < s,

− t−s 2 ,

t ≥ s.
2

Exercice 9.13. Trouver, par la méthode de séparation des variables, la solution du


problème de Cauchy
(
u0 (t) = 32 u(t)1/3 , t ∈ R,
u(t0 ) = u0 > 0.

Commenter sur l’unicité de la solution. Ici v 7→ v 1/3 est la fonction impaire sur R réciproque
de la fonction v → v 3 .

9.2.2 Équations avec fonction f (t, u) homogène de degré zéro


Soit f : R∗ × R → R continue telle que f (αt, αy) = f (t, y), ∀α ∈ R∗ . On appelle une
telle fonction homogène de degré zéro. Si on prend, en particulier, α = 1t , t 6= 0, on voit
que f dépend uniquement du rapport y/t car f (t, y) = f (1, yt ). Introduisant la fonction
φ( yt ) := f (1, yt ), le problème de Cauchy pour t0 > 0 prend la forme suivante :
  
u0 (t) = f (t, u(t)) = φ u(t) , t ∈ ]0, +∞[,
t
u(t0 ) = u0 .

On introduit, maintenant, le changement de variable v(t) = t .


u(t)
Alors
 
u0 (t) u(t) 1 u(t) 1 u(t)
v (t) =
0
− 2 = φ −
t t t t t t
1
= [φ(v(t)) − v(t)],
t
ce qui nous donne une équation à variables séparées en (t, v).
Le même raisonnement s’applique aussi si le fonction f est définie par exemple seulement
sur R∗ × R∗ ou R∗+ × R∗+ et u0 6= 0.
t3 +y 3
Exemple 9.14. Considérons la fonction f : R∗+ × R∗+ → R donnée par f (t, y) = ty 2
et
le problème de Cauchy

t3 + u3 (t)
u0 (t) = , u(t) > 0, t > 0, u(1) = u0 > 0.
tu2 (t)
9.3. EDO SCALAIRES LINÉAIRES DU PREMIER ORDRE 141

On pose v(t) = u(t)


t et on cherche la solution du problème transformé
" #  
1 1 + v 3 (t) 1 1
v (t) =
0
− v(t) = , v(t) > 0, t > 0, v(1) = u0 .
t v (t)
2 t v (t)
2

R
En intégrant on trouve F (v) = uv0 w2 dw = 13 (v 3 − u30 ), inversible entre R∗+ et ]− 13 u30 , +∞[
R
(d’inverse C 1 ), et G(t) = 1t 1s ds = ln t, t ∈ ]e−u0 /3 , +∞[, et donc
3

v(t) = F −1 (G(t)) = (3 ln t + u30 )1/3 ,


3
t > e−u0 /3 .

Finalement on obtient la solution locale

u(t) = v(t)t = (3 ln t + u30 )1/3 t,


3
t > e−u0 /3 .

9.3 EDO scalaires linéaires du premier ordre


On parle d’équation différentielle linéaire du premier ordre lorsque f (t, y) est une
fonction affine de la variable y. Soit I ⊂ R un intervalle ouvert, g, p : I → R deux fonctions
continues et f (t, y) = g(t) − p(t)y. Pour t0 ∈ I, on pose le problème de Cauchy suivant :
(
u0 (t) + p(t)u(t) = g(t), t ∈ I,
(9.9)
u(t0 ) = u0 .

L’équation est dite homogène ou sans second membre si g(t) = 0, ∀t ∈ I, et non-homogène,


inhomogène ou avec second membre autrement. (Faites attention que la terminologie
“homogène” a déjà été utilisée dans la section 9.2.2, mais dans un sens différent !)
La méthode du facteur intégrant. Voici une première méthode courante de résolution
de problème de Cauchy (9.9). Notons par P : I → R n’importe
Rt
quelle primitive fixée de p
(la constante d’intégration est fixée librement) : P (t) = p(s) ds. On appelle la fonction
eP : I → R un facteur intégrant. Cette terminologie provient de l’équivalence suivante :
 
 eP (t) u(t) 0 = eP (t) g(t), t ∈ I,
(9.9) ⇔
u(t ) = u .
0 0

Il est facile maintenant d’obtenir une formule pour la solution :


Z t
(9.9) ⇔ eP (t) u(t) − eP (t0 ) u0 = eP (s) g(s) ds, t ∈ I,
t0
Z t
⇔ u(t) = e−(P (t)−P (t0 )) u0 + e−P (t) eP (s) g(s) ds, t ∈ I.
t0
Rt
Avec le choix de la primitive P (t) = t0 p(s) ds, ceci donne plus simplement
Z t
u(t) = e−P (t) u0 + e−P (t) eP (s) g(s) ds, t ∈ I. (9.10)
t0
142 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

Ainsi (9.9) admet une unique solution globale.


Passons à une méthode standard, qui consiste à traiter d’abord le problème homogène
et ensuite le problème non-homogène. Comme nous le verrons, cette seconde méthode
s’appliquera aussi aux EDO du deuxième ordre linéaire.
Équation homogène. Il s’agit de trouver la solution générale du problème homogène
associé (dans lequel on remplace g par 0) :
u0 (t) + p(t)u(t) = 0, t ∈ I,
sans condition initiale. La méthode du facteur intégrant s’applique et donne la solution
générale
u(t) = Ce−P (t) , t ∈ I,
où C ∈ R est une constante arbitraire et P : I → R est une primitive fixée de p : I → R.
En fait additionner une constante à la primitive P est équivalent à multiplier C par une
constante positive. Le choix C = 0 donne la solution “triviale” u = 0 sur I.
Une autre manière de résoudre le problème homogène associé est de l’écrire sous forme
d’une EDO à variables séparées :
u0 (t) = −p(t)u(t), t ∈ I,
se souvenir qu’une primitive de 1/v est donnée par ln(|v|) et ne pas oublier la solution
triviale u = 0 sur tout I.
Équation non-homogène. Considérons maintenant le cas non-homogène, pour lequel
on a le résultat suivant dont la démonstration est immédiate :
Proposition 9.15 (Principe de superposition de solutions). Soient g1 , g2 : I → R conti-
nues et deux constantes α1 , α2 ∈ R. Si u1 : I → R est une intégrale de l’équation
u01 (t) + p(t)u1 (t) = g1 (t) et u2 : I → R une intégrale de l’équation u02 (t) + p(t)u2 (t) = g2 (t),
alors v = α1 u1 + α2 u2 est une intégrale de l’équation v 0 (t) + p(t)v(t) = α1 g1 (t) + α2 g2 (t).
En particulier, en prenant g2 = 0, g1 = g et α1 = α2 = 1, on obtient
Proposition 9.16. Toute solution de l’équation différentielle
u0 (t) + p(t)u(t) = g(t), t ∈ I (9.11)
est de la forme
u(t) = w(t) + Ce−P (t) (9.12)
où w(·) est une solution particulière de l’équation non-homogène (i.e. une solution fixée du
problème non-homogène qui ne satisfait pas forcément la condition w(t0 ) = u0 ) et Ce−P (·)
est la solution générale de l’équation homogène, avec P (·) une primitive quelconque de p
et C ∈ R une constante arbitraire.
Démonstration. Il est clair que (9.12) est solution de (9.11) pour tout C ∈ R. Montrons
que (9.12) est bien l’intégrale générale. Par l’absurde, supposons qu’il existe une intégrale ũ
de (9.11) qui n’est pas de la forme (9.12). Alors ũ − w est solution de l’équation homogène
et donc il existe C̃ ∈ R telle que ũ(t) − w(t) = C̃e−P (t) ce qui contredit l’hypothèse que ũ
n’est pas de la forme (9.12).
9.3. EDO SCALAIRES LINÉAIRES DU PREMIER ORDRE 143

Si, après, on s’intéresse au problème de Cauchy, on peut toujours trouver sa solution


(globale) en calculant la constante C dans (9.12) de telle sorte à avoir u(t0 ) = u0 , ce qui
donne C = eP (t0 ) (u0 − w(t0 )).

Exemple 9.17. Considérons l’équation différentielle linéaire u0 (t) = u(t) + 1, ainsi que le
problème de Cauchy avec condition initiale u(t0 ) = u0 . On a
— solution générale de l’équation homogène : z(t) = Cet ;
— solution particulière de l’équation non-homogène : w(t) = −1 ;
— solution générale : u(t) = w(t) + z(t) = −1 + Cet ;
— solution globale (unique) du problème de Cauchy : u(t) = −1 + (1 + u0 )e(t−t0 ) .

Expliquons une méthode importante pour trouver une solution particulière de l’équation
non-homogène : la méthode de variation des constantes. Elle consiste à chercher une solution
particulière de l’équation non-homogène sous la forme

w(t) = C(t)e−P (t) , avec C : I → R différentiable,

c.-à-d. qu’on prend l’expression de l’intégrale générale de l’équation homogène z(t) =


Ce−P (t) et on transforme la constante C ∈ R en une fonction C : I → R différentiable. En
remplaçant dans l’équation on a

w0 (t) = −p(t)w(t) + g(t) = −p(t)C(t)e−P (t) + g(t),

mais, d’autre part

d  
w0 (t) = C(t)e−P (t) = C 0 (t)e−P (t) − C(t)e−P (t) p(t),
dt
R
d’où C 0 (t) = g(t)eP (t) et donc C(t) = t g(s)eP (s) ds, où on peut fixer librement la primitive
(c’est-à-dire, on peut fixer librement la constante “d’intégration”). On arrive finalement au
résultat final donnant l’intégrale générale d’une EDO linéaire
Z t
u(t) = Ce−(P (t)−P (t0 )) + g(s)e−(P (t)−P (s)) ds, t ∈ I,

et la solution du problème de Cauchy avec condition initiale u(t0 ) = u0 est donnée


par la même formule (9.10) déjà obtenue. Comme la primitive a été fixée, qu’une seule
constante
Rt
C apparaît dans l’intégrale générale. Si par contre on avait écrit par exemple
C(t) = t0 g(s)eP (s) ds + D pour un certain t0 ∈ I, on serait arrivé à
Z t
−(P (t)−P (t0 ))
u(t) = Ce + g(s)e−(P (t)−P (s)) ds + De−P (t)
t0
Z t
= C 0 e−(P (t)−P (t0 )) + g(s)e−(P (t)−P (s)) ds
t0

avec de nouveau une seule constante C 0, où C 0 = C + e−P (t0 ) D.


144 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

Exemple 9.18.
Rt
Considérons le problème de Cauchy u0 (t) = u(t) + 1, t ∈ R et u(t0 ) = u0 .
On a P (t) = t0 −1 ds = t0 − t et
Z t
u(t) = u0 e t−t0
+ 1 · et−s ds
t0
= u0 et−t0 − e (e t −t
− e−t0 )
= −1 + (1 + u0 )et−t0 .

9.3.1 Équation différentielle linéaire à coefficient constant


Considérons l’équation différentielle linéaire à coefficient constant

u0 (t) + αu(t) = g(t), t ∈ I,

avec g : I → R continue et α ∈ R. Dans ce cas, la solution de l’équation homogène est tout


simplement z(t) = Ce−αt et l’intégrale générale prend donc la forme u(t) = w(t) + Ce−αt
où w est une solution particulière de l’équation non-homogène. Voyons quelques cas
particuliers de fonctions g :
P
g est un polynôme de degré n et α 6= 0 : g(t) = nj=0 aj tj .
P
On cherche w sous la même forme : w(t) = nj=0 βj tj .

Exemple 9.19. Considérons l’EDO linéaire u0 (t) + αu(t) = 1 + t, t ∈ R.


On cherche une solution particulière sous la forme w(t) = β0 + β1 t. On a donc

w0 (t) + αw(t) = β1 + α(β0 + β1 t) = 1 + t

ce qui implique (
β1 + αβ0 = 1
αβ1 = 1

et donc (β0 , β1 ) = ( α1 (1 − α1 ), α1 ). Finalement, l’intégrale générale est


 
1 1 1
u(t) = 1− + t + Ce−αt , t ∈ R, C ∈ R.
α α α
P 
g est un polynôme multiplié par une fonction exponentielle : g(t) = n
j=0 aj t
j eδt .
P 
Si δ 6= −α alors on cherche w(t) = n
j=0 βj t
j eδt . Par exemple, si g(t) = eδt , on
recherche w sous la forme w(t) = βeδt . On a alors

w0 (t) = βδeδt = −αβeδt + eδt


1
ce qui implique β = δ+α et donc l’intégrale générale est

1 δt
u(t) = e + Ce−αt , t ∈ R, C ∈ R.
δ+α
9.4. EXISTENCE ET UNICITÉ DE SOLUTIONS 145

P 
Si δ = −α alors on cherche w(t) = t j=0 βj t e . Par exemple, si g(t) = e = e
n j δt δt −αt

(qui est solution du problème homogène associé), on recherche w sous la forme


w(t) = tβeδt = tβe−αt . On trouve que w(t) = te−αt est une solution particulière et
l’intégrale générale est

u(t) = (C + t)e−αt , t ∈ R, C ∈ R.

g est un polynôme multiplié par des fonctions trigonométriques-exponentielles :


X
n  X
n 
g(t) = aj t e sin(ωt) +
j δt
ãj tj eδt cos(ωt), ω 6= 0, δ ∈ R.
j=0 j=0

On cherche w(t) sous la même forme :


X
n  X
n 
w(t) = βj tj eδt sin(ωt) + β̃j tj eδt cos(ωt).
j=0 j=0

En particulier, si g(t) = b sin(ωt) + c cos(ωt) avec b2 + c2 > 0 et ω 6= 0, on recherche


w sous la forme w(t) = β sin(ωt) + γ cos(ωt), ce qui donne

w0 (t) = βω cos(ωt) − γω sin(ωt) = −α(β sin(ωt) + γ cos(ωt)) + b sin(ωt) + c cos(ωt)

et implique par identification


( (
1
βω = −αγ + c β= α2 +ω 2
(αb + ωc)
⇒ 1
−γω = −αβ + b γ= α2 +ω 2
(−ωb + αc)

Donc l’intégrale générale est


1 1
u(t) = (αb+ωc) sin(ωt)+ 2 (−ωb+αc) cos(ωt)+Ce−αt , t ∈ R, C ∈ R.
α2 +ω 2 α + ω2
Observons que b = 0 ⇒ β 6= 0, et c = 0 ⇒ γ 6= 0.

9.4 Existence et unicité de solutions


Dans cette section, on va étudier l’existence et unicité de solutions d’un problème de
Cauchy pour un système d’EDO du premier ordre
(
u0 (t) = f (t, u(t)), t ∈ I,
(9.13)
u(t0 ) = u0 ,

où I ⊂ R est un intervalle ouvert contenant t0 , E ⊂ Rn un ouvert contenant u0 et


f : I × E → Rn une fonction continue.
Pour cela, on va réécrire (9.13) sous forme intégrale : soit (J, u) une solution locale
(même globale si J = I). En particulier, u ∈ C 1 (J, E) et
Z t
u(t) = u0 + f (s, u(s))ds, ∀t ∈ J. (9.14)
t0
146 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

Le réciproque est aussi vrai. Si u ∈ C 0 (J, E) satisfait l’équation intégrale (9.14), avec
J ⊂ I ouvert contenant t0 , alors u est différentiable sur J et (J, u) est une solution locale
de (9.13). On introduit alors l’application φ : C 0 (J, E) → C 0 (J, Rn ) qui à toute fonction
v ∈ C 0 (J, E) fait correspondre la fonction φ(v) ∈ C 0 (J, Rn ) définie par
Z t
φ(v)(t) = u0 + f (s, v(s))ds, ∀t ∈ J. (9.15)
t0

La solution de (9.14) est un point fixe de l’application φ, i.e. u = φ(u). Avant de présenter
les théorèmes d’existence et unicité de solutions de (9.13) (resp. (9.14)) on va introduire
la notion abstraite d’espace de Banach et généraliser le théorème de point fixe dans un
sous-ensemble fermé d’un espaces de Banach. Ceci nous permettra d’appliquer le théorème
de point fixe à l’application φ dans l’espace C 0 (J, Rn ).

9.4.1 Espace de Banach et complétude de C 0 (J)


Définition 9.20. Soit (V, k · k) un espace vectoriel réel normé et {v (k) }k∈N ⊂ V une suite
d’éléments de V . On dit que
— {v (k) }k∈N converge vers v ∈ V si limk→∞ kv − v (k) k = 0, i.e. si

∀ > 0, ∃N > 0 : ∀k ≥ N, kv − v (k) k ≤ ;

il est facile de vérifier que, si elle existe, la limite v ∈ V est unique.


— {v (k) }k∈N est une suite de Cauchy si

∀ > 0, ∃N > 0 : ∀k, ` ≥ N, kv (k) − v (`) k ≤ .

On a vu au chapitre 1 que Rn a une structure d’espace vectoriel (réel) normé et que


toute suite de Cauchy est convergente. Cette propriété n’est pas toujours vraie dans un
espace vectoriel normé quelconque.

Définition 9.21 (Espace complet). On dit qu’un espace vectoriel normé (V, k · k) est
complet si toute suite de Cauchy de V converge dans V . Autrement dit, pour toute suite
{v (k) }k∈N ⊂ V de Cauchy, ∃ v ∗ ∈ V tel que limk→∞ kv ∗ − v (k) k = 0. Un espace vectoriel
normé complet est appelé espace de Banach.
On dit qu’un sous-ensemble K ⊂ V est complet si toute suite de Cauchy de K converge
dans K.

Exercice 9.22. Considérons l’espace vectoriel réel C 0 ([−1, 1]) de fonctions réelles conti-
nues
R1
sur le compact [−1, 1] et l’application k · k1 : C 0 ([−1, 1]) → R+ donnée par kf k1 =
0
−1 |f (x)|dx. Vérifier que k · k1 est une norme. L’espace (C ([−1, 1]), k · k1 ) est-il complet ?
9.4. EXISTENCE ET UNICITÉ DE SOLUTIONS 147

Dans un espace de Banach (V, k · k), les sous-ensembles ouverts sont définis à l’aide
de la norme de la même manière que dans Rn et les sous-ensembles fermés sont définis
comme les complémentaires des ouverts. Comme dans Rn , un sous-ensemble E ⊂ V est
fermé si, et seulement si, toute suite d’éléments de E qui converge dans V a sa limite
dans E. Il en résulte immédiatement le lemme suivant qui caractérise les sous-ensembles
complets d’un espace de Banach.

Lemme 9.23. Soit (V, k · k) un espace de Banach et K ⊂ V un sous-ensemble de V .


Alors, K est complet si et seulement si K est fermé.

Par cette caractérisation, on a que si K est un sous-ensemble fermé d’un espace de


Banach (V, k·k), alors (K, d) est un espace métrique complet, avec distance d(u, v) = ku−vk
induite par la norme de V .
Le théorème de point fixe s’applique en fait à tout espace de Banach et même plus
généralement, à tout espace métrique complet. La preuve est essentiellement la même que
celle vue dans Rn .

Théorème 9.24 (Point fixe de Banach). Soit (V, k · k) un espace de Banach, K ⊂ V un


sous-ensemble fermé non-vide et φ : K → K une application contractante, i.e.

∃ρ ∈]0, 1[: ∀v, w ∈ K kφ(v) − φ(w)k ≤ ρkv − wk.

Alors il existe un unique v∗ ∈ K tel que φ(v∗ ) = v∗ (c’est-à-dire, l’application admet un


point fixe, qui est unique).

Pour démontrer les théorèmes de la section suivante, on va travailler avec l’espace des
fonctions continues sur un compact, qui a une structure d’espace de Banach s’il est muni
d’une norme appropriée, comme le théorème suivant le montre.

Théorème 9.25. Soit Ω ⊂ Rn compact. L’espace vectoriel C 0 (Ω, Rm ), muni de la norme


kvkC 0 (Ω) = maxx∈Ω kv(x)k, est un espace de Banach. (Ici, k · k est n’importe quelle norme
sur Rm ).

Démonstration. Voir cours d’Analyse I.

En fait, on travaillera plutôt sur des boules fermées de C 0 (Ω, Rm ) :

Kb,u (Ω) = {v ∈ C 0 (Ω, Rm ) : kv − ukC 0 (Ω) ≤ b}, b > 0, u ∈ C 0 (Ω, Rm )

qui sont donc des sous-ensembles complets de C 0 (Ω, Rm ).

9.4.2 Théorèmes d’existence et unicité locale


On considère d’abord la question de l’existence de solutions du problème de Cauchy
(9.13). Le théorème suivant, qu’on ne va pas démontrer dans ce cours, montre que la seule
hypothèse de continuité de f : I × E → Rn est suffisante pour garantir l’existence d’une
solution locale (mais non pas l’unicité, en générale).
148 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

Théorème 9.26 (Cauchy–Peano). Soit I ⊂ R un intervalle ouvert, E ⊂ Rn un ouvert et


f : I × E → Rn continue. Alors, pour tout (t0 , u0 ) ∈ I × E, le problème de Cauchy (9.13)
admet au moins une solution locale (J, u), avec J ⊂ I.
Pour avoir unicité de solutions locales, il faut demander un peu plus de régularité pour
la fonction f . Il s’avère que la bonne condition est une propriété de Lipschitz locale par
rapport au deuxième argument :
Définition 9.27. Soit I ⊂ R un intervalle ouvert, E ⊂ Rn un ouvert et f : I × E → Rn
une fonction continue. On dit que f est localement lipschitzienne par rapport au deuxième
argument si, ∀(t0 , u0 ) ∈ I × E, il existe a, b > 0 avec [t0 − a, t0 + a] × B̄(u0 , b) ⊂ I × E et
une constante L > 0 tels que
∀t ∈ [t0 − a, t0 + a] ∀x, y ∈ B̄(u0 , b) kf (t, x) − f (t, y)k ≤ Lkx − yk,
où a, b et L dépendent éventuellement de (t0 , u0 ).
On remarque, en particulier, que si f : I × E → Rn , (t, y) 7→ f (t, y), est continue avec
dérivées partielles ∂y
∂fi
j
: I × E → Rn continues ∀i, j = 1, . . . , n, alors f est localement
lipschitzienne par rapport au deuxième argument.
Théorème 9.28 (Cauchy–Lipschitz — version locale). Soit I ⊂ R un intervalle ouvert,
E ⊂ Rn ouvert et f : I × E → Rn un fonction continue et localement lipschitzienne par
rapport au deuxième argument.
Alors, pour tout (t0 , u0 ) ∈ I × E, il existe δ > 0 tel que Jδ = [t0 − δ, t0 + δ] ⊂ I et une
fonction u : Jδ → E de classe C 1 solution du problème de Cauchy (9.13).
Cette solution est aussi unique au sens suivant (“unicité locale”) : toute autre solution
locale (K, w) du problème de Cauchy, avec K un intervalle ouvert contant t0 et inclus
dans I, vérifie w = u sur K ∩ Jδ .
Remarques. L’énoncé est formulé pour l’intervalle fermé Jδ car ceci est plus naturel
pour la preuve. Néanmoins il en découle les mêmes conséquences pour son intérieur J˚δ ,
par exemple l’unicité locale : toute solution locale (K, w) du problème de Cauchy vérifie
w = u sur K ∩ J˚δ (K étant un intervalle ouvert contant t0 et inclus dans I). Les mêmes
conséquences seront aussi valables pour toutes les valeurs de δ > 0 plus petites.
Il y a deux manières, équivalentes ici, de définir le concept de solution u de classe C 1
sur l’intervalle compact Jδ ⊂ I. On peut d’une part demander que (i) u soit continue sur
Jδ et solution de classe C 1 sur J˚δ , ou d’autre part que (ii) u soit continue sur Jδ , solution
de classe C 1 sur J˚δ et u0 admette un prolongement par continuité sur Jδ . On voit qu’ici (i)
implique (ii) car, en supposant (i), u0 (t) = f (t, u(t)) sur J˚δ , u est continue sur Jδ et donc
f (t, u(t)) est continue sur Jδ . Clairement (ii) implique (i).

Démonstration. Puisque f est localement lipschitzienne par rapport au deuxième argument,


il existe a, b, L tels que [t0 − a, t0 + a] × B̄(u0 , b) ⊂ I × E et
kf (t, x) − f (t, y)k ≤ Lkx − yk, ∀t ∈ [t0 − a, t0 + a], ∀x, y ∈ B̄(u0 , b).
Choisissons
M> max kf (t, y)k.
(t,y)∈[t0 −a,t0 +a]×B̄(u0 ,b)
9.4. EXISTENCE ET UNICITÉ DE SOLUTIONS 149

Soit maintenant δ ∈ ]0, a], Jδ = [t0 − δ, t0 + δ] ⊂ I et considérons

Kb,u0 (Jδ ) = {v : Jδ → Rn continue : max kv(t) − u0 k ≤ b},


t∈Jδ

qui est un sous-ensemble fermé (et donc complet) de C 0 (Jδ , Rn ). On va étudier l’application
φ : Kb,u0 (Jδ ) → C 0 (Jδ , Rn ) définie en (9.15) :
Z t
φ(v)(t) = u0 + f (s, v(s))ds, ∀t ∈ Jδ .
t0

Pour tout v ∈ Kb,u0 (Jδ ) et t ∈ Jδ on a


Z t Z t
kφ(v)(t) − u0 k = f (s, v(s))ds ≤ kf (s, v(s))kds ≤ M δ,
t0 t0

donc, si on prend δ ≤ Mb on a kφ(v) − u0 kC 0 (Jδ ) ≤ b, i.e. φ(v) ∈ Kb,u0 (Jδ ), ∀v ∈ Kb,u0 (Jδ )
et φ envoie Kb,u0 (Jδ ) dans lui-même. De plus, ∀v1 , v2 ∈ Kb,u0 (Jδ ) et ∀t ∈ Jδ
Z t Z t
kφ(v1 )(t) − φ(v2 )(t)k = f (s, v1 (s)) − f (s, v2 (s))ds ≤ kf (s, v1 (s)) − f (s, v2 (s))kds
t0 t0
Z t
≤ Lkv1 (s) − v2 (s)kds ≤ Lδ max kv1 (t) − v2 (t)k
t0 t∈Jδ

ce qui implique kφ(v1 ) − φ(v2 )kC 0 (Jδ ) ≤ Lδkv1 − v2 kC 0 (Jδ ) . Donc, pour δ < min{a, Mb , L1 },
l’application φ : Kb,u0 (Jδ ) → Kb,u0 (Jδ ) est contractante et il existe un unique u ∈ Kb,u0 (Jδ )
point fixe de φ. Alors (Jδ , u) est l’unique solution du problème de Cauchy (9.13) dans
Kb,u0 (Jδ ).
On pourrait encore se demander s’il existe d’autres solutions ũ ∈ / Kb,u0 (Jδ ) définies
sur Jδ . Montrons que ceci n’est pas le cas en considérant une solution ũ : Jδ → E du
problème de Cauchy. Puisque ũ(t0 ) = u0 et ũ0 est continue en t0 , il existe 0 < δ̃ ≤ δ tel
que kũ(t) − u0 k ≤ b, ∀t ∈ Jδ̃ = [t0 − δ̃, t0 + δ̃]. Soit

β = max{δ̃ ∈ ]0, δ] : kũ(t) − u0 k ≤ b, ∀t ∈ [t0 − δ̃, t0 + δ̃]}

(se convaincre que le maximum existe) et supposons R


par l’absurde que β < δ et donc
β < Mb . Puisque ũ satisfait l’équation ũ(t) − u0 = tt0 f (s, ũ(s))ds, on a
Z t
kũ(t) − u0 k ≤ kf (s, ũ(s))kds ≤ M β < b, ∀t ∈ [t0 − β, t0 + β].
t0

Mais alors, il existe un δ̂ ∈]0, δ − β[ tel que kũ(t) − u0 k ≤ b, ∀t ∈ [t0 − β − δ̂, t0 + β + δ̂],
ce qui contredit la définition de β. Ainsi ũ = u sur Jδ .
Soit, maintenant, (K, w) une solution locale du problème de Cauchy et J˜ ⊂ K ∩ Jδ un
intervalle fermé contenant t0 dans son intérieur. Le même raisonnement que celui ci-dessus,
mais appliqué à l’intervalle J, ˜ donne que w(t) = u(t), ∀t ∈ J. ˜ Comme on obtient ainsi
˜
l’égalité sur tout intervalle fermé J ⊂ K ∩ Jδ contenant t0 dans son intérieur, on a prouvé
l’égalité sur K ∩ Jδ .
150 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

Exemple 9.29. Considérons l’edo

u0 (t) = u2 (t), t ∈ R.

Puisque f (t, y) = y 2 : R × R → R est localement lipschitzienne par rapport au deuxième


argument, le problème de Cauchy avec condition initiale u(t0 ) = u0 admet, pour tout
(t0 , u0 ) ∈ R2 , une solution locale, localement unique.

Exemple 9.30. Considérons l’edo


q
u0 (t) = − |u(t)|, t ∈ R.
p
La fonction f (t, y) = |y| : R × R → R est continue sur R2 mais pas localement lipschit-
zienne par rapport au deuxième argument. Par contre, si f est restreinte à R × (R \ {0}),
f est localement lipschitzienne par rapport au deuxième argument.
On conclut du théorème 9.28 appliqué à R × (R \ {0}) que le problème de Cauchy
avec condition initiale u(t0 ) = u0 admet une solution locale, localement unique, pour tout
(t0 , u0 ) ∈ R × (R \ {0}). Si la condition initiale est u(t0 ) = 0, on aura l’existence de
solutions locales grâce au théorème de Cauchy-Peano 9.26 appliqué à R × R mais on ne
peut pas garantir l’unicité locale. En fait, en raisonnant comme dans l’exemple 9.12, on
voit qu’aucune solution locale n’est localement unique.

Le théorème 9.28 donne existence et unicité d’une solution u : J → E du problème


de Cauchy sur un intervalle fermé J = [t0 − δ, t0 + δ] ⊂ I, pourvu que la fonction f
soit localement lipschitzienne par rapport au deuxième argument autour de la condition
initiale (t0 , u0 ). Cette solution est toujours prolongeable. En effet, prenons t1 = t0 + δ et
u1 = u(t0 + δ). Puisque (t1 , u1 ) ∈ I × E et f est localement lipschitzienne par rapport au
deuxième argument sur I × E, on peut appliquer encore le théorème 9.28, cette fois-ci au
problème de Cauchy avec condition initiale u(t1 ) = u1 . On aura alors l’existence d’une
solution ũ : J˜ → E définie sur un intervalle fermé J˜ = [t1 − δ̃, t1 + δ̃] ⊂ I avec δ̃ > 0. Soit
la fonction û : J ∪ [t1 , t1 + δ̃] = [t0 − δ, t0 + δ + δ̃] → E définie par û(t) = u(t) si t ∈ J
et û(t) = ũ(t) si t ∈]t1 , t1 + δ̃]. Alors û est solution (vérification directe dans l’esprit du
Lemme 9.6). La solution û est un « prolongement à droite » de la solution u. De même,
on peut prolonger u à gauche, et à la fois à droite et à gauche.

Lemme 9.31. Sous les mêmes hypothèses du théorème 9.28, soient des intervalles J1 , J2 ⊂
I contenant t0 dans leurs intérieurs et soient des fonctions continues u1 : J1 → E et
u2 : J2 → E, solutions du problème de Cauchy (9.13) sur respectivement J˚1 et J˚2 . Alors
u1 (t) = u2 (t), ∀t ∈ J1 ∩ J2 .

Démonstration. Notons J1 ∩ J2 = J et J˚ = ]A, B[ avec −∞ ≤ A < t0 < B ≤ +∞. Le


théorème 9.28 garantit l’existence d’un intervalle fermé Jδ = [t0 − δ, t0 + δ] ⊂ J˚ (avec
δ > 0) où la solution existe et est unique. Sur un tel intervalle on doit avoir nécessairement
u1 = u2 . Soit alors
n o
α = inf α̃ ∈]A, t0 − δ] : u1 = u2 sur [α̃, t0 + δ] ≥A
9.4. EXISTENCE ET UNICITÉ DE SOLUTIONS 151

et n o
β = sup β̃ ∈ [t0 + δ, B[: u1 = u2 sur [t0 − δ, β̃] ≤ B.

Donc J˜ = ]α, β[ est le plus grand intervalle ouvert inclus dans J,


˚ contenant t0 et où
˜ ˚
u1 = u2 . On veut montrer que J = J. Supposons par l’absurde que β 6= B, et donc
β ∈ J˚\ J.
˜ Puisque u1 et u2 sont continues sur J ⊃ J˜ et coïncident sur J˜ on a

u1 (β) = lim u1 (t) = lim u2 (t) = u2 (β) := z0


t→β − t→β −

et on pourra encore trouver un intervalle Jβ,δ̂ = [β − δ̂, β + δ̂] ⊂ J˚ où la solution du


problème de Cauchy avec condition initiale (β, z0 ) existe et est unique. Mais cette solution
doit coïncider avec u1 et u2 , et donc u1 = u2 sur J˜ ∪ J˚β,δ̂ , ce qui contredit l’hypothèse que
J˜ était le plus grand intervalle ouvert contenant t0 où u1 = u2 . Le même raisonnement
s’applique à gauche si α = 6 A, donc on conclut que J˜ = J, ˚ u1 = u2 sur J,˚ et donc sur J
(par continuité de u1 et u2 sur J).

Grâce au Lemme précédent, on peut toujours construire une unique solution maximale.
Théorème 9.32. Sous les hypothèse du théorème 9.28, pour tout (t0 , u0 ) ∈ I × E il existe
une unique solution maximale (Jmax , u) du problème de Cauchy (9.13) avec Jmax ⊂ I
ouvert contenant t0 .
Démonstration. Soit {(Jη , uη )}η l’ensemble des solutions locales du problème de Cauchy
(9.13), avec Jη ⊂ I intervalle ouvert contenant t0 . Ici chaque solution locale est paramétrée
par η appartenant à un certain ensemble Γ en bijection avec l’ensemble des solutions
locales.
S
On note Jmax = η Jη et on définit la fonction u : Jmax → Rn de la façon suivante :
pour t ∈ Jmax il existe au moins un η t.q. t ∈ Jη ; on définit alors u(t) = uη (t). Cette
définition de u(t) ne dépend pas du choix de η car si η 0 est aussi tel que t ∈ Jη0 , par
le lemme 9.31 on a uη (t) = uη0 (t). De plus, la fonction u ainsi définie est solution du
problème de Cauchy et elle est la solution maximale car toute solution locale (Jη , uη ) est
telle que Jη ⊂ Jmax et uη (t) = u(t), ∀t ∈ Jη .

Remarque 9.33. Si u : J → E est solution du problème de Cauchy sur un intervalle


compact contenant t0 dans son intérieur, on peut toujours prolonger la solution u sur un
ouvert Jη ⊃ J comme expliqué juste avant l’énoncé du Lemme 9.31. Comme Jη ⊂ Jmax ,
on a aussi J ⊂ Jmax .
Par le théorème précédent, sous les hypothèses du théorème 9.28 le problème de Cauchy
(9.13) a une solution maximale unique. Alors, ou bien Jmax = I et la solution est globale,
ou bien Jmax est strictement inclus dans I et on aura seulement une solution maximale
mais non globale. On peut se poser encore la question de savoir que se passe-t-il aux
extrémités de l’intervalle maximale si celui ci est strictement inclus dans I. Le théorème
suivant répond à cette question.
Théorème 9.34. Sous les mêmes hypothèses du théorème 9.28, soit (Jmax , u) la solution
maximale du problème de Cauchy (9.13), définie sur un intervalle ouvert Jmax = ]α, β[ ⊂ I
contenant t0 , où −∞ ≤ α < β ≤ +∞. Si β ∈ I (et donc β est fini), alors
152 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

— pour toute suite {tn }n∈N dans Jmax t.q. limn→∞ tn = β et limn→∞ u(tn ) = ξ ∈ E ⊂
Rn , on a ξ ∈ ∂E ;

— en particulier, si E = Rn , alors limt→β − ku(t)k = +∞.

On a des conclusions analogues si α ∈ I.

La démonstration de ce théorème va au delà des objectifs de ce cours.


Une des conséquences du Lemme 9.31 est que deux solutions locales (maximales ou non)
de l’EDO sans spécification d’une condition initiale, soit coïncident sur la partie commune
de leurs domaines de définition, soit leurs graphes ne peuvent jamais « se rencontrer ».
Plus précisément : considérons l’équation différentielle u0 (t) = f (t, u(t)), t ∈ I, où f
satisfait les hypothèses du théorème 9.28. Soit (J, v) une solution locale du problème de
Cauchy avec condition initiale v(t0 ) = v0 et (J, ˜ ṽ) une solution locale du problème de
Cauchy avec condition initiale ṽ(t̃0 ) = ṽ0 . Si v et ṽ prennent la même valeur en un certain
˜ sous les hypothèses du théorème 9.28 de Cauchy–Lipschitz local, on doit avoir
t̂ ∈ J ∩ J,
nécessairement v(t) = ṽ(t), ∀t ∈ J ∩ J. ˜ Voir le Lemme 9.31.

Exemple 9.35. Considérons le problème de Cauchy suivant

(
u0 (t) = u(t)(1 − u(t)), t∈R
(9.16)
u(t0 ) = u0 .

La fonction f (t, y) = y(1 − y) est localement lipschitzienne par rapport au deuxième


argument pour tout (t, y) ∈ R × R. Donc le problème de Cauchy admet une solution
maximale unique. Clairement, u(t) = 0 et u(t) = 1 ∀t ∈ R sont deux solutions (globales).
Le graphe de toute autre solution maximale ne peut pas rencontrer les droites u = 0, u = 1.
De plus,

— Si u0 ∈ ]0, 1[ alors la solution maximale correspondante satisfait Im(u) ∈ ]0, 1[ et est


croissante car f (t, y) > 0 pour 0 < y < 1 ; par le Théorème 9.34, u est définie sur
tout R ;

— Si u0 ∈ ]1, +∞[ alors Im(u) ⊂ ]1, +∞[ et est décroissante car f (t, y) < 0 pour y > 1 ;
par le Théorème 9.34, u est définie sur un intervalle ouvert contenant [t0 , +∞[

— Si u0 ∈ ]−∞, 0[ alors Im(u) ⊂ ]−∞, 0[ et est décroissante car f (t, y) < 0 pour y < 0 ;
par le Théorème 9.34, u est définie sur un intervalle ouvert contenant ] − ∞, t0 ].

La figure ci dessous montre trois solutions maximales correspondantes aux trois problèmes
de Cauchy avec u0 ∈ ]0, 1[, u0 ∈ ]1, +∞[, u0 ∈ ]−∞, 0[ et t0 = 0.
9.4. EXISTENCE ET UNICITÉ DE SOLUTIONS 153

u
3
u0 = 2
2
u=1
1
u0 = 0.25

−3 −2 −1 1 2 3 4 5 t
−1
u0 = −0.25

Le théorème 9.34 nous garantit que pour u0 ∈ ]0, 1[ la solution est globale (autrement
elle devrait aller à l’infini en un temps fini mais ceci impliquerait de franchir une des deux
barrières u = 0 ou u = 1.) On ne peut par arriver à la même conclusion si u0 ∈ ]1, +∞[
ou u0 ∈ ]−∞, 0[. En effet, en faisant les calculs, on voit que la solution est maximale mais
non globale.

9.4.3 Théorèmes d’existence globale


Dans cette section on présente des conditions suffisantes sur la fonction f qui garantissent
l’existence et unicité d’une solution globale. La première condition qu’on considère est
une condition de lipschitzianité globale par rapport au deuxième argument qui permet de
donner une version globale du théorème de Cauchy-Lipschitz local 9.28.

Définition 9.36. Soit I ⊂ R un intervalle ouvert et f : I ×Rn → Rn une fonction continue


(attention : f doit être définie sur tout I × Rn ). On dit que f est globalement lipschitzienne
par rapport au deuxième argument s’il existe une fonction continue ` : I → R+ non
négative telle que

∀t ∈ I ∀x, y ∈ Rn kf (t, x) − f (t, y)k ≤ `(t)kx − yk.

Théorème 9.37 (Cauchy–Lipschitz — version globale). Soit I ⊂ R un intervalle ouvert et


f : I × Rn → Rn continue et globalement lipschitzienne par rapport au deuxième argument.
Alors, pour tout (t0 , u0 ) ∈ I × Rn , le problème de Cauchy (9.13) a une solution globale
unique u ∈ C 1 (I, Rn ).

Démonstration. Puisque f est globalement lipschitzienne par rapport au deuxième argu-


memt, elle est aussi localement lipschitzienne par rapport au deuxième argument. En effet,
pour tout intervalle compact K ⊂ I non vide, on a

∀t ∈ K ∀x, y ∈ Rn kf (t, x) − f (t, y)k ≤ Lkx − yk,

où L = maxs∈K `(s). Par le théorème de Cauchy–Lipschitz local 9.28 et le Théorème 9.32,


il existe une unique solution maximale (Jmax , u) du problème de Cauchy. Pour montrer le
théorème, il suffit donc de vérifier que Jmax = I.
154 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

Raisonnons par l’absurde en supposant que Jmax est strictement inclus dans I, autre-
ment dit, sup Jmax ∈ I ou inf Jmax ∈ I (ou les deux à la fois). Traitons le cas sup Jmax ∈ I,
l’autre cas étant analogue. Pour T := sup Jmax (qui est fini puisque dans I), choisissons
µ > 0 tel que J := [T − µ, T + µ] ⊂ I, et soit δ ∈ ]0, µ] tel que δ maxt∈J `(t) ≤ 13 .
Posons J0 = [T − δ, T R+ δ]. Alors, l’application φ : C 0 (J0 , Rn ) → C 0 (J0 , Rn ) définie
par φ(v)(t) = u(T − 2δ ) + Tt − δ f (s, v(s))ds, t ∈ J0 , est contractante. En effet, pour tout
2
v1 , v2 ∈ C 0 (J0 , Rn ) on a
Z t
max kφ(v1 )(t) − φ(v2 )(t)k ≤ max kf (s, v1 (s)) − f (s, v2 (s))kds
t∈J0 t∈J0 T − 2δ
Z t
≤ max `(s)kv1 (s) − v2 (s)kds
t∈J0 T − 2δ
  

≤ max `(t) max kv1 (t) − v2 (t)k
2 t∈J0 t∈J0
1
≤ max kv1 (t) − v2 (t)k.
2 t∈J0

Par le théorème de point fixe de Banach on a alors une fonction u(0) ∈ C 0 (J0 , Rn ) point
fixe de φ qui est, en particulier, de classe C 1 et solution du problème de Cauchy sur J0 .
Grâce au Lemme 9.31 appliqué aux intervalles J1 = J2 = [T − δ, T [ et à la relation
u (T − 2δ ) = u(T − 2δ ), on a u(0) = u sur [T − δ, T [. On obtient une solution locale u
(0) e du
problème de Cauchy de départ définie sur Jmax ∪ [T, T + δ[ en posant u e = u sur Jmax et
e = u(0) sur [T, T + δ[. Ceci contredit la maximalité de Jmax .
u

Exemple 9.38. Considérons le problème de Cauchy


(
u0 (t) = sin(u(t)), t ∈ R.
u(t0 ) = u0 .

Soit f : R2 → R la fonction f (t, y) = sin(y). Puisque | ∂f 2


∂y (t, y)| ≤ 1, ∀(t, y) ∈ R on a que
f est globalement lipschitzienne par rapport à y avec `(t) = 1 et le problème de Cauchy
admet une unique solution globale, i.e. définie sur tout R.

Exemple 9.39. Soit I ⊂ R un intervalle ouvert et g, p ∈ C 0 (I). Considérons le problème


de Cauchy (
u0 (t) = g(t) − p(t)u(t), t ∈ I
u(t0 ) = u0 .
La méthode du facteur intégrant nous a montré que ce problème admet une unique solution
globale (définie sur tout I). On peut aussi le voir comme suit. La fonction f (t, y) = g(t) −
p(t)y est globalement lipschitzienne par rapport au deuxième argument avec `(t) = |p(t)|,
qui est une fonction continue, et donc le problème de Cauchy a une solution unique globale
définie sur tout l’intervalle I. Ceci remontre que une edo linéaire scalaire avec fonctions
p, g continues a toujours une solution unique globale satisfaisant une condition initiale
u(t0 ) = u0 .
9.4. EXISTENCE ET UNICITÉ DE SOLUTIONS 155

La condition de Lipschitz globale demandée par le théorème 9.37 de Cauchy–Lipschitz


global est assez restrictive. L’exemple 9.35 montre qu’un problème de Cauchy peut avoir des
solutions globales même si la fonction f n’est pas globalement lipschitzienne par rapport
au deuxième argument. On présente ci-après d’autres théorèmes d’existence globale qui
demandent des conditions moins restrictives sur f .

Théorème 9.40. Soit I ⊂ R un intervalle ouvert contenant t0 et f : I × Rn → Rn


une fonction continue et localement lipschitzienne par rapport au deuxième argument.
Supposons de plus qu’il existe ` : I → R continue telle que

y · f (t, y) ≤ `(t)(1 + kyk2 ) ∀t ∈ I, ∀y ∈ Rn . (9.17)

Alors, le problème à valeur initiale

u0 (t) = f (t, u(t)), t ∈ I+ = I ∩ [t0 , +∞[, u(t0 ) = u0

admet une solution globale unique u ∈ C 1 (I+ , Rn ). Si, de plus, ` est non négative et

|y · f (t, y)| ≤ `(t)(1 + kyk2 ) ∀t ∈ I, ∀y ∈ Rn , (9.18)

alors le problème de Cauchy (9.13) admet une solution globale unique sur I.

Démonstration. Par le théorème de Cauchy–Lipschitz local 9.28 et le Théorème 9.32, il


existe une solution maximale (Jmax , u) du problème de Cauchy. Si Jmax,+ = Jmax ∩[t0 , +∞[
est strictement contenu dans I+ alors Jmax,+ = [t0 , β[, avec β ∈ ˚ I+ et limt→β − ku(t)k =
+∞ selon le théorème 9.34. Montrons que ceci ne peut pas arriver. Pour tout t ∈ Jmax on
a
1d
u(t) · u0 (t) = (ku(t)k2 ) = u(t) · f (t, u(t)) ≤ `(t)(1 + ku(t)k2 ).
2 dt
Soit h(t) = ku(t)k2 . Alors h0 (t) ≤ 2`(t)(1 + h(t)) ce qui implique, pour tout t ∈ [t0 , β[
Z t   Z t
h0 (s) 1 + h(t)
ds = ln ≤2 `(s)ds
t0 1 + h(s) 1 + h(t0 ) t0

et donc  Z t 
h(t) ≤ −1 + (1 + h(t0 )) exp 2 `(s)ds .
t0
Rt Rβ
Mais ` ∈ C 0 ([t0 , β]) est bornée donc t0 `(s)ds ≤ t0 |`(s)|ds < +∞, ∀t ∈ [t0 , β[, et h(t)

p |`(s)|ds
est bornée uniformément sur [t0 , β[. Par conséquent, si on note M = 1 + ku0 k2 e t0

on a M < +∞ et
ku(t)k ≤ M, ∀t ∈ [t0 , β[,
ce qui contredit l’hypothèse que limt→β − ku(t)k = +∞.
Dans le cas de la condition bilatérale (9.18) on a aussi

h0 (t) = 2u(t) · u0 (t) = 2u(t) · f (t, u(t)) ≥ −2`(t)(1 + ku(t)k2 ) = −2`(t)(1 + h(t))
156 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

et donc, pour tout t ∈ Jmax ∩] − ∞, t0 ],


Z t0   Z t0
h0 (s) 1 + h(t0 )
ds = ln ≥ −2 `(s)ds
t 1 + h(s) 1 + h(t) t
 R 
ce qui implique de nouveau h(t) ≤ −1 + (1 + h(t0 )) exp 2 tt0 `(s)ds . Si Jmax ∩] − ∞, t0 ] =
]α, t0 ] et α ∈ I, alors Ron doit avoir limt→α+ ku(t)k = +∞ mais, d’un autre coté, on a
p t0
ku(t)k ≤ 1 + ku0 k2 e α `(s)ds < +∞, ∀t ∈ ]α, t0 ], ce qui est contradictoire. On conclut
alors que Jmax = I.
Il reste à prouver l’unicité. Soit l’unique solution maximale (Jmax , u) pour le problème
de Cauchy. Considérons une solution ũ : I+ → Rn pour le problème à valeur initiale.
Elle peut se prolonger sur la gauche en une solution û :]t0 − , t0 [∪I+ → Rn pour un
certain  > 0. Par unicité de la solution maximale, ]t0 − , t0 [∪I+ ⊂ Imax et û = u sur
]t0 − , t0 [∪I+ , et donc forcément que ũ = u sur I+ .
Considérons une solution globale ū : I → Rn pour le problème de Cauchy. Par unicité
de (Jmax , u), on a I = Jmax et ū = u sur I ; ainsi ū est uniquement déterminée.

Remarque 9.41. La condition bilatérale (9.18) du théorème 9.40 est garantie si par
exemple ∃k1 , k2 : I → R+ continues et non négatives telles que

kf (t, y)k ≤ k1 (t) + k2 (t)kyk ∀t ∈ I, ∀y ∈ Rn .

En effet,

|y · f (t, y)| ≤ kykkf (t, y)k ≤ k1 (t)kyk + k2 (t)kyk2


 
k1 (t) k1 (t)
≤ (1 + kyk2 ) + k2 (t)(1 + kyk2 ) ≤ + k2 (t) (1 + kyk2 ).
2 2

Ceci montre que l’on a des solutions globales du problème de Cauchy si la norme de f (t, y)
croit au plus linéairement par rapport à la norme de y.

Exemple 9.42. Considérons le problème à valeur initiale


(
u0 (t) = −u(t)eu(t) , t ≥ t0 ,
u(t0 ) = u0 .

La fonction f (t, y) = −yey est localement lipschitzienne par rapport au deuxième argument,
donc ce problème admet une solution maximale unique. Toutefois, f n’est pas globalement
lipschitzienne par rapport au deuxième argument, donc on n’est pas garanti à priori que
la solution maximale soit définie sur tout [t0 , +∞[. Toutefois, yf (t, y) = −y 2 ey ≤ 0,
∀y ∈ R, t ∈ [t0 , ∞[, donc la solution maximale est globale.
(Attention : on ne peut pas déduire la même conclusion si on définit le problème sur
tout R au lieu de [t0 , +∞[. On a donc l’existence globale garantie seulement « à droite ».)

Le théorème prochain donne une autre condition suffisante pour l’existence et unicité
de solutions globales unilatérales.
9.5. EDO SCALAIRES LINÉAIRES DU SECOND ORDRE 157

Théorème 9.43. Soit I ⊂ R un intervalle ouvert contenant t0 et f : I × Rn → Rn


une fonction continue et localement lipschitzienne par rapport au deuxième argument.
Supposons qu’il existe ` : I → R continue telle que

(f (t, x) − f (t, y)) · (x − y) ≤ `(t)kx − yk2 ∀t ∈ I, ∀x, y ∈ Rn . (9.19)

Alors, le problème à valeur initiale

u0 (t) = f (t, u(t)), t ∈ I+ = I ∩ [t0 , +∞[, u(t0 ) = u0

a une solution globale unique u ∈ C 1 (I+ , Rn ).

Démonstration. La condition (9.19) est plus forte que la condition (9.17) du théorème
9.40. En effet, si on prend y = 0 en (9.19) on obtient pour tout x ∈ Rn

f (t, x) · x ≤ f (t, 0) · x + `(t)kxk2


≤ kf (t, 0)kkxk + |`(t)|kxk2
 
kf (t, 0)k
≤ + |`(t)| (1 + kxk2 ).
2

où dans la dernière inégalité on a utilisé que kxk ≤ 12 (1 + kxk2 ). Donc le résultat suit par
le théorème 9.40.

Remarque. Si, de plus, ` est non négative et

(f (t, x) − f (t, y)) · (x − y) ≤ `(t)kx − yk2 ∀t ∈ I, ∀x, y ∈ Rn , (9.20)

alors le problème de Cauchy (9.13) admet une solution globale unique sur I. En effet, on
vérifie de la même manière que (9.20) est une condition plus forte que (9.18). Comme être
globalement Lipchitz par rapport au deuxième argument implique (9.20), ceci donne une
nouvelle preuve du Théorème 9.37.

9.5 EDO scalaires linéaires du second ordre


Soit I ⊂ R un intervalle ouvert, E ⊂ R2 un ouvert et f : I × E → R une fonction
continue. Une équation différentielle scalaire du second ordre est une équation du type

u00 (t) = f (t, u(t), u0 (t)), t ∈ I,

dont l’inconnue est une fonction u : I → R de classe C 2 telle que (u(t), u0 (t)) ∈ E, ∀t ∈ I.
Comme on l’a vu dans l’introduction du chapitre, une telle équation peut toujours être
réécrite sous forme d’un système de deux équations différentielles ordinaires du premier
ordre en introduisant les nouvelles inconnues u1 (t) = u(t), u2 (t) = u0 (t). On a alors
(
u01 (t) = u2 (t),
t ∈ I.
u02 (t) = f (t, u1 (t), u2 (t)),
158 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

Si on note u = (u1 , u2 ) et f (t, y) = (y2 , f (t, y1 , y2 )) : I × E → R2 , alors le système


précédent peut s’écrire sous forme compacte

u0 (t) = f (t, u(t)), t ∈ I

et peut être analysé du point de vu théorique utilisant les résultats de la section 9.4. Le
problème de Cauchy correspondant s’écrit pour un t0 ∈ I et u0 = (u0 , v0 ) ∈ E :
( (
u0 (t) = f (t, u(t)), t ∈ I, u00 (t) = f (t, u(t), u0 (t)), t ∈ I,
⇐⇒
u(t0 ) = u0 , u(t0 ) = u0 , u0 (t0 ) = v0 .

On voit donc que, pour une edo du second ordre, on a de façon naturelle deux conditions
initiales, une sur la solution u(t0 ) = u0 et une sur la dérivée première u0 (t0 ) = v0 .
Dans le reste de la section, on restreint notre étude aux équations différentielle scalaires
linéaires du second ordre, pour lesquelles la fonction f (t, y) est une fonction affine de
y. Soient a, b, g : I → R trois fonctions continues. Une équation différentielle linéaire du
second ordre est une équation de la forme

u00 (t) + a(t)u0 (t) + b(t)u(t) = g(t), t ∈ I,

ou, sous forme de système de deux équations du premier ordre,


!
y2
u0 (t) = f (t, u(t)), t ∈ I, avec f (t, y) = .
g(t) − b(t)y1 − a(t)y2

Il est facile de montrer (exercice) que cette fonction f : I ×R2 → R2 est toujours continue et
globalement lipschitzienne par rapport au deuxième argument (voir définition 9.36). Donc,
pour tout (t0 , u0 , v0 ) ∈ I × E, le problème de Cauchy avec condition initiale u(t0 ) = u0 ,
u0 (t0 ) = v0 a toujours une solution unique globale.
Pour la construction de l’intégrale générale et de la solution du problème de Cauchy,
on procède comme dans la section 9.3 en analysant séparément le cas homogène (g = 0) et
le cas non-homogène (g 6= 0).

9.5.1 Solution générale de l’équation homogène


Par les considérations précédentes, le problème de Cauchy associé à l’équation homogène
(
u00 (t) + a(t)u0 (t) + b(t)u(t) = 0, t ∈ I,
(9.21)
u(t0 ) = u0 , u0 (t0 ) = v0 ,

admet une solution unique globale pour toute donnée initiale u0 = (u0 , v0 ). En particulier,
si u0 = (0, 0), la solution (unique) est identiquement nulle.

Définition 9.44. On dit que deux solutions z1 , z2 : I → R de l’équation homogène

u00 (t) + a(t)u0 (t) + b(t)u(t) = 0, t ∈ I. (9.22)


9.5. EDO SCALAIRES LINÉAIRES DU SECOND ORDRE 159

sont linéairement indépendantes si, pour tout choix des constantes α, β ∈ R, l’implication
suivante est vraie :

αz1 (t) + βz2 (t) = 0, ∀t ∈ I =⇒ α = β = 0.

Inversement, on dit que z1 , z2 sont linéairement dépendantes s’il existe deux constantes
réelles α, β non simultanément nulles telles que αz1 (t) + βz2 (t) = 0, ∀t ∈ I. Dans ce cas,
on peut exprimer une de deux solutions en fonction de l’autre, i.e. z1 (t) = − αβ z2 (t) ou
bien z2 (t) = − αβ z1 (t).

Définition 9.45. Soit z1 , z2 deux solutions de l’équation homogène (9.22). On appelle


wronskien de z1 , z2 , noté W [z1 , z2 ] la fonction W [z1 , z2 ] : I → R définie par
!
z (t) z2 (t)
W [z1 , z2 ](t) = det 10 = z1 (t)z20 (t) − z2 (t)z10 (t), t ∈ I.
z1 (t) z20 (t)

Le théorème suivant montre que deux solutions z1 , z2 de l’équation homogène sont


linéairement indépendantes si et seulement si leur wronskien est non nul pour tout t ∈ I.

Théorème 9.46. Deux solutions z1 , z2 de l’équation homogène sont linéairement indé-


pendantes si et seulement si pour tout t ∈ I les deux vecteurs z1 (t) = (z1 (t), z10 (t)) et
z2 (t) = (z2 (t), z20 (t)) de R2 sont linéairement indépendants, ce qui équivaut à dire que

W [z1 , z2 ](t) 6= 0, ∀t ∈ I.

Démonstration.
« ⇒ » : Soient z1 , z2 : I → R linéairement indépendants. On veut montrer que pour
tout t ∈ I les deux vecteurs z1 (t), z2 (t) ∈ R2 sont linéairement indépendants. Par l’absurde
supposons qu’il existe t0 ∈ I tel que z1 (t0 ), z2 (t0 ) sont linéairement dépendants, c’est-à-dire
∃α, β non simultanément nuls tels que αz1 (t0 ) + βz2 (t0 ) = 0, i.e.

αz1 (t0 ) + βz2 (t0 ) = 0, αz10 (t0 ) + βz20 (t0 ) = 0.

Mais alors, la fonction v(t) = αz1 (t) + βz2 (t) satisfait le problème de Cauchy
(
v 00 (t) + a(t)v 0 (t) + b(t)v(t) = 0, t ∈ I,
v(t0 ) = 0, v 0 (t0 ) = 0,

dont on connaît l’unique solution globale : v(t) = 0, ∀t ∈ I. On obtient la contradiction


que αz1 (t) + βz2 (t) = 0 pour tout t ∈ I.
« ⇐ » : Soit z1 (t), z2 (t) linéairement indépendants pour tout t ∈ I. On veut montrer que
z1 , z2 sont linéairement indépendants. Par l’absurde, si z1 , z2 sont linéairement dépendants
alors ∃α, β non simultanément nuls tels que αz1 (t) + βz2 (t) = 0, ∀t ∈ I. Mais ceci implique
αz10 (t) + βz20 (t) = 0, ∀t ∈ I et donc αz1 (t) + βz2 (t) = 0, ce qui est une contradiction.

L’ensemble S = {z ∈ C 2 (I) : z 00 + az 0 + bz = 0 sur I} est un espace vectoriel : si


z1 , z2 ∈ S et α, β ∈ R, alors αz1 + βz2 ∈ S. Dans ce cadre, z1 , z2 ∈ S sont linéairement
160 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

indépendants s’il n’existe pas deux constantes réelles α, β non simultanément nulles telles
que αz1 + βz2 = 0 sur I, comme nous l’avons déjà mentionné. De plus, pour t0 ∈ I fixé,
l’application z 7→ (z(t0 ), z 0 (t0 )) ∈ R2 pour z ∈ S est linéaire. Cette application est aussi
bijective car, pour chaque (u0 , v0 ) ∈ R2 , il existe une unique fonction z ∈ S telle que
z(t0 ) = u0 et z 0 (t0 ) = v0 , comme nous l’avons vu. Il en résulte que S et R2 sont deux
espaces vectoriels isomorphes, ce qui donne une nouvelle preuve du théorème précédent. En
particulier ils ont la même dimension. Ainsi S est de dimension 2 et toute paire z1 , z2 ∈ S
linéairement indépendante en est une base : S = {C1 z1 + C2 z2 : C1 , C2 ∈ R}.
Ces considérations permettent de conclure que la solution générale de l’équation
homogène a la forme
u(t) = C1 z1 (t) + C2 z2 (t), t ∈ I, (9.23)
où z1 , z2 sont deux solutions linéairement indépendantes de l’équation homogène et C1 , C2 ∈
R deux constantes arbitraires. Si on souhaite résoudre le problème de Cauchy (9.21) il
faudra encore trouver les bonnes valeurs des constantes pour satisfaire la condition initiale
u(t0 ) = u0 , u0 (t0 ) = v0 .
La méthode de variation des constantes, déjà présentée dans la section 9.3, permet, à
partir d’une solution de l’équation homogène, d’en construire une deuxième linéairement
indépendante. Étant donnée une solution non identiquement nulle z1 : I → R de l’équation
homogène, l’idée est d’en chercher une deuxième sous la forme z2 (t) = C(t)z1 (t), où
C : I → R est une fonction non constante de classe C 2 . Les calculs sont laissés comme
exercice.

9.5.2 Solution générale de l’équation non-homogène


Considérons maintenant l’équation non-homogène

u00 (t) + a(t)u0 (t) + b(t)u(t) = g(t), t ∈ I.

En utilisant le principe de superposition de solutions (voir section 9.3) la solution


générale de l’équation non-homogène peut s’écrire comme

u(t) = w(t) + C1 z1 (t) + C2 z2 (t), t ∈ I,

où w est une solution particulière de l’équation non-homogène et C1 z1 (t) + C2 z2 (t) est la


solution générale de l’équation homogène, avec z1 , z2 linéairement indépendantes.
De nouveau, on peut utiliser la méthode de variation des constantes pour construire
une solution particulière de l’équation non-homogène à partir des solutions de l’équation
homogène. Étant donné deux solutions z1 , z2 linéairement indépendantes de l’équation
homogène, on peut toujours trouver une solution particulière de l’équation non-homogène
de la forme
2
X
w(t) = C1 (t)z1 (t) + C2 (t)z2 (t) = Ci (t)zi (t)
i=1

où C1 , C2 : I → R sont deux fonctions de classe C 2 à déterminer. On a


2
X 2
X
w0 = (Ci0 zi + Ci zi0 ), w00 = (Ci00 zi + 2Ci0 zi0 + Ci zi00 ).
i=1 i=1
9.5. EDO SCALAIRES LINÉAIRES DU SECOND ORDRE 161

Donc
2
X
w00 + aw0 + bw = (Ci00 zi + 2Ci0 zi0 + 
Cii + aCi zi + 
00
z 0
zi0 + 
aCi i zi )
bC
i=1
X2
d 0
= (Ci0 zi0 + aCi0 zi + (C zi ))
i=1
dt i
2
! 2
!
X d X
= C10 z10 + C20 z20 +a Ci0 zi + C 0 zi = g.
i=1
dt i=1 i

C’est une seule équation pour les deux fonctions inconnues C1 et C2 . On peut donc en
principe imposer une relation supplémentaire entre C1 et C2 . L’équation précédente se
P
simplifie beaucoup si on impose la condition 2i=1 Ci0 zi = 0. On obtient alors le système
de deux équations différentielles
(
C10 z1 + C20 z2 = 0
C10 z10 + C20 z20 = g
" #" # " #
z z2 C10 0
qui peut être écrit sous forme matricielle comme 10 = ce qui implique
z1 z20 C20 g
" # " #−1 " # " #" #
C10 z z2 0 1 z20 −z2 0
= 10 =
C20 z1 z20 g W [z1 , z2 ] −z10 z1 g

et donc C10 = − W [z
z2 g
1 ,z2 ]
et C20 = W [z1 ,z2 ] .
z1 g
Par intégration on obtient finalement
 Z t
 −z2 (s)g(s)

C 1 (t) = ds + κ1 ,
t0 W [z1 , z2 ](s)

Z t

 z1 (s)g(s)
C2 (t) =
 ds + κ2 ,
t0 W [z1 , z2 ](s)

avec κ1 , κ2 ∈ R et t0 ∈ I fixés librement. Par conséquent, on peut choisir comme solution


particulière
Z t
z1 (s)z2 (t) − z1 (t)z2 (s)
w(t) = K(t, s)g(s)ds, K(t, s) = . (9.24)
t0 W [z1 , z2 ](s)

La fonction K : I × I → R a l’interprétation suivante : pour chaque s ∈ I fixé, la


fonction t 7→ K(t, s) := Ks (t) est solution du problème homogène associé :

Ks00 (t) + a(t)Ks0 (t) + b(t)Ks (t) = 0, t ∈ I,

sous les conditions


∂K
Ks (s) = K(s, s) = 0, Ks0 (s) = (t, s)|t=s = 1.
∂t
162 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

9.5.3 EDO linéaires du second ordre à coefficients constants


On s’intéresse ici à des équations de la forme :

u00 (t) + au0 (t) + bu(t) = g(t), t ∈ I,

où a, b ∈ R sont des coefficients constants (ne dépendent pas de t).


Équation homogène : u00 (t) + au0 (t) + bu(t) = 0, t ∈ I.
On cherche des solutions exponentielles z(t) = eλt . Remplaçant dans l’équation on
obtient λ2 eλt + aλeλt + beλt = 0 qui donne l’équation caractéristique

λ2 + aλ + b = 0.

On distingue les trois cas correspondants au signe du discriminant ∆ := a2 − 4b de


l’équation caractéristique.
Cas ∆ > 0. On a deux solutions réelles distinctes :
√ √
−a + a2 − 4b −a − a2 − 4b
λ1 = , λ2 = .
2 2

On vérifie facilement que z1 (t) = eλ1 t et z2 (t) = eλ2 t sont deux solutions linéairement
indépendantes. La solution générale de l’équation homogène est donc

u(t) = C1 eλ1 t + C2 eλ2 t

avec C1 , C2 ∈ R constantes arbitraires.


Cas ∆ < 0. On a deux solutions complexes conjuguées :
√ √
−a + i 4b − a2 −a − i 4b − a2
λ1 = , λ2 = ,
2 2

ce qui conduit à considérer les fonctions à valeurs complexes


√ eλ1 t et eλ2 t , c’est-à-dire,
4b−a2
z̃1 (t) = e e et z̃2 (t) = e
− a2 t iµt − a2 t −iµt
e avec µ = 2 . Puisque l’on cherche des
solutions réelles, on pose

z̃1 (t) + z̃2 (t)


z1 (t) = = e− 2 t cos(µt)
a

2
z̃1 (t) − z̃2 (t)
z2 (t) = = e− 2 t sin(µt)
a

2i
qui sont effectivement des solutions linéairement indépendantes. La solution générale
de l’équation homogène est donc

u(t) = e− 2 t (C1 cos(µt) + C2 sin(µt))


a

avec C1 , C2 ∈ R constantes arbitraires.


9.5. EDO SCALAIRES LINÉAIRES DU SECOND ORDRE 163

Cas ∆ = 0. On a ici une seule solution réelle caractérisée par λ = − a2 ce qui donne la
solution z1 (t) = e− 2 t de l’équation homogène. On cherche une deuxième solution sous
a

la forme z2 (t) = C(t)z1 (t). On trouve z2 (t) = te− 2 t (vérifiez-le comme exercice) qui
a

est linéairement indépendante de z1 (t). La solution générale de l’équation homogène


est donc
u(t) = (C1 + C2 t)e− 2 t
a

avec C1 , C2 ∈ R constantes arbitraires.

Équation non-homogène : u00 (t) + au0 (t) + bu(t) = g(t), ∀t ∈ I.


Pour trouver une solution particulière de l’équation non-homogène, on peut toujours
utiliser la formule générale (9.24). Toutefois, si la fonction g a une forme particulière
(polynomiale, exponentielle, etc.) on peut souvent chercher la solution particulière dans
une famille appropriée de fonctions paramétrées. Voici quelques exemples.
P
g est un polynôme de degré n : g(t) = nj=0 aj tj .
P
Si b 6= 0, on cherche w sous la même forme : w(t) = nj=0 βj tj .
P
Si b = 0 et a 6= 0, on cherche w sous la forme : w(t) = t nj=0 βj tj (remarquez que
dans ce cas la fonction t 7→ 1 est solution de l’équation homogène associée, mais pas
la fonction t 7→ t).
P
Si b = 0 et a = 0, on cherche w sous la forme : w(t) = t2 nj=0 βj tj (remarquez
que dans ce cas les fonctions t 7→ 1 et t 7→ t sont solutions de l’équation homogène
associée). En fait, dans ce cas, on peut résoudre l’équation u00 (t) = g(t) directement
par une double intégration.
g est un polynôme multiplié par des fonctions trigonométriques-exponentielles :

X
n  X
n 
g(t) = aj tj eδt sin(ωt) + ãj tj eδt cos(ωt), ω 6= 0, δ ∈ R.
j=0 j=0

Si la fonction t 7→ eδt cos(ωt) n’est pas solution du problème homogène associé (et
donc t 7→ eδt sin(ωt) non plus), on cherche w(t) sous la même forme :

X
n  X
n 
w(t) = βj tj eδt sin(ωt) + β̃j tj eδt cos(ωt).
j=0 j=0

Si la fonction t 7→ eδt cos(ωt) est solution du problème homogène associé, on cherche


w(t) sous la forme

X
n  X
n 
w(t) = t βj tj eδt sin(ωt) + t β̃j tj eδt cos(ωt).
j=0 j=0

Plus explicitement, la fonction t 7→ eδt cos(ωt) est solution du problème


√ homogène
associé si et seulement si à la fois δ = −a/2, 4b − a2 > 0 et ω = ± 4b − a2 /2.
164 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

P 
g est un polynôme multiplié par une fonction exponentielle : g(t) = n
j=0 aj t
j eδt .
Si δ = 0, la discussion qui suit redonne celle que l’on a déjà vu pour g un polynôme.
Si la fonction t 7→ eδt n’est pas solution du problème homogène associé, on cherche
w(t) sous la même forme :
X
n 
w(t) = βj tj eδt .
j=0

On est dans ce cas exactement lorsque, à la fois, δ 6= λ1 et δ 6= λ2 .


Si la fonction t 7→ eδt est solution du problème homogène associé, mais pas la fonction
t 7→ teδt , on cherche w(t) sous la forme
X
n 
w(t) = t βj tj eδt .
j=0

On est dans ce cas exactement lorsque à la fois λ1 6= λ2 et δ ∈ {λ1 , λ2 }.


Si les fonction t 7→ eδt et t 7→ teδt sont solutions du problème homogène associé, on
cherche w(t) sous la forme
X
n 
w(t) = t2 βj tj eδt .
j=0

On est dans ce cas exactement lorsque λ1 = λ2 = δ.

Vous aimerez peut-être aussi