Notesdecoursanalyse 2
Notesdecoursanalyse 2
MATH-105(a)
Analyse avancée II
(Section MA)
2020-2021
Dernière mise à jour : 7 février 2022
2
Table des matières
0 Intégrales Généralisées 7
0.1 Intégrale généralisée sur un intervalle borné . . . . . . . . . . . . . . . . . 7
0.2 Intégrale généralisée absolument convergente . . . . . . . . . . . . . . . . 10
0.3 Intégrale généralisée sur un intervalle non borné . . . . . . . . . . . . . . . 12
0.4 Intégrales et séries numériques . . . . . . . . . . . . . . . . . . . . . . . . 15
1 L’espace Rn et sa topologie 17
1.1 Espaces vectoriels normés . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 L’espace Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3 Suites dans Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Topologie de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Dérivabilité 41
3.1 Dérivées partielles et directionnelles ; différentielle . . . . . . . . . . . . . . 41
3.2 Dérivation de fonctions composées . . . . . . . . . . . . . . . . . . . . . . 49
3.3 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . 52
3
4 TABLE DES MATIÈRES
Notations
R+ = {x ∈ R : x ≥ 0}
R∗+ = {x ∈ R : x > 0}
R = R ∪ {−∞, +∞}
N = {0, 1, 2, . . .}
N∗ = {1, 2, . . .}
6 TABLE DES MATIÈRES
Chapitre 0
Intégrales Généralisées
7
8 CHAPITRE 0. INTÉGRALES GÉNÉRALISÉES
R
Si limx→b− F (x) n’existe pas, on dit que ab f (x)dx diverge.
R
De façon similaire, soit f : ]a, b] → R c.p.m., et F (x) = xb f (t)dt, x ∈ ]a, b]. Si
R
limx→a+ F (x) existe, on dit que ab f (x)dx existe (ou converge) et on pose
Z b
f (x)dx = lim F (x).
a x→a+
Rb
Autrement on dit que l’intégrale a f (x)dx diverge.
Exemple 0.2. On étudie l’existence de l’intégrale généralisée
Z 1
1
dx
0 xα
Pour α ∈ R. R
Soit F (x) = x1 t1α dt, x ∈ ]0, 1] qui est bien définie car la fonction f (t) = t−α est
continue sur [x, 1] pour tout x ∈ ]0, 1]. Pour α 6= 1 on a
1
t−α+1 1 x1−α
F (x) = = −
−α + 1 x 1−α 1−α
tandis que pour α = 1 on a
1
F (x) = ln t x
= − ln x.
Donc (
1
1−αα<1
lim F (x) =
x→0+ +∞ α ≥ 1
R1 1
et l’intégrale généralisée 0 xα dx existe pour tout α < 1.
On vérifie facilement que si la fonction f admet une extension par continuité sur [a, b]
alors l’intégrale généralisé de f existe et coïncide avec l’intégrale sur l’intervalle fermé [a, b]
de l’extension par continuité de la fonction. Plus précisément, on a le résultat suivant,
dont la preuve est laissée comme exercice.
Lemme 0.3. Pour a < b dans R, soit f : [a, b[ → R c.p.m. telle que limx→b− f (x) existe
et définissons la fonction c.p.m. sur [a, b]
(
f (x), x ∈ [a, b[,
fb (x) =
limt→b− f (t), x = b.
R R R
Alors, l’intégrale généralisée ab f (x)dx existe et ab f (x)dx = ab fb (x)dx.
On a le même résultat pour une fonction f : ]a, b] → R c.p.m. telle que limx→a+ f (x)
existe.
On considère maintenant le cas d’un intervalle ouvert (à gauche et à droite).
R R
Définition 0.4. Soit f : ]a, b[ → R c.p.m., a < b. Pour c ∈ ]a, b[, si ac f (x)dx et cb f (x)dx
R R R R
existent, alors on pose ab f (x)dx = ac f (x)dx + cb f (x)dx, auquel cas ab f (x)dx est dite
Rb
exister ou converger, sinon a f (x)dx est dite diverger.
0.1. INTÉGRALE GÉNÉRALISÉE SUR UN INTERVALLE BORNÉ 9
Rb
Il est facile de montrer que l’existence (ou non) de a f (x)dx ne dépend pas du choix
de c ∈ ]a, b[. En fait, soit c̃ ∈ ]a, b[, c̃ 6= c. Alors
Z c̃ Z c Z c̃
f (x)dx = f (x)dx + f (x)dx
a a c
Rc
existe ssi a f (x)dx existe, car f est c.p.m. sur [c, c̃] ∪ [c̃, c]. De même,
Z b Z c Z b
f (x)dx = f (x)dx + f (x)dx
c̃ c̃ c
Rb
existe ssi c f (x)dx existe, et
Z c̃ Z b Z c Z c̃ Z c Z b Z b
f (x)dx + f (x)dx = f (x)dx + f (x)dx + f (x)dx + f (x)dx = f (x)dx.
a c̃ a c c̃ c a
existe ou non.
On est tenté de calculer
Z x Z x
lim tan(t)dt = lim (− ln(cos t))0 dt = lim − ln(cos x) + ln(cos(−x))
x→π/2− −x x→π/2− −x x→π/2−
cos(−x)
= lim ln = lim ln(1) = 0
x→π/2− cos x x→π/2−
mais
Z x
cos(0)
lim tan(t)dt = lim ln = +∞
x→π/2− 0 x→π/2− cos x
Z 0
et lim tan(t)dt = −∞.
x→π/2− −x
Z x2
R π/2
Donc −π/2 tan(x)dx diverge. En effet, lim tan(x)dx dépend de comment x1 et x2
x1 →−π/2+ x1
x2 →π/2−
R π/2−2
tendent respectivement vers −π/2 et π/2. Prendre par exemple lim→0+ −π/2+ tan(x)dx =
R π/2−
+∞ et lim→0+ −π/2+2 tan(x)dx = −∞.
Lemme 0.6 (Propriétés de l’intégrale généralisée). Soit a < b dans R, I de la forme [a, b[,
]a, b] ou ]a, b[, et des fonctions c.p.m. f, g : I → R. Alors
Rb R R
— a (αf (x)
+ βg(x))dx = α ab f (x)dx + β ab g(x)dx, ∀α, β ∈ R, l’intégrale généralisée
à gauche étant convergente si les deux intégrales généralisées à droite convergent.
10 CHAPITRE 0. INTÉGRALES GÉNÉRALISÉES
Rb R R
— a f (x)dx = ac f (x)dx + cb f (x)dx, ∀c ∈]a, b[, l’intégrale généralisée à gauche étant
convergente ssi chacune des deux intégrales à droite converge au cas où elle est
généralisée.
Rb Rb Rb
— si f (x) ≤ g(x), ∀x ∈ I et a f (x)dx et a g(x)dx existent, alors a f (x)dx ≤
Rb
a g(x)dx.
Pour établir si une intégrale généralisée existe, le critère de comparaison suivant est
souvent très utile.
Lemme 0.7 (Critère de comparaison). Soit f, g : [a, b[→ R deux fonctions c.p.m. et
supposons qu’il existe c ∈ [a, b[ tel que
Démonstration.
Rb
Il suit immédiatement du fait que 0 ≤ f (x) ≤ M < +∞, ∀x ∈ [a, b[ et
a M dx converge.
Des versions analogues du Lemme 0.7 et Corollaire 0.8 existent pour f, g : ]a, b] → R
ou bien f, g : ]a, b[→ R.
Z 1
(sin x1 )2
Exemple 0.9. Grâce au Corollaire 0.8, on montre facilement que √ dx converge.
0 x
(sin 1 )2 1 R
En effet, 0 ≤ f (x) = √ x ≤ √ et 01 √1 dx
x
converge.
x x
Rb
Théorème 0.11. Si l’intégrale a f (x)dx est absolument convergente, alors elle existe.
Démonstration. Soit f+ (x) = max{f (x), 0} et f− (x) = − min{f (x), 0}. On a f (x) =
f+ (x) − f− (x), |f (x)| = f+ (x) + f− (x),
Corollaire 0.12.R
Soit f : I → R c.p.m. et bornée, où I est un intervalle borné comme
ci-dessus. Alors ab f (x)dx converge absolument et par conséquent, existe.
Rb
Démonstration. On a 0 ≤ |f (x)| ≤ M < +∞, ∀x ∈ I. Comme a M dx converge,
Rb Rb
a |f (x)|dx converge aussi et a f (x)dx converge absolument.
convergent absolument.
R
Théorème 0.14. Une condition suffisante pour que ab f (x)dx converge absolument avec
f : [a, b[→ R c.p.m. est qu’il existe α ∈] − ∞, 1[ tel que
Rb
Si ∃α ≥ 1 tel que limx→b− (b − x)α f (x) = l 6= 0, alors a f (x)dx diverge.
Démonstration. Soit α ∈] − ∞, 1[ tel que limx→b− (b − x)α f (x) = l ∈ R. Alors, pour tout
> 0 il existe δ ∈]0, b − a[ tel que
Remarque 0.15. On a présenté le Théorème 0.14 pour un intervalle I de la forme [a, b[.
Il y a deux conditions suffisantes analogues en a pour I de la forme ]a, b]. Si I est de la
forme ]a, b[, on choisit c ∈]a, b[ et on étudie séparément l’intégrale généralisée sur [c, b[ et
celle sur ]a, c].
pour α ∈ R.
On a
Z x
1 t−α+1 x
x1−α 1
F (x) = dt = = − , α 6= 1
1 tα −α + 1 1 1−α 1−α
F (x) = ln x α=1
Donc (
1
< ∞, α>1
lim F (x) = α−1
x→∞ +∞, α ∈] − ∞, 1]
R∞ 1
et l’intégrale généralisée 1 xα dx existe pour tout α > 1.
Il est intéressant de comparer ce dernier exemple avec l’exemple 0.2. On voit que
R1 1
l’intégrale
R∞ 1
généralisée 0 xα dx existe pour tout α < 1 alors que l’intégrale généralisée
1 xα dx existe pour tout α > 1.
L’intégrale généralisée sur un intervalle non borné a les mêmes propriétés que celui sur
un intervalle borné. En particulier, étant donné un intervalle I non borné et des fonctions
c.p.m. f, g : I → R.
R R R
— linéarité : I (αf (x) + βg(x))dx = α I f (x)dx + β I g(x)dx, ∀α, β ∈ R, l’intégrale
généralisée à gauche étant convergente si les deux intégrales généralisées à droite
convergent.
R R R
— I f (x)dx = I∩]−∞,c] f (x)dx + I∩[c,∞[ f (x)dx, ∀c ∈ I, l’intégrale généralisée à
gauche étant convergente ssi chacune des deux intégrales à droite converge au cas où
elle est généralisée.
R R
— relation
R
d’ordre
R
: si f (x) ≤ g(x) ∀x ∈ I et I f (x)dx et I g(x)dx existent, alors
I f (x)dx ≤ I g(x)dx.
Les critères de comparaison énoncés au Lemme 0.7 et au Théorème 0.14 se généralisent
aussi au cas d’un intervalle non borné.
Lemme 0.19 (Critères de comparaison – intervalles non bornés).
— Soit f, g : [a, +∞[→ R c.p.m. et supposons qu’il existe c ∈ [a, ∞[ tel que
0 ≤ f (x) ≤ g(x), ∀x ∈ [c, +∞[.
R∞ R∞ R∞ R∞
Si a g(x)dx existe alors a f (x)dx existe. Si a f (x)dx diverge alors a g(x)dx
diverge.
— Soit f : [a, +∞[→ R c.p.m.
Z ∞
Si ∃β > 1 : lim xβ f (x) = l ∈ R alors f (x)dx converge absolument.
x→∞ a
Z ∞
Si ∃β ∈] − ∞, 1] : lim x f (x) = l 6= 0
β
alors f (x)dx diverge.
x→∞ a
Remarque 0.20. Attention, comparez les conditions sur β avec les conditions du Théorème
0.14 sur α ! Il y a des résultats analogues pour I de la forme ] − ∞, a]. Si I est de la
forme ]a, ∞[, ] − ∞, a[ ou ] − ∞, ∞[, on choisit c ∈ I et on étudie séparément l’intégrale
généralisée sur I ∩ [c, +∞[ et celle sur I∩] − ∞, c].
14 CHAPITRE 0. INTÉGRALES GÉNÉRALISÉES
Exercice 0.21. Étudier à l’aide du Lemme 0.19 l’existence des intégrales suivantes
Z ∞ Z ∞
1 1
α −x
x e dx, α ∈ R, √ ln 1 + dx.
1 1 x x
On remarque qu’une intégrale généralisée peut être convergente mais pas absolument
convergente, comme l’exemple suivant le montre.
R ∞ sin x
Exemple 0.22. On montre dans cet exemple que l’intégrale généralisée π x dx est
convergente maisR pas absolument convergente.
Soit F (x) = πx sint t dt. On a
Z x
cos t − cos t x
F (x) = − dt +
π t2 t π
Z x
cos t cos π cos x
=− dt + −
π t2 π x
Z x
cos t cos x
Donc limx→∞ F (x) = limx→∞ − dt − π1 − lim existe.
π t2 x→∞
| {z x }
| {z }
absolument convergent =0
R donc la limite existe
En revanche, π∞ sinx x dx ne converge pas absolument. En effet, pour tout k ∈ N, k > 1
Z kπ
| sin x|
F (kπ) = dx
π x
Z
X (j+1)π
k−1
| sin x|
= dx
j=1 jπ
x
Z (j+1)π
k−1
X 1
≥ | sin x|dx
j=1
(j + 1)π jπ
| {z }
=2
k−1
X 2
= −−−→ +∞.
k→∞
j=1
(j + 1)π
R
Remarque 0.23. Si a∞ f (x)dx converge et limx→∞ f (x) existe, alors nécessairement
lim
R ∞x→∞
f (x) = 0 (cf le critère du Lemme 0.19 avec β = 0). En revanche le fait que
a f (x)dx converge absolument n’implique pas que f est bornée.
Par exemple, considérons la fonction φ(x) = max{1 − |x|, 0} et la fonction f : [0, ∞[→
R+ définie par
∞
X
f (x) = nφ n3 (x − n)
n=1
0.4. INTÉGRALES ET SÉRIES NUMÉRIQUES 15
Z x Z dxe dxe Z ∞
X ∞
X 1
F (x) = |f (t)|dt ≤ ≤ nφ n3 (t − n) dt ≤ <∞
0 0 n=1 0 n=1
n2
Remarque 0.24. Soit un intervalle I qui n’est pas simultanément borné fermé, et une
fonction c.p.m. f : I → [0, ∞[. Comme f ≥ 0, la limite (ou chacune des deux limites)
intervenant dans la définition d’intégrale
R
généralisée tend vers un nombre réel ≥ 0 ou vers
+∞.
R
On peut donc dans ce cas écrire I (x)dx < ∞ si l’intégrale généralisée converge et
f
I f (x)dx = ∞ = +∞ si elle diverge.
N
X N Z n+1
X Z N +1 Z N
an = an dx = f (x)dx = f˜(x)dx
n=1 n=1 n 1 0
et on peut utiliser les critères de comparaison pour les intégrales généralisées afin d’établir
la convergence de la série.
1 P
Exemple 0.25. On veut étudier la convergence de la série numérique S = ∞ n=1 n2 .
Soit f : [1, ∞[→ R c.p.m. définie par f (x) = 1/n2 si x ∈ [n, n + 1[, n ∈ N∗ de telle
R N +1
PN 1
sorte que SN R= n=1 n2 = R1 f (x)dx. On vérifie facilement que R0 ≤ f (x) ≤ 1/(x − 1)2
1 1
sur [2, ∞[ et 2 (x−1)
∞
2 dx = 1
∞
x2
dx converge, d’où on déduit que 1∞ f (x)dx converge et
Z N +1
∞
X 1 N
X 1
= lim = lim f (x)dx < +∞.
n=1
n2 N →∞
n=1
n2 N →∞ 1
On peut encore utiliser les propriétés des intégrales généralisées pour donner des bornes par
dessous et par dessus à la série S. En effet, on a x12 ≤ f (x) ≤ (x−1)
1
2 pour tout x ∈ ]1, ∞[
16 CHAPITRE 0. INTÉGRALES GÉNÉRALISÉES
du coup
Z ∞ Z 2 Z ∞
∞
X 1 1
S= = f (x)dx ≤ f (x)dx + dx = 2,
n=1
n2 1 1 2 (x − 1)2
Z ∞ Z ∞
X∞
1 1
S= = f (x)dx ≥ dx = 1,
n=1
n2 1 1 x2
P∞ 1
On conclut donc 1 ≤ n=1 n2 ≤ 2.
∞
X 1
Exercice 0.26. Étudier si la série converge ou non.
n=2
n ln n
Chapitre 1
L’espace Rn et sa topologie
Définition 1.1 (Espace vectoriel réel). Un ensemble V est un espace vectoriel réel si
les opérations de somme et multiplication par un scalaire (réel) sont définies sur V avec
les propriétés suivantes :
1. somme : V × V → V, (x, y) ∈ V × V 7→ z = x + y ∈ V ,
— ∀x, y ∈ V, x + y = y + x,
— ∀x, y, z ∈ V, (x + y) + z = x + (y + z),
— ∃ élément nul 0 : x + 0 = x,
— ∀x ∈ V, ∃ élément opposé −x : x + (−x) = 0,
2. multiplication par un scalaire : R × V → V, (λ, x) ∈ R × V 7→ z = λx ∈ V ,
— ∀λ, µ ∈ R, ∀x ∈ R, λ(µx) = (λµ)x,
— ∀x ∈ V, 1 · x = x,
— ∀λ, µ ∈ R, ∀x ∈ V, (λ + µ)x = λx + µx,
— ∀λ ∈ R, ∀x, y ∈ V, λ(x + y) = λx + λy.
Définition 1.2 (Norme). Soit V un espace vectoriel réel. Une norme sur V est une
application N : V → R+ qui satisfait les propriétés suivantes :
1. ∀x ∈ V, N (x) ≥ 0, et N (x) = 0 ⇔ x = 0,
2. ∀x ∈ V, λ ∈ R, N (λx) = |λ|N (x),
3. ∀x, y ∈ V, N (x + y) ≤ N (x) + N (y) (inégalité triangulaire).
On note souvent une norme par k · k (N (x) = kxk).
Un espace vectoriel muni d’une norme est appelé espace vectoriel normé et souvent
noté (V, k · k). On dit que deux normes N1 et N2 sur un espace vectoriel V sont équivalentes
s’ils existent deux constants c, c > 0 telles que cN1 (x) ≤ N2 (x) ≤ cN1 (x) pour tout x ∈ V .
17
18 CHAPITRE 1. L’ESPACE Rn ET SA TOPOLOGIE
Définition 1.3 (distance). Soit X un ensemble. Une distance ou métrique sur X est
une application d : X × X → R+ qui satisfait les propriétés suivantes :
1. ∀x, y ∈ X, d(x, y) ≥ 0, et d(x, y) = 0 ⇔ x = y,
2. ∀x, y ∈ X, d(x, y) = d(y, x),
3. ∀x, y, z ∈ X, d(x, y) ≤ d(x, z) + d(z, y) (inégalité triangulaire).
Un ensemble X muni d’une distance (X, d) est appelé espace métrique. Si (V, k · k)
est un espace vectoriel normé, alors l’application
Définition 1.5 (Produit scalaire). Un produit scalaire sur un espace vectoriel réel V
est une application b : V × V → R qui satisfait les propriétés suivantes :
1. (symétrie) ∀x, y ∈ V, b(x, y) = b(y, x),
2. (bi-linéarité) ∀x, y ∈ V, ∀α, β ∈ R, b(αx + βy, z) = αb(x, z) + βb(y, z),
3. (positivité) ∀x ∈ V, b(x, x) ≥ 0, et b(x, x) = 0 ⇔ x = 0.
Démonstration. ∀α ∈ R, ∀x, y ∈ V
Grâce à cette propriété, un espace vectoriel réel muni d’un produit scalaire est toujours
un espace normé.
Démonstration. Il faut vérifier que k · kb satisfait toutes les propriétés d’une norme selon
la Définition 1.2. Les propriétés 1. et 2. suivent directement de la positivité du produit
scalaire (propriété 3. de 1.5) et de sa bi-linéarité (propriété 2. de 1.5).
Quant à l’inégalité triangulaire (propriété 3.) elle est une conséquence de l’inégalité de
Cauchy–Schwarz :
= (kxkb + kykb )2
1.2 L’espace Rn
n fois
z }| {
On note Rn = R × R × · · · × R l’ensemble des n-uples x = (x1 , . . . , xn ), avec xi ∈ R,
pour i = 1, . . . , n, muni des opérations de
— somme : pour tout x = (x1 , . . . , xn ), y = (y1 , . . . , yn ), x+y = (x1 +y1 , . . . , xn +yn ),
— multiplication par un scalaire : pour tout x = (x1 , . . . , xn ), λ ∈ R, λx = (λx1 , . . . , λxn ).
Ainsi, Rna une structure d’espace vectoriel réel. Sur Rn , on peut introduire plusieurs
normes. Voici les plus communes :
— Norme euclidienne : v
u n
uX
kxkE = t x2i ,
i=1
— Norme p :
n
!1
X p
kxkp = |xi |p , p ≥ 1,
i=1
— Norme ∞ :
kxk∞ = max |xj |.
1≤j≤n
une norme induite par un produit scalaire, nommément le produit scalaire euclidien :
n
X
(x, y) = xi yi = y> · x = y> x.
i=1
Dans ces deux dernières expressions, x et y sont des vecteurs colonnes, y> est la transposée
de y et le produit est la multiplication matricielle. En effet, kxk2 = (x, x) 2 et l’inégalité
1
Puisque toutes les normes sont équivalentes sur Rn , la convergence de la suite x(k)
ne dépend pas de la norme choisie. De même que la valeur limite x (si elle existe) ne
dépend pas de la norme. En particulier, si on prend la norme k · k∞ dans la définition de
limk→∞ x(k) = x, on en tire la propriété suivante.
(k)
ce qui implique que limk→∞ xj = xj , ∀j = 1, . . . , n.
(k)
Réciproquement, supposons qu’il existe x = (x1 , . . . , xn ) ∈ Rn tel que limk→∞ xj = xj ,
∀j = 1, . . . , n. Alors,
(k)
∀ > 0, ∃Nj > 0 : ∀k ≥ Nj , |xj − xj | ≤ .
(k)
En prenant N̄ = max{N1 , . . . , Nn } on a maxj=1,...,n |xj − xj | ≤ pour tout k ≥ N̄ , ce
qui implique limk→∞ x(k) = x.
1.4. TOPOLOGIE DE Rn 21
Définition 1.10 (Suite de Cauchy). Une suite {x(k) }k∈N ⊂ Rn est dite de Cauchy si
∀ > 0, ∃N > 0 : ∀k, j ≥ N, kx(k) − x(j) k ≤ .
En suivant la même démonstration du lemme 1.9, on peut montrer qu’une suite
(k)
{x(k) }k∈N ⊂ Rn est de Cauchy si et seulement si chaque suite {xj }k∈N ⊂ R, j = 1, . . . , n
est de Cauchy.
Théorème 1.11. Une suite {x(k) }k∈N ⊂ Rn est convergente si et seulement si elle est de
Cauchy.
Démonstration. Ceci est vrai pour n = 1 (voir cours d’Analyse I). En utilisant la norme
(k)
k · k∞ et le lemme 1.9, on a : {x(k) }k∈N converge ⇐⇒ {xi }k∈N converge pour tout i
(k)
⇐⇒ {xi }k∈N est de Cauchy pour tout i ⇐⇒ {x(k) }k∈N est de Cauchy.
Théorème 1.12 (Bolzano–Weierstrass sur Rn ). Soit {x(k) }k∈N ⊂ Rn une suite bornée, c.-
à-d., ∃M ∈]0, +∞[ tel que kx(k) k ≤ M, ∀k ≥ 0. Alors il existe une sous-suite {x(kj ) }j∈N ⊂
{x(k) }k∈N qui est convergente.
Démonstration. On utilise le théorème de Bolzano–Weierstrass sur R : puisque {x(k) }k∈N
(k) (k) (k) (k)
est bornée, en particulier {x1 }k∈N est bornée où x(k) = (x1 , x2 , . . . , xn ). Donc on
(k )
peut extraire une sous-suite x1 j qui converge vers x1 ∈ R. Prenons maintenant la suite
(j) (k ) (j )
y2 = x2 j . Puisqu’elle est bornée, on peut extraire une sous-suite y2 ` qui converge
(kj ) (kj )
vers x2 ∈ R. Ainsi lim`→∞ x2 ` = x2 et lim`→∞ x1 ` = x1 . En itérant ce raisonnement
n fois, on peut extraire une sous-suite de x(k) dont chaque composante converge vers
(x1 , x2 , . . . , xn ).
Ce qui est important dans la preuve de ce théorème est que l’on fait un nombre fini
d’itérations (n est fini). Si n était ∞ la preuve ne porterait pas à conclusion.
1.4 Topologie de Rn
1.4.1 Concepts de base
On s’intéresse ici à l’étude et classification des sous-ensembles de Rn . On commence
par définir les boules.
Définition 1.13 (Boule de Rn ). Pour tout x ∈ Rn et δ > 0, on appelle
— B(x, δ) = {y ∈ Rn : kx − yk < δ} : la boule ouverte centrée en x et de rayon δ,
— S(x, δ) = ∂B(x, δ) = {y ∈ Rn : kx − yk = δ} : la sphère centrée en x et de rayon δ,
— B(x, δ) = B(x, δ) ∪ S(x, δ) = {y ∈ Rn : kx − yk ≤ δ} : la boule fermée centrée en x
et de rayon δ.
La Figure 1.1 montre la forme des boules de R2 selon la norme qu’on choisit. On
travaille par la suite avec la norme euclidienne kxk = kxk2 mais toutes les définitions ci
après s’appliquent à n’importe quelle norme puisque toutes les normes sont équivalentes
sur Rn .
On considère maintenant un sous-ensemble quelconque E de Rn .
22 CHAPITRE 1. L’ESPACE Rn ET SA TOPOLOGIE
y y y
k · k2 k · k∞ k · k1
x x x
∃δ > 0 : B(x, δ) ⊂ E.
∀δ > 0, B(x, δ) ∩ E 6= ∅.
Un point adhérent est soit un point intérieur, soit un point frontière. L’ensemble des
points adhérents à E est noté E, et appelé l’adhérence ou la fermeture de E, et
coïncide avec E = E ∪ ∂E = E̊ ∪ ∂E.
1.4. TOPOLOGIE DE Rn 23
S
Démonstration. Soit E = α Eα avec Eα ouvert. Pour tout x ∈ E, il existe α : x ∈
Eα . Mais, Eα étant ouvert, ∃δ > 0 : B(x, δ) ⊂ Eα ⊂ E. Donc E est ouvert.
— ∅ et Rn sont ouverts.
Lemme 1.18. Un ensemble E ⊂ Rn non vide est fermé si et seulement si toute suite
{x(k) }k∈N ⊂ E convergente, converge vers un élément de E.
Démonstration. Soit E fermé et {x(k) }k∈N ⊂ E une suite convergente vers x ∈ Rn . Alors
x adhère à E et, puisque E est fermé, x ∈ E.
Réciproquement, supposons que E n’est pas fermé, autrement dit, que Rn \E n’est pas
ouvert. Il existe donc x ∈ Rn \E tel que ∀δ > 0 B(x, δ) 6⊂ (Rn \E). En choisissant δ = 1/k
avec k ∈ N∗ , on obtient x(k) ∈ B(x, 1/k) ∩ E. La suite {x(k) }k∈N∗ dans E converge alors
vers x 6∈ E.
On montre de même que x ∈ E ssi il existe une suite {x(k) }k∈N ⊂ E qui converge
vers x.
Définition 1.19 (Compacité). Un ensemble E ⊂ Rn est compact s’il est à la fois borné
et fermé. L’ensemble vide sera considéré comme compact.
Les deux autres caractérisations (équivalentes en Rn ) sont montrées dans les théorèmes
suivants.
Démonstration.
1. Soit E compact (fermé et borné). Par le théorème de Bolzano–Weierstrass, de toute suite
{x(k) }k∈N ⊂ E bornée (car E est borné), on peut extraire une sous-suite {x(kj ) }j∈N ⊂ E
convergente telle que limj→∞ x(kj ) = x ∈ Rn . Puisque E est fermé, x ∈ E.
2. Supposons que E n’est pas compact, autrement dit, qu’il n’est pas fermé ou qu’il n’est
pas borné (ou ni l’un ni l’autre). Si E n’est pas fermé, il existe x ∈ Rn \E et une
suite {y(k) }k∈N ⊂ E telle que limk→∞ y(k) = x. Une telle suite n’a aucune sous-suite
qui converge vers un élément de E (car x 6∈ E). Si E n’est pas borné, il existe une
suite {x(k) }k∈N ⊂ E telle que kx(k) k > k pour tout k ∈ N. Toute sous-suite {x(kj ) }j∈N
satisfait kx(kj ) k > kj ≥ j et {x(kj ) }j∈N ne converge pas.
Exemple
1.23.
c E = B(0, 1)\{0} n’est pas compact. En fait, on peut écrire E ⊂
S 1
k∈N∗ B(0, k ) qui est un recouvrement de E mais duquel on ne peut pas extraire
un sous-recouvrement fini.
qu’il existe (au moins) un point x ∈ E (point d’accumulation de la suite) tel que,
pour toute boule B(x, δ), δ > 0, l’ensemble d’indices {k ∈ N : x(k) ∈ B(x, δ)} est
infini. Donc E est suffisamment contraignant (compact) pour que toute suite de E
s’accumule quelque part dans E.
— La caractérisation du théorème 1.21 est la définition la plus générale de compacité,
mais aussi la plus abstraite. Elle exprime le fait qu’on puisse décrire un ensemble
compact par un nombre fini de termes et est à la base de toute étape d’approximation.
S
Soit E ⊂ Rn un sous-ensemble quelconque. Clairement, pour tout ε > 0, x∈E B(x, ε)
est un recouvrement de E. Si E est compact, on peut extraire un sous-recouvrement
S
fini, c.-à-d. il existe s = s(ε) ∈ N∗ et {x(1) , . . . , x(s) } ∈ E tels que E ⊂ si=1 B(x(i) , ε).
Donc, E est bien approché par l’ensemble fini Ê = {x(1) , . . . , x(s) } au sens que pour
tout x ∈ E, dist(x, Ê) = inf i=1,...,s kx − x(i) k < ε. Le nombre s = s(ε) est appelé
nombre de recouvrement de E et est un indicateur de la difficulté d’approcher E par
un ensemble fini.
Définition 1.24 (Connexité). Soit E ⊂ Rn . On dit que E est connexe s’il n’existe pas
deux ouverts A, B ⊂ Rn disjoints (A ∩ B = ∅) tels que A ∩ E 6= ∅, B ∩ E 6= ∅ et E ⊂ A ∪ B.
En particulier ∅ est connexe. Les ensembles connexes de R sont les intervalles, par
exemple ∅, R, [0, 1], ]0, 1[, [0, 1[, ] − ∞, 0[ ,[0, ∞[, etc. Une notion un peu plus forte de
connexité est celle de connexité par arcs.
Définition 1.26 (Connexité par arcs). Un ensemble non vide E ⊂ Rn est connexe par
arcs si pour tout x, y ∈ E, il existe un chemin γ : [0, 1] → E tel que γ(0) = x, γ(1) = y
(et γ(t) ∈ E, ∀t ∈ [0, 1]). Nous considérerons ∅ comme connexe par arcs.
On peut montrer que tout ensemble E ⊂ Rn connexe par arcs est aussi connexe. Le
réciproque n’est toutefois pas vraie. On verra dans le chapitre suivant que les propriétés
de compacité, connexité et connexité par arcs sont des propriétés topologiques, préservées
par les applications continues. Autrement dit, si E ⊂ Rn est un ensemble compact (resp.
connexe ou connexe par arcs) et f : Rn → Rm une fonction continue, alors f (E) ⊂ Rm est
compact (resp. connexe ou connexe par arcs).
1.4. TOPOLOGIE DE Rn 27
y
x x
y
Figure 1.2 – Gauche : ensemble connexe par arcs. Droite : ensemble non connexe
28 CHAPITRE 1. L’ESPACE Rn ET SA TOPOLOGIE
Chapitre 2
Soit E ⊂ Rn un ensemble non vide. On appelle fonction sur E à valeurs réelles une
application f : E → R. C’est à dire, ∀x = (x1 , . . . , xn ) ∈ E, f (x) = f (x1 , . . . , xn ) ∈ R est
l’image de x par f . La fonction f est donc une fonction de n variables réelles. On note :
— E ou D(f ) le domaine de f ;
— Im(f ) = {f (x) ∈ R : x ∈ E} l’image de f (notée aussi f (E)) ;
— G(f ) = {(x, f (x)) ∈ Rn+1 : x ∈ E} le graphe de f.
Une fonction de 2 variables réelles à valeurs réelles, (x, y) 7→ f (x, y) ∈ R, peut être
visualisée par son graphe (surface de R3 ), ou par ces lignes de niveau Nf (c) = {(x, y) ∈
R2 : f (x, y) = c}. La figure 2.1 montre le graphe et les lignes de niveau de la fonction
f (x, y) = e−x −y , (x, y) ∈ [−1, 1]2 .
2 2
La propriété limx→x0 f (x) = l ne dépend pas du choix de la norme k · k sur Rn car les
normes sur Rn sont deux à deux équivalentes. On note que dans la définition de limite
ci dessus, on exclut le point x0 de l’ensemble {x ∈ E, 0 < kx − x0 k ≤ δ}. Cette limite
est parfois appelée limite épointée et notée aussi x→x
lim f (x) ou x→x
lim f (x). Dans ces notes
0 0
6= x6=x0
29
30 CHAPITRE 2. FONCTIONS DE PLUSIEURS VARIABLES RÉELLES
0.5
1
0
y
0.5
1 −0.5
−1 0
−0.5 0 −1
0.5 1 −1
y −1 −0.5 0 0.5 1
x x
Bien que la définition de limite soit la même pour des fonctions d’une seule ou de
plusieurs variables réelles, le calcul des limites pour des fonctions de plusieurs variables
réelles est bien plus compliqué. Prenons la caractérisation de limite par les suites :
Pour affirmer que limx→x0 f (x) = l existe, il faut s’assurer que f (x(k) ) −−−→ l pour
k→∞
x0
Figure 2.2 – Exemples de chemins possibles qu’on peut suivre pour atteindre x0 .
x0 = (0, 0), qui est un point d’accumulation de E. Est-ce que limx→x0 f (x) existe ?
Prenons la suite x(k) = ( αk , βk ), k ≥ 1, avec α, β ∈ R non nuls en même temps. On a
que
αβ 2 k
αβ 2
(k)
f (x ) = α2 k β 4 = 2 2 −−−→ 0, ∀(α, β) 6= (0, 0).
3 k→∞
2 + 4
α k + β 2
k k
Donc si on se rapproche de x0 par un chemin “droit” la limite est 0. Toutefois, si on prend
la suite x(k) = ( k12 , k1 ) −−−→ (0, 0), on a que
k→∞
1
1 1
f (x(k) ) = 1
k4
1 = ∀k ≥ 1 =⇒ lim f (x(k) ) = .
k4
+ k4
2 k→∞ 2
Donc limx→x0 f (x) n’existe pas !
32 CHAPITRE 2. FONCTIONS DE PLUSIEURS VARIABLES RÉELLES
p
Notons ρ = (x − 1)2 + y 2 = k(x, y) − (1, 0)k. Puisque
q
lim (x − 1)2 + y 2 | ln((x − 1)2 + y 2 )| = lim ρ| ln ρ2 | = lim ρ(− ln ρ2 ) = 0
(x,y)→(1,0) ρ→0+ ρ→0+
(par la remarque appliquée à la norme euclidienne), on conclut par le théorème des deux
gendarmes que lim(x,y)→(1,0) |f (x, y)| = 0 et lim(x,y)→(1,0) f (x, y) = 0.
2.1. NOTIONS DE LIMITE 33
Démonstration. Le sens ⇒ est clair. Montrons le sens ⇐. Il existe δ1 > 0 tel que
α(δ) = inf{f (x) : x ∈ B(x0 , δ) ∩ (E\{x0 })}, β(δ) = sup{f (x) : x ∈ B(x0 , δ) ∩ (E\{x0 })}
Comme pour les fonctions à valeurs dans R, limx→x0 f (x) = l existe si et seulement
si pour toute suite {x(k) }k∈N ⊂ E \ {x0 } telle que x(k) −−−→ x0 on a limk→∞ f (x(k) ) = l
k→∞
(limite dans Rm ). Il est aussi facile de montrer que limx→x0 f (x) = l si et seulement si
toutes les limites limx→x0 fi (x) = li , i = 1, . . . , m existent.
34 CHAPITRE 2. FONCTIONS DE PLUSIEURS VARIABLES RÉELLES
De la définition 2.1 de limite d’une fonction ainsi que du théorème 2.2, caractérisant
les limites par les suites, il s’ensuit que, pour tout x0 ∈ E, les trois affirmations suivantes
sont équivalentes :
i. f : E → R est continue en x0 ;
ii. ∀ > 0 ∃δ = δ(, x0 ) > 0 : ∀y ∈ E ky − x0 k ≤ δ ⇒ |f (y) − f (x0 )| ≤ ;
iii. limk→∞ f (x(k) ) = f (x0 ) pour toute suite {x(k) }k∈N ⊂ E qui converge vers x0 .
Définition 2.12 (fonction continue sur un ensemble). On dit que f : E → R est continue
sur E si elle est continue en tout point x ∈ E. Dans ce cas, on note f ∈ C 0 (E) (ou
f ∈ C 0 (E, R)).
On note que ici δ peut être choisi de manière qui ne dépend pas de x, contrairement à la
caractérisation précédente de continuité sur E.
Exemple 2.14. La fonction x 7→ kxk ∈ R+ est uniformément continue sur Rn (et donc
continue) car, pour tous x, y ∈ Rn ,
kxk − kyk ≤ kx − yk
Il s’ensuit que, pour tout x0 ∈ E, les quatre affirmations suivantes sont équivalentes :
i. f = (f1 , . . . , fm ) : E → Rm est continue en x0 ;
ii. ∀ > 0 ∃δ = δ(, x0 ) > 0 : ∀y ∈ E ky − x0 k ≤ δ ⇒ kf (y) − f (x0 )k ≤ ;
iii. limk→∞ f (x(k) ) = f (x0 ) pour toute suite {x(k) }k∈N ⊂ E qui converge vers x0 ;
iv. pour chaque i ∈ {1, . . . , m} la fonction fi : E → R est continue en x0 .
Il en résulte aussi que f est continue en tout x ∈ E si et seulement si
∀ > 0 ∀x ∈ E ∃δ = δ(, x) > 0 : ∀y ∈ E kx − yk ≤ δ ⇒ kf (x) − f (y)k ≤ .
Démonstration. Pour toute suite {y(k) }k∈N ⊂ B telle que limk→∞ y(k) = y0 , on a par
la continuité de g que g(y(k) ) −−−→ g(y0 ) = x0 et par la continuité de f en x0 ,
k→∞
f (g(y(k) )) −−−→ f (x0 ). Donc, h(y(k) ) −−−→ f (x0 ) = f (g(y0 )) = h(y0 ) ce qui montre
k→∞ k→∞
la continuité de h en x0 .
36 CHAPITRE 2. FONCTIONS DE PLUSIEURS VARIABLES RÉELLES
Par définition de f̃ (x), on a limk→+∞ f (y(k) ) = f̃ (x) ; en effet, si x ∈ E, alors f̃ (x) = f (x) et
ceci découle de la continuité de f enx et, si x ∈ Ē\E, ceci découle de la définition de f̃ (x).
Donc limk→+∞ f̃ (x(k) ) = limk→+∞ f̃ (x(k) ) − f (y(k) ) + limk→+∞ f (y(k) ) = f̃ (x).
Le prochain théorème est un résultat important. Il montre que sous l’hypothèse que la
fonction soit uniformément continue sur E, on n’a pas besoin de vérifier l’existence des
limites au bord pour pouvoir prolonger la fonction par continuité. L’hypothèse d’uniforme
continuité est bien plus facile à vérifier que l’existence de la limite en chaque point du
bord. On verra, par exemple, dans le chapitre suivant, que si la fonction est dérivable
sur un ensemble E convexe avec dérivées partielles bornées, alors elle est uniformément
continue sur E.
Démonstration. Vérification que f peut être prolongée par continuité sur E. Il faut vérifier
que limy→x f (x) existe en tout x ∈ E \ E (la limite en x ∈ E existe car f est continue sur
E). Par hypothèse, la fonction f est uniformément continue sur E. Pour tout > 0, soit
δ > 0 la valeur correspondante dans la définition (2.1) de continuité uniforme.
Pour chaque a ∈ E \ E, choisissons une suite {a(k) }k∈N ⊂ E qui converge vers a. Pour
a ∈ E\E fixé, la suite choisie {a(k) }k∈N est une suite de Cauchy. Il existe donc N = N (δ) tel
que ∀j, k ≥ N ka(j) − a(k) k ≤ δ. Il s’ensuit que, pour tous j, k ≥ N , kf (a(j) ) − f (a(k) )k ≤ .
D’où {f (a(k) )}k∈N est une suite de Cauchy dans Rm , qui admet pour limite un certain
2.4. FONCTIONS CONTINUES SUR UN COMPACT 37
l = limk→∞ f (a(k) ) ∈ Rm . Cette limite ne dépend pas de la suite choisie. En effet, soit
{b(k) }k∈N ⊂ E une autre suite telle que limk→∞ b(k) = a et m = limk→∞ f (b(k) ). Alors
il existe Ñ > N : ∀k ≥ Ñ , km − f (b(k) )k ≤ , kl − f (a(k) )k ≤ , ka(k) − b(k) k ≤ δ. Par
conséquent,
ce qui implique l = m par l’arbitrarité de et donc la limite limx→a f (x) existe en tout
a ∈ E et f peut être prolongée par continuité. On dénote f̃ le prolongement par continuité
de f .
Vérification que f̃ est uniformément continue sur E. Soit > 0 et x, y ∈ E tels que kx−
yk ≤ 3δ , où δ = δ() est comme ci-dessus. Introduisons deux suites {x(k) }k∈N , {y(k) }k∈N ⊂ E
qui convergent à x et y, respectivement. Alors, il existe M > 0 tel que, pour tout k ≥ M ,
kx − x(k) k ≤ 3δ et ky − y(k) k ≤ 3δ , d’où kx(k) − y(k) k ≤ kx(k) − xk + kx − yk + ky − y(k) k ≤ δ.
Puisque f̃ est continue sur E on a limk→∞ f (x(k) ) = f̃ (x), limk→∞ f (y(k) ) = f̃ (y) et il
existe M̃ > M tel que, pour tout k ≥ M̃ , kf̃ (x) − f (x(k) )k ≤ et kf̃ (y) − f (y(k) )k ≤ . On
a alors
kf̃ (x) − f̃ (y)k ≤ kf̃ (x) − f (x(k) )k + kf (x(k) ) − f (y(k) )k + kf (y(k) ) − f̃ (y)k ≤ 3.
Ainsi, si x, y ∈ E satisfont kx − yk ≤ 3δ , on a kf̃ (x) − f̃ (y)k ≤ 3, ce qui prouve que f̃ est
uniformément continue sur E.
Théorème 2.27. Soit E ⊂ Rn un ensemble non vide, compact et connexe par arcs, et
f : E → R une fonction continue sur E. Alors f atteint toutes les valeurs entre son
minimum m et maximum M sur E, et Im(f ) = [m, M ].
et Im(f ) = [m, M ].
Les deux théorèmes précédents montrent deux propriétés importantes des fonctions
continues, qui se généralisent comme suit aux fonctions à valeurs dans Rm .
Soit f : E → Rm continue et ∅ =6 A ⊂ E ⊂ Rn .
— Si A est compact, alors f (A) ⊂ Rm est aussi compact.
— Si A est connexe (resp. connexe par arcs), alors f (A) est connexe (resp. connexe par
arcs).
On conclut par une propriété importante des fonctions continues sur un compact.
Ainsi
∃ > 0 : ∀δ > 0 ∃x ∈ K ∃y ∈ E kx − yk ≤ δ et |f (x) − f (y)| > .
Pour un tel > 0, considérons δ = 1/k avec k ∈ N∗ : il existe x(k) ∈ K, y(k) ∈ E tels que
1
kx(k) − y(k) k ≤ et kf (x(k) ) − f (y(k) )k > .
k
La suite {x(k) }k∈N∗ étant bornée (puisque K est borné), il existe une sous-suite {x(ki ) }i∈N
qui converge vers un certain x ∈ K puisque K est fermé. On a alors
1
ky(ki ) − xk ≤ ky(ki ) − x(ki ) k + kx(ki ) − xk ≤ + kx(ki ) − xk → 0, si i → ∞.
ki
Dérivabilité
c’est-à-dire,
f (x0 + h) − f (x0 ) = f 0 (x0 )h +o(|h|)
| {z }
application linéaire en h
et l’incrément f (x0 + h) − f (x0 ) est bien approché par une application linéaire en h. Ici
o(|h|) dénote une fonction g définie sur un ouvert contenant 0 (un “voisinage” de 0) et
telle que limh→0 g(h)
h = 0 (voir plus loin pour une définition plus générale). En fait il suffit
de poser g(h) = f (x0 + h) − f (x0 ) − f 0 (x0 )h pour |h| < δ.
On a donc une double interprétation de la notion de dérivée : comme limite du taux
d’accroissement en x0 , ainsi que comme application linéaire approchant localement la
fonction dans un voisinage de x0 (on appelle voisinage de x0 un ouvert contenant x0 ). En
particulier, f dérivable en x0 implique que f est aussi continue en x0 . Dans ce chapitre,
on va généraliser ces deux notions pour des fonctions f : Rn → R ou f : Rn → Rm de
plusieurs variables réelles.
41
42 CHAPITRE 3. DÉRIVABILITÉ
Figure 3.1 – Interprétation géométrique de dérivée directionnelle pour une fonction f (x, y) de
deux variables réelles
Une fonction peut avoir des dérivées partielles ou directionnelles en un point x0 sans
pour autant être continue en ce point, comme les exemples suivants le montrent.
Alors,
1
mais f n’est pas continue en (0, 0). En effet, on a limt→0 f (t, t) = limt→0 t2
2t2
= 2 6= 0.
Pour cette fonction, les autres dérivées directionnelles n’existent pas :
1
Toutefois, f n’est pas continue en (0, 0) car limt→0 f (t2 , t) = 2 6= f (0, 0).
44 CHAPITRE 3. DÉRIVABILITÉ
Comme l’exemple précédent le montre, la notion de dérivée partielle est trop faible et
n’implique pas la continuité de la fonction. Si on veut introduire une notion de dérivabilité
qui permet d’approcher une fonction au voisinage de x0 par une fonction affine, on a besoin
d’une définition de dérivée plus forte. On rappelle qu’une application linéaire L : Rn → Rm
est telle que L(αx + βy) = αL(x) + βL(y), ∀x, y ∈ Rn et ∀α, β ∈ R. Elle peut être
représentée par la matrice A ∈ Rm×n (m lignes et n colonnes) telle que L(ei ) est la ième
colonne de A, où {ei }ni=1 est la base canonique de Rn , de telle sorte que L(x) = A · x = Ax,
∀x ∈ Rn (produit matriciel entre une matrice m × n et un vecteur colonne dans Rn ). Le
produit matriciel Ax ∈ Rm donne dans cette formule un vecteur colonne.
Définition 3.6 (Dérivabilité et différentielle). Soit f : E ⊂ Rn → R et x0 un point
intérieur de E. On dit que f est différentiable (ou dérivable) en x0 s’il existe une application
linéaire L : Rn → R et une fonction g : E → R tels que
g(x)
∀x ∈ E f (x) = f (x0 ) + L(x − x0 ) + g(x), et lim = 0.
x→x0 kx − x0 k
Avec la notation o(·), dans la définition 3.6 on peut ainsi écrire f (x) = f (x0 ) + L(x −
x0 ) + o(kx − x0 k) sur E (ici p = 1 et g est définie sur E).
Le théorème suivant met en relation l’application linéaire L de la définition précédente
avec la matrice jacobienne (ou bien le gradient) de f en x0 et montre aussi que la
différentielle de f en x0 , si elle existe, est unique.
Théorème 3.7. Soit f : E → R différentiable en x0 ∈ E̊. Alors, toutes les dérivées
partielles de f existent en x0 et la différentielle de f en x0 est unique, donnée par
L(x − x0 ) = Df (x0 ) · (x − x0 ) = Df (x0 )(x − x0 )
(produit matriciel entre un vecteur ligne et un vecteur colonne), ce qui s’écrit aussi
L(x − x0 ) = ∇f (x0 )> · (x − x0 ) = ∇f (x0 )> (x − x0 ) (produit matriciel). On peut aussi
utiliser le produit scalaire usuel entre deux vecteurs colonnes : L(x − x0 ) = ∇f (x0 ) · (x − x0 )
(produit scalaire). De plus, f est continue en x0 .
P
Démonstration. On note ai = L(ei ) de sorte que L(x − x0 ) = ni=1 ai (xi − x0i ). Par
définition de la différentiabilité en x0 , on a f (x0 + tei ) = f (x0 ) + tL(ei ) + g(x0 + tei ) et,
si on note xt = x0 + tei ,
∂f f (x0 + tei ) − f (x0 )
(x0 ) = lim
∂xi t→0 t
g(x0 + tei )
= L(ei ) + lim
t→0 t
sign(t)g(xt )
= L(ei ) + lim = ai ,
t→0 kxt − x0 k
| {z }
=0
3.1. DÉRIVÉES PARTIELLES ET DIRECTIONNELLES ; DIFFÉRENTIELLE 45
En particulier, Dv f (x0 ) est dans ce cas une application linéaire en v. On a de plus, pour
la norme euclidienne,
∇f (x0 )
le maximum étant atteint en v = k∇f (x0 )k si ∇f (x0 ) n’est pas nul. S’il n’est pas nul, le
vecteur gradient donne donc la direction de croissance maximale pour la fonction f . On a
aussi que toute direction w ⊥ ∇f (x0 ) est une direction de croissance nulle.
Exemple 3.8. Considérons la fonction f : R2 → R, f (x, y) = x2 + y 2 . Son gradient
est donné par ∇f (x, y) = (2x, 2y)> . En (x, y) ∈ R2 \{(0, 0)}, la direction de croissance
>
∇f (x,y)
maximale est v = k∇f (x,y)k = √ x
, √ y
(norme euclidienne normalisée à 1 ici),
x2 +y 2 x2 +y 2
>
∇f (x,y)
la direction de croissance minimale est v = − k∇f (x,y)k = −
√ x
, √ y
, tandis
x2 +y 2 x2 +y 2
>
que la direction de croissance nulle est w = ± − √ y
, √ x
.
x2 +y 2 x2 +y 2
Le vecteur
>
1 ∂f ∂f
n= p − (x0 ), · · · , − (x0 ), 1 ⊂ Rn+1
1 + k∇f (x0 )k2 ∂x1 ∂xn
est un vecteur normal au graphe de f en (x0 , y0 ).
46 CHAPITRE 3. DÉRIVABILITÉ
h i
f (x) = (f1 (x), . . . , fm (x)) = f1 (x) . . . fm (x) = f1 (x) . . . fm (x) ,
où intervient ici le produit matriciel entre une matrice Rm×n et un vecteur colonne dans
Rn , ce qui donne un vecteur colonne dans Rm . La dérivée de f dans la direction v au point
x0 , v 7→ Dv f (x0 ) = L(v) = Df (x0 )v, est linéaire en v ∈ Rn (si f est différentiable en x0 ).
La condition de différentiabilité d’une fonction f : E ⊂ Rn → R (ou f : Rn → Rm )
n’est pas immédiate à vérifier. Heureusement, on a une condition suffisante, facile à vérifier,
qui nous permet de conclure si f est différentiable en x0 ∈ E̊. On donne ici la version du
résultat pour une fonction à valeurs dans R mais le résultat se généralise sans difficulté au
cas d’une fonction à valeurs dans Rm .
Théorème 3.12. Soit f : E ⊂ Rn → R et x0 ∈ E̊. S’il existe δ > 0 tel que B(x0 , δ) ⊂ E
∂f
et les dérivées partielles ∂x i
(x) existent pour tout x ∈ B(x0 , δ) et sont continues en x0 ,
alors f est différentiable en x0 .
∂f k−1 ∂f
gk (x) := (x + θk (xk − xk−1 )) − (a) −−−→ 0.
x→a
∂xk ∂xk
48 CHAPITRE 3. DÉRIVABILITÉ
En effet, la continuité de ∂f
∂xk en a implique que
∂f ∂f
∀ > 0 ∃δe ∈]0, δ/2] : ∀y ∈ B(a, 2δ)
e (y) − (a) < ,
∂xk ∂xk
et donc
3.1.1 L’espace C 1
Le théorème 3.12 montre que si toutes les dérivées partielles existent dans un voisinage
d’un point intérieur x0 et sont continues en x0 , alors la fonction est différentiable (et
continue) en x0 et donc toutes les dérivées directionnelles existent en x0 .
Définition 3.13 (Espace C 1 ). Soit E ⊂ Rn ouvert non vide. On dit que f : E → R est
continûment différentiable sur E si toutes les dérivées partielles ∂x ∂f
i
pour i = 1, . . . , n,
existent et sont continues en tout point x ∈ E. Dans ce cas on note f ∈ C 1 (E) (f est de
classe C 1 ). De même, on dit que f : E → Rm est de classe C 1 , f ∈ C 1 (E, Rm ), si chaque
composante de f = (f1 , . . . , fm ) satisfait fk ∈ C 1 (E), k = 1, . . . , m.
3.2. DÉRIVATION DE FONCTIONS COMPOSÉES 49
Par composantes :
Xm
∂ϕi ∂gi ∂fk
∀i ∈ {1, . . . , p} ∀j ∈ {1, . . . , n} (x0 ) = (f (x0 )) (x0 ).
∂xj k=1
∂yk ∂xj
Rf (x)
f (x) = f (x0 ) + Df (x0 ) · (x − x0 ) + Rf (x), lim = 0,
x→x0 kx − x0 k
Rg (y)
g(y) = g(y0 ) + Dg(y0 ) · (y − y0 ) + Rg (y), lim = 0.
y→y0 ky − y0 k
50 CHAPITRE 3. DÉRIVABILITÉ
On écrit
Rϕ (x)
ϕ(x) = ϕ(x0 ) + Lϕ (x − x0 ) + Rϕ (x) et lim = 0.
x→x0 kx − x0 k
On a :
h(x)
z }| {
ϕ(x) = g(f (x)) = g f (x0 ) + Df (x0 ) · (x − x0 ) + kx − x0 krf (x)
= g(y0 ) + Dg(y0 ) · h(x) + kh(x)krg (f (x))
= g(y0 ) + Dg(y0 ) · Df (x0 ) · (x − x0 ) + kx − x0 kDg(y0 ) · rf (x) + kh(x)krg (f (x)) .
| {z } | {z }
A(x) B(x)
Rϕ (x)
Il faut montrer que Rϕ (x) := A(x) + B(x) satisfait limx→x0 kx−x0 k = 0. Pour A(x) on a
kA(x)k
lim = lim kDg(y0 ) · rf (x)k ≤ |||Dg(y0 )||| lim krf (x)k = 0,
x→x0 kx − x0 k x→x0 x→x0
kB(x)k kh(x)k
= krg (f (x))k
kx − x0 k kx − x0 k
kDf (x0 ) · (x − x0 )k + kx − x0 kkrf (x)k
≤ krg (f (x))k
kx − x0 k
≤ (|||Df (x0 )||| + krf (x)k)krg (f (x))k
kB(x)k
lim ≤ (|||Df (x0 )||| + lim krf (x)k) lim krg (f (x))k = 0.
x→x0 kx − x0 k x→x0 x→x0
Rϕ (x)
ϕ(x) = ϕ(x0 ) + Dg(f (x0 )) · Df (x0 ) · (x − x0 ) + Rϕ (x) où lim = 0.
x→x0 kx − x0 k
3.2. DÉRIVATION DE FONCTIONS COMPOSÉES 51
Remarque 3.15. Dans cette preuve, on a utilisé la norme matricielle |||C||| = sup y∈Rm kCyk
kyk <
y6=0
+∞ pour C ∈ Rp×m . C’est effectivement une norme sur l’espace vectoriel des matrices
R p×m , appelée plus spécifiquement la norme “spectrale”. Il y a d’autres normes matricielles
possibles sur Rp×m .
Exemple 3.16. Soient f : R2 → R3 et g : R3 → R2 donnés par
xy " #
u+w
f (x, y) = x + 2y , g(u, v, w) = ,
v2
sin x
avec matrices jacobiennes
y x " #
1 0 1
2 ∈ R3×2 , ∈ R2×3 .
Df (x, y) = 1 Dg(u, v, w) =
0 2v 0
cos x 0
Alors, " #
xy + sin x
ϕ(x, y) = g ◦ f (x, y) = : R2 → R2
(x + 2y)2
et
" # y x " #
y + cos x x 1 0 1
Dϕ(x, y) = = Dg(f (x, y))·Df (x, y) = 1 2 .
2(x + 2y) 4(x + 2y) 0 2v 0
v=x+2y cos x 0
La quantité d
dt ϕ(t) = dt f (γ1 (t), . . . , γn (t))
d
est appelée la dérivée totale de f le long du
chemin γ(t).
52 CHAPITRE 3. DÉRIVABILITÉ
Démonstration. On pose g(t) = f (x + t(y − x)) avec t ∈ [0, 1]. Alors g est continue sur
[0, 1] et dérivable sur ]0, 1[, car composée de fonctions dérivables : g(t) = f (v(t)), où
v(t) = x + t(y − x). Par la règle de dérivation d’une composée, g 0 (t) = Df (v(t)) · v0 (t) =
Df (x + t(y − x)) · (y − x) . Par le théorème des accroissements finis pour des fonctions
d’une seule variable, il existe θ ∈ ]0, 1[ t.q. g(1) − g(0) = g 0 (θ) ce qui équivaut à
Toutefois, on n’a aucune garantie que les zk coïncident. On ne peut donc pas trouver, en
général, un seul z pour lequel f (y) − f (x) = Df (z) · (y − x) (produit matriciel entre une
matrice m × n et un vecteur colonne dans Rn , ce qui donne un vecteur colonne dans Rm ).
Néanmoins, la formule (3.1) se généralise pour toute fonction vectorielle f : E ⊂ Rn → Rm
de classe C 1 .
3.3. THÉORÈME DES ACCROISSEMENTS FINIS 53
Ici l’intégrale d’une fonction continue [0, 1] → Rm est comprise comme le vecteur dans
Rm obtenu en prenant l’intégrale de chaque composante (chaque composante étant une
fonction continue [0, 1] → R).
Le Lemme précédent, demande que la fonction f soit de classe C 1 sur E. On peut
obtenir une version faible du théorème des accroissements finis qui demande uniquement
que les dérivées partielles existent et soient bornées sur le segment [x, y].
Démonstration. Le résultat est évident si f (y) − f (x) = 0. Supposons donc f (y) − f (x) 6= 0
et considérons f (u) comme un vecteur colonne, u ∈ E. Soit un vecteur ligne w ∈ Rm fixé
et considérons la fonction fw : E → R définie par fw (u) = wf (u) pour u ∈ E, où apparaît
le produit matriciel entre w et f (u). On sait alors qu’il existe z ∈]x, y[ (qui peut dépendre
de w) tel que fw (y) − fw (x) = Dfw (z)(y − x), c’est-à-dire
∂xk
∂f ∂f
∂ ∂
∂xk ∂xj (x) := (x). Pour k = j on utilise la notation (x) = (x).
∂2f ∂xj ∂2f ∂xj
∂xk ∂x2j ∂xj
Définition 4.1 (espace C 2 (E)). Soit E ⊂ Rn ouvert non vide. On dit que f : E → R est
de classe C 2 , f ∈ C 2 (E), si toutes les dérivées partielles secondes ∂x∂i ∂x : E → R, i, j =
2f
j
1, . . . , n existent et sont continues sur E.
Définition 4.2 (matrice hessienne). Soit E ⊂ Rn ouvert non vide et f : E → R telle que
: E → R, i, j = 1, . . . , n existent. On appelle
2f
toutes les dérivées partielles secondes ∂x∂i ∂x j
matrice hessienne de f en x ∈ E la matrice Hf (x) ∈ Rn×n :
∂2f
2 (x) ∂x1 ∂x2 (x) ∂x1 ∂xn (x)
∂2f ∂2f
...
∂x1
.. ..
Hf (x) = . .
∂xn ∂x1 (x) (x)
∂2f ∂2f
··· ··· ∂x2
n
∂2f
2 (x) ∂x1 ∂x2 (x) ∂x1 ∂xn (x)
∂2f ∂2f
...
∂x1
.. ..
= . . .
∂xn ∂x1 (x) (x)
∂2f ∂2f
··· ··· ∂x2
n
55
56 CHAPITRE 4. DÉRIVÉES D’ORDRES SUPÉRIEURS
2
n
X ∂2f
Dwv f (x) = (x)vj wi .
i,j=1
∂xi ∂xj
∂(Dv f )
et Dv f : E → R est continue. De plus, ses dérivées partielles ∂xi , i = 1, . . . , n existent
et sont continues sur E car
P
n ∂f
∂(Dv f ) ∂ j=1 ∂xj vj
n
X ∂2f
= = vj
∂xi ∂xi j=1
∂xi ∂xj
et ∂2f
∂xi ∂xj ∈ C 0 (E) pour tout i, j = 1, . . . , n puisque f ∈ C 2 (E). Donc Dv f ∈ C 1 (E) et
n
X ∂(Dv f ) n
X ∂2f
Dw (Dv f )(x) = (x)wi = (x)vj wi = w> Hf (x)v.
i=1
∂xi i,j=1
∂xi ∂xj
∂f ∂f
(x, y) = 2xy, (x, y) = x2 ,
∂x ∂y
∂2f ∂2f ∂2f ∂2f
(x, y) = 2y, (x, y) = 2x, (x, y) = 2x, (x, y) = 0.
∂x2 ∂y∂x ∂x∂y ∂y 2
Donc " #
2 2y 2x
Df (x, y) = (2xy, x ), Hf (x, y) =
2x 0
et
" #" 1 #
2
h √ i 2y 2x √
2 1 √
Dwv f (x, y) = w Hf (x, y)v =
> 1
− 3
√1
= √ (x(1 − 3) + y).
2 2 2x 0 2 2
2 f (x, y) = D 2 f (x, y) puisque H est symétrique.
On remarque de plus que Dwv vw f
Théorème 4.5 (de Schwarz). Soit deux indices fixés i, j ∈ {1, . . . , n}, E ⊂ Rn ouvert
non vide avec n ≥ 2, x ∈ E fixé et f : E → R telle que ∂x
∂f ∂f
i
, ∂x j
, ∂2f
∂x i ∂x j
, ∂2f
∂xj ∂xi
existent
dans E et ∂2f ∂2f
∂xi ∂xj , ∂xj ∂xi sont continues en cet x ∈ E. Alors ∂xi ∂xj (x)
∂2f
= ∂xj ∂xi (x).
∂2f
Démonstration. Soient s, t > 0 fixés suffisamment petits de sorte que le rectangle rempli
fermé de sommets x, x + sei , x + tej , x + sei + tej est contenu dans E. Ceci est toujours
possible car x est un point intérieur de E. On considère la quantité
g(ξ) = f (x+ξei +tej )−f (x+ξei ), ξ ∈ [0, s], h(ξ) = f (x+sei +ξej )−f (x+ξej ), ξ ∈ [0, t].
Soit maintenant
∂f
ϕ(η) = (x + s̃ei + ηej ), η ∈ [0, t].
∂xi
∂f ∂f ∂2f
∃ŝ ∈ ]0, s[ : ψ(s) − ψ(0) = (x + sei + t̂ej ) − (x + t̂ej ) = (x + ŝei + t̂ej )s
∂xj ∂xj ∂xi ∂xj
et donc
∂2f ∂2f
∆(s, t) = (x + ŝei + t̂ej )st = (x + s̃ei + t̃ej )st.
∂xi ∂xj ∂xj ∂xi
58 CHAPITRE 4. DÉRIVÉES D’ORDRES SUPÉRIEURS
1 ∂2f ∂2f
lim 2
∆(s, s) = (x) = (x).
s→0+ s ∂xi ∂xj ∂xj ∂xi
∂2f ∂2f
(x) = (x), ∀x ∈ E, ∀i, j = 1, . . . , n.
∂xi ∂xj ∂xj ∂xi
Hf (x) est une matrice symétrique. Donc, en fait, il suffit de calculer seulement n(n+1) 2
dérivées partielles secondes au lieu de n2 . Si de plus f est de classe C 2 (E), il s’ensuit aussi
que les dérivées directionnelles secondes Dvw f (x) existent pour tout v, w ∈ Rn de norme
1 et que Dvw f (x) = Dwv f (x).
Définition 4.8 (espace C p (E)). Soit E ⊂ Rn ouvert non vide et f : E → R. On dit que f
est de classe C p , f ∈ C p (E), si toutes les dérivées partielles d’ordre p, ∂xi ∂···f∂xi : E → R,
p
1 p
existent pour tout (i1 , . . . , ip ) ∈ {1, . . . , n}p et sont continues sur E.
4.3. DÉVELOPPEMENT LIMITÉ ET FORMULE DE TAYLOR 59
où σ(1), . . . , σ(p) est une permutation arbitraire des indices 1, . . . , p. Autrement dit, l’ordre
de dérivation n’est pas importante si f ∈ C p (E).
On remarque que si f ∈ C p (E), alors f ∈ C q (E), ∀0 ≤ q ≤ p, c.-à-d., C p (E) ⊂
C (E) ⊂ · · · ⊂ C 1 (E) ⊂ C 0 (E).
p−1
Notation par multi-entiers. Considérons une dérivée partielle d’ordre p, ∂xi ∂···f∂xi .
p
1 p
Soit α = (α1 , . . . , αn ) où l’entier αj ≥ 0 est le nombre de fois que l’indice j ∈ {1, . . . , n}
P
apparaît dans la suite i1 , . . . , ip . On note |α| = nj=1 αj (dans ce cas |α| = p). On utilise
souvent la notation
∂ |α| f ∂ |α| f ∂pf
α
= α1 αn =
∂x ∂x1 · · · ∂xn ∂xi1 · · · ∂xip
où ∂xj j signifie qu’on dérive αj fois par rapport à xj . Cette notation ne distingue pas
α
l’ordre de dérivation.
Exemple 4.9. f (x) = x1 x22 x33 . Calculons ∂ |α| f
∂xα pour α = (1, 2, 0) et α = (1, 1, 1).
P
où Txp (y) = pk=0 f k!(x) (y−x)k est le polynôme de Taylor de degré p et Rp (y) est le reste de
(k)
Rp (y)
la formule de Taylor t.q. limy→x |y−x| p = 0 (ou avec notation “petit o”, Rp (y) = o(|y −x| )).
p
autour de x.
Observons que Rp (y) est défini à partrir de f (y) et q(y) pour tout y ∈ E par
Rp (y) = f (y) − q(y) ; nous verrons, sous certaines conditions, des formules plus explicites
pour Rp (y) si y est suffisamment proche de x. Comme pour les fonctions d’une seule
variable réelle, si un développement limité d’ordre p de f autour d’un point existe, alors
il est unique et peut être construit en utilisant la formule de Taylor. On va détailler sa
dérivation pour une fonction f ∈ C p+1 (E), avec E ⊂ Rn ouvert non vide.
Soit x, y ∈ E tels que le segment [x, y] = {z = x + t(y − x), t ∈ [0, 1]} ⊂ E. On note
g(t) = f (x + t(y − x)), qui est bien définie et de classe C p+1 sur un intervalle ouvert
I =] − δ, 1 + δ[ qui contient [0, 1], grâce au fait que x, y ∈ E sont des points intérieurs.
L’idée pour dériver une formule de Taylor pour f est d’utiliser la formule de Taylor pour
g:I→R:
g 00 (0) 2 g p (0) p
g(t) = g(0) + g 0 (0)t + t + ··· + t + Rpg (t), t ∈ [0, 1]
2 p!
où Z t
(t − τ )p (p+1) g (p+1) (θ) p+1
Rpg (t) = g (τ )dτ = t pour un θ ∈ ]0, t[.
0 p! (p + 1)!
4.3. DÉVELOPPEMENT LIMITÉ ET FORMULE DE TAYLOR 61
g(t) = f (xt )
n
X X ∂ |α| f
∂f
g 0 (t) = (x + t(y − x))(yi1 − xi1 ) = (xt )(y − x)α
i1 =1
∂xi1 |α|=1
∂xα
n
X n
∂ X ∂f
g 00 (t) = (x + t(y − x))(yi1 − xi1 ) (yi2 − xi2 )
i =1
∂xi2 i =1 ∂xi1
2 1
n
X ∂2f
= (xt )(yi1 − xi1 )(yi2 − xi2 )
i1 ,i2 =1
∂xi1 ∂xi2
X 2! ∂ |α| f
= (xt )(y − x)α
|α|=2
α! ∂xα
..
.
n
X
(p) ∂pf
g (t) = (x + t(y − x))(yi1 − xi1 ) · · · (yip − xip )
i1 ,...,ip =1
∂xi1 · · · ∂xip
X p! ∂ |α| f
= (xt )(y − x)α .
|α|=p
α! ∂xα
1 (k)
p
X
f (y) = g(1) = g (0) + Rpg (1)
k=0
k!
1 X k! ∂ |α| f
p
X
= (x)(y − x)α + Rp (y)
k=0
k! |α|=k α! ∂xα
X 1 ∂ |α| f
= (x)(y − x)α +Rp (y),
|α|≤p
α! ∂xα
| {z }
=Txp (y)
où on identifie :
X 1 ∂ |α| f
Txp (y) = (x)(y − x)α (polynôme de Taylor de degré p)
|α|≤p
α! ∂xα
et
X 1 ∂ (p+1) f
Rp (y) = α
(x + θ(y − x))(y − x)α pour un θ ∈]0, 1[ (reste de Lagrange),
|α|=p+1
α! ∂x
Z 1
X (p + 1) ∂ |α| f
= (1 − t)p (x + t(y − x))(y − x)α dt (reste intégrale).
|α|=p+1
α! 0 ∂xα
62 CHAPITRE 4. DÉRIVÉES D’ORDRES SUPÉRIEURS
X 1 ∂ |α| fk X 1 ∂ (p+1) fk
fk (y) = (x)(y − x)α + (x + θk (y − x))(y − x)α .
|α|≤p
α! ∂xα |α|=p+1
α! ∂x α
Toutefois, en général, les θ1 , . . . , θm ne sont pas égaux entre eux et on ne peut pas trouver
P 1 ∂ (p+1) f
un seul θ ∈]0, 1[ tel que Rp (y) = |α|=p+1 α! ∂xα (x + θ(y − x))(y − x) . D’un autre côté,
α
la formule de Taylor avec reste intégrale est valable aussi pour des fonctions vectorielles :
Z 1
X 1 ∂ |α| f X p+1 ∂ (p+1) f
f (y) = α
(x)(y − x)α + (1 − t)p (x + t(y − x))(y − x)α dt
|α|≤p
α! ∂x |α|=p+1
α! 0 ∂xα
Z ∞ Z ∞
g(x) = f (t, x)dt = x2 e−x t dt,
2
∀x ∈ R.
0 0
Clairement, f est continue sur R × R et l’intégrale généralisée g(x) existe pour tout x ∈ R.
Toutefois, par calcul direct, on trouve
(
1, x 6= 0
g(x) =
0, x=0
R∞
ce
R∞
qui montre que la fonction g n’est pas continue sur R et limx→0 0 f (t, x)dt 6=
0 f (t, 0)dt.
63
64 CHAPITRE 5. INTÉGRALES QUI DÉPENDENT DE PARAMÈTRES
Pour tout x ∈ RE, la fonction t 7→ f (t, x) est continue sur l’intervalle fermé [a, b], donc
l’intégrale g(x) = ab f (t, x)dt existe. De plus, pour tout x ∈ B(x0 , δ),
Z b
|g(x) − g(x0 )| = (f (t, x) − f (t, x0 ))dt
a
Z b
≤ dt = ,
a b−a
Rb
On considère maintenant la dérivabilité de la fonction g(x) = a f (t, x)dt lorsque E
est ouvert.
est compact. Donc, pour > 0 donné, il existe δ ∈]0, η[ tel que, pour tous (t, x), (s, y) ∈
[a, b] × B(x0 , η),
∂f ∂f
|t − s| ≤ δ et kx − yk ≤ δ ⇒ (t, x) − (s, y) ≤
∂xi ∂xi b−a
et, en particulier, si on prend s = t et y = x0
∂f ∂f
∀(t, x) ∈ [a, b] × B(x0 , δ) (t, x) − (t, x0 ) ≤ .
∂xi ∂xi b−a
On a pour 0 < |s| ≤ δ
Z b Z b
g(x0 + sei ) − g(x0 ) ∂f f (t, x0 + sei ) − f (t, x0 ) ∂f
− (t, x0 )dt = − (t, x0 ) dt
s a ∂xi a s ∂xi
Z b Z s
1 ∂f ∂f
= (t, x0 + σei ) − (t, x0 ) dσ dt
a s 0 ∂xi ∂xi
Z b Z s
1 ∂f ∂f
≤ (t, x0 + σei ) − (t, x0 ) dσ dt ≤ ,
a |s| 0 ∂xi ∂xi
g(x0 +sei )−g(x0 ) R b ∂f
ce qui montre que ∂xi (x0 ) = lims→0 existe et vaut a ∂xi (t, x0 )dt. Puisque
∂g
s
∂f
∂xi est continue sur [a, b] × E, ∂g
∂xi est continue sur E.
Montrons que la fonction G(s, x) a toutes les dérivées partielles en tout (s, x) ∈]α, β[×E.
∂s (s, x) existe et vaut f (s, x).
Par un résultat fondamental d’analyse I, ∂G
66 CHAPITRE 5. INTÉGRALES QUI DÉPENDENT DE PARAMÈTRES
R
Pour s ∈]c, β[, le théorème 5.4 assure que ∂x ∂G
i
(s, x) existe
Rc
et vaut cs ∂x∂f
i
(t, x)dt. La
même conclusion est vraie pour s ∈]α, c[ car la fonction x 7→ s f (t, x)dt admet une dérivée
R ∂f R s ∂f
partielle en xi et qu’elle vaut sc ∂xi
(t, x)dt. Ainsi ∂G
∂x i
(s, x) existe et vaut c ∂xi (t, x)dt.
Enfin, pour s = c on a G(c, x) = 0 sur E et donc ∂x ∂G
(c, x) existe et est nul et ∂xi (c, x) =
∂G
R c ∂f i
0 = c ∂xi (t, x)dt. En résumé, pour tout s ∈]α, β[ et x ∈ E, ∂xi (s, x) existe et vaut
∂G
R s ∂f
c ∂xi (t, x)dt.
Montrons que les dérivées partielles sont continues sur ]α, β[×E. Ceci est vrai pour
∂s (s, x)= f (s, x). Pour i ∈ {1, . . . , n} fixé, soit la fonction H : ]α, β[ × E → R définie par
∂G
R ∂f
H(s, x) = cs ∂x i
(t, x)dt. Cette fonction est bien continue sur ]α, β[×E, la preuve étant
similaire à celle du théorème 5.2. En effet, soit (s0 , x0 ) ∈]α, β[×E et η > 0 t.q.
h i
A := min{s0 , c} − η, max{s0 , c} + η × B(x0 , η) ⊂]α, β[×E.
Puisque ∂f
∂xi est uniformément continue sur le compact A, pour tout > 0 il existe δ ∈]0, η]
t.q.
h i ∂f ∂f
∀(t, x) ∈ Ã := min{s0 , c}−η, max{s0 , c}+η ×B(x0 , δ) (t, x) − (t, x0 ) ≤ .
∂xi ∂xi 2|s0 − c| + 1
De plus, ∂f
∂xi est continue sur le compact A, et soit M son maximum. Alors, si on prend
δ̂ = min{δ, 2M+1 }, on a ∀(s, x) ∈ [s0 − δ̂, s0 + δ̂] × B(x0 , δ̂) ⊂ Ã ⊂ A
R √y e−xy
Exercice 5.6. Soit g(y) = 1 x dx, y > 0. Calculer g 0 (y) si elle existe.
5.3. INTÉGRALES GÉNÉRALISÉES DÉPENDANT DE PARAMÈTRES 67
Théorème 5.8. Soient −∞ R< a < b ≤ +∞ et E ⊂ Rn ouvert non vide. Si f : [a, b[×E →
R est continue et l’intégrale ab f (t, x)dt converge uniformément sur E, alors la fonction
R
g(x) = ab f (t, x)dt est continue sur E.
Démonstration. Rb
Soit x0 ∈ E quelconque et > 0. Alors, il existe η > 0 t.q. B(x0 , η) ⊂ E et
c̄ ∈]a, b[ t.q. | c̄ f (t, x)dt| ≤ , ∀x ∈ B(x0 , η), grâce à la convergence uniforme de l’intégrale.
La restriction de f à [a, c̄] × B(x0 , η) étant uniformément continue, il existe δ ∈]0, η] t.q.
|f (t, x) − f (t, x0 )| ≤ c̄−a
, ∀t ∈ [a, c̄], x ∈ B(x0 , δ). Donc, pour tout x ∈ B(x0 , δ),
Z c̄ Z b Z b
|g(x) − g(x0 )| ≤ (f (t, x) − f (t, x0 ))dt + f (t, x)dt + f (t, x0 )dt ≤ 3,
a c̄ c̄
Théorème 5.9.R Soit −∞ < Ra < b ≤ +∞ et E ⊂ Rn ouvert non vide. Si f ∈ C 1 ([a, b[×E)
et les intégrales ab f (t, x)dt, ab ∂x
∂f
(t, x)dt, i = 1, . . . , n, convergent uniformément sur E,
Rb i
R b ∂f
alors la fonction g(x) = a f (t, x)dt est de classe C 1 sur E et ∂xi (x)
∂g
= a ∂xi (t, x)dt.
R
|f (t, x)| ≤ h(t), ∀(t, x) ∈ [a, b[×E, alors la fonction g(x) = ab f (t, x)dt est continue sur
E.
Rb
Si en plus f est de classe C 1 et il existe h1 , . . . , hn : [a, b[→ R t.q. pour tout i = 1, . . . , n,
1
a hi (t)dt existe et | ∂xi (t, x)| ≤ hi (t), ∀(t, x) ∈ [a, b[×E, alors g ∈ C (E).
∂f
Remarque
Rb
5.11.
R b ∂f
Dans les théorèmes 5.8 et 5.9, la condition d’intégrabilité uniforme de
a f (t, x)dt et a ∂xi (t, x)dt, 1 ≤ i ≤ n, sur tout l’ensemble E est parfois trop contraignante.
Elle peut être affaiblie de la façon suivante :
S
Il existe un recouvrement
Rb
{Uα }Rα de E, avec Uα ouverts et E ⊂ α Uα , tel que, pour
tout α, les intégrales a f (t, x)dt et ab ∂x
∂f
i
(t, x)dt, 1 ≤ i ≤ n, convergent uniformément sur
Uα ∩ E.
Alors, les conclusions des théorèmes 5.8, 5.9 sont encore valables. Pour généraliser
leur démonstration il suffit de remarquer que, pour tout x0R ∈ E, il existeR α tel que x0 ∈ Uα
(puisque {Uα }α est un recouvrement de E). Les intégrales ab f (t, x)dt et ab ∂x
∂f
i
(t, x)dt étant
uniformément convergentes sur Uα ∩ E, on conclut que g(x) est continue / différentiable
S
sur Uα ∩ E pour tout α et donc sur E = α (Uα ∩ E).
Le même raisonnement s’applique au théorème 5.10 où on peut remplacer la condition
de majoration par la suivante :
S
Il existe un recouvrement {Uα }α de E, avec Uα ouvertsR et E ⊂ α Uα , et, pour chaque
α, des fonctions hi,α : [a, b[→ R+ , i = 0, . . . , n, telles que ab hi,α (t)dt converge et
• |f (t, x)| ≤ h0,α (t) pour tout (t, x) ∈ [a, b[×(Uα ∩ E),
∂f
• | ∂x i
(t, x)| ≤ hi,α (t) pour tout (t, x) ∈ [a, b[×(Uα ∩ E) et tout i ∈ {1, . . . , n}.
Chapitre 6
Difféomorphismes locaux et
fonctions implicites
Un autre intérêt d’étudier des bijections est pour introduire un changement de variables.
Soit f : E → F une bijection et φ : F → R, y 7→ φ(y) = φ(y1 , . . . , yn ), une fonction réelle.
69
70 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES
On verra par la suite que f est un difféomorphisme local en tout point x0 ∈ R2 . Toutefois,
elle n’est pas un difféomorphisme global car elle n’est pas une bijection : f (0, 0) = f (0, 2kπ),
∀k ∈ Z.
Toutefois, si on ajoute l’hypothèse que f est une bijection, alors le difféomorphisme est
global.
Théorème 6.7. Soient E, F ⊂ Rn ouverts non vides et f : E → F un difféomorphisme
local en tout point x ∈ E. Si f est une bijection entre E et F , alors elle est un difféomor-
phisme global.
La démonstration de ce théorème est laissée comme exercice.
f (x) = Ax + b, A ∈ Rn×n , b ∈ Rn
qui est clairement de classe C 1 (même C ∞ ). Cette transformation est une bijection si et
seulement si la matrice A est inversible, c.-à-d. si et seulement si det(A) 6= 0. Dans ce cas,
l’application inverse est donnée par x = g(y) = A−1 (y − b) et g est de classe C 1 (même
C ∞ ). Donc f (x) = Ax + b est un difféomorphisme (global) si et seulement si det(A) 6= 0.
On considère maintenant le cas d’une application non linéaire f : E → Rn de classe C 1
sur E ⊂ Rn ouvert. La différentiablilité de f en x0 ∈ E assure que l’on peut écrire
kRf (x)k
f (x) = f (x0 ) + Df (x0 )(x − x0 ) + Rf (x), lim = 0,
x→x0 kx − x0 k
pour tout x ∈ E. Donc, localement autour de x0 , f (x) est bien approchée par la fonction
affine T1x0 (x) = f (x0 ) + Df (x0 )(x − x0 ). On soupçonne alors que f est un difféomorphisme
local en x0 si et seulement si det(Df (x0 )) 6= 0.
On remarque que la condition det(Df (x0 )) 6= 0 n’est pas nécessaire pour que f soit
localement inversible. Par exemple, la fonction f : R2 → R2 , (x, y) 7→ f (x, y) = (x3 , y) est
localement inversible autour 2
" #de (x, y) = (0, 0) (et même globalement sur tout R ) même
0 0
si det(Df (0, 0)) = det = 0. Toutefois, cette condition est nécessaire pour que la
0 1
fonction f soit un difféomorphisme local, comme le lemme suivant le montre.
Lemme 6.8. Soit f : E → Rn , avec E ⊂ Rn ouvert, un difféomorphisme local autour de
x0 ∈ E. Alors det(Df (x0 )) 6= 0.
72 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES
La condition det(Df (x0 )) 6= 0 est aussi suffisante pour que f soit un difféomorphisme
local autour de x0 , comme le théorème suivant le montre.
Théorème 6.10 (du point fixe de Banach). Soit un fermé non vide K ⊂ Rn et une
fonction φ : K → Rn telle que
• φ(K) ⊂ K,
• il existe ρ ∈]0, 1[ tel que ∀v, w ∈ K kφ(v) − φ(w)k ≤ ρkv − wk.
Alors il existe un unique v∗ ∈ K tel que φ(v∗ ) = v∗ .
Démonstration.
Existence. Fixons v(0) dans K et définissons {v(k) }k∈N ⊂ K par récurrence comme
suit :
v(k+1) = φ(v(k) ) ∈ K, k ≥ 0.
Vérifions que {v(k) }k∈N est de Cauchy. Pour k ∈ N,
kv∗ − φ(v∗ )k ≤ kv∗ − vk+1 k + kvk+1 − φ(v∗ )k = kv∗ − vk+1 k + kφ(vk ) − φ(v∗ )k
6.2. THÉORÈME D’INVERSION LOCALE 73
Définition 6.11. Avec les notations du théorème 6.10, puisque ρ < 1, on dit que l’appli-
cation φ : K → Rn est contractante ou une contraction.
Pour la démonstration du théorème 6.9 nous avons encore besoin de deux lemmes
suivants.
Lemme 6.12. Soit A ∈ Rm×n . On note par |||A||| la norme spectrale de A, |||A||| =
sup ξ∈Rn kAξk, où k · k denote la norme euclidienne, et par kAkF la norme de Frobenius
kξk=1
qP
m Pn 2
de A, kAkF = i=1 j=1 Aij . Alors, on a |||A||| ≤ kAkF .
Lemme 6.13. Soit −∞ < a < b < ∞ et f : [a, b] → Rm , t 7→ f (t) = (f1 (t), . . . , fm (t))
une fonction continue. Alors
Z b Z b
f (t)dt ≤ kf (t)kdt,
a a
Z b 2 m Z bX
m Z b
X
f (t)dt = kvk2 = vi vi = vi fi (t)dt ≤ kvkkf (t)kdt,
a i=1 a i=1 a
d’où le résultat.
Par le théorème des accroissements finis (version intégrale, où apparaît le produit matricielle
d’une matrice et d’un vecteur colonne, donnant un vecteur colonne) et les lemmes 6.12-6.13,
on a pour x1 , x2 ∈ B(x0 , r),
Z 1
kφy (x2 ) − φy (x1 )k = Dφy (x1 + t(x2 − x1 )) · (x2 − x1 )dt
0
Z 1
≤ kDφy (x1 + t(x2 − x1 )) · (x2 − x1 )kdt
0
Z 1
1
≤ |||Dφy (x1 + t(x2 − x1 ))||| kx2 − x1 kdt ≤ kx2 − x1 k
0 | {z } 2
∈B̄(x0 ,r)
et φ est contractante sur B(x0 , r) pour tout y ∈ Rn . De plus, pour tout x ∈ B(x0 , r) et
y ∈ B(y0 , r̃), avec r̃ = 2|||Df (xr 0 )−1 ||| , on a
Donc, si on prend y ∈ B(y0 , r̃), on a φy (B(x0 , r)) ⊂ B(x0 , r). Par conséquent, φy :
B(x0 , r) → B(x0 , r) a un point fixe unique x ∈ B(x0 , r). Mais puisque φy (B(x0 , r)) ⊂
B(x0 , r), ce point fixe est dans la boule ouverte B(x0 , r). On a donc montré que ∀y ∈
B(y0 , r̃), il existe un unique x ∈ B(x0 , r) t.q. x = φy (x), c.-à-d. t.q. f (x) = y.
Deuxième étape. Soit V = B(y0 , r̃) et U = B(x0 , r) ∩ f −1 (V ) = {x ∈ B(x0 , r) : f (x) ∈
B(y0 , r̃)}. On remarque que f −1 (V ) est ouvert (f est continue sur l’ouvert E, donc la
pré-image d’un ouvert est un ouvert), donc U est ouvert. Par l’étape précédente, f : U → V
est une bijection donc on peut définir la fonction inverse g : V → U . On montre que g est
continue. Soit > 0 et δ = 2|||Df (x 0 )−1 ||| , alors, pour tous y1 , y2 ∈ V tels que ky1 − y2 k ≤ δ,
et en notant x1 = g(y1 ) et x2 = g(y2 ), on a
kRf (x1 )k
f (x1 ) − f (x) = Df (x)(x1 − x) + Rf (x1 ) avec lim = 0.
x1 →x kx1 − xk
Ceci implique
Rg (y1 )
On va montrer que limy1 →y ky1 −yk = 0. En effet,
et donc
kRg (y1 )k kRf (x1 )k
lim ≤ 2|||Df (x)−1 ||||||Df (x0 )−1 ||| lim = 0.
y1 →y ky1 − yk x1 →x kx1 − xk
76 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES
On dit que Σ est une hypersurface de classe C k si elle est le graphe d’une fonction de
classe C k localement autour de chacun de ses points.
c.-à-d. que Σ est la courbe de niveau zéro de la fonction f définie sur l’ouvert E ⊂ Rn+1 .
Si Σ est une hypersurface, localement autour d’un point z0 ∈ Σ, alors elle peut être
représentée comme le graphe d’une fonction continue φ : U ⊂ Rn → R localement autour
de z0 , c’est-à-dire il existe un ouvert V ⊂ Rn+1 contenant z0 , un ouvert U ⊂ Rn et un
indice i ∈ {1, . . . , n + 1} tels que
Σ ∩ V = {x ∈ Rn+1 : xi = φ(x∼i ), x∼i ∈ U }
= {x ∈ V : f (x1 , . . . , xn+1 ) = 0}.
On dit dans ce cas que l’équation f (x) = 0 définit implicitement une fonction xi = φ(x∼i )
localement autour du point z0 . Autrement dit, la relation
f (x1 , . . . , xn+1 ) = 0 (6.1)
permet d’exprimer la variable xi en fonction des autres variables, xi = φ(x∼i ), et le graphe
de φ coïncide avec l’ensemble des zéros de f dans un voisinage de z0 . On se pose alors
la question de savoir quand l’équation (6.1) peut être explicitée par rapport à une des
variables.
x
p
x= 1 − y2
√ p
Les quatre fonctions y = ± 1 − x2 et x = ± 1 − y 2 sont définies implicitement par
f (x, y) = 0, Toutefois, on ne peut pas trouver une seule fonction y = φ(x) ou x = φ(y)
qui décrit tout l’ensemble Σ. En revanche, soit z0 ∈ Σ arbitraire. Alors, autour de z0 , on
peut définir une fonction y = φ(x) ou x = φ(y). Par exemple, soit z0 = (x0 , y0 ) ∈ Σ.
78 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES
√
— Si y0 > 0, alors on peut prendre y = φ(x) = 1 − x2 et on a f (x, φ(x)) = 0 dans un
voisinage de x0 et G(φ) coïncide avec Σ dans un voisinage de z0 .
√
— Si y0 < 0 alors on peut prendre y = φ(x) = − 1 − x2 et on a f (x, φ(x)) = 0 dans
un voisinage de x0 et G(φ) coïncide avec Σ dans un voisinage de z0 .
— Si y0 = 0, ppar exemple z0 = (1, 0), alors on peut expliciter x en fonction de y,
x = φ(y) = 1 − y 2 mais non pas y en fonction de x.
Exemple 6.17. Soit Σ = {(x, y) ∈ R2 : f (x, y) = x2 − y 2 = 0}. Clairement, l’équation
f (x, y) = 0 est satisfaite si et seulement si x = y ou x = −y.
y y y
Σ y=x
x x x
y = −x
Soit z0 = (x0 , y0 ) ∈ Σ.
— Si x0 y0 > 0 alors f (x, y) = 0 définit implicitement la fonction y = φ(x) = x (ou
bien la fonction x = φ(y) = y) et G(φ) coïncide avec Σ dans un voisinage de z0 .
— Pareillement, si x0 y0 < 0 alors f (x, y) = 0 définit implicitement la fonction y =
φ(x) = −x (ou bien la fonction x = φ(y) = −y) et G(φ) coïncide avec Σ dans un
voisinage de z0 .
— En revanche, si (x0 , y0 ) = (0, 0), il n’est pas possible de trouver ni une fonction
y = φ(x) ni une fonction x = φ(y) définies implicitement par l’équation f (x, y) = 0
qui décrivent Σ dans un voisinage de z0 = (0, 0). On dit dans ce cas que (0, 0) est
un point singulier de Σ. On remarque que ∇f (0, 0) = (0, 0).
Exemple 6.18. Soit Σ = {(x, y) ∈ R2 : f (x, y) = xey + yex = 0}. L’équation f (x, y) =
xey + yex = 0 ne peut pas être explicitée sous forme simple ni par rapport à x ni par
rapport à y. Est-ce que l’équation f (x, y) = 0 définit implicitement une fonction y = φ(x)
ou x = φ(y) au moins localement autour de chaque point z0 ∈ Σ, dont le graphe coïncide
avec Σ dans un voisinage de z0 ? On verra que la réponse à cette question est positive.
Soit f : R2 → R et z0 = (x0 , y0 ) tel que f (x0 , y0 ) = 0. Supposons que f (x, y) = 0
définit implicitement une fonction y = φ(x) autour de z0 , c’est-à-dire ∃δ > 0 et φ :
]x0 − δ, x0 + δ[ → R tels que y0 = φ(x0 ) et f (x, φ(x)) = 0, ∀x ∈ ]x0 − δ, x0 + δ[. Supposons
de plus que f et φ sont de classe C 1 et notons f˜(x) = f (x, φ(x)). Alors, par la formule de
dérivation de fonctions composées, on a :
d ˜ d ∂f ∂f
0= f (x) = f (x, φ(x)) = (x, φ(x)) + (x, φ(x))φ0 (x), ∀x ∈ ]x0 − δ, x0 + δ[.
dx dx ∂x ∂y
On en tire que si ∂y (x0 , y0 )
∂f
6= 0, alors
∂f
(x0 , y0 )
φ0 (x0 ) = − ∂f
∂x
.
∂y (x0 , y0 )
6.4. THÉORÈME DES FONCTIONS IMPLICITES – CAS SCALAIRE 79
∂y (x, φ(x))
Même si on ne connaît pas φ, on peut quand même évaluer sa dérivée φ0 (x0 ) si ∂y (x0 , y0 )
∂f
6= 0.
De plus, si f et φ sont de classe C 2 , on peut itérer le raisonnement :
d2
0= f (x, φ(x))
dx2
∂ ∂f ∂f
= (x, φ(x)) + (x, φ(x))φ0 (x)
∂x ∂x ∂y
2
∂ f 2
∂ f ∂2f ∂f
= 2
(x, φ(x)) + 2 (x, φ(x))φ 0
(x) + 2
(x, φ(x))(φ0 (x))2 + (x, φ(x))φ00 (x).
∂x ∂x∂y ∂y ∂y
Par conséquent,
!
1 ∂2f ∂2f ∂2f
φ (x0 ) = − ∂f
00
(x 0 , y0 ) + 2 (x0 , y0 )φ 0
(x 0 ) + (x0 , y0 )(φ0 (x0 ))2 .
∂y (x0 , y0 )
∂x2 ∂x∂y ∂y 2
Plus généralement, si f est de classe C k , alors φ sera aussi de classe C k et on peut calculer
explicitement φ(k) (x0 ). Tous les calculs précédents sont valables sous l’hypothèse qu’une
fonction implicite φ de classe C k existe et que ∂f ∂y (x0 , y0 ) 6= 0. Cette dernière condition
s’avère être suffisante pour l’existence d’une fonction implicite.
∂y (x, φ(x)) 6= 0 et
∂f
De plus, pour tout x ∈ U ,
∂f
(x, φ(x))
φ0 (x) = − ∂f
∂x
,
∂y (x, φ(x))
et si f ∈ C k (E), alors φ ∈ C k (U ).
80 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES
gx (y0 −δ2 ) = f (x, y0 −δ2 ) < 0 et gx (y0 +δ2 ) = f (x, y0 +δ2 ) > 0, ∀x ∈ U := ]x0 −δ, x0 +δ[
+ + +
∂f
∂y >0
− − − − −
et ∂y (ξ, η)
∂f
> 0 car (ξ, η) ∈ V ⊂ W . Il s’ensuit
On a montré le théorème des fonctions implicites pour une fonction de deux variables
réelles (x, y) 7→ f (x, y) : R2 → R. Toutefois, la démonstration de ce théorème se généralise
sans difficulté au cas d’une fonction de n variables f : Rn → R.
Théorème 6.20 (des fonctions implicites à plusieurs variables). Soit E ⊂ Rn+1 ouvert
non vide, f : E → R de classe C 1 , Σ = {(x, y) ∈ E, x ∈ Rn , y ∈ R : f (x, y) = 0} et
z0 = (x0 , y0 ) ∈ Σ tel que ∂f
∂y (x0 , y0 ) 6= 0. Alors, il existe un voisinage U = B(x0 , δ) ⊂ R
n
et si f ∈ C k (E) alors φ ∈ C k (U ).
Le théorème précédent montre que si ∂f ∂y (z0 ) 6= 0, l’ensemble Σ coïncide avec le graphe
d’une fonction y = φ(x) dans un voisinage de z0 . Ceci permet de définir l’hyperplan
tangent à Σ en z0 , noté Πz0 (Σ), comme l’hyperplan tangent au graphe de φ en x0 , qui est
donné par
( n
)
X ∂φ
Πz0 (Σ) = (x, y) ∈ R n+1
: y = φ(x0 ) + (x0 )(xi − x0,i ) .
i=1
∂xi
82 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES
Si chaque ensemble Σi est une surface de Rn+m , alors Σ est l’intersection de m surfaces. Par
exemple, si f1 (x, y, z) = 0 et f2 (x, y, z) = 0 définissent des surfaces en R3 , leur intersection
Σ = {(x, y, z) ∈ R3 : f1 (x, y, z) = 0 et f2 (x, y, z) = 0} sera en générale une courbe de R3
(voir Figure 6.1). On peut se poser de nouveau la question de savoir si l’ensemble Σ peut
être représenté comme le graphe d’une fonction continue, au moins localement autour de
chaque point z0 ∈ Σ. De façon équivalente, on veut savoir si pour l’équation f (x, y) = 0 on
peut exprimer m variables, disons (y1 , . . . , ym ), comme fonctions continues des n variables
restantes (x1 , . . . , xn ), dans un voisinage de z0 = (x0 , y0 ) ; autrement dit, si le système
(6.3) définit implicitement une fonction continue φ : U ⊂ Rn → Rm autour de x0 telle que
f (x, φ(x)) = 0, ∀x ∈ U et Σ = G(φ) dans un voisinage de z0 .
Avant de donner le résultat d’existence générale, il est utile de considérer le cas d’une
fonction fa affine :
1.y0 = φ(x0 ) ;
2.pour tout x ∈ U , (x, φ(x)) ∈ V et f (x, φ(x)) = 0 ;
3.Σ ∩ V = G(φ) ;
4.det(Dy f (x, φ(x)) 6= 0 et Dφ(x) = −(Dy f (x, φ(x)))−1 Dx f (x, φ(x)), ∀x ∈ U (dans
cette dernière formule, il y a un produit matriciel).
De plus, pour tout entier k ≥ 1, si f est de classe C k , alors φ l’est aussi.
Démonstration. On utilise le théorème d’inversion locale. Soit F : E → Rn+m , F(x, y) =
(x, f (x, y)). On a F(x0 , y0 ) = (x0 , 0) et
" #
In×n 0
DF(x0 , y0 ) = , det(DF(x0 , y0 )) = det(Dy f (z0 )) 6= 0.
Dx f (z0 ) Dy f (z0 )
Donc il existe un voisinage V 0 de (x0 , y0 ) et un voisinage U 0 de (x0 , 0) tels que V 0 ⊂ E et F
est un difféomorphisme de V 0 à U 0 . Soit G la fonction inverse. On peut toujours trouver une
boule ouverte U = B(x0 , δ) ⊂ Rn et un ouvert W ⊂ Rm contenant 0 tels que U × W ⊂ U 0 .
On considère alors la restriction F : V → U × W où V = G(U × W ). La fonction inverse
a la forme G(x, w) = (x, ϕ(x, w)) avec ϕ(x0 , 0) = y0 . On note, en particulier, que si
(x, y) ∈ V , alors x ∈ U . La fonction implicite cherchée est alors φ(x) = ϕ(x, 0) : U → Rm .
En effet :
∀x ∈ U, (x, 0) = F ◦ G(x, 0) = F(x, ϕ(x, 0)) = F(x, φ(x)) = (x, f (x, φ(x))),
donc f (x, φ(x)) = 0, ∀x ∈ U , et
∀(x, y) ∈ Σ ∩ V, (x, y) = G ◦ F(x, y) = G(x, f (x, y)) = (x, ϕ(x, 0)) = (x, φ(x)),
| {z }
=0
donc Σ ∩ V = G(φ).
Montrons l’unicité de φ : si φ? : U → Rm satisfait aussi Σ ∩ V = G(φ? ), alors
G(φ? ) = G(φ) et donc φ∗ = φ.
Finalement, φ est de classe C 1 puisque G est de classe C 1 , F étant un difféomorphisme.
De plus, 0 6= det(DF(x, y)) = det(Dy f (x, y)) ∀(x, y) ∈ V , donc Dy f est inversible sur V .
Par la formule de dérivation des fonctions composées, on a
0 = D(f (x, φ(x))) = Dx f (x, φ(x)) + Dy f (x, φ(x)) · Dφ(x).
d’où
Dφ(x) = −(Dy f (x, φ(x)))−1 Dx f (x, φ(x)).
La démonstration que φ ∈ C k (U ) si f ∈ C k (E) se fait par récurrence sur k ≥ 1.
Remarque 6.22. Dans le théorème 6.21, la décomposition du vecteur z ∈ Rn+m en
z = (x, y) est arbitraire. Le théorème reste valable sous la condition plus générale :
Rang(Df (z0 )) = m.
En effet, dans ce cas on sait qu’il existe m colonnes de Df (z0 ) linéairement indépendantes.
Notons ces colonnes i1 , . . . , im . On peut alors définir (y1 , . . . , ym ) = (zi1 , . . . , zim ) et
(x1 , . . . , xn ) les variables restantes. On aura donc det(Dy f (z0 )) 6= 0 et on peut appliquer
le théorème pour exprimer ces m variables y en fonction des autres n variables x.
6.5. THÉORÈME DES FONCTIONS IMPLICITES – CAS VECTORIEL 85
Sous les hypothèses du théorème 6.21, grâce à l’existence d’une fonction implicite on
peut définir l’hyperplan tangent à Σ en z0 :
On remarque que Πz0 (Σ) est l’ensemble des points de Rn+m qui satisfont m équations
linéaires. Puisque Df (z0 ) a rang maximal, Πz0 (Σ) est un sous-espace affine de Rn+m de
dimension n.
86 CHAPITRE 6. DIFFÉOMORPHISMES LOCAUX ET FONCTIONS IMPLICITES
Chapitre 7
Soit E ⊂ Rn pas forcément ouvert pour le moment. On considère ici une fonction
f : E → R à valeurs dans R (fonction scalaire) et on se pose la question de trouver le
maximum et le minimum de f sur E s’ils existent. Ceci est un problème d’optimisation.
On commence par donner la définition de point de minimum et maximum local ou global.
Définition 7.1 (Minima et maxima locaux et globaux). Soit E ⊂ Rn et x∗ ∈ E.
— On dit que f admet un maximum local (ou relatif) au point x∗ ∈ E s’il existe δ > 0 :
Le minimum est strict si l’inégalité est stricte. Le point x∗ est appelé point de
minimum local (strict) pour f .
— Par extremum local (strict) on entend un minimum ou maximum local (strict).
— On dit que f admet un maximum (global ou absolu), resp. minimum (global ou
absolu) au point x∗ ∈ E si f (x) ≤ f (x∗ ), ∀x ∈ E, resp. f (x) ≥ f (x∗ ), ∀x ∈ E. Le
maximum/minimum est strict si l’inégalité est stricte
87
88 CHAPITRE 7. EXTREMA DE FONCTIONS RÉELLES
— Si f est deux fois dérivable sur I et x∗ est un point de minimum (resp. maximum)
local, alors f 0 (x∗ ) = 0 et f 00 (x∗ ) ≥ 0 (resp. f 00 (x∗ ) ≤ 0) (condition nécessaire du
second ordre).
— Soit f deux fois dérivable sur I et x∗ un point stationnaire de f , c.-à-d. que f 0 (x∗ ) = 0.
Si f 00 (x∗ ) > 0 (resp. f 00 (x∗ ) < 0) alors x∗ est un point de minimum (resp. maximum)
local strict (condition suffisante).
— Si f 0 (x∗ ) = f 00 (x∗ ) = 0, on ne peut rien conclure. Pour décider si x∗ est un point de
minimum / maximum / inflexion, il faut regarder les dérivées d’ordres supérieurs
(si elles existent) en x∗ , ou bien étudier le signe de la fonction g(x) = f (x) − f (x∗ )
autour de x∗ . Par exemple, si on peut montrer que g est non négative dans un
voisinage de x∗ , alors x∗ est un point de minimum local de f . Par contre, si g change
de signe en x∗ , alors x∗ est un point d’inflexion (sous l’hypothèse f 0 (x∗ ) = 0).
Considérons maintenant le cas d’une fonction de plusieurs variables f : E → R, avec
E ⊂ Rn ouvert non vide. Soit x∗ ∈ E (point intérieur car E est ouvert). On peut regarder
le comportement de f le long des droites : soit v ∈ Rn , kvk = 1 et gv (t) = f (x∗ + tv).
Si f est différentiable sur E et x∗ est un point d’extremum local de f , alors pour tout
v ∈ Rn , la fonction gv est dérivable et admet un extremum local en t = 0 (voir Figure
7.1). Il s’ensuit
Figure 7.1 – Si x∗ est point de maximum, alors la fonction gv (t) = f (x∗ + tv) à maximum en
t = 0 pour tout v ∈ Rn .
∀v ∈ Rn 0 = gv0 (0) = Dv f (x∗ ) = ∇f (x∗ ) · v ⇐⇒ ∇f (x∗ ) = 0
(produit scalaire entre deux vecteurs colonnes). On s’attend alors à ce que ∇f (x∗ ) = 0
soit une condition nécessaire pour que f admette un extremum local en x∗ . Le théorème
suivant formalise cette idée.
7.1. EXTREMA LIBRES 89
Théorème 7.3 (condition nécessaire de premier ordre). Soit E ⊂ Rn un ouvert non vide,
et f : E → R différentiable en x∗ ∈ E et admettant un extremum local en x∗ . Alors x∗ est
un point stationnaire de f , c.-à-d. que ∇f (x∗ ) = 0.
Démonstration. Puisque E est ouvert, ∃δ > 0 : B(x∗ , δ) ⊂ E. Alors x∗ + tej ∈ E pour
tout t ∈ ]−δ, δ[ et gj (t) = f (x∗ + tej ) : ]−δ, δ[ → R est dérivable en t = 0. Puisque
x∗ est un point d’extremum local pour f , 0 est un point d’extremum local pour gj et
gj0 (0) = ∂x
∂f
j
(x∗ ) = 0.
On considère maintenant le cas f ∈ C 2 (E), qui assure que la matrice hessienne Hf (x∗ )
est symétrique. Soit x∗ un point de minimum local de f . Alors t = 0 est un point de
minimum local de gv pour tout v ∈ Rn de norme 1. Il s’ensuit que
2
0 ≤ gv00 (0) = Dvv f (x∗ ) = v> Hf (x∗ )v
Lemme 7.6. Une matrice symétrique A ∈ Rn×n est définie positive si et seulement si
∃c > 0 : x> Ax ≥ ckxk2 , ∀x ∈ Rn .
(On peut prendre n’importe quelle norme k · k sur Rn ; la constante c dépendra de la norme
choisie.)
Démonstration. Soit A définie positive et QA la forme quadratique associée à A. Clairement
QA est une fonction continue sur Rn . De plus, ∀t ∈ R, QA (tx) = t2 QA (x). Considérons
l’ensemble compact S = {x ∈ Rn : kxk = 1}. QA admet un maximum et un minimum sur
S. Soit c = minx∈Rn QA (x). Clairement, c > 0 car QA (x) > 0, ∀x ∈ S, et
x
x> Ax = QA (x) = kxk2 QA ≥ ckxk2 , ∀x ∈ Rn .
kxk
Inversement, s’il existe c > 0 tel que x> Ax ≥ ckxk2 , ∀x ∈ Rn , on conclut immédiatement
que A est définie positive.
Lemme 7.7. Soit A ∈ Rn×n une matrice symétrique. A est définie positive si et seulement
si toutes les valeurs propres λ1 , . . . , λn de A sont positives. De plus x> Ax ≥ λmin kxk22 , où
λmin = min{λi : 1 ≤ i ≤ n}.
Démonstration. On sait de l’algèbre linéaire qu’une matrice A ∈ Rn×n symétrique est
toujours diagonalisable avec valeurs propres réelles λ1 , . . . , λn et n vecteurs propres ortho-
normés v1 , . . . , vn (de norme euclidienne 1 et deux à deux orthogonaux ; chacun est écrit
sous forme colonne dans ce qui suit) :
λ1
..
AV = V D, D=
. , λi ∈ R,
V = [v1 , . . . , vn ] : V > V = V V > = I.
λn
Le Lemme précédent montre que la plus grande constante c possible du Lemme 7.6
est c = λmin si la matrice A est symétrique et si on utilise la norme euclidienne. On
revient maintenant à la question de caractériser les points d’extremum local d’une fonction
f : E → R.
Théorème 7.8 (condition suffisante pour extrema locaux). Soit E ⊂ R ouvert non vide,
f : E → R une fonction de classe C 2 sur E et x∗ ∈ E un point stationnaire de f ,
c’est-à-dire ∇f (x∗ ) = 0. Si Hf (x∗ ) est définie positive (resp. définie négative) alors f a
un minimum (resp. maximum) local strict en x∗ .
7.1. EXTREMA LIBRES 91
Démonstration. Considérons le cas Hf (x∗ ) définie positive (la démonstration pour Hf (x∗ )
définie négative est la même). Puisque f est de classe C 2 sur E on peut écrire un
développement limité d’ordre 2 de f au point x∗ :
1
f (x) = f (x∗ ) + ∇f (x∗ ) · (x − x∗ ) + (x − x∗ )> Hf (x∗ )(x − x∗ ) + Rf (x), ∀x ∈ E,
| {z } 2
=0
où on a utilisé que ∇f (x∗ ) = 0 (x∗ est un point stationnaire) et où Rf (x) est tel que
Rf (x) 2
limx→x∗ kx−x ∗ k2 = 0. Puisque Hf (x ) est définie positive, ∃c > 0 : v Hf (x )v ≥ ckvk
∗ > ∗
R (x)
pour tout v ∈ Rn . De plus, puisque limx→x∗ kx−xf
∗ k2 = 0, il existe δ > 0 tel que, pour tout
1
∀x ∈ B(x∗ , δ)\{x∗ }, f (x) = f (x∗ ) + (x − x∗ )> Hf (x∗ )(x − x∗ ) + Rf (x)
2| {z } | {z }
≥ckx−x∗ k2 ≥− 4c kx−x∗ k2
c
≥ f (x∗ ) + kx − x∗ k2 > f (x∗ ),
4
ce qui montre que x∗ est un point de minimum local strict de f .
strict. Lorsque n = 2, Hf (x∗ ) est définie positive ssi à la fois la trace de Hf (x∗ ) est
> 0 et det(Hf (x∗ )) > 0.
— Si Hf (x∗ ) est définie négative (i.e. x> Hf (x∗ )x < 0, ∀ 0 6= x ∈ Rn ou, de façon
équivalente, λi (Hf (x∗ )) < 0, ∀i = 1, . . . , n), alors x∗ est un point de maximum local
strict. Lorsque n = 2, Hf (x∗ ) est définie négative ssi à la fois la trace de Hf (x∗ ) est
< 0 et det(Hf (x∗ )) > 0.
— Si Hf (x∗ ) est indéfinie (i.e. ∃x, y ∈ Rn : x> Hf (x∗ )x > 0, y> Hf (x∗ )y < 0 ou, de
façon équivalente, ∃i, j = 1, . . . , n : λi (Hf (x∗ )) > 0 et λj (Hf (x∗ )) < 0) alors x∗
est un point selle. Une condition suffisante pour que Hf (x∗ ) soit indéfinie est que
det(Hf (x∗ )) < 0.
92 CHAPITRE 7. EXTREMA DE FONCTIONS RÉELLES
— Si Hf (x∗ ) est seulement semi-définie positive (ou négative), on ne peut pas conclure
sur la nature du point stationnaire à partir des résultats précédents.
Exemple 7.10. Considérons les trois fonctions f1 , f2 , f3 : R2 → R
f1 (x, y) = x2 + y 2 , f2 (x, y) = 1 − x2 − y 2 , f3 (x, y) = x2 − y 2 .
Pour toutes les trois fonctions, le seul point stationnaire est x∗ = (0, 0). Étudions sa nature
dans les trois cas.
" # 2
2 0
Fonction f1 : Hf1 (0, 0) = définie positive 1
0 2
1
0
−1 0
−0.5 0
0.5 1 −1
y
x
" # 1
−2 0
Fonction f2 : Hf2 (0, 0) = définie négative 0
0 −2
1
−1
−1 0
−0.5 0
0.5 1 −1
y
x
" # 1
2 0
Fonction f3 : Hf3 (0, 0) = indéfinie 0
0 −2
1
−1
−1 0
−0.5 0
0.5 1 −1
y
x
Si Hf (x∗ ) est seulement semi-définie positive (ou négative), on ne peut pas conclure que
x∗ est un point de minimum local (ou maximum local). De plus, même si gv (t) = f (x∗ + tv)
a un minimum local en t = 0 pour tout v ∈ Rn , on ne peut pas conclure que f admet un
minimum local en x∗ comme l’exemple suivant le montre.
Exemple 7.12. Considérons la fonction f (x, y) = y 2 − 3x2 y + 2x4 . On a
" # " #
−6xy + 8x3 −6y + 24x2 −6x
∇f (x, y) = , Hf (x, y) = .
2y − 3x2 −6x 2
7.2. EXTREMA LIÉS 93
Donc
" # (
0 −6xy + 8x3 = 0
∇f (x, y) = =⇒ ⇐⇒ (x, y) = (0, 0)
0 y = 32 x2
" #
0 0
et P = (0, 0) est le seul point stationnaire. De plus Hf (0, 0) = est semi-définie
0 2
positive. Pour toute droite x = (x, y) = tv, t ∈ R, v 6= (1, 0), on a
!
v
v Hf (0, 0)v = (v1 , v2 ) Hf (0, 0) 1
>
= 2v22 > 0,
v2
donc la fonction gv (t) = f (tv) a un minimum local strict en t = 0. De plus pour v = (1, 0),
gv (t) = f (t(1, 0)) = 2t4 a un minimum local srict en t = 0, donc ∀v ∈ R2 , gv (t) = f (tv) a
un minimum local strict t = 0. Toutefois, si on prend x = t et y = 32 t2 on a
3 9 9 1
f (t, t2 ) = t4 − t4 + 2t4 = − t4
2 4 2 4
qui a un maximum local strict en t = 0 ! Donc (0, 0) n’est pas un point d’extremum local
de f .
2R
min f (z).
z∈Σg
Le minimum est strict si l’inégalité est stricte, dans le même sens qu’expliqué plus haut.
De la même façon, on dit que z∗ ∈ Σg est un point de maximum local de f sur Σg si
Le maximum est strict si l’inégalité est stricte. On utilise aussi la terminologie de mini-
mum/maximum (strict ou non) lié.
On se pose la question de caractériser les points d’extremum (minimum/maximum)
liés. Voyons quelques exemples :
Exemple 7.15. On considère le problème de minimisation suivante :
Minimum lié
Contrainte x + y − 1 = 0
∇f maximum lié
∇f
x
Contrainte Σg ∇f
minimum lié
Courbes de niveau de f
Figure 7.2 – Gauche : Problème de minimisation, Exemple 7.15. Droite : Problème de minimisa-
tion, Exemple 7.16.
et, autour de chaque point z ∈ Σg , l’ensemble Σg peut être représenté par le graphe d’une
fonction. De plus, le vecteur ∇g(z) est normal au plan tangent Πz (Σ) à Σg en z.
Puisqu’au point du maximum lié on a que ∇f (xM ) est aussi un vecteur normal au
plan tangent ΠxM (Σ), il s’ensuit que ∇f (xM ) k ∇g(xM ), c’est-à-dire ∃λ ∈ R : ∇f (xM ) =
λ∇g(xM ). Ceci est en fait une condition nécessaire pour avoir un extremum lié comme le
théorème suivant le montre.
Par conséquent, on a
∂f ∗ ∂xi (z )
∂g ∗
∂f ∗
(z ) − (z ) ∂g = 0, ∀i = 1, . . . , n − 1.
∂y (z )
∂xi ∂y ∗
∂f
(z∗ )
Si on pose λ∗ = ∂y
, alors
∂g
∂y
(z∗ )
∂f ∗ ∂g ∗
(z ) = λ∗ (z ), ∀i = 1, . . . , n − 1
∂xi ∂xi
et, par définition, ∂y (z )
∂f ∗
= λ∗ ∂y (z ). On a donc bien
∂g ∗
∇f (z∗ ) = λ∗ ∇g(z∗ ).
D’après le théorème, une condition nécessaire pour que z∗ ∈ Σg , avec ∇g(z∗ ) 6= 0, soit
un point d’extremum lié de f sur Σg est que (z∗ , λ∗ ) soit solution du système
(
∇f (z) = λ∇g(z)
(7.1)
g(z) = 0
de n + 1 équations à n + 1 inconnues (z, λ) = (z1 , . . . , zn , λ). On remarque, en particulier,
qu’un point z∗ d’extremum lié de f sur Σg n’est généralement pas un point stationnaire
de f car ∇f (z∗ ) = λ∗ ∇g(z∗ ) 6= 0 si λ∗ 6= 0.
Exemple 7.18. On cherche les extrema de f (x, y) = x+y, liés par la contrainte g(x, y) = 0,
où g(x, y) = x2 + y 2 − 1. On résout d’abord le système de 3 équations à trois inconnues
(x, y, λ) :
∂x (x, y) = λ ∂x (x, y) 1 = 2λx
( ∂f ∂g
∇f (x, y) = λ∇g(x, y)
=⇒ ∂y (x, y) = λ ∂y (x, y)
∂f ∂g
=⇒ 1 = 2λy
g(x, y) = 0
g(x, y) = 0
x2 + y 2 = 1
On remarque que λ = 0 n’est pas une solution. Alors, les premières deux équations donnent
1
x = y = 2λ et, de la troisième équation, on obtient λ2 = 12 qui admet les deux solutions
λ∗ = ± √12 . On a alors deux points candidats :
1 1 1 1
P1 = ( √ , √ ), P2 = (− √ , − √ ).
2 2 2 2
Puisque l’ensemble Σg = {(x, y) : g(x, y) = 0} est compact et f est continue, alors f
admet un maximum et un minimum sur Σg et nécessairement P1 ou P2 doit être un point
de maximum lié et l’autre un point de minimum lié. Par évaluation directe de f en P1 et
P2 on conclut :
1 1 2
P1 = ( √ , √ ) est un point de maximum lié, max f (x, y) = f (P1 ) = √ ,
2 2 (x,y)∈Σg 2
1 1 2
P2 = (− √ , − √ ) est un point de minimum lié, min f (x, y) = f (P2 ) = − √ .
2 2 (x,y)∈Σg 2
7.3. MÉTHODE DES MULTIPLICATEURS DE LAGRANGE 97
Donc pour trouver les extrema liés de f sur Σg , il faut d’abord chercher les points
stationnaires de L.
∇(z,λ) L(z∗ , λ∗ ) = 0.
98 CHAPITRE 7. EXTREMA DE FONCTIONS RÉELLES
est inversible. Puisque det(Dy g(z∗ )) 6= 0, on peut appliquer le théorème des fonctions
implicites. Donc il existe une boule ouverte U = B(x∗ , δ) ⊂ Rn−m , un ouvert V ⊂ E ⊂ Rn
contenant z∗ et une fonction φ : U → Rm de classe C 1 (U ) tels que
— y∗ = φ(x∗ ) et, pour tout x ∈ U , (x, φ(x)) ∈ V et g(x, φ(x)) = 0 ;
— Σg ∩ V = G(φ)
— Dφ(x∗ ) = −(Dy g(z∗ ))−1 Dx g(z∗ ).
Introduisons f˜(x) = f (x, φ(x)), x ∈ U . Alors x∗ est un extremum local de f˜ sur U et
Df˜(x∗ ) = 0. On a
0 = Df˜(x∗ ) = Dx f (z∗ ) + Dy f (z∗ ) · Dφ(x∗ )
= Dx f (z∗ ) − Dy f (z∗ )Dy g(z∗ )−1 Dx g(z∗ ).
Xm
∂f ∗ ∂f ∗ ∂gj ∗
0= (z ) − λ∗ Dxi g(z∗ ) = (z ) − λ∗j (z )
∂xi ∂xi j=1
∂xi
Donc finalement m
∂f ∗ X ∂gj ∗
(z ) = λ∗j (z ), i = 1, . . . , n
∂zi j=1
∂zi
que l’on peut écrire comme
m
X
∇f (z∗ ) = λ∗j ∇gj (z∗ )
j=1
ou encore
∇(z,λ) L(z∗ , λ∗ ) = 0.
7.5. CONDITIONS SUFFISANTES 99
Exercice 7.20. Chercher les extrema liés de f (x, y, z) = x + y + z sous les contraintes
g1 (x, y, z) = x2 + y 2 − 2 = 0, g2 (x, y, z) = x + z − 1 = 0.
Si !
m
X
∀w ∈ Tz∗ (Σg )\{0} w >
Hf (z ) −
∗
λ∗i Hgi (z∗ ) w > 0,
i=1
(z) P
on voit que HL (z, λ) = Hf (z) − m `=1 λ` Hg` (z). Le théorème précédent nous dit ainsi
que, si
(z)
∀w ∈ Tz∗ (Σg )\{0} w> HL (z∗ , λ∗ )w > 0,
alors z∗ est un point de minimum local lié. Il suffit de vérifier la positivité de la forme
(z)
quadratique w> HL (z∗ , λ∗ )w (et non pas de w> Hf (z∗ )w !) uniquement pour les directions
tangentielles à la contrainte g(z) = 0.
100 CHAPITRE 7. EXTREMA DE FONCTIONS RÉELLES
Chapitre 8
8.1 Pavés de Rn
On commence par donner la définition de pavé ainsi que de partition d’un pavé et
raffinement d’une partition.
Définition 8.1 (Pavé). On appelle pavé tout ensemble R ⊂ Rn de la forme R = [a1 , b1 ] ×
· · · × [an , bn ] où aj ≤ bj , j = 1, . . . , n sont des nombres réels. Le volume de R, noté Vol(R),
est défini comme
n
Y
Vol(R) = (bj − aj ).
j=1
On dit que R est un pavé dégénéré s’il existe un ou plusieurs k = 1, . . . , n tels que ak = bk .
Dans ce cas on a Vol(R) = 0.
Définition 8.2 (Partition). On appelle partition d’un pavé R ⊂ Rn , une collection finie
S
P de pavés tels que Q∈P Q = R et, pour tout Q, Q0 ∈ P, Q 6= Q0 , on a Q̊ ∩ Q̊0 = ∅.
La figure 8.1(gauche) montre un exemple de partition d’un pavé.
Définition 8.3. Une partition P d’un pavé R = [a1 , b1 ] × . . . × [an , bn ] sera dite tensorielle
s’il existe, pour tout j ∈ {1, . . . , n},
aj = t0j ≤ . . . ≤ tj j = bj dans R, Nj ∈ N∗ ,
N
101
102 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN
Q
R R
Figure 8.1 – Exemple d’une partition d’un pavé de R2 (gauche) et d’un possible raffinement de
cette partition (droite).
tels que
n o
P = [tα1 1 , t11+α1 ] × . . . × [tαnn , t1+α
n
n
] : 0 ≤ α1 ≤ N1 − 1, . . . , 0 ≤ αn ≤ Nn − 1 .
ne pas confondre des indices supérieurs comme ici avec des puissances.
Définition 8.4 (Raffinement d’une partition). Soit P, P 0 deux partitions d’un pavé R ⊂
0 = {Q0 ∈
Rn . On dit que P 0 est un raffinement de P si, pour tout Q ∈ P, la collection PQ
P : Q ⊂ Q} est une partition du pavé Q.
0 0
Pour chaque j ∈ {1, . . . , n}, ordonnons a1j , b1j , a2j , b2j , . . . , aK+K :
0 0
j , bK+K
j
2(K+K 0 ) 2(K+K 0 )
{a1j , b1j , a2j , b2j , . . . , aK+K } = {t0j , t1j , . . . , tj } avec t0j ≤ t1j ≤ . . . ≤ tj
0 0
j , bK+K
j .
8.2. FONCTIONS INTÉGRABLES SUR UN PAVÉ 103
Alors
2(K+K 0 )
P 00 = (t01 , . . . , t1 ) ⊗ . . . ⊗ (t0n , . . . , t2(K+K )
)
0
n
P = (t01 , . . . , tN 0
1 ) ⊗ . . . ⊗ (tn , . . . , tn ).
1 Nn
Alors
X 1 −1
NX n −1
NX
Vol(Q) = ... t1+α
1
1
− tα1 1 · . . . · t1+α
n
n
− tαnn
Q∈P α1 =0 αn =0
1 −1
NX n −1
NX
= t11+α1 − tα1 1 · . . . · t1+α
n
n
− tαnn = tN 0 0
1 − t1 · . . . · tn − tn = Vol(R).
1 Nn
α1 =0 αn =0
On remarque que, puisque f est bornée et P est une partition finie, les quantités S(f, P)
et S(f, P) sont bien définies. Le lemme suivant montre aussi qu’une somme inférieure est
toujours plus petite qu’une somme supérieure.
104 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN
Donc
X X X
S(f, P) = inf f (x) Vol(Q) = inf f (x) Vol(Q00 )
x∈Q x∈Q
Q∈P Q∈P Q00 ∈P 00
Q00 ⊂Q
X X
≤ inf 00 f (x) Vol(Q00 ) = S(f, P 00 ).
x∈Q
Q∈P Q00 ∈P 00
Q00 ⊂Q
De la même façon, on prouve S(f, P 00 ) ≤ S(f, P). Enfin, l’inégalité S(f, P 00 ) ≤ S(f, P 00 )
est immédiate.
Puisque toute paire de partitions P, P 0 de R admet un raffinement commun, le résultat
précédent implique immédiatement S(f, P) ≤ S(f, P 0 ).
et Z Z
f (x)dx − f (x)dx ≤ S(f, P ) − S(f, P ) < .
R R
R R
Comme > 0 est arbitraire, ceci implique R f (x)dx = R f (x)dx et par conséquent, f est
intégrable au sens de Riemann.
« ⇒ » : Supposons f intégrable au sens de Riemann. Par définition de sup et inf on a
que ∀ > 0
Z Z
∃P partition de R : S(f, P ) > f (x)dx − = f (x)dx − ,
R 2 R 2
Z Z
∃P0 partition de R : S(f, P0 ) < f (x)dx + = f (x)dx + .
R 2 R 2
Soit P00 un raffinement commun de P et P0 . Alors
Z
S(f, P00 ) ≥ S(f, P ) >
f (x)dx − ,
ZR
2
S(f, P ) ≤ S(f, P ) <
00 0
f (x)dx + ,
R 2
ce qui implique
S(f, P00 ) − S(f, P00 ) < .
Démonstration. R est compact et f est continue sur R, donc uniformément continue. Ceci
implique que
∀ > 0 ∃δ > 0 ∀x, y ∈ R kx − yk < δ ⇒ |f (x) − f (y)| < ,
1 + Vol(R)
où on utilise dans cette démonstration la norme euclidienne de Rn . Soit P une partition
de R telle que
∀Q ∈ P diam(Q) = max kx − yk < δ .
x,y∈Q
i
tij = aj + (bj − aj ) , 0 ≤ i ≤ N, 1 ≤ j ≤ n,
N
pP
et N ∈ N∗ choisi tel que N > i=1 (bi − ai ) /δ de telle sorte que pour tout Q ∈ P et
n 2
x, y ∈ Q on a kx − yk < δ . On a alors
X
S(f, P) − S(f, P) = max f (x) − min f (x) Vol(Q)
x∈Q x∈Q
Q∈P
X
≤ Vol(Q)
1 + Vol(R) Q∈P
< ,
R ⊂ int(R ) ⊂ R ⊂ int(R)
b
et
Vol(R ) − Vol(R) < avec M > sup |f (x)|.
2M x∈R
8.2. FONCTIONS INTÉGRABLES SUR UN PAVÉ 107
X X M
≤ S(f, P ) + M Vol(Q) + 0 ≤ S(f, P ) + = S(f, P ) + .
2M 2
Q⊂R \R̊ b R̊
Q⊂R\
De même
S(fb, Pb ) ≥ S(f, P ) −
2
et donc
S(fb, Pb ) − S(fb, Pb ) ≤ S(f, P ) − S(f, P ) + < 2.
Comme > 0 est arbitraire, fb est Riemann-intégrable. De plus, en considérant de nouveau
> 0, ce qui précède donne
Z
S(f, P ) − ≤ fb(x)dx ≤ S(f, P ) +
2 b
R 2
et, par ailleurs,
Z
S(f, P )) − ≤ S(f, P ) ≤ f (x)dx ≤ S(f, P ) ≤ S(f, P ) + .
2 R 2
D’où Z Z
fb(x)dx − f (x)dx < 2
b
R R
et, puisque > 0 est arbitraire, les deux intégrales sont égales.
Réciproquement, supposons fb Riemann-intégrable et soit > 0. Choisissons une
partition Pb de R
b telle que
S(fb, Pb ) − S(fb, Pb ) < .
Soit encore un pavé R tel que
R ⊂ int(R ) ⊂ R ⊂ int(R)
b
et
Vol(R ) − Vol(R) < avec M > sup |f (x)|.
2M x∈R
M
≥ S(f, P ) − + 0 = S(f, P ) − .
2M 2
De même
S(fb, Pb0 ) ≤ S(f, P ) +
2
et donc
S(f, P ) − S(f, P ) ≤ S(fb, Pb0 ) − S(fb, Pb0 ) + ≤ S(fb, Pb ) − S(fb, Pb ) + < 2.
R
Comme > 0 est arbitraire, f est Riemann-intégrable et on conclut que R f (x)dx =
R b
b f (x)dx par le même argument qu’auparavant.
R
Théorème 8.13 (de Fubini). Soit R ⊂ Rn+m un pavé de la forme R = R(1) × R(2) , R(1) ⊂
Rn , R(2) ⊂ Rm et f : R → R une fonction bornée et intégrable au sens de Riemann,
f = f (x, y), x ∈ R(1) , y ∈ R(2) . Si ∀y ∈ R(2) la fonction
R
f (·, y) : R(1) → R est intégrable
au sens de Riemann, alors la fonction y 7→ G(y) = R(1) f (x, y)dx, y ∈ R(2) , est aussi
intégrable au sens de Riemann et
Z Z Z Z
f (x, y)dxdy = G(y)dy = f (x, y)dx dy,
R R(2) R(2) R(1)
R
où R f (x, y)dxdy est une notation pour l’intégrale de f sur R.
Reciproquement, si ∀x ∈ R(1) la fonction
R
f (x, ·) : R(2) → R est intégrable au sens de
Riemann, alors la fonction x 7→ F (x) = R(2) f (x, y)dy, x ∈ R(1) , est aussi intégrable au
sens de Riemann et
Z Z Z Z
f (x, y)dxdy = F (x)dx = f (x, y)dy dx,
R R(1) R(1) R(2)
Démonstration. Puisque f est intégrable, ∀ > 0 il existe une partition P de R telle que
S(f, P ) − S(f, P ) < . Cette partition admet toujours un raffinement P0 qui est une
partition tensorielle :
P0 = (t01 , . . . , tN 0
1 ) ⊗ . . . ⊗ (tn+m , . . . , tn+m ).
1 n+m N
Soit
Donc
!
X
S(G, P(2) ) = inf G(y) Vol(Q(2) )
(2) y∈Q(2)
Q(2) ∈P
!
X
≥ inf S(f (·, y), P(1) ) Vol(Q(2) )
(2) y∈Q(2)
Q(2) ∈P
X X
inf f (x, y) Vol(Q(1) ) Vol(Q(2) )
= inf
(2) y∈Q(2) (1) x∈Q(1)
Q(2) ∈P Q(1) ∈P
!
X X
≥ inf f (x, y) Vol(Q(1) ) Vol(Q(2) )
(2) (1) (x,y)∈Q(1) ×Q(2)
Q(2) ∈P Q(1) ∈P
(2)
De façon similaire, on montre que S(G, P ) ≤ S(f, P0 ) ≤ S(f, P ) et donc
ce qui implique que G est intégrable au sens de Riemann sur R(2) . De plus,
Z
S(f, P ) ≤ S(G, P(2) ) ≤ G(y)dy ≤ S(G, P(2) ) ≤ S(f, P )
R(2)
et Z
S(f, P ) ≤ f (x, y)dxdy ≤ S(f, P )
R
Cette formule prend le nom de formule des intégrales itérées. La Figure 8.2 donne une
interprétation géométrique.
110 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN
Exemple 8.15. Soit R = [1, 2] × [0, 1], et f (x, y) = x13 ey/x : R → R. Clairement, f est
continue sur R (fermé). On peut donc calculer l’intégrale double sur f par la formule des
intégrales itérées :
Z Z 2 Z 1 Z 1 Z 2
f (x, y)dxdy = f (x, y)dy dx = f (x, y)dx dy .
R
|1 0
{z } |0 1
{z }
(A) (B)
Utilisons (A) :
Z 2 Z 1 Z 2
1 y/x 1 y/x y=1
3
e dy dx = 3
xe dx
1 0 x 1 x y=0
Z 2 Z 2 Z 2
1 1/x 1 1/x 1
= (e − 1)dx = e dx − dx
1 x2 2
x 1
2
1 x
Z 1/2 2
1 √ 1
=− et dt + =e− e− .
1 x 1 2
R √
On a donc R f (x, y)dxdy =e− e − 12 .
est intégrable au sens de Riemann. Dans ce cas, on définit l’intégrale de f sur E par
Z Z
f (x)dx = f˜(x)dx. (8.1)
E R
En effet :
— si supQ f˜ ≥ inf Q f˜ ≥ 0, alors f˜+ (x) = f˜(x) ∀x ∈ Q et on a égalité ;
— si inf Q f˜ ≤ supQ f˜ ≤ 0, alors supQ f˜+ − inf Q f˜+ = 0 ≤ supQ f˜ − inf Q f˜ ;
— si inf Q f˜ ≤ 0 ≤ sup f˜, alors f˜+ (x) ≤ f˜(x) − inf Q f˜ ∀x ∈ Q et
Q
Il s’ensuit que S(f˜+ , P ) − S(f˜+ , P ) ≤ S(f˜, P ) − S(f˜, P ) < et f˜+ ∈ R(R), donc
f+ ∈ R(E). Comme f− = (−f )+ on a aussi f− ∈ R(E) et |f | = f+ + f− ∈ R(E). Enfin,
Z Z
puisque f ≤ |f |, on a f (x)dx ≤ |f (x)|dx,
EZ EZ
et donc f˜g̃ ∈ R(R) ce qui implique que f g ∈ R(E). Si f n’est pas positive ou g n’est pas
positive (ou ni l’une ni l’autre), on a f g = (f+ −f− )(g+ −g− ) = f+ g+ −f+ g− −f− g+ +f− g−
et chaque terme f± , g± ∈ R(E), donc f g ∈ R(E).
8.5. ENSEMBLES MESURABLES AU SENS DE JORDAN 113
Un ensemble borné E ⊂ Rn est dit négligeable s’il est mesurable au sens de Jordan et
Vol(E) = 0.
Une caractérisation équivalente d’ensemble Jordan-mesurable est la suivante.
Lemme 8.20. Soit E ⊂ Rn borné et R ⊂ Rn un pavé contenant E. Alors E est Jordan-
mesurable si et seulement, pour tout > 0, il existe une partition P de R telle que
X
Vol(Q) < .
Q∈P
Q∩E6=∅, Q∩(Rn \E)6=∅
Démonstration. Par le Lemme 8.10, E est Jordan-mesurable si, et seulement si, pour tout
> 0, il existe une partition P de R telle que S(1E , P ) − S(1E , P ) < . Or
X
S(1E , P ) = Vol(Q)
Q∈P
Q∩E6=∅
et X
S(1E , P ) = Vol(Q).
Q∈P
Q∩(Rn \E)=∅
S(1E , P ) ≥ 0 et
X K
X X K
X
S(1E , P ) = Vol(Q) ≤ Vol(Q) = Vol(Ri ) < ,
Q∈P , Q∩E6=∅ i=1 Q∈P , Q⊂Ri i=1
où on a utilisé que
∀Q ∈ P Q ∩ E 6= ∅ ⇒ ∃i ∈ {1, . . . , K} Q ⊂ Ri .
R
Comme > 0 est arbitraire, 1E est intégrable sur R et R 1E (x)dx = 0.
Remarque 8.22. Il résulte de ce lemme que toute union finie d’ensembles négligeables
est un ensemble négligeable, et que tout sous-ensemble d’un ensemble négligeable est aussi
négligeable.
2
8.5. ENSEMBLES MESURABLES AU SENS DE JORDAN 115
Le bord de tout pavé étant une union finie de pavés de volume nul, ∂E est inclus dans
l’union d’une famille finie de pavés (éventuellement dégénérés) dont la somme des volumes
est < . Comme > 0 est arbitraire, ∂E est négligeable.
R
« ⇐ » (∂E négligeable ⇒ E mesurable) Puisque 1∂E ∈ R(R) et R 1∂E (x)dx = 0,
∀ > 0 il existe une partition P de R telle que S(1∂E , P ) < . Mais pour Q ∈ P ,
supQ 1∂E = 1 si et seulement si Q ∩ ∂E 6= ∅. D’où
X
Vol(Q) < .
Q∈P , Q∩∂E6=∅
116 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN
Comme > 0 est arbitraire, ceci prouve que 1E est Riemann-intégrable, et donc E est
Jordan-mesurable.
(union finie de fermés bornés). Comme f : K → R est continue sur le compact K, elle est
uniformément continue sur K. Il existe donc δ > 0 tel que
∀x, y ∈ K kx − yk < δ ⇒ |f (x) − f (y)| <
1 + 2 Vol(R)
(si K = ∅, on peut choisir δ > 0 librement). Quitte à prendre un raffinement de P , nous
pouvons supposer que
∀Q ∈ P Q ⊂ K ⇒ diam(Q) < δ .
On obtient alors
X
S(f, P ) − S(f, P ) = sup f − inf f Vol(Q)
Q Q
Q∈P
X X
= + sup f − inf f Vol(Q)
Q Q
Q∈P , Q⊂K Q∈P , Q∩N 6=∅
≤ Vol(R) + 2M < .
1 + 2 Vol(R) 1 + 4M
Comme > 0 est arbitraire, ceci prouve que f est Riemann-intégrable.
Démonstration. (v) Soit M = 1 + supx∈E |f (x)| et fixons > 0. Il existe une partition P
de R telle que
S(1E , P ) − S(1E , P ) <
M
et donc X
Vol(Q) < .
Q∈P
M
Q∩E6=∅, Q∩(Rn \E)6=∅
On a donc, où Q ∈ P ,
X X X
S(f˜, P ) = + + sup fe(x) Vol(Q)
Q⊂E Q∩E6=∅, Q∩E c 6=∅ Q⊂E c x∈Q
X X
≤ sup f (x) Vol(Q) + M Vol(Q) + 0 < sup f (x)S(1E , P ) + M +0
Q⊂E x∈E Q∩E6=∅, Q∩E c 6=∅ x∈E M
D’où Z
f˜(x)dx < sup f (x) Vol(E) + 2
R x∈E
et Z
f˜(x)dx > inf f (x) Vol(E) − 2.
R x∈E
1 R
Donc il existe x0 ∈ E tel que f (x0 ) = Vol(E) E f (x)dx.
8.7. GÉNÉRALISATION DE LA FORMULE DES INTÉGRALES ITÉRÉES 119
On a
X X
S(1E , P̃) = Vol(Ri × [0, mi ]) = mi Vol(Ri ) = S(h̃, P ),
i:Ri ⊂K i:Ri ⊂K
X X
S(1E , P̃) = Vol (Ri × [0, mi ]) + Vol Ri × mi , Mi +
i:R ∩K6=∅ i:R ∩K6=∅
Vol(R)
i i
X X
= Vol(Ri ) Mi + ≤ Vol(Ri )Mi + = S(h̃, P ) + ,
i:R ∩K6=∅
Vol(R) i:Ri ∩K6=∅
i
ce qui implique que S(1E , P̃) − S(1E , P̃) < 2 et donc, puisque ∈]0, Vol(R)[ est arbitraire,
1E ∈ R(R̃). De plus, puisque > 0 peut être pris aussi petit qu’on veut et S(h̃, P ) =
S(1E , P̃) ≤ S(1E , P̃) ≤ S(h̃, P ) + , on conclut que
Z Z Z
Vol(E) = 1E (x, y)dxdy = h̃(x)dx = h(x)dx.
R̃ R K
Par les mêmes arguments, on vérifie facilement qu’un domaine de la forme E = {(x, y) :
x ∈ K, c ≤ y ≤ h(x)}, avec c ≤ minx∈K h(x), est aussi mesurable.
8.7. GÉNÉRALISATION DE LA FORMULE DES INTÉGRALES ITÉRÉES 121
Remarque. Pour j ∈ {1, . . . , n} fixé, il y a une version où les rôles des variables xj et y
sont échangés.
122 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN
R
Exercice 8.38. Calculer T x dxdydz où T = {(x, y, z) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1 − x, 0 ≤
z ≤ 1 − x − y} est un simplexe de R3 .
x = ψ(u), ψ : E ⊂ Rn → Rn ,
tel que F = ψ(E). On se pose les questions suivantes : i) l’ensemble E est-il mesurable ? ii)
La fonction f˜(u) = f (ψ(u)) : E → R est-elle intégrable sur E ? iii) Comment l’intégrale I
se transforme suite au changement de variables ?
Rappelons d’abord le cas n = 1. Soit F = [α, β] ⊂ R un intervalle, f : F → R une
fonction continue et ψ : E = [a, b] → R une fonction de classe C 1 (jusqu’au bord) telle
que ψ(a) = α, ψ(b) = β et ψ(E) = F (avec a < b et α < β). On ne suppose pas que ψ soit
injective. Alors la fonction u 7→ f (ψ(u))ψ 0 (u), u ∈ E, est aussi continue et
Z β Z b
f (x)dx = f (ψ(u))ψ 0 (u)du.
α a
On remarque, en particulier, que pour obtenir ce résultat, on n’a pas demandé que la
fonction ψ soit une bijection entre E et F . En effet, le résultat reste vrai même si la
fonction ψ n’est pas une bijection.
En dimension n > 1, on n’a plus un théorème fondamental du calcul intégral, donc
on cherche un résultat qui soit valable sous des conditions un peu plus fortes et qui soit
généralisable au cas n > 1. Pour n = 1, on va demander que la transformation ψ : E → F
soit un difféomorphisme (donc une bijection de classe C 1 avec application inverse de classe
C 1 ), où E = [a, b] avec a < b dans R. Alors, nécessairement, ψ 0 6= 0 sur E, F = [ψ(a), ψ(b)]
si ψ est strictement croissante, F = [ψ(b), ψ(a)] si ψ est strictement décroissante, et on a :
1. Si ψ 0 (u) > 0, ∀u ∈ [a, b], alors ψ est strictement croissante et ψ(a) < ψ(u) <
ψ(b), ∀u ∈]a, b[. Donc
Z Z ψ(b) Z b Z b
f (x)dx = f (x)dx = f (ψ(u))ψ 0 (u)du = f (ψ(u))|ψ 0 (u)|du.
F ψ(a) a a
2. Si ψ 0 (u) < 0, ∀u ∈ [a, b], alors ψ est strictement décroissante et ψ(b) < ψ(u) <
ψ(a), ∀u ∈]a, b[. Donc
Z Z ψ(a) Z ψ(b)
f (x)dx = f (x)dx = − f (x)dx
F ψ(b) ψ(a)
Z b Z b
=− f (ψ(u))ψ 0 (u)du = f (ψ(u))|ψ 0 (u)|du.
a a
composantes de Dψ sont bornées sur E. Puisque elles sont aussi continues (car ψ ∈ C 1 (U )
et E ⊂ U ), donc intégrables sur E si celui ci est mesurable, on a que Jψ = det Dψ ∈ R(E)
(produit de fonctions intégrables) et l’intégrale à droite de (8.3) existe.
Le terme Jψ (u) = det Dψ(u) dans (8.3), souvent appelé le jacobien de ψ, représente
le changement infinitésimal de volume par le difféomorphisme ψ. En effet, soit u0 ∈ U et
r > 0 suffisamment petit tel que le pavé B̄r = {u ∈ Rn : ku − u0 k∞ ≤ r} soit contenu
dans U . Grâce au théorème 8.39 on a ψ(Br ) est mesurable puisque Br l’est et
Z
min |Jψ (u)| Vol(Br ) ≤ Vol(ψ(Br )) = |Jψ (u)|du ≤ max |Jψ (u)| Vol(Br ).
u∈B̄r Br u∈B̄r
Vol(ψ(Br ))
lim = |Jψ (u0 )|.
r→0 Vol(Br )
Que le changement infinitésimal de volume en u0 soit donné par | det Dψ(u0 )| ne devrait
pas surprendre. Considérons par exemple une application affine en dimension n = 2 :
x = ψ(u) = Au+b, avec A ∈ R2×2 , b ∈ R2 et notons (a1 , a2 ) les deux colonnes de A. Alors,
un rectangle Br1 ,r2 de sommets {u0 , u0 + r1 e1 , u0 + r2 e2 , u0 + r1 e1 + r2 e2 } est transformé
en un parallélogramme ψ(Br1 ,r2 ) de sommets {x0 , x0 + r1 a1 , x0 + r2 a2 , x0 + r1 a1 + r2 a2 }
(voir figure ci-dessous),
ψ(B)
r2 e2 r2 a2 r1 a1 = r1 Ae1
B
r1 e1
où x0 = ψ(u0 ) = Au0 + b et
Vol(ψ(Br1 ,r2 )) = |r1 a1 ×r2 a2 | = r1 r2 | det A| = | det A| Vol(Br1 ,r2 ) = | det Dψ(u0 )| Vol(Br1 ,r2 ).
On peut montrer que le même résultat est vrai en dimension n quelconque pour une
application affine.
Considérons maintenant une transformation non linéaire x = ψ(u). Autour d’un point
x0 = ψ(u0 ) on peut écrire un développement limité à l’ordre 1
y P = (x, y)
ρ
θ
x
intégrable. Notons f˜(ρ, θ) = f ◦ ψ(ρ, θ) = f (ρ cos θ, ρ sin θ). Puisque ψ −1 est bornée sur
tout ensemble borné, on a que E = ψ −1 (F ) est borné, ψ et Dψ sont bornées sur E et,
grâce au théorème 8.39, E est mesurable et
Z Z
f (x, y)dxdy = f˜(ρ, θ) ρ dρdθ.
F E
R
Exemple 8.40. On souhaite calculer F f (x, y)dxdy où F = {(x, y) : 1 ≤ x2 + y 2 ≤
4, x ≥ 0, y ≥ 0} ⊂ V et f (x, y) = 1+x12 +y2 , en utilisant le changement en coordonnées
polaires.
126 CHAPITRE 8. INTÉGRALE MULTIPLE AU SENS DE RIEMANN
P = (x, y, z)
ζ
y
θ
ρ
qui est un difféomorphisme entre les ouverts U = ]0, +∞[ × ]−π, π[ × ]0, π[ et V =
R3 \ {(x, y, z) : x ≤ 0, y = 0, z ∈ R}, avec
cos θ sin ϕ −ρ sin θ sin ϕ ρ cos θ cos ϕ
det Dψ(ρ, θ, ϕ) = det sin θ sin ϕ ρ cos θ sin ϕ ρ sin θ cos ϕ = −ρ2 sin ϕ < 0 sur U.
cos ϕ 0 −ρ sin ϕ
ϕ
P = (x, y, z)
ρ
y
θ
On remarque que pour tout ensemble E ⊂ Rn on peut toujours trouver une suite de
sous-ensembles {Kj }j∈N qui satisfait les propriétés de la définition ci-dessus. Il suffit en
effet de considérer, par exemple, la suite {Kj , j ≥ j0 } d’ensembles compacts
1
Kj = {x ∈ E : kxk ≤ j, kx − yk ≥ , ∀y ∈
/ E},
j
S
Démonstration. Fixons j ∈ N et Kj0 ∈ J (E). Clairement Kj0 ⊂ E = m∈N Km ⊂
S
m∈N K̊m+1 donc {K̊m }m∈N est un recouvrement ouvert de Kj . Puisque Kj est com-
0 0
pact, on peut extraire un recouvrement fini Kj0 ⊂ K̊i1 ∪ · · · ∪ K̊i` , et puisque les K̊m sont
emboîtés, Kj0 ⊂ K̊Nj avec Nj = max{i1 , . . . , i` }. Puisque f est intégrable sur KNj et Kj0
est mesurable, on a que f est intégrable sur Kj0 , ∀j ∈ N. De plus,
Z Z Z
f+ (x)dx ≤ f+ (x)dx ≤ lim f+ (x)dx < +∞,
Kj0 KNj m→∞ Km
Z Z Z
f− (x)dx ≤ f− (x)dx ≤ lim f− (x)dx < +∞.
Kj0 KNj m→∞ Km
R
Donc limj→∞ Kj0 f± (x)dx existent et
Z Z Z Z
lim f+ (x)dx ≤ lim f+ (x)dx, lim f− (x)dx ≤ lim f− (x)dx.
j→∞ K 0 m→∞ Km j→∞ K 0 m→∞ Km
j j
ce qui implique
Z Z Z Z
lim f+ (x)dx = lim f+ (x)dx, lim f− (x)dx = lim f− (x)dx
j→∞ K 0 j→∞ Kj j→∞ K 0 j→∞ Kj
j j
et
Z Z Z
lim f (x)dx = lim f+ (x)dx − lim f− (x)dx
j→∞ K 0 j→∞ K 0 j→∞ K 0
j j j
Z Z Z
= lim f+ (x)dx − lim f− (x)dx = f (x)dx.
j→∞ Kj j→∞ Kj E
R
Exemple 8.46. On veut vérifier si on peut définir E f (x, y)dxdy où E = B((0, 0), 1) \
{(0, 0)} et
1
f (x, y) = p 2 : R2 \ {(0, 0)} → R.
x + y2
1 1
Considérons la suite de sous-ensembles Kj = {(x, y) ∈ R2 : j+2 ≤ x2 + y 2 ≤ 1 − j+2 },
S
j ∈ N, qui satisfait les bonnes propriétés : Kj ∈ J (E), Kj ⊂ K̊j+1 , j∈N Kj = E. On a
q
Z Z Z Z π
1− j+2 1
1
L’exemple précédent montre que la fonction 1r , avec r = kxk, est (absolument) intégrable
pour x ∈ Rn , n = 2, dans un voisinage de zéro. Par un calcul similaire on trouve qu’elle
est absolument intégrable pour tout n ≥ 2. Toutefois, elle n’est pas intégrable pour
n = 1. Plus généralement, on a que la fonction f (x) = kxkα est absolument intégrable sur
E = B(0, 1) \ {0} pour tout α > −n.
R
Exemple 8.47. On veut vérifier si on peut définir E f (x, y)dxdy où E = B((0, 0), 1) \
{(0, 0)} et
x
f (x, y) = 2 : R2 \ {(0, 0)} → R.
(x + y 2 )2
1
De nouveau, on prend Kj = {(x, y) : j ≤ x2 + y 2 ≤ 1 − 1j }, j ≥ 2. On a
q
Z Z Z π
1− 1j ρ| cos θ|
|f (x, y)|dxdy = ρdρdθ
Kj √1 −π ρ4
j
q
1− 1j
1 p 4 j→∞
=4 − =4 j−q −−−→ +∞.
1
ρ √1
j
1− j
est appelée une intégrale ou une solution globale de l’équation (9.1) qui, à son tour,
est appelée Équation Différentielle Ordinaire (EDO) scalaire du premier ordre car elle
introduit une relation entre la valeur de la fonction (scalaire) inconnue u(t) et la valeur de
sa dérivée première en tout t ∈ I.
L’adjectif « ordinaire » fait référence au fait que l’inconnue est une fonction d’une
seule variable t, donc sa dérivée est une dérivée ordinaire. Ceci est pour distinguer du
cas où l’inconnue est une fonction de plusieurs variables (t, x1 , . . . , xm ) et l’équation fait
intervenir les dérivées partielles de u. Dans ce dernier cas, on parle d’une Équation aux
Dérivées Partielles (EDP), qu’on ne va pas traiter dans ce cours.
On vérifie facilement que u(t) = Cet − (t2 + 2t + 2), avec C ∈ R arbitraire, est une intégrale
de l’équation.
L’exemple précédent montre que la solution d’une EDO scalaire du premier ordre
dépend généralement d’un paramètre arbitraire, mais les exceptions sont courantes. On a
donc ici une famille infinie de solutions u(·, C) : I → R paramétrées par un paramètre réel.
133
134 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES
dont la solution est une fonction u : I → R de classe C n telle que (u(t), u0 (t), . . . , u(n−1) (t)) ∈
E, ∀t ∈ I. Une telle équation peut toujours être écrite sous forme d’une EDO vectorielle
d’ordre 1 en introduisant les variables
ce qui permet d’écrire (9.3) comme u0 (t) = f (t, u(t)), ∀t ∈ I. Pour cette raison, une étude
complète des systèmes d’EDO du premier ordre est suffisante pour pouvoir traiter aussi
des équations d’ordres supérieurs.
Les équations différentielles ordinaires apparaissent souvent dans les applications pour
décrire l’évolution d’un système en fonction du temps. Dans ce cas, la condition u(t0 ) = u0
peut être interprétée comme une valeur initiale, c.-à-d. elle décrit l’état du système au
temps initial t0 , et on cherche à prédire l’état u(t) du système pour des temps futures
t > t0 . On parle alors d’un Problème à valeur initiale :
Problème 9.4 (à valeur initiale). Étant donné f : I+ ×E → Rn continue, avec I+ = [t0 , T [
et −∞ < t0 < T ≤ +∞, E ⊂ Rn un ouvert et u0 ∈ E, trouver u : I+ → E continue sur
I+ et différentiable sur ˚
I+ t.q.
(
u0 (t) = f (t, u(t)), t0 < t < T,
(9.5)
u(t0 ) = u0 .
Il arrive parfois qu’on souhaite modéliser l’évolution passée qui a porté à l’état actuel
u(t0 ) = u0 du système. On parle alors d’un Problème à valeur finale :
Problème 9.5 (à valeur finale). Étant donné f : I− × E → Rn continue, avec I− = ]T̃ , t0 ]
et −∞ ≤ T̃ < t0 < +∞, E ⊂ Rn un ouvert et u0 ∈ E, trouver u : I− → E continue sur
I− et différentiable sur ˚
I− t.q.
(
u0 (t) = f (t, u(t)), T̃ < t < t0 ,
(9.6)
u(t0 ) = u0 .
Définition 9.8. On appelle solution locale du problème de Cauchy 9.3 un couple (J, u)
où J ⊂ I est un intervalle ouvert contenant t0 et où u ∈ C 1 (J) satisfait (9.4) sur J.
— On dit qu’une solution locale (K, w) du problème 9.3 prolonge strictement (J, u) si
J ⊂ K, J 6= K, et u(t) = w(t), ∀t ∈ J.
— On dit qu’une solution locale (J, u) est maximale s’il n’existe pas de solution locale qui
la prolonge strictement.
— On dit qu’une solution maximale (J, u) est une solution globale si J = I.
— Une solution maximale (J, u) est dite unique si toute solution locale (K, w) est telle
que K ⊂ J et w(t) = u(t), ∀t ∈ K.
Si on s’intéresse à l’EDO u0 (t) = f (t, u(t)) pour t dans l’intervalle ouvert I, sans
spécifier de condition initiale du type u(t0 ) = u0 , on peut aussi introduire une terminologie
analogue. Par exemple une solution locale est un couple (J, u) où J ⊂ I est un intervalle
ouvert non-vide et où u ∈ C 1 (J) est solution. Néanmoins, sans condition initiale, le concept
d’unicité d’une solution maximale n’est plus pertinent et, à la place, on introduit la notion
de solution générale : c’est l’ensemble de toutes les solutions maximales.
Il est important de savoir sous quelles conditions sur f le problème de Cauchy admet
des solutions locales ou globales et si elles sont uniques. On investiguera cette question
dans la section 9.4.
y
3
u 0 =2
2
u 0 =0.25
0 t
u 0 =-0.25
-1
-2
-3
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Figure 9.1 – Courbes intégrales associées aux conditions u(0) = 2, u(0) = 0.25, u(0) = −0.25
pour l’EDO u0 = u(1 − u).
tels que (J, u) est une solution locale du problème de Cauchy (9.7). De plus, une telle
solution locale (J, u) est unique au sens que toute autre solution locale (K, w) à valeurs
dans E satisfait w(t) = u(t) ∈ Ẽ, ∀t ∈ K ∩ J.
Démonstration. Notons tout d’abord que la fonction k, étant une fonction continue,
ne change pas de signe sur Ẽ, ce qui implique que F : Ẽ → R est continue strictement
monotone sur Ẽ, Im(F ) est ouvert et l’application inverse définie sur Im(F ) est continûment
138 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES
G0 (t)
u0 (t) = = g(t)k(u(t)), ∀t ∈ J.
F 0 (F −1 (G(t)))
De plus, u(t0 ) = F −1 (0) = u0 , donc (J, u) est une solution locale du problème de Cauchy.
Montrons l’unicité de cette solution. En effet, soit (K, w) une autre solution locale à
valeurs dans E. Puisque w est continue et Ẽ est ouvert, w−1 (Ẽ) est un ouvert dans K
contenant t0 . Soit K̃ le plus grand intervalle ouvert inclus dans w−1 (Ẽ) et contenant t0 .
R w0 (s) R
Alors, pour tout t ∈ K̃ on a k(w(t)) 6= 0 (car w(t) ∈ Ẽ) et tt0 k(w(s)) ds = tt0 g(s)ds =
G(t). Mais, en faisant le changement de variable v = w(t), la même intégrale devient
R t w0 (s) R w(t) 1
t0 k(w(s)) ds = u0 k(v) dv = F (w(t)), ce qui implique, grâce à l’inversibilité de F : Ẽ →
Im(F ), que w(t) = F −1 (G(t)), ∀t ∈ K̃. Donc w = u sur l’intervalle ouvert J ∩ K̃ ⊂ J ∩ K.
Par l’absurde, supposons qu’il existe t̃ ∈ ∂(J ∩ K̃) ∩ (J ∩ K). Comme u(t̃) ∈ Ẽ, on
obtiendrait par continuité que w(t̃) = u(t̃) ∈ Ẽ, ce qui conduirait à la contradiction
t̃ ∈ J ∩ K̃. D’où J ∩ K̃ = J ∩ K.
u(t) = F −1 (G(t)), ˜
∀t ∈ J.
Il est possible qu’il existe une solution locale sur un intervalle ouvert plus grand Jˆ ⊃ J.
˜
Toutefois, le théorème 9.10 ne garantit plus l’unicité de la solution sur Jˆ \ J.˜ En effet,
ˆ
l’exemple 9.12 ci-dessous montre que dès que k(u(t)) = 0 pour quelque t ∈ J, la solution
peut ne plus être unique (observez que k n’est pas de classe C 1 dans cet exemple).
De façon informelle, on peut construire la solution d’un problème de Cauchy par
séparation de variables en utilisant le procédé suivant :
Z u Z t
du du dv
= g(t)k(u) ⇒ = g(t)dt ⇒ = g(s)ds
dt k(u) u0 k(v) t0
⇒ F (u) − F (u0 ) = G(t) − G(t0 ) ⇒ u=F −1
(G(t) − G(t0 ) + F (u0 ))
1
où F est une primitive quelconque de k et G une primitive quelconque de g.
qui est bien inversible sur Ẽ, avec application inverse F −1 (v) = u0
1−u0 v continûment
R
différentiable sur ]−∞, u10 [. De plus, G(t) = tt0 1 dt = t − t0 et donc
u0 1
u(t) = , ∀t ∈ ]−∞, t0 + [
1 − (t − t0 )u0 u0
est l’unique solution du problème de Cauchy sur l’intervalle ]−∞, t0 + u10 [. Cette solution
est aussi la solution maximale car limt→(t0 + 1 )− = +∞ et elle ne peut pas être prolongée
u0
de façon continue sur un intervalle plus grand.
p
Exemple 9.12. Soit I, E = R, et f (t, u) = − |u|, (t, u) ∈ I ×E. Considérons le problème
de Cauchy ( p
u0 (t) = − |u(t)|, t ∈ I,
u(t0 ) = u0 > 0.
sont des solutions globales du même problème de Cauchy. On remarque que les deux
√
fonctions coïncident pour t < 2 u0 + t0 , ce qui est consistent avec le résultat du théorème
√
9.10, et que la solution n’est plus unique pour t > 2 u0 + t0 ,pc.-à-d. une fois que la solution
a touché la valeur critique ucr = 0 pour laquelle k(ucr ) = |ucr | = 0. Ces deux solutions
140 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES
globales peuvent être vues comme les membres extrêmes de la famille suivante de solutions
√
globales, la famille étant paramétrée par s ∈]2 u0 + t0 , +∞[ :
√
t−t0 2 √
u0 − 2
, t < 2 u0 + t0 ,
√
us (t) = 0, 2 u0 + t0 ≤ t < s,
− t−s 2 ,
t ≥ s.
2
Commenter sur l’unicité de la solution. Ici v 7→ v 1/3 est la fonction impaire sur R réciproque
de la fonction v → v 3 .
t3 + u3 (t)
u0 (t) = , u(t) > 0, t > 0, u(1) = u0 > 0.
tu2 (t)
9.3. EDO SCALAIRES LINÉAIRES DU PREMIER ORDRE 141
R
En intégrant on trouve F (v) = uv0 w2 dw = 13 (v 3 − u30 ), inversible entre R∗+ et ]− 13 u30 , +∞[
R
(d’inverse C 1 ), et G(t) = 1t 1s ds = ln t, t ∈ ]e−u0 /3 , +∞[, et donc
3
Exemple 9.17. Considérons l’équation différentielle linéaire u0 (t) = u(t) + 1, ainsi que le
problème de Cauchy avec condition initiale u(t0 ) = u0 . On a
— solution générale de l’équation homogène : z(t) = Cet ;
— solution particulière de l’équation non-homogène : w(t) = −1 ;
— solution générale : u(t) = w(t) + z(t) = −1 + Cet ;
— solution globale (unique) du problème de Cauchy : u(t) = −1 + (1 + u0 )e(t−t0 ) .
Expliquons une méthode importante pour trouver une solution particulière de l’équation
non-homogène : la méthode de variation des constantes. Elle consiste à chercher une solution
particulière de l’équation non-homogène sous la forme
d
w0 (t) = C(t)e−P (t) = C 0 (t)e−P (t) − C(t)e−P (t) p(t),
dt
R
d’où C 0 (t) = g(t)eP (t) et donc C(t) = t g(s)eP (s) ds, où on peut fixer librement la primitive
(c’est-à-dire, on peut fixer librement la constante “d’intégration”). On arrive finalement au
résultat final donnant l’intégrale générale d’une EDO linéaire
Z t
u(t) = Ce−(P (t)−P (t0 )) + g(s)e−(P (t)−P (s)) ds, t ∈ I,
Exemple 9.18.
Rt
Considérons le problème de Cauchy u0 (t) = u(t) + 1, t ∈ R et u(t0 ) = u0 .
On a P (t) = t0 −1 ds = t0 − t et
Z t
u(t) = u0 e t−t0
+ 1 · et−s ds
t0
= u0 et−t0 − e (e t −t
− e−t0 )
= −1 + (1 + u0 )et−t0 .
ce qui implique (
β1 + αβ0 = 1
αβ1 = 1
1 δt
u(t) = e + Ce−αt , t ∈ R, C ∈ R.
δ+α
9.4. EXISTENCE ET UNICITÉ DE SOLUTIONS 145
P
Si δ = −α alors on cherche w(t) = t j=0 βj t e . Par exemple, si g(t) = e = e
n j δt δt −αt
u(t) = (C + t)e−αt , t ∈ R, C ∈ R.
Le réciproque est aussi vrai. Si u ∈ C 0 (J, E) satisfait l’équation intégrale (9.14), avec
J ⊂ I ouvert contenant t0 , alors u est différentiable sur J et (J, u) est une solution locale
de (9.13). On introduit alors l’application φ : C 0 (J, E) → C 0 (J, Rn ) qui à toute fonction
v ∈ C 0 (J, E) fait correspondre la fonction φ(v) ∈ C 0 (J, Rn ) définie par
Z t
φ(v)(t) = u0 + f (s, v(s))ds, ∀t ∈ J. (9.15)
t0
La solution de (9.14) est un point fixe de l’application φ, i.e. u = φ(u). Avant de présenter
les théorèmes d’existence et unicité de solutions de (9.13) (resp. (9.14)) on va introduire
la notion abstraite d’espace de Banach et généraliser le théorème de point fixe dans un
sous-ensemble fermé d’un espaces de Banach. Ceci nous permettra d’appliquer le théorème
de point fixe à l’application φ dans l’espace C 0 (J, Rn ).
Définition 9.21 (Espace complet). On dit qu’un espace vectoriel normé (V, k · k) est
complet si toute suite de Cauchy de V converge dans V . Autrement dit, pour toute suite
{v (k) }k∈N ⊂ V de Cauchy, ∃ v ∗ ∈ V tel que limk→∞ kv ∗ − v (k) k = 0. Un espace vectoriel
normé complet est appelé espace de Banach.
On dit qu’un sous-ensemble K ⊂ V est complet si toute suite de Cauchy de K converge
dans K.
Exercice 9.22. Considérons l’espace vectoriel réel C 0 ([−1, 1]) de fonctions réelles conti-
nues
R1
sur le compact [−1, 1] et l’application k · k1 : C 0 ([−1, 1]) → R+ donnée par kf k1 =
0
−1 |f (x)|dx. Vérifier que k · k1 est une norme. L’espace (C ([−1, 1]), k · k1 ) est-il complet ?
9.4. EXISTENCE ET UNICITÉ DE SOLUTIONS 147
Dans un espace de Banach (V, k · k), les sous-ensembles ouverts sont définis à l’aide
de la norme de la même manière que dans Rn et les sous-ensembles fermés sont définis
comme les complémentaires des ouverts. Comme dans Rn , un sous-ensemble E ⊂ V est
fermé si, et seulement si, toute suite d’éléments de E qui converge dans V a sa limite
dans E. Il en résulte immédiatement le lemme suivant qui caractérise les sous-ensembles
complets d’un espace de Banach.
Pour démontrer les théorèmes de la section suivante, on va travailler avec l’espace des
fonctions continues sur un compact, qui a une structure d’espace de Banach s’il est muni
d’une norme appropriée, comme le théorème suivant le montre.
qui est un sous-ensemble fermé (et donc complet) de C 0 (Jδ , Rn ). On va étudier l’application
φ : Kb,u0 (Jδ ) → C 0 (Jδ , Rn ) définie en (9.15) :
Z t
φ(v)(t) = u0 + f (s, v(s))ds, ∀t ∈ Jδ .
t0
donc, si on prend δ ≤ Mb on a kφ(v) − u0 kC 0 (Jδ ) ≤ b, i.e. φ(v) ∈ Kb,u0 (Jδ ), ∀v ∈ Kb,u0 (Jδ )
et φ envoie Kb,u0 (Jδ ) dans lui-même. De plus, ∀v1 , v2 ∈ Kb,u0 (Jδ ) et ∀t ∈ Jδ
Z t Z t
kφ(v1 )(t) − φ(v2 )(t)k = f (s, v1 (s)) − f (s, v2 (s))ds ≤ kf (s, v1 (s)) − f (s, v2 (s))kds
t0 t0
Z t
≤ Lkv1 (s) − v2 (s)kds ≤ Lδ max kv1 (t) − v2 (t)k
t0 t∈Jδ
ce qui implique kφ(v1 ) − φ(v2 )kC 0 (Jδ ) ≤ Lδkv1 − v2 kC 0 (Jδ ) . Donc, pour δ < min{a, Mb , L1 },
l’application φ : Kb,u0 (Jδ ) → Kb,u0 (Jδ ) est contractante et il existe un unique u ∈ Kb,u0 (Jδ )
point fixe de φ. Alors (Jδ , u) est l’unique solution du problème de Cauchy (9.13) dans
Kb,u0 (Jδ ).
On pourrait encore se demander s’il existe d’autres solutions ũ ∈ / Kb,u0 (Jδ ) définies
sur Jδ . Montrons que ceci n’est pas le cas en considérant une solution ũ : Jδ → E du
problème de Cauchy. Puisque ũ(t0 ) = u0 et ũ0 est continue en t0 , il existe 0 < δ̃ ≤ δ tel
que kũ(t) − u0 k ≤ b, ∀t ∈ Jδ̃ = [t0 − δ̃, t0 + δ̃]. Soit
Mais alors, il existe un δ̂ ∈]0, δ − β[ tel que kũ(t) − u0 k ≤ b, ∀t ∈ [t0 − β − δ̂, t0 + β + δ̂],
ce qui contredit la définition de β. Ainsi ũ = u sur Jδ .
Soit, maintenant, (K, w) une solution locale du problème de Cauchy et J˜ ⊂ K ∩ Jδ un
intervalle fermé contenant t0 dans son intérieur. Le même raisonnement que celui ci-dessus,
mais appliqué à l’intervalle J, ˜ donne que w(t) = u(t), ∀t ∈ J. ˜ Comme on obtient ainsi
˜
l’égalité sur tout intervalle fermé J ⊂ K ∩ Jδ contenant t0 dans son intérieur, on a prouvé
l’égalité sur K ∩ Jδ .
150 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES
u0 (t) = u2 (t), t ∈ R.
Lemme 9.31. Sous les mêmes hypothèses du théorème 9.28, soient des intervalles J1 , J2 ⊂
I contenant t0 dans leurs intérieurs et soient des fonctions continues u1 : J1 → E et
u2 : J2 → E, solutions du problème de Cauchy (9.13) sur respectivement J˚1 et J˚2 . Alors
u1 (t) = u2 (t), ∀t ∈ J1 ∩ J2 .
et n o
β = sup β̃ ∈ [t0 + δ, B[: u1 = u2 sur [t0 − δ, β̃] ≤ B.
Grâce au Lemme précédent, on peut toujours construire une unique solution maximale.
Théorème 9.32. Sous les hypothèse du théorème 9.28, pour tout (t0 , u0 ) ∈ I × E il existe
une unique solution maximale (Jmax , u) du problème de Cauchy (9.13) avec Jmax ⊂ I
ouvert contenant t0 .
Démonstration. Soit {(Jη , uη )}η l’ensemble des solutions locales du problème de Cauchy
(9.13), avec Jη ⊂ I intervalle ouvert contenant t0 . Ici chaque solution locale est paramétrée
par η appartenant à un certain ensemble Γ en bijection avec l’ensemble des solutions
locales.
S
On note Jmax = η Jη et on définit la fonction u : Jmax → Rn de la façon suivante :
pour t ∈ Jmax il existe au moins un η t.q. t ∈ Jη ; on définit alors u(t) = uη (t). Cette
définition de u(t) ne dépend pas du choix de η car si η 0 est aussi tel que t ∈ Jη0 , par
le lemme 9.31 on a uη (t) = uη0 (t). De plus, la fonction u ainsi définie est solution du
problème de Cauchy et elle est la solution maximale car toute solution locale (Jη , uη ) est
telle que Jη ⊂ Jmax et uη (t) = u(t), ∀t ∈ Jη .
— pour toute suite {tn }n∈N dans Jmax t.q. limn→∞ tn = β et limn→∞ u(tn ) = ξ ∈ E ⊂
Rn , on a ξ ∈ ∂E ;
(
u0 (t) = u(t)(1 − u(t)), t∈R
(9.16)
u(t0 ) = u0 .
— Si u0 ∈ ]1, +∞[ alors Im(u) ⊂ ]1, +∞[ et est décroissante car f (t, y) < 0 pour y > 1 ;
par le Théorème 9.34, u est définie sur un intervalle ouvert contenant [t0 , +∞[
— Si u0 ∈ ]−∞, 0[ alors Im(u) ⊂ ]−∞, 0[ et est décroissante car f (t, y) < 0 pour y < 0 ;
par le Théorème 9.34, u est définie sur un intervalle ouvert contenant ] − ∞, t0 ].
La figure ci dessous montre trois solutions maximales correspondantes aux trois problèmes
de Cauchy avec u0 ∈ ]0, 1[, u0 ∈ ]1, +∞[, u0 ∈ ]−∞, 0[ et t0 = 0.
9.4. EXISTENCE ET UNICITÉ DE SOLUTIONS 153
u
3
u0 = 2
2
u=1
1
u0 = 0.25
−3 −2 −1 1 2 3 4 5 t
−1
u0 = −0.25
Le théorème 9.34 nous garantit que pour u0 ∈ ]0, 1[ la solution est globale (autrement
elle devrait aller à l’infini en un temps fini mais ceci impliquerait de franchir une des deux
barrières u = 0 ou u = 1.) On ne peut par arriver à la même conclusion si u0 ∈ ]1, +∞[
ou u0 ∈ ]−∞, 0[. En effet, en faisant les calculs, on voit que la solution est maximale mais
non globale.
Raisonnons par l’absurde en supposant que Jmax est strictement inclus dans I, autre-
ment dit, sup Jmax ∈ I ou inf Jmax ∈ I (ou les deux à la fois). Traitons le cas sup Jmax ∈ I,
l’autre cas étant analogue. Pour T := sup Jmax (qui est fini puisque dans I), choisissons
µ > 0 tel que J := [T − µ, T + µ] ⊂ I, et soit δ ∈ ]0, µ] tel que δ maxt∈J `(t) ≤ 13 .
Posons J0 = [T − δ, T R+ δ]. Alors, l’application φ : C 0 (J0 , Rn ) → C 0 (J0 , Rn ) définie
par φ(v)(t) = u(T − 2δ ) + Tt − δ f (s, v(s))ds, t ∈ J0 , est contractante. En effet, pour tout
2
v1 , v2 ∈ C 0 (J0 , Rn ) on a
Z t
max kφ(v1 )(t) − φ(v2 )(t)k ≤ max kf (s, v1 (s)) − f (s, v2 (s))kds
t∈J0 t∈J0 T − 2δ
Z t
≤ max `(s)kv1 (s) − v2 (s)kds
t∈J0 T − 2δ
3δ
≤ max `(t) max kv1 (t) − v2 (t)k
2 t∈J0 t∈J0
1
≤ max kv1 (t) − v2 (t)k.
2 t∈J0
Par le théorème de point fixe de Banach on a alors une fonction u(0) ∈ C 0 (J0 , Rn ) point
fixe de φ qui est, en particulier, de classe C 1 et solution du problème de Cauchy sur J0 .
Grâce au Lemme 9.31 appliqué aux intervalles J1 = J2 = [T − δ, T [ et à la relation
u (T − 2δ ) = u(T − 2δ ), on a u(0) = u sur [T − δ, T [. On obtient une solution locale u
(0) e du
problème de Cauchy de départ définie sur Jmax ∪ [T, T + δ[ en posant u e = u sur Jmax et
e = u(0) sur [T, T + δ[. Ceci contredit la maximalité de Jmax .
u
admet une solution globale unique u ∈ C 1 (I+ , Rn ). Si, de plus, ` est non négative et
alors le problème de Cauchy (9.13) admet une solution globale unique sur I.
et donc Z t
h(t) ≤ −1 + (1 + h(t0 )) exp 2 `(s)ds .
t0
Rt Rβ
Mais ` ∈ C 0 ([t0 , β]) est bornée donc t0 `(s)ds ≤ t0 |`(s)|ds < +∞, ∀t ∈ [t0 , β[, et h(t)
Rβ
p |`(s)|ds
est bornée uniformément sur [t0 , β[. Par conséquent, si on note M = 1 + ku0 k2 e t0
on a M < +∞ et
ku(t)k ≤ M, ∀t ∈ [t0 , β[,
ce qui contredit l’hypothèse que limt→β − ku(t)k = +∞.
Dans le cas de la condition bilatérale (9.18) on a aussi
h0 (t) = 2u(t) · u0 (t) = 2u(t) · f (t, u(t)) ≥ −2`(t)(1 + ku(t)k2 ) = −2`(t)(1 + h(t))
156 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES
Remarque 9.41. La condition bilatérale (9.18) du théorème 9.40 est garantie si par
exemple ∃k1 , k2 : I → R+ continues et non négatives telles que
En effet,
Ceci montre que l’on a des solutions globales du problème de Cauchy si la norme de f (t, y)
croit au plus linéairement par rapport à la norme de y.
La fonction f (t, y) = −yey est localement lipschitzienne par rapport au deuxième argument,
donc ce problème admet une solution maximale unique. Toutefois, f n’est pas globalement
lipschitzienne par rapport au deuxième argument, donc on n’est pas garanti à priori que
la solution maximale soit définie sur tout [t0 , +∞[. Toutefois, yf (t, y) = −y 2 ey ≤ 0,
∀y ∈ R, t ∈ [t0 , ∞[, donc la solution maximale est globale.
(Attention : on ne peut pas déduire la même conclusion si on définit le problème sur
tout R au lieu de [t0 , +∞[. On a donc l’existence globale garantie seulement « à droite ».)
Le théorème prochain donne une autre condition suffisante pour l’existence et unicité
de solutions globales unilatérales.
9.5. EDO SCALAIRES LINÉAIRES DU SECOND ORDRE 157
Démonstration. La condition (9.19) est plus forte que la condition (9.17) du théorème
9.40. En effet, si on prend y = 0 en (9.19) on obtient pour tout x ∈ Rn
où dans la dernière inégalité on a utilisé que kxk ≤ 12 (1 + kxk2 ). Donc le résultat suit par
le théorème 9.40.
alors le problème de Cauchy (9.13) admet une solution globale unique sur I. En effet, on
vérifie de la même manière que (9.20) est une condition plus forte que (9.18). Comme être
globalement Lipchitz par rapport au deuxième argument implique (9.20), ceci donne une
nouvelle preuve du Théorème 9.37.
dont l’inconnue est une fonction u : I → R de classe C 2 telle que (u(t), u0 (t)) ∈ E, ∀t ∈ I.
Comme on l’a vu dans l’introduction du chapitre, une telle équation peut toujours être
réécrite sous forme d’un système de deux équations différentielles ordinaires du premier
ordre en introduisant les nouvelles inconnues u1 (t) = u(t), u2 (t) = u0 (t). On a alors
(
u01 (t) = u2 (t),
t ∈ I.
u02 (t) = f (t, u1 (t), u2 (t)),
158 CHAPITRE 9. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES
et peut être analysé du point de vu théorique utilisant les résultats de la section 9.4. Le
problème de Cauchy correspondant s’écrit pour un t0 ∈ I et u0 = (u0 , v0 ) ∈ E :
( (
u0 (t) = f (t, u(t)), t ∈ I, u00 (t) = f (t, u(t), u0 (t)), t ∈ I,
⇐⇒
u(t0 ) = u0 , u(t0 ) = u0 , u0 (t0 ) = v0 .
On voit donc que, pour une edo du second ordre, on a de façon naturelle deux conditions
initiales, une sur la solution u(t0 ) = u0 et une sur la dérivée première u0 (t0 ) = v0 .
Dans le reste de la section, on restreint notre étude aux équations différentielle scalaires
linéaires du second ordre, pour lesquelles la fonction f (t, y) est une fonction affine de
y. Soient a, b, g : I → R trois fonctions continues. Une équation différentielle linéaire du
second ordre est une équation de la forme
Il est facile de montrer (exercice) que cette fonction f : I ×R2 → R2 est toujours continue et
globalement lipschitzienne par rapport au deuxième argument (voir définition 9.36). Donc,
pour tout (t0 , u0 , v0 ) ∈ I × E, le problème de Cauchy avec condition initiale u(t0 ) = u0 ,
u0 (t0 ) = v0 a toujours une solution unique globale.
Pour la construction de l’intégrale générale et de la solution du problème de Cauchy,
on procède comme dans la section 9.3 en analysant séparément le cas homogène (g = 0) et
le cas non-homogène (g 6= 0).
admet une solution unique globale pour toute donnée initiale u0 = (u0 , v0 ). En particulier,
si u0 = (0, 0), la solution (unique) est identiquement nulle.
sont linéairement indépendantes si, pour tout choix des constantes α, β ∈ R, l’implication
suivante est vraie :
Inversement, on dit que z1 , z2 sont linéairement dépendantes s’il existe deux constantes
réelles α, β non simultanément nulles telles que αz1 (t) + βz2 (t) = 0, ∀t ∈ I. Dans ce cas,
on peut exprimer une de deux solutions en fonction de l’autre, i.e. z1 (t) = − αβ z2 (t) ou
bien z2 (t) = − αβ z1 (t).
W [z1 , z2 ](t) 6= 0, ∀t ∈ I.
Démonstration.
« ⇒ » : Soient z1 , z2 : I → R linéairement indépendants. On veut montrer que pour
tout t ∈ I les deux vecteurs z1 (t), z2 (t) ∈ R2 sont linéairement indépendants. Par l’absurde
supposons qu’il existe t0 ∈ I tel que z1 (t0 ), z2 (t0 ) sont linéairement dépendants, c’est-à-dire
∃α, β non simultanément nuls tels que αz1 (t0 ) + βz2 (t0 ) = 0, i.e.
Mais alors, la fonction v(t) = αz1 (t) + βz2 (t) satisfait le problème de Cauchy
(
v 00 (t) + a(t)v 0 (t) + b(t)v(t) = 0, t ∈ I,
v(t0 ) = 0, v 0 (t0 ) = 0,
indépendants s’il n’existe pas deux constantes réelles α, β non simultanément nulles telles
que αz1 + βz2 = 0 sur I, comme nous l’avons déjà mentionné. De plus, pour t0 ∈ I fixé,
l’application z 7→ (z(t0 ), z 0 (t0 )) ∈ R2 pour z ∈ S est linéaire. Cette application est aussi
bijective car, pour chaque (u0 , v0 ) ∈ R2 , il existe une unique fonction z ∈ S telle que
z(t0 ) = u0 et z 0 (t0 ) = v0 , comme nous l’avons vu. Il en résulte que S et R2 sont deux
espaces vectoriels isomorphes, ce qui donne une nouvelle preuve du théorème précédent. En
particulier ils ont la même dimension. Ainsi S est de dimension 2 et toute paire z1 , z2 ∈ S
linéairement indépendante en est une base : S = {C1 z1 + C2 z2 : C1 , C2 ∈ R}.
Ces considérations permettent de conclure que la solution générale de l’équation
homogène a la forme
u(t) = C1 z1 (t) + C2 z2 (t), t ∈ I, (9.23)
où z1 , z2 sont deux solutions linéairement indépendantes de l’équation homogène et C1 , C2 ∈
R deux constantes arbitraires. Si on souhaite résoudre le problème de Cauchy (9.21) il
faudra encore trouver les bonnes valeurs des constantes pour satisfaire la condition initiale
u(t0 ) = u0 , u0 (t0 ) = v0 .
La méthode de variation des constantes, déjà présentée dans la section 9.3, permet, à
partir d’une solution de l’équation homogène, d’en construire une deuxième linéairement
indépendante. Étant donnée une solution non identiquement nulle z1 : I → R de l’équation
homogène, l’idée est d’en chercher une deuxième sous la forme z2 (t) = C(t)z1 (t), où
C : I → R est une fonction non constante de classe C 2 . Les calculs sont laissés comme
exercice.
Donc
2
X
w00 + aw0 + bw = (Ci00 zi + 2Ci0 zi0 +
Cii + aCi zi +
00
z 0
zi0 +
aCi i zi )
bC
i=1
X2
d 0
= (Ci0 zi0 + aCi0 zi + (C zi ))
i=1
dt i
2
! 2
!
X d X
= C10 z10 + C20 z20 +a Ci0 zi + C 0 zi = g.
i=1
dt i=1 i
C’est une seule équation pour les deux fonctions inconnues C1 et C2 . On peut donc en
principe imposer une relation supplémentaire entre C1 et C2 . L’équation précédente se
P
simplifie beaucoup si on impose la condition 2i=1 Ci0 zi = 0. On obtient alors le système
de deux équations différentielles
(
C10 z1 + C20 z2 = 0
C10 z10 + C20 z20 = g
" #" # " #
z z2 C10 0
qui peut être écrit sous forme matricielle comme 10 = ce qui implique
z1 z20 C20 g
" # " #−1 " # " #" #
C10 z z2 0 1 z20 −z2 0
= 10 =
C20 z1 z20 g W [z1 , z2 ] −z10 z1 g
et donc C10 = − W [z
z2 g
1 ,z2 ]
et C20 = W [z1 ,z2 ] .
z1 g
Par intégration on obtient finalement
Z t
−z2 (s)g(s)
C 1 (t) = ds + κ1 ,
t0 W [z1 , z2 ](s)
Z t
z1 (s)g(s)
C2 (t) =
ds + κ2 ,
t0 W [z1 , z2 ](s)
λ2 + aλ + b = 0.
On vérifie facilement que z1 (t) = eλ1 t et z2 (t) = eλ2 t sont deux solutions linéairement
indépendantes. La solution générale de l’équation homogène est donc
2
z̃1 (t) − z̃2 (t)
z2 (t) = = e− 2 t sin(µt)
a
2i
qui sont effectivement des solutions linéairement indépendantes. La solution générale
de l’équation homogène est donc
Cas ∆ = 0. On a ici une seule solution réelle caractérisée par λ = − a2 ce qui donne la
solution z1 (t) = e− 2 t de l’équation homogène. On cherche une deuxième solution sous
a
la forme z2 (t) = C(t)z1 (t). On trouve z2 (t) = te− 2 t (vérifiez-le comme exercice) qui
a
X
n X
n
g(t) = aj tj eδt sin(ωt) + ãj tj eδt cos(ωt), ω 6= 0, δ ∈ R.
j=0 j=0
Si la fonction t 7→ eδt cos(ωt) n’est pas solution du problème homogène associé (et
donc t 7→ eδt sin(ωt) non plus), on cherche w(t) sous la même forme :
X
n X
n
w(t) = βj tj eδt sin(ωt) + β̃j tj eδt cos(ωt).
j=0 j=0
X
n X
n
w(t) = t βj tj eδt sin(ωt) + t β̃j tj eδt cos(ωt).
j=0 j=0
P
g est un polynôme multiplié par une fonction exponentielle : g(t) = n
j=0 aj t
j eδt .
Si δ = 0, la discussion qui suit redonne celle que l’on a déjà vu pour g un polynôme.
Si la fonction t 7→ eδt n’est pas solution du problème homogène associé, on cherche
w(t) sous la même forme :
X
n
w(t) = βj tj eδt .
j=0