0% ont trouvé ce document utile (0 vote)
83 vues85 pages

Différentiel Toop

Transféré par

maimounanassiri
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
83 vues85 pages

Différentiel Toop

Transféré par

maimounanassiri
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 1 : DIFFÉRENTIELLE D’UNE

APPLICATION

31 décembre 2005

Dans tout ce cours les espaces considérés sont des espaces vectoriels sur R,
munis d’une norme, notée k.k. Si E et F sont de tels espaces, l’image par une
application linéaire u : E → F d’un vecteur h ∈ E sera souvent notée u · h et
parfois u(h). Lorsque u est continue, sa norme est notée kuk. L’espace vectoriel
des applications linéaires continues de E dans F est noté L(E, F ). Il est muni
de la norme kuk.

1 Quelques définitions
Commençons par le

ku · hk
Lemme 1.1 Si u : E → F est linéaire continue, et vérifie lim = 0,
h→0 khk
alors u = 0.

Preuve : L’hypothèse signifie que pour tout ε > 0, il existe α > 0 tel que
αx
khk < α implique ku · hk ≤ εkhk. Soit x ∈ E. Si x 6= 0, le vecteur h = 2kxk
a pour norme α2 < α, donc ku( 2kxk αx αx
)k ≤ ε 2kxk , ce qui s’écrit, en utilisant la
linéarité, ku · xk ≤ εkxk. On en déduit kuk ≤ ε pour tout ε > 0, d’où kuk = 0
et donc u = 0.

Définition 1.2 Soit U un ouvert de E et f : U → F une application. L’ap-


plication f est dite différentiable en a ∈ U s’il existe une application linéaire
continue u : E → F telle que

f (x) − f (a) − u(x − a)


lim = 0.
x→a kx − ak

L’application f est dite différentiable dans U si elle l’est en chaque point de U .

Il est utile de remarquer que, contrairement à f qui n’est supposée définie


que sur l’ouvert U , l’application u, comme toute application linéaire, est définie
sur l’espace vectoriel E tout entier. On rappelle d’ailleurs que dans un espace

1
normé le sous-espace vectoriel engendré par un ouvert non vide est toujours
l’espace entier.
Le lemme 1.1 justifie de donner un nom à l’application linéaire continue u.

Définition 1.3 Si f est différentiable en a, l’application linéaire continue u est


appelée différentielle de f en a. On la note Df (a).

On peut alors expliciter la définition sous la forme : si f est différentiable en


a, pour tout ε > 0, il existe r > 0 tel que khk < r implique a + h ∈ U et

kf (a + h) − f (a) − Df (a) · hk < εkhk.

Proposition 1.4 Si f : U → F est différentiable en a ∈ U , alors pour tout


h ∈ E,
f (a + th) − f (a)
lim = Df (a) · h
t→0 t

Preuve : On écrit
f (a + th) − f (a) f (a + th) − f (a) − Df (a)(th)
= + Df (a) · h
t t
et on utilise la définition en remarquant que si t → 0 alors th → 0.

Il est essentiel de signaler tout de suite que la réciproque n’est pas vraie.
L’existence d’une limite pour chaque h ∈ E permet de deviner Df (a) mais ne
dispense de montrer ni la linéarité ni la continuité.
Remarquons cependant que cette proposition permet de s’assurer que dans le
cas particulier où E = F = R, f est différentiable en a si et seulement si elle
est dérivable en a. Si c’est le cas l’application linéaire Df (a) : R → R est
Df (a) · t = f 0 (a)t.

Proposition 1.5 Si f est différentiable en a, elle est continue en a.

Preuve En choisissant ε = 1, on voit qu’il existe α > 0 tel que si kx − ak < α,


x ∈ U et kf (x) − f (a) + Df (a)(x − a)k < kx − ak. D’où kf (x) − f (a)k <
kDf (a)(x − a)k + kx − ak ≤ (1 + kDf (a)k)kx − ak, ce qui montre que f est
« localement lipschitzienne » en a, donc continue.

La démonstration de la proposition suivante est laissée en exercice.

Proposition 1.6 Si on remplace les normes choisies sur E et F par des normes
équivalentes, la différentiabilité d’une application en un point et la valeur de la
différentielle sont inchangées.

2
Rappelons que sur un espace vectoriel de dimension finie toutes les normes
sont équivalentes et que cette propriété est caractéristique des espaces de di-
mension finie.

La proposition suivante décrit le cas où l’espace F est un produit d’espaces


normés, F = F1 × F2 × · · · × Fn , muni de la norme produit :

k(y1 , · · · , yn )k = max kyj k


j=1···n

ou de toute norme équivalente. Définir une application f de U dans F c’est se


donner n applications fj : U → Fj , de sorte que pour tout x ∈ U ,

f (x) = (f1 (x), · · · , fn (x)).

Les applications fj sont appelées composantes de f . On vérifie aisément que


lorsque U = E, f est linéaire si et seulement si chaque composante fj l’est. On
sait que la continuité de f est équivalente à celle de chacune des composantes. La
proposition suivante montre que la même propriété est vraie en ce qui concerne
la différentiabilité.

Proposition 1.7 L’application f est différentiable en a ∈ U si et seulement si


chaque composante fj l’est. Dans ce cas

Df (a) = (Df1 (a), · · · , Dfn (a))

où Dfj (a) ∈ L(E, Fj ) est la différentielle de fj en a.

Preuve Si f est différentiable en a, Df (a) : E → F1 ×· · ·×Fn a n composantes :


Df (a) = (u1 , · · · , un ) où uj : E → Fj est linéaire continue. De plus, pour tout
ε > 0, il existe α > 0 tel que, si khk < α, a + h ∈ U et

kf (a + h) − f (a) − Df (a) · hk < εkhk.

En explicitant la norme de F et en utilisant les composantes de f et de Df (a)


ceci s’écrit :
max kfj (a + h) − fj (a) − uj · hk < εkhk.
j=1···n

Cela prouve que, pour chaque j, fj est différentiable en a et que Dfj (a) = uj .
Réciproquement, supposons chaque fj différentiable en a. L’application u =
(Df1 (a), · · · , Dfn (a)) est linéaire et continue d’après ce qui est rappelé. De plus
en écrivant simultanément pour les n composantes la différentiabilité en a, on
voit que pour tout ε > 0, il existe α > 0 tel que, si khk < α, a + h ∈ U et pour
j = 1 · · · n, kfj (a + h) − fj (a) − Dfj (a) · hk < εkhk. Alors

kf (a + h) − f (a) − u.hk = max kfj (a + h) − fj (a) − Dfj (a) · hk < εkhk


j=1···n

ce qui montre que f est différentiable en a et que Df (a) = u.

3
Ceci s’applique en particulier au cas où F est de dimension finie. En ap-
pelant n cette dimension, le choix d’une base W = (w1 , · · · , wn ) de F permet
d’identifier (topologiquement) F à Rn . Les composantes de f sont alors appelées
fonctions coordonnées. Leurs différentielles (lorsqu’elles existent) sont des formes
linéaires continues sur E.
L’utilisation de la base W conduit aux écritures suivantes. Pour tout x ∈ U ,
n
X
f (x) = fj (x)wj
j=1

et pour tout h ∈ E,
n
X
Df (a) · h = (Dfj (a) · h)wj
j=1

où Dfj (a) · h est un scalaire.


Si de plus E = R, f : U ⊂ R → Rn est donnée par f (x) = (f1 (x), · · · , fn (x)).
Elle est différentiable en a si et seulement si chaque fonction coordonnée est
dérivable en a. Dans ce cas Df (a) · t = t(f10 (a), · · · , fn0 (a)) est le produit du
scalaire t par le vecteur de Rn dont les composantes sont les dérivées en a des
composantes de f . On note f 0 (a) ce vecteur que l’on appelle vecteur dérivée de
f en a. On a donc Df (a) · t = tf 0 (a) et en particulier f 0 (a) = Df (a) · 1.
Remarquons que, plus généralement, lorsque E = R, si F est un espace
normé quelconque, f : U ⊂ R → F est différentiable en a si et seulement si
f (a + t) − f (a)
lim existe. C’est alors un vecteur de F que l’on note f 0 (a) et
t→0 t
qu’on appelle vecteur dérivée de f en a. La différentielle de f en a est alors
l’application linéaire (automatiquement continue) Df (a) : R → F définie par
Df (a)·t = tf 0 (a). En particulier Df (a)·1 = f 0 (a). Autrement dit lorsque E = R
(et dans ce cas seulement) la proposition 1.4 a une réciproque.

2 Exemples
2.1 Application affine
Une application affine A : E → F est de la forme A(x) = b + u(x) où b ∈ F
et u est une application linéaire de E dans F . Pour a, x ∈ E,

(1) A(x) − A(a) = u(x) − u(a) = u(x − a)

par linéarité. Donc A est continue en a si et seulement si u est continue en 0,


donc, puisque u est linéaire, en tout point. Dans ce cas la formule (1) montre
que A est différentiable en tout point de E et que, pour tout a ∈ E,

DA(a) = u.

La différentielle d’une application affine continue est donc indépendante de a.


En particulier si u est linéaire continue, pour tout x ∈ E, Du(x) = u.

4
2.2 Un exemple en dimension finie
Soit f : R2 → R2 l’application définie par f (x, y) = (x + y, xy). Soit (a, b) ∈
R . Pour (h, k) ∈ R2 , on a
2

f (a + h, b + k) − f (a, b) = (h + k, hb + ka + hk) = u(h, k) + ϕ(h, k)

où u(h, k) = (h + k, hb + ka) et ϕ(h, k) = (0, hk).


L’application u est linéaire continue  (on est en  dimension finie). Sa matrice dans
1 1
les bases canoniques est Jf (a, b) = .
b a
Choisissons sur R2 la norme k(h, k)k = max(|h|, |k|). La fonction ϕ(h, k) vérifie
ϕ(h, k)
kϕ(h, k)k = |hk| ≤ k(h, k)k2 . Donc lim = 0, ce qui montre que l’ap-
(h,k)→0 k(h, k)k
plication f est différentiable en (a, b), sa différentielle en (a, b) étant l’application
linéaire de R2 dans R2 de matrice Jf (a, b).

2.3 Un exemple en dimension infinie


Appelons E l’espace vectoriel des fonctions continûment dérivables sur [ 0, 1 ]
à valeurs dans R, muni de la norme kf k = kf k∞ + kf 0 k∞ . Soit F l’espace
vectoriel des fonctions continues sur [ 0, 1 ] à valeurs dans R, muni de la norme
k.k∞ . On considère l’application H : E → F donnée par H(f ) = f 0 + f 2 . Fixons
f ∈ E. On a pour h ∈ E,

H(f + h) − H(f ) = h0 + 2f h + h2

L’application définie sur E par u(h) = h0 + 2f h est visiblement linéaire, mais


cette fois il faut montrer sa continuité. On a

ku(h)k∞ = kh0 + 2f hk∞ ≤ kh0 k∞ + 2kf k∞ khk∞ ≤ (1 + 2kf k∞ )khk

ce qui établit le résultat.


D’autre part H(f + h) − H(f ) − u(h) = h2 et kh2 k∞ ≤ khk2∞ ≤ khk2 , de sorte
H(f + h) − H(f ) − u(h)
que lim = 0.
h→0 khk
On a donc prouvé la différentiabilité de H en f , la différentielle étant l’applica-
tion linéaire continue de E dans F définie par DH(f ) · h = h0 + 2f h.
Remarquons que si on choisit sur E la norme k.k∞ au lieu de k.k, l’applica-
tion u n’est pas continue et H n’est pas différentiable. Il est en effet impossible
de déterminer une constante C > 0 telle que kh0 + 2f hk∞ ≤ Ckhk∞ pour
tout h ∈ E, puisqu’en choisissant hn = xn , on devrait avoir pour tout n,
kh0n + 2f hn k∞
C ≥ = sup |nxn−1 + 2xn f (x)| ≥ |n + 2f (1)| et que cette
khn k∞ x∈[ 0,1 ]
quantité tend vers l’infini avec n.

5
3 Différentielles partielles
3.1 Différentiabilité dans une « direction »
Soit f : U → F et a ∈ U . Soit v ∈ E, v 6= 0, la fonction d’une variable ϕv :
t 7→ f (a + tv) est définie au voisinage de 0 (U est ouvert). Elle est différentiable
f (a + tv) − f (a)
en 0 si et seulement si ϕ0v (0) = lim existe. On dit alors que
t→0 t
f admet une dérivée partielle en a dans la direction v, égale à ϕ0v (0). C’est un
vecteur de F .
D’après la Proposition 1.4, c’est le cas pour tout v 6= 0 si f est différentiable
en a et ϕ0v (0) = Df (a) · v.
Il n’y a pas de réciproque à cette propriété sauf si E = R, comme le montre
l’exemple suivant en dimension 2.
x2 y
Prenons U = R2 , F = R et f définie par f (x, y) = 2 si (x, y) 6= (0, 0)
x + y2
et f (0, 0) = 0. Etudions f au point (0, 0).
En remarquant que pour tout t ∈ R et tout v = (x, y) ∈ R2 , on a f (tv) = tf (v),
f (tv) − f (0)
on en déduit, pour t 6= 0, = f (v) et donc f admet f (v) pour
t
dérivée partielle en (0, 0) dans la direction v, pour tout v 6= 0. Pourtant f n’est
pas différentiable en (0, 0). Si elle l’était, le calcul précédent montre (Proposition
1.4) que sa différentielle serait f . Mais f n’est pas linéaire et ne saurait donc
être une différentielle.

Plus généralement, si E1 6= 0 est un sous-espace vectoriel de E, il existe un


voisinage ouvert U1 de 0 dans E1 tel que si h1 ∈ U1 , a + h1 ∈ U : ceci parce que
U est ouvert et l’application E1 → E qui à h1 associe a + h1 continue. On peut
alors définir l’application partielle ϕ1 : U1 → F donnée par ϕ1 (h1 ) = f (a + h1 )
et se poser le problème de sa différentiabilité en 0.
Définition 3.1 Si ϕ1 est différentiable en 0, on dit que f admet une différentielle
partielle en a dans la direction E1 , égale à Dϕ1 (0).
Bien sûr Dϕ1 (0) ∈ L(E1 , F ).

Proposition 3.2 Si f : U → F est différentiable en a ∈ U , elle admet en a


dans toute direction E1 6= 0 de E une différentielle partielle égale à la restriction
à E1 de la différentielle de f en a.

Preuve On sait que quel que soit ε > 0, il existe δ > 0 tel que si h ∈ E vérifie
khk < δ, alors kf (a+h)−f (a)−Df (a)·hk < εkhk. C’est vrai a fortiori si h1 ∈ E1
vérifie kh1 k < δ et cela s’écrit alors kϕ1 (h1 ) − ϕ1 (0) − Df (a)|E1 · h1 k < εkh1 k
et le résultat suit en remarquant que Df (a)|E1 ∈ L(E1 , F ).

Bien sûr il n’y a pas de réciproque.

6
Si E = E1 × E2 muni de la norme produit, E1 et E2 peuvent être vus comme
des sous-espaces vectoriels de E en identifiant E1 à E1 × 0 = {(h1 , 0) | h1 ∈ E1 }
(resp. E2 à 0 × E2 ) et en remarquant que la norme dans E de (h1 , 0) est égale
à la norme dans E1 de h1 . Si f : U → F admet en a ∈ U une différentielle
partielle dans la direction E1 (resp. E2 ), on la note D1 f (a) (resp. D2 f (a)). Si
f est différentiable en a ∈ U , la proposition 3.2 permet d’écrire l’utile formule
suivante. Si h = (h1 , h2 ) ∈ E = E1 × E2 , puisque h = (h1 , 0) + (0, h2 ),

Df (a) · h = Df (a) · (h1 , 0) + Df (a) · (0, h2 ) = D1 f (a) · h1 + D2 f (a) · h2 .

3.2 Dérivées partielles et matrice jacobienne


Lorsque E est de dimension finie, on l’identifie à Rm en y choisissant une
base V = (v1 , · · · , vm ). Alors f : U → F s’identifie à une fonction de m variables
réelles (x1 , · · · , xm ) : les coordonnées dans la base V. Soit a = (a1 , · · · , am ) ∈ U ,
la dérivée partielle de f en a dans la direction vj (si elle existe) est le vecteur
de F qui est la dérivée en aj de la fonction d’une variable

xj 7→ f (a1 , · · · , aj−1 , xj , aj+1 , · · · , am ).


X m
∂f
On le note (a). On a donc si h = hj vj ,
∂xj j=1

m
X ∂f
Df (a) · h = hj (a)
j=1
∂xj

∂f
où les hj sont des scalaires et les (a) des vecteurs de F . On a aussi la formule
∂xj
∂f
(a) = Df (a) · vj
∂xj

Si de plus F est de dimension finie et identifié à Rn par le choix d’une base


W = (w1 , · · · , wn ), la fonction f se représente par les n fonctions coordonnées
(f1 , · · · , fn ) où fi : U → R est une fonction de m variables à valeurs réelles. Les
fi sont différentiables en a si et seulement si f l’est et dans ce cas pour tout
h ∈ E,
n
X
Dfi (a) · h = (Dfi (a) · h) wi
i=1
m
X m
X ∂fi
où, si h = hj vj , alors Dfi (a) · h = hj (a).
j=1 j=1
∂xj
X ∂fi m
∂fi
Cette fois (a) est un réel et on peut aussi écrire Dfi (a) · h = (a)hj .
∂xj j=1
∂xj

7
L’application linéaire Df
 (a) est donccelle qui associe au vecteur h de E le
n
X X m
 ∂fi
vecteur Df (a)·h = (a)hj  wi de F . En d’autres termes la matrice
i=1 j=1
∂xj
de l’application linéaire Df (a) dans les bases V et W est la matrice à n lignes
et m colonnes notée Jf (a) donnée par
 
∂fi
Jf (a) = (a)
∂xj 1≤i≤n,1≤j≤m

où i est l’indice ligne et j l’indice colonne.

Définition 3.3 La matrice Jf (a) est appelée matrice jacobienne de f en a dans


les bases V et W.

Une ligne de la matrice jacobienne est constituée des dérivées partielles d’une
même composante de f et une colonne par les dérivées partielles par rapport à
une même variable.
Remarquons que, si E = E1 × E2 , ce qui correspond, via l’identification déjà
faite, à supposer que (v1 , · · · , vr ) est une base de E1 et (vr+1 , · · · , vm ) une base
de E2 , la matrice Jf (a) est de la forme

Jf (a) = (J1 f (a), J2 f (a))

où Ji f (a) est la matrice jacobienne de Di f (a), (i = 1, 2).

Définition 3.4 Si n = m, le déterminant de la matrice (carrée) Jf (a) est


appelé jacobien de f en a et noté jf (a).
La condition jf (a) 6= 0 exprime que Df (a) est un isomorphisme de E sur
F , ou que Df (a) ∈ GL(E, F ).

4 Différentiabilité et opérations classiques


4.1 Combinaison linéaire et composition
Le premier résultat est immédiat.

Proposition 4.1 Soit f1 et f2 deux applications définies sur un ouvert U d’un


espace normé E à valeurs dans un espace normé F , différentiables en a ∈ U .
Alors pour tous scalaires λ et µ, l’application f = λf1 + µf2 est différentiable
en a et Df (a) = λDf1 (a) + µDf2 (a).

La proposition suivante montre que la notion de différentielle se comporte


vis-à-vis de la composition de la façon la plus simple possible.

8
Proposition 4.2 Soit f : U → F , a ∈ U , V un ouvert de F contenant f (a) = b
et g : V → G. Si f est différentiable en a et g en b, alors g ◦ f est différentiable
en a et
D(g ◦ f )(a) = Dg(b) ◦ Df (a).

Preuve On remarque d’abord que la composée de deux applications linéaires


continues étant linéaire continue, puisque Df (a) ∈ L(E, F ) et Dg(b) ∈ L(F, G),
Dg(b) ◦ Df (a) ∈ L(E, G).
Puisque f est continue en a, il existe r > 0 tel que pour x ∈ Bo(a, r), f (x) ∈ V
donc g ◦ f est définie sur cette boule. De plus si r est assez petit et khk < r, la
preuve de la proposition 1.5 montre que

kf (a + h) − f (a)k ≤ (1 + kDf (a)k)khk.

D’autre part, pour tout ε > 0, il existe α > 0 tel que, pour tout k ∈ F , si
kkk < α,
kg(b + k) − g(b) − Dg(b) · kk ≤ εkkk.
Or g ◦ f (a + h) = g(b  + k) où k = f (a + h) − b = f (a + h) − f (a).
α
Si khk < α1 = min r, , on a donc kkk < α et par suite :
1 + kDf (a)k
kg ◦ f (a + h) − g ◦ f (a) − Dg(b) ◦ Df (a)(h)k = kg(b + k) − g(b) − Dg(b) · k + Dg(b) ·
[k − Df (a) · h]k ≤ εkf (a + h) − f (a)k + kDg(b)k kf (a + h) − f (a) − Df (a) · hk.
Mais il existe η > 0 tel que khk < η implique kf (a+h)−f (a)−Df (a)·hk < εkhk.
Si donc khk < min(α1 , η), on a

kg ◦ f (a + h) − g ◦ f (a) − Dg(b) ◦ Df (a)(h)k < ε(1 + kDf (a)k + kDg(b)k) khk.

C’est le résultat annoncé.


Dans le cas où les espaces E et F sont tous deux de dimension finie, cette
proposition s’explicite en termes de matrices jacobiennes :

J(g ◦ f )(a) = Jg(b) Jf (a)

Il s’agit bien sûr du produit des deux matrices.

4.2 Applications bilinéaires et produits


Proposition 4.3 Soit E, F et G des espaces normés et B : E × F → G une
application bilinéaire. Alors B est continue si et seulement s’il existe C > 0 tel
que pour tout x ∈ E et tout y ∈ F , kB(x, y)k ≤ Ckxk kyk. Dans ce cas B est
différentiable dans E × F et pour tout (x, y) ∈ E × F , DB(x, y) est l’application
linéaire continue de E × F dans G donnée par

(h, k) 7→ DB(x, y) · (h, k) = B(x, k) + B(h, y).

9
Preuve L’affirmation concernant la continuité se montre comme son analogue
pour les applications linéaires. Si B est continue, elle l’est en (0, 0) et il existe
α > 0 tel que si k(x, y)k = max(kxk,  kyk) < α, alors kB(x, y)k ≤α1. Si x ∈ E,
αx αy
x 6= 0 et y ∈ F , y 6= 0, (u, v) = 2kxk , 2kyk vérifie k(u, v)k = < α. D’où
  2
αx αy
kB(u, v)k = B 2kxk , 2kyk ≤ 1 ou encore, en utilisant la bilinéarité et la
propriété convenable d’une norme,
4
kB(x, y)k ≤ kxk kyk
α2
4
ce qui permet de choisir C = 2 .
α
Montrons maintenant que cette propriété implique la différentiabilité de B.
Cela établira a fortiori sa continuité. (Une peuve directe est un excellent exer-
cice...) Tout d’abord une vérification facile montre que l’application u : (h, k) 7→
B(x, k) + B(h, y) est linéaire. La majoration

ku · (h, k)k ≤ C(kxk kkk + khk kyk) ≤ C(kxk + kyk)k(h, k)k

permet d’affirmer la continuité de u (et aussi kuk ≤ C(kxk + kyk)).


Ensuite si (h, k) ∈ E × F , la bilinéarité de B permet d’écrire

B(x + h, y + k) − B(x, y) − u · (h, k) = B(h, k)

B(h, k)
et la majoration kB(h, k)k ≤ Ckhk kkk ≤ Ck(h, k)k2 montre que →0
k(h, k)k
quand k(h, k)k → 0.

Exemples
1. Soit E un espace normé et L(E) l’espace vectoriel normé des applications
linéaires continues de E dans E. L’application B : L(E) × L(E) → L(E)
définie par (u, v) 7→ u ◦ v est bilinéaire continue car ku ◦ vk ≤ kuk kvk. Elle
est donc différentiable dans L(E) × L(E) et sa différentielle en (u, v) est
donnée par
(h, k) 7→ DB(u, v) · (h, k) = u ◦ k + h ◦ v.

2. Si E est muni d’un produit scalaire


p E×E → R noté hx, yi et si la norme sur
E est la norme associée : kxk = hx, xi, la forme bilinéaire B : E×E → R,
B(x, y) = hx, yi est continue donc différentiable en tout point. Lorsque
E = Rm , la norme k.k2 est obtenue de cette façon à partir du produit
scalaire usuel.

En combinant les propositions 4.3 et 4.2 on obtient nombre de résultats


classiques. En voici quelques uns.

10
1. Produit de deux fonctions numériques
Proposition 4.4 Si f et g : U → R sont différentiables en a ∈ U , leur
produit ϕ = f g, défini par ϕ(x) = f (x)g(x), est différentiable en a. La
différentielle est la forme linéaire continue donnée, pour h ∈ E, par

Dϕ(a) · h = g(a)Df (a) · h + f (a)Dg(a) · h

Preuve On a ϕ = B ◦ Φ où Φ : U → R2 a pour composantes f et g


et B est la forme bilinéaire continue R2 → R donnée par B(s, t) = st.
La proposition 1.7 montre que Φ est différentiable en a et que DΦ(a) =
(Df (a), Dg(a)). D’autre part la proposition 4.2 donne pour tout h ∈ E,
Dϕ(a)·h = DB(Φ(a))◦DΦ(a)(h) = DB(f (a), g(a))·(Df (a)·h, Dg(a)·h) =
B(f (a), Dg(a) · h) + B(Df (a) · h, g(a)) = f (a)Dg(a) · h + g(a)Df (a) · h.
2. Produit d’une application par une fonction numérique
Proposition 4.5 Si f : U → F et ϕ : U → R sont différentiables en a,
alors l’application g = ϕ f , c’est-à-dire g(x) = ϕ(x)f (x) est différentiable
en a et pour tout h ∈ E,

Dg(a) · h = ϕ(a)Df (a) · h + (Dϕ(a) · h) f (a).

(Dans cette formule, ϕ(a) et Dϕ(a) · h sont des scalaires tandis que f (a)
et Df (a) · h sont des vecteurs de F .)
Preuve La preuve est identique en écrivant g = B ◦ Φ où Φ : U → R × F
a pour composantes (ϕ, f ) et B est l’application bilinéaire de R × F → F
donnée par B(λ, y) = λy. La continuité de B est conséquence de kλyk =
|λ| kyk.
3. Produit scalaire
Proposition 4.6 Supposons l’espace F muni d’une norme associée à un
produit scalaire. Soit f, g : U → F des fonctions différentiables en a ∈ U .
L’application ϕ : U → R définie par ϕ(x) = hf (x), g(x)i est différentiable
en a et sa différentielle est la forme linéaire continue sur E donnée par

Dϕ(a) · h = hDf (a) · h, g(a)i + hf (a), Dg(a) · hi

Preuve On écrit ϕ = B ◦ Φ où Φ = (f, g) : U → F × F et B est le produit


scalaire.
Remarque Si E est de dimension finie et F = R, la formule
Xm
∂f
Df (a) · h = (a)hj
j=1
∂xj

peut se lire
Df (a) · h = hgrad f (a), hi

11
où grad f (a) (appelé gradient de f en a) est le vecteur de E

Xm
∂f
grad f (a) = (a)vj
j=1
∂xj

si V = (v1 , · · · , vm ) est la base choisie dans E.

4.3 Inverse
Ce mot peut désigner
1
– la fonction lorsque la fonction f : U → R ne s’annule pas,
f (x)
– l’application f −1 lorsque f est une bijection.
Il ne faut pas confondre ces deux situations... et il y a un théorème pour chacune
d’elles.

Proposition 4.7 Soit f : U → R une fonction différentiable en a ∈ U telle


1
que f (a) 6= 0. Alors la fonction g(x) = est définie au voisinage de a,
f (x)
différentiable en a et, pour tout h ∈ E,
1
Dg(a) · h = − Df (a) · h
f (a)2

Preuve Puisque f (a) 6= 0 et que f est continue en a (puisque différentiable), il


existe un voisinage V de a tel que, pour tout x ∈ V , f (x) 6= 0. L’application g est
1
définie sur V et s’écrit g = ı◦f où ı : R∗ → R∗ est donnée par ı(y) = . C’est une
y
1
fonction dérivable en tout point et ı0 (y) = − 2 . Autrement dit la différentielle
y
t
de ı en y est l’application linéaire Dı(y) : R → R définie par Dı(y) · t = − 2 et
y
tout découle de la proposition 4.2.

Proposition 4.8 Soit U un ouvert de E, V un ouvert de F et f : U → V


un homéomorphisme. On suppose que f est différentiable en a et que Df (a) ∈
GL(E, F ), c’est-à-dire qu’elle est linéaire, continue, bijective et que son inverse
est continue. Alors f −1 : V → E est différentiable en b = f (a) et

Df −1 (b) = Df (a)−1 .

Remarquons que la condition Df (a) ∈ GL(E, F ) suppose déjà qu’il y a des


isomorphismes entre E et F et ceci est exigeant : en dimension finie cela suppose
que F et E ont la même dimension, en dimension infinie que F (resp. E) soit
un Banach dès que E (resp. F ) l’est.

12
Preuve Si f −1 est différentiable en b, la proposition 4.2 donne pour sa différentielle
la formule indiquée. En effet la proposition 4.2 permet de déduire de l’égalité
f ◦f −1 = id (sur V ) et de f −1 (b) = a l’égalité Df (a)◦Df −1 (b) = id (sur F ). De
même les égalités f −1 ◦f = id (sur U ) et f (a) = b donnent Df −1 (b)◦Df (a) = id
(sur E). Il faut donc établir qu’en posant, pour k ∈ F de norme assez petite,

ϕ(k) = f −1 (b + k) − f −1 (b) − Df (a)−1 · k

ϕ(k)
on a lim = 0.
k→0 kkk
Comme f est différentiable en a, si ε > 0 est fixé, il existe α > 0 tel que si h ∈ E
vérifie khk < α, alors a + h ∈ U et

(?) kf (a + h) − f (a) − Df (a) · hk < εkhk

Comme f −1 est continue en b, il existe η > 0 tel que kkk < η implique b + k ∈ V
et kf −1 (b + k) − f −1 (b)k < α et donc, en posant h = f −1 (b + k) − f −1 (b) de
sorte que a + h = f −1 (b + k), (?) s’écrit kb + k − b − Df (a) · hk < εkhk. D’où

kDf (a) · hk ≤ kkk + εkhk.

Mais h = Df (a)−1 ◦ Df (a) · h et donc

khk ≤ kDf (a)−1 k kDf (a) · hk ≤ kDf (a)−1 k(kkk + εkhk)

ou encore
(1 − εkDf (a)−1 k)khk ≤ kDf (a)−1 k kkk.
1
Si on prend ε < , on a donc
2kDf (a)−1 k

(??) khk ≤ 2kDf (a)−1 k kkk.

Mézalor

ϕ(k) = h − Df (a)−1 · k = h − Df (a)−1 · [(f (a + h) − f (a)]


= −Df (a)−1 · [f (a + h) − f (a) − Df (a) · h]

et donc en utilisant (?) et (??) :

kϕ(k)k ≤ kDf (a)−1 kεkhk ≤ 2kDf (a)−1 k2 εkkk

13
Chapitre 2 : THÉORÈME DES
ACCROISSEMENTS FINIS ET
APPLICATIONS DE CLASSE C 1

31 décembre 2005

1 Théorème des accroissements finis


C’est un résultat qui concerne les fonctions d’une seule variable, même s’il
a des conséquences générales. Pour les fonctions d’une variable on emploie de
façon équivalente les mots dérivable et différentiable. Rappelons que si I est un
ouvert de R et f : I → F une fonction dérivable en t ∈ I, on note f 0 (t) le
vecteur de F qui est la dérivée de f en t.

Définition 1.1 Soit [ α, β ] un segment de R et f : [ α, β ] → F . On dit que


f (t) − f (α)
f est dérivable sur [ α, β ] si elle l’est dans ] α, β [ et si lim+ et
t→α t−α
f (t) − f (β)
lim− existent. On note (abusivement) f 0 (α) et f 0 (β) les vecteurs
t→β t−β
de F ainsi définis.

Proposition 1.2 (Théorème des accroissements finis) Soit [ α, β ] un seg-


ment de R et f : [ α, β ] → F une application dérivable sur ce segment. Soit
ϕ : [ α, β ] → R une fonction dérivable sur ce même segment. On suppose que,
pour tout t ∈ [ α, β ], kf 0 (t)k < ϕ0 (t). Alors

kf (β) − f (α)k ≤ ϕ(β) − ϕ(α).

Preuve Commençons par remarquer que la fonction ϕ est strictement croissante


sur l’intervalle [ α, β ] puisque sa dérivée est strictement positive, ceci permet
d’être rassuré malgré l’absence de valeur absolue dans le membre de droite.
Supposons kf (β) − f (α)k > ϕ(β) − ϕ(α). Soit m = α+β 2 le milieu de [ α, β ].
L’une des deux inégalités kf (β) − f (m)k > ϕ(β) − ϕ(m) ou kf (m) − f (α)k >
ϕ(m) − ϕ(α) a lieu (utiliser l’inégalité triangulaire). Soit [ α1 , β1 ] l’intervalle
[ α, m] ou [ m, β ] sur lequel l’inégalité est vérifiée. On a donc kf (β1 ) − f (α1 )k >
ϕ(β1 ) − ϕ(α1 ), [ α1 , β1 ] ⊂ [ α, β ] et β1 − α1 = 12 (β − α). On recommence avec

1
le segment [ α1 , β1 ] au lieu de [ α, β ]. Par récurrence on construit une suite de
segments emboı̂tés [ αn , βn ] tels que βn − αn = 21n (β − α) et kf (βn ) − f (αn )k >
ϕ(βn ) − ϕ(αn ). Les suites (αn ) et (βn ) sont adjacentes et convergent vers une
même limite γ ∈ [ α, β ]. Par hypothèse kf 0 (γ)k < ϕ0 (γ) et il est possible de
choisir ε > 0 tel que kf 0 (γ)k + 2ε < ϕ0 (γ). En exprimant la dérivabilité de f et
de ϕ en γ on peut trouver η > 0 tel que, si t ∈ [ α, β ] vérifie |t − γ| < η, alors

kf (t) − f (γ) − (t − γ)f 0 (γ)k < ε |t − γ|

et
|ϕ(t) − ϕ(γ) − (t − γ)ϕ0 (γ)| < ε |t − γ|.
Puisque les suites (αn ) et (βn ) convergent vers γ, pour n convenable on a
|αn − γ| < η et |βn − γ| < η. Alors :

kf (αn ) − f (γ) − (αn − γ)f 0 (γ)k < ε (γ − αn )

kf (βn ) − f (γ) − (βn − γ)f 0 (γ)k < ε (βn − γ)


|ϕ(αn ) − ϕ(γ) − (αn − γ)ϕ0 (γ)| < ε (γ − αn )
|ϕ(βn ) − ϕ(γ) − (βn − γ)ϕ0 (γ)| < ε (βn − γ).
On en déduit (inégalité triangulaire) :

kf (βn ) − f (αn )k ≤ ε(βn − αn ) + k(βn − αn )f 0 (γ)k = (βn − αn )(kf 0 (γ)k + ε)

Vu le choix de ε, on a aussi

kf (βn ) − f (αn )k < (βn − αn )(ϕ0 (γ) − ε).

D’autre part
(γ − αn )ϕ0 (γ) < ϕ(γ) − ϕ(αn ) + ε(γ − αn )
et
(βn − γ)ϕ0 (γ) < ϕ(βn ) − ϕ(γ) + ε(βn − γ)
d’où
(βn − αn )ϕ0 (γ) < ϕ(βn ) − ϕ(αn ) + ε(βn − αn )
En combinant avec l’inégalité précédente on obtient

kf (βn ) − f (αn )k < ϕ(βn ) − ϕ(αn )

ce qui contredit la définition du segment [ αn , βn ].

Si E est un espace vectoriel et a, b ∈ E, on définit le segment [ a, b] comme


l’image de l’application affine γ : [ 0, 1 ] → E donnée par γ(t) = (1 − t)a + tb =
a + t(b − a).

Corollaire 1.3 Soit U un ouvert de E et f : U → F une application différentiable.


Si a, b ∈ U sont tels que [ a, b ] ⊂ U et s’il existe M > 0 tel que, pour tout
t ∈ [ 0, 1 ], kDf (γ(t))k ≤ M , alors kf (b) − f (a)k ≤ M kb − ak .

2
Preuve Soit g = f ◦ γ : [ 0, 1 ] → F , c’est-à-dire g(t) = f (a + t(b − a)). Pour tout
t ∈ [ 0, 1 ] on a
g 0 (t) = D(f ◦γ)(t)·1 = Df (γ(t))◦Dγ(t)(1) = Df (γ(t))·γ 0 (t) = Df (γ(t))·(b−a)
donc kg 0 (t)k ≤ M kb − ak et on applique la proposition 1.2 à g sur [ 0, 1 ] avec
ϕ(t) = M 0 kb − ak t où M 0 > M . On obtient

kg(1) − g(0)k ≤ ϕ(1) − ϕ(0)

c’est-à-dire
kf (b) − f (a)k ≤ M 0 kb − ak
pour tout M 0 > M donc aussi kf (b) − f (a)k ≤ M kb − ak.

Rappelons qu’une partie A d’un espace vectoriel E est convexe si pour tous
a, b ∈ A le segment [ a, b ] ⊂ A. Les boules d’un espace normé sont convexes.

Corollaire 1.4 Soit U un ouvert convexe de E et f : U → F une application


différentiable. Alors, pour tout x, y ∈ U ,

kf (x) − f (y)k ≤ sup kDf (z)k kx − yk


z∈U

Preuve Ce résultat n’a d’intérêt que lorsque supz∈U kDf (z)k est fini. Dans
ce cas, pour tout choix de deux points de U la convexité assure qu’on peut
appliquer le corollaire précédent au segment défini par ces deux points.

Le théorème des accroissements finis a la très importante conséquence sui-


vante.

Proposition 1.5 Soit U un ouvert connexe de E et f : U → F une applica-


tion différentiable telle que ∀x ∈ U , Df (x) est l’application nulle, alors f est
constante.

Preuve Fixons a ∈ U et définissons Ω = {x ∈ U | f (x) = f (a)}. Comme f est


continue, Ω est un fermé de U . D’autre part si x ∈ Ω ⊂ U , il existe ρ > 0 tel
que Bo(x, ρ) ⊂ U . Une boule étant convexe, si y ∈ Bo(x, ρ), on peut appliquer
le corollaire 1.4 au segment [ x, y ]. Comme supz∈Bo(x,ρ) kDf (z)k = 0, on en
déduit f (y) = f (x) = f (a) donc y ∈ Ω. Ceci montre que Ω est aussi un ouvert.
Comme U est connexe et Ω 6= ∅ (il contient a), c’est que Ω = U et donc que f
est constante sur U .

2 Applications de classe C 1
Soit U un ouvert de E et f : U → F une application différentiable dans U .
On peut définir l’application Df : U → L(E, F ) qui associe à x l’application
linéaire continue Df (x). Puisque L(E, F ) est aussi un espace normé, on se trouve
dans la même situation qu’au point de départ et on peut parler de la continuité
ou de la différentiabilité de Df en un point.

3
Définition 2.1 Soit U un ouvert de E. On dit que f : U → F est de classe C 1
(ou continûment différentiable) sur U si
– f est différentiable dans U ,
– l’application Df est continue sur U .
La deuxième propriété s’explicite en : pour tout x ∈ U et tout ε > 0, il existe
α > 0 tel que pour tout y ∈ U si ky − xk < α, alors kDf (x) − Df (y)k ≤ ε. Cette
inégalité équivaut à la propriété : pour tout h ∈ E, kDf (x)·h−Df (y)·hk ≤ εkhk.

Remarque
Si E et F sont tous deux de dimension finie la continuité (en x) de Df
équivaut à celle de l’application x 7→ Jf (x) ou encore à la continuité comme
∂fi
fonction de x = (x1 , · · · , xm ) de chacune des dérivées partielles (x).
∂xj
Proposition 2.2 Toute application de classe C 1 sur un ouvert U est localement
lipshitzienne, c’est-à-dire que, pour tout a ∈ U , il existe ρ > 0 et k > 0 tels que
∀x, y ∈ Bo(a, ρ), on a kf (x) − f (y)k ≤ kkx − yk.
Preuve Noter que k et ρ dépendent de a. Soit k > kDf (a)k. Par continuité de
Df , il existe une boule centrée en a sur laquelle kDf (x)k ≤ k. On peut alors
appliquer à cette boule, qui est convexe, le corollaire 2.1.

Le plat de résistance de ce chapitre c’est le théorème suivant qui permet,


en présence de continuité, de « remonter » de la différentiabilité partielle à la
différentiabilité.
Théorème 2.3 Soit U un ouvert de E1 × E2 et f : U → F . Alors f est C 1
sur U si et seulement si f admet en tout point x ∈ U une différentielle partielle
dans la direction E1 et une différentielle partielle dans la direction E2 et, de
plus, D1 f : U → L(E1 , F ) et D2 f : U → L(E2 , F ) sont continues.
Preuve Dans le sens direct l’existence des différentielles partielles est connue.
Montrons la continuité de D1 f sur U . Pour x, a ∈ U , on a
kD1 f (x) − D1 f (a)k = sup kD1 f (x) · h1 − D1 f (a) · h1 k
h1 ∈E1 ,kh1 k=1

= sup kDf (x) · (h1 , 0) − Df (a) · (h1 , 0)k


h1 ∈E1 ,kh1 k=1

≤ sup kDf (x) · h − Df (a) · hk


h∈E1 ×E2 ,khk=1

= kDf (x) − Df (a)k


et cette dernière quantité peut être rendue aussi petite que l’on veut en prenant
kx − ak assez petit.
Pour établir la réciproque, le plus difficile est de prouver la différentiabilité.
Soit a ∈ U , Le « candidat » est connu : c’est l’application u : E1 × E2 → F
donnée pour h = (h1 , h2 ) ∈ E par
u · h = D1 f (a) · h1 + D2 f (a) · h2

4
Clairement u est linéaire. Sa continuité est conséquence de la majoration

ku · hk ≤ kD1 f (a) · h1 k + kD2 f (a) · h2 k


≤ kD1 f (a)k kh1 k + kD2 f (a)k kh2 k
≤ (kD1 f (a)k + kD2 f (a)k) khk

Il faut maintenant montrer que la fonction de h = (h1 , h2 ) définie au voisi-


nage de 0 par

ϕ(h) = f (a + h) − f (a) − D1 f (a) · h1 − D2 f (a) · h2

ϕ(h)
vérifie lim = 0. Supposons a = (a1 , a2 ) et posons b = (a1 + h1 , a2 ). On
h→0 khk
peut écrire
ϕ(h) = ϕ1 (h) + ϕ2 (h)
où
ϕ1 (h) = f (b) − f (a) − D1 f (a) · h1
et
ϕ2 (h) = f (a + h) − f (b) − D2 f (a) · h2 .
Par définition de la différentielle partielle en a dans la direction E1 , on a
ϕ1 (h)
lim = 0. En fait ϕ1 ne dépend de h que par l’intermédiaire de h1 et
h1 →0 kh1 k
ϕ1 (h)
kh1 k ≤ khk donc, a fortiori, lim = 0.
h→0 khk
C’est pour étudier ϕ2 (h) qu’on utilise le théorème des accroissements finis. On
introduit l’application x2 7→ g(x2 ) avec

g(x2 ) = f (a1 + h1 , x2 ) − D2 f (a) · x2 .

Elle est définie et différentiable dans un voisinage U2 de a2 dans E2 . De plus


Dg(x2 ) = D2 f (a1 + h1 , x2 ) − D2 f (a). La continuité de D2 f en a permet, pour
tout ε > 0, de déterminer η > 0 tel que kx − ak < η implique

kD2 f (x) − D2 f (a)k < ε.

Donc, si x = (a1 +h1 , x2 ) avec kh1 k < η et kx2 −a2 k < η, on a kDg(x2 )k < ε. En
particulier, si kh2 k < η, cette majoration est valable pour tout x2 ∈ [ a2 , a2 +h2 ]
et le théorème des accroissements finis appliqué à g sur ce segment donne

kg(a2 + h2 ) − g(a2 )k ≤ εkh2 k.

Or g(a2 + h2 ) = f (a + h) − D2 f (a) · (a2 + h2 ) et g(a2 ) = f (b) − D2 f (a) · a2 de


sorte que, utilisant la linéarité de D2 f (a), ceci s’écrit

kf (a + h) − f (b) − Df2 (a) · h2 k = kϕ2 (h)k ≤ εkh2 k ≤ εkhk.

5
On a donc établi que f est différentiable dans U et que pour tout x ∈ U et tout
h = (h1 , h2 ) ∈ E,

Df (x) · h = D1 f (x) · h1 + D2 f (x) · h2 .

Il reste à prouver la continuité de Df sur U . Si x et a ∈ U ,

kDf (x) − Df (ak = supkhk≤1 kDf (x) · h − Df (a) · hk


= supkh1 k≤1,kh2 k≤1 k(D1 f (x) − D1 f (a)) · h1 + (D2 f (x) − D2 f (a)) · h2 k
≤ supkh1 k≤1 k(D1 f (x) − D1 f (a)) · h1 k + supkh2 k≤1 k(D2 f (x) − D2 f (a)) · h2 k
≤ kD1 f (x) − D1 f (a)k + kD2 f (x) − D2 f (a)k

et cette dernière quantité tend vers 0 lorsque x tend vers a puisque les différentielles
partielles sont continues en a.

Voici un très utile corollaire.

Corollaire 2.4 Soit E et F deux espaces vectoriels de dimension finie. Soit U


un ouvert de E. L’application f : U → F est de classe C 1 si et seulement si pour
∂fi
tout i ∈ {1, · · · , dim F } et tout j ∈ {1, · · · , dim E}, est définie et continue
∂xj
dans U .

Les points non démontrés de la proposition qui suit sont sans piège.

Proposition 2.5 1. Toute combinaison linéaire d’applications de classe C 1


sur un ouvert U est de classe C 1 sur U .
2. La composée de deux applications de classe C 1 est de classe C 1 .
3. Toute application affine continue, toute application (bi)linéaire continue
est de classe C 1 .
4. Si f et g : U → R sont de classe C 1 sur l’ouvert U , leur produit est aussi
de classe C 1 sur U et il en est de même pour les autres produits étudiés
au chapitre 1.
1
5. Si f : U → R est C 1 et si, pour tout x ∈ U , f (x) 6= 0, alors la fonction
f
est de classe C 1 sur U .

Preuve
– On sait que si f : U → F est différentaible et si g : V → G est différentaible
où V est un ouvert de F tel que f (U ) ⊂ V , alors ϕ = g ◦f est différentiable
et, pour tout x ∈ U , Dϕ(x) = Dg(f (x)) ◦ Df (x). Cette formule peut se
lire Dϕ = B ◦ Φ où

Φ : U −→ L(F, G) × L(E, F )
x 7→ (Dg(f (x)), Df (x))

6
autrement dit Φ = (Dg ◦ f, Df ). Et B est l’application bilinéaire continue

L(F, G) × L(E, F ) −→ L(E, G)


(u, v) 7→ u◦v

Comme f est C 1 , Df est continue sur U . Comme g est C 1 , Dg est continue


sur V et, puisque f est continue sur U et que f (U ) ⊂ V , la composée Dg◦f
est continue sur U . L’application Φ est continue sur U puisque ses deux
composantes le sont. Enfin Dϕ est continue comme composée de deux
fonctions continues.
– On sait que si f : U → R est différantiable et ne s’annule pas, la fonction
1
g= est définie et différentiable en tout point de U , sa différentielle en
f
1
x ∈ U étant la forme linéaire continue sur E : Dg(x) = − Df (x).
f (x)2
1
Cette formule signifie que Dg est le produit de la fonction continue − 2
f
et de l’application continue (puisque f est C 1 ) Df , d’où la continuité de
Dg sur U .

Dans la suite de ce chapitre on suppose que les espaces sont des Banach.

Proposition 2.6 Si E et F sont deux espaces de Banach, l’ensemble GL(E, F )


est un ouvert de L(E, F ).

Preuve Le cas GL(E, F ) = ∅ n’est pas exclu, mais c’est bien un ouvert. Sinon,
soit u ∈ GL(E, F ) et h ∈ L(E, F ), on peut écrire, puisque u est inversible

u + h = u ◦ (idE + u−1 ◦ h) = u ◦ v

où v = idE + u−1 ◦ h appartient à L(E) (abréviation de L(E, E)) qui est un
Banach puisque E en est un. Si ku−1 ◦hk < 1, ce qui a sûrement lieu si khk < r =
1
, la série de terme général (−1)n (u−1 ◦ h)n est normalement convergente
ku−1 k
donc convergente et sa somme est l’inverse de v qui appartient donc à GL(E).
Mais alors u ◦ v = u + h appartient à GL(E, F ). On vient de montrer que la
boule ouverte de L(E, F ) de centre u de rayon r est incluse dans GL(E, F ).

Remarque 2.7 En particulier, lorsque E = F est un Banach, la preuve précé-


dente montre que la boule ouverte de centre idE et de rayon 1 du Banach L(E)
est contenue dans GL(E).

Proposition 2.8 Soit E et F deux espaces de Banach tels que GL(E, F ) 6= ∅.


L’application
J : GL(E, F ) −→ GL(F, E)
u 7→ u−1

7
est différentiable et DJ (u) est l’application (linéaire continue) de L(E, F ) dans
L(F, E) donnée, pour h ∈ L(E, F ), par
DJ (u) · h = −u−1 ◦ h ◦ u−1 .

Preuve On reprend les notations précédentes. Pour u ∈ GL(E, F ) et h ∈


L(E, F ) avec khk < r, on a
J (u + h) − J (u) = (u + h)−1 − u−1 = (u ◦ v)−1 − u−1 =
v −1 ◦ u−1 − u−1 = (idE + u−1 ◦ h)−1 ◦ u−1 − u−1
X∞
= (−1)n (u−1 ◦ h)n ◦ u−1 − u−1
n=0
X∞
= (−1)n (u−1 ◦ h)n ◦ u−1
n=1
= U (h) + ϕ(h)

X
où U (h) = −u−1 ◦h◦u−1 et ϕ(h) = (−1)n (u−1 ◦h)n ◦u−1 , toutes ces égalités
n=2
étant valables sous réserve de convergence des séries écrites.
L’application U : L(E, F ) → L(F, E) ainsi définie est clairement linéaire et la
majoration
kU (h)k ≤ ku−1 k2 khk
montre qu’elle est continue (et de norme inférieure ou égale à ku−1 k2 ).
Montrons que la série qui définit ϕ est absolument convergente. En effet, par
récurrence sur n, on voit que k(u−1 ◦ h)n ◦ u−1 k ≤ ku−1 kn khkn , qui est le terme
général d’une série (géométrique) convergente. Comme L(E) est un Banach, la
série définissant ϕ(h) converge et les calculs précédents sont justifiés. De plus,
en passant à la limite dans les sommes partielles, on a la majoration

X khk2 ku−1 k3
kϕ(h)k ≤ ku−1 kn+1 khkn = .
n=2
1 − khk ku−1 k

ϕ(h)
Cette dernière égalité montre que lim = 0.
h→0 khk
Corollaire 2.9 Sous les mêmes hypothèses, l’application J est continue.

Proposition 2.10 Soit U un ouvert d’un espace de Banach E, V un ouvert


d’un espace de Banach F et f : U → V un homéomorphisme de classe C 1 tel
que pour tout x ∈ U , Df (x) ∈ GL(E, F ), alors f −1 est C 1 sur V .
Preuve On sait déjà que f est différentiable en tout point de V et que, pour
tout y ∈ V , Df −1 (y) = Df (f −1 (y))−1 . Cette formule peut se lire Df −1 =
J ◦ Df ◦ f −1 et fait apparaı̂tre Df −1 comme composée de trois applications
continues, d’où le résultat.

8
Chapitre 3 : THÉORÈME D’INVERSION
LOCALE ET THÉORÈME DES FONCTIONS
IMPLICITES

19 février 2007

Dans tout ce chapitre les espaces considérés sont des Banach.

1 Théorème d’inversion locale


La définition suivante est naturelle.
Définition 1.1 Soit U un ouvert de E, V un ouvert de F . Une application
f : U → V est un difféomorphisme (resp. C 1 - difféomorphisme) si c’est une
bijection telle que f et f −1 sont différentiables (resp. de classe C 1 ).

Remarque 1.2 Clairement tout difféomorphisme est un homéomorphisme.

S’il existe un difféomorphisme f d’un ouvert U de E sur un ouvert V de


F , alors GL(E, F ) doit être non vide. En effet, puisque f −1 ◦ f = idU , en
différentiant on a, si x ∈ U et y = f (x), Df −1 (y) ◦ Df (x) = idE . De même,
puisque f ◦ f −1 = idV , on a Df (x) ◦ Df −1 (y) = idF . Ceci montre que Df (x) ∈
GL(E, F ). Si E est de dimension finie cela impose que F est aussi de dimension
finie et que E et F sont de même dimension.
Le dernier résultat du chapitre précédent permet d’énoncer la proposition
suivante.

Proposition 1.3 Si f : U → V est un homéomorphisme différentiable (resp.


de classe C 1 ) sur U et tel que pour tout x ∈ U , Df (x) ∈ GL(E, F ) alors f est
un difféomorphisme (resp. C 1 - difféomorphisme) de U sur V .

Il est en général plus facile d’étudier l’inversibilité de l’application linéaire Df (x)


que celle de f : en dimension finie il suffit de calculer un déterminant (le jacobien
de f en x).
En dimension 1 la condition Df (x) ∈ GL(E, F ) s’exprime par f 0 (x) 6= 0.
C’est une condition « ouverte » : si f 0 est continue et si la condition est réalisée
en un point, elle l’est au voisinage. L’analogue lorsque E et F sont des Banach,

1
en particulier en dimension finie, est le fait que GL(E, F ) est un ouvert de
L(E, F ). Toujours en dimension 1, on peut même déduire de f 0 (a) 6= 0 et de la
continuité de f 0 qu’au voisinage de a la fonction f est strictement monotone et
réalise donc une bijection d’un voisinage de a sur son image. Autrement dit on
peut localement « remonter » du fait que la différentielle est bijective au fait que
la fonction l’est. Le théorème d’inversion locale permet d’obtenir cette propriété
pour les Banach.
Théorème 1.4 Soit E et F deux espaces de Banach et U un ouvert de E. Soit
f : U → F une application de classe C 1 . Soit a ∈ U tel que Df (a) ∈ GL(E, F ),
alors il existe un voisinage ouvert U1 de a et un voisinage ouvert V1 de f (a) tels
que U1 ⊂ U et f : U1 → V1 est un C 1 - difféomorphisme.
Preuve Commençons par montrer qu’il suffit d’établir le théorème lorsque E =
F , a = f (a) = 0 et Df (0) = idE . En effet, posons
f˜(x) = Df (a)−1 · [f (a + x) − f (a)].
On vérifie que
– l’application f˜ est définie sur Ue = {x ∈ E | a+x ∈ U } qui est un voisinage
˜ e
ouvert de 0 et f : U → E est de classe C 1 ,
– en 0, f˜(0) = Df (a)−1 · 0 = 0,
– Df˜(x) = Df (a)−1 ◦Df (a+x). En particulier Df˜(0) = Df (a)−1 ◦Df (a) =
idE .
Si on a établi le théorème pour f˜, on « revient » à f en remarquant que f (a+x) =
f (a) + Df (a) · f˜(x) ou encore f (x) = f (a) + Df (a) ◦ f˜(x − a) = A ◦ f˜(x − a) où
A : E → F est la bijection affine continue h 7→ f (a) + Df (a) · h. Si donc f˜ est
un C 1 - difféomorphisme de U e1 (voisinage ouvert de 0) sur Ve1 (voisinage ouvert
1
de 0), alors f est un C - difféomorphisme de U1 = a + U e1 (voisinage ouvert de
e
a) sur V1 = A(V1 ) qui est un voisinage ouvert de A(0) = f (a) dans F .
On se place dans le cas particulier indiqué. Montrer que f est bijective de
U1 sur V1 c’est montrer qu’on peut résoudre, pour y fixé dans V1 , l’équation
f (x) = y de façon unique si l’on impose que la solution trouvée x appartient
à U1 . On le fait en montrant qu’on peut appliquer le théorème du point fixe à
l’application gy (x) = x − f (x) + y dans une boule fermée convenable, puisqu’une
boule fermée d’un Banach est un espace métrique complet.
Pour tout y ∈ E, l’application gy est de classe C 1 sur U et Dgy (x) = idE −
Df (x) est indépendante de y et nulle en x = 0. Donc par continuité, il existe
r > 0 tel que, si x vérifie kxk ≤ r, alors x ∈ U et pour tout y ∈ E, kDgy (x)k ≤ 21 .
Le théorème des accroissements finis permet d’en déduire que pour tous x, x0 ∈
Bf (0, r) et tout y ∈ E,
1
(?) kgy (x) − gy (x0 )k ≤ kx − x0 k.
2
Comme gy (0) = y, on a en particulier kgy (x)−yk ≤ 12 kxk pour tout x ∈ Bf (0, r).
Supposons que y vérifie kyk < 12 r. Alors, si x ∈ Bf (0, r),
1
kgy (x)k = kgy (x) − yk + kyk ≤ kxk + kyk < r.
2

2
Donc gy envoie la boule fermée Bf (0, r) sur la boule ouverte Bo(0, r) et, a for-
tiori, sur la boule fermée elle-même. L’inégalité (?) montre que gy est contrac-
tante et a donc un unique point fixe. Ceci permet de définir une application
ϕ : V1 → E où V1 = Bo(0, 12 r) en associant à y ∈ V1 l’unique point fixe ϕ(y) de
gy dans Bf (0, r). Comme ce point fixe est image par gy d’un point de la boule
fermée Bf (0, r), il appartient en fait à la boule ouverte Bo(0, r). On va montrer
que U1 = ϕ(V1 ) vérifie U1 = f −1 (V1 ) ∩ Bo(0, r) et est donc un voisinage ouvert
de 0 et que les applications f : U1 → V1 et ϕ : V1 → U1 sont inverses l’une de
l’autre. En effet :
– D’une part, si y ∈ V1 , ϕ(y) ∈ Bo(0, r) et vérifie gy (ϕ(y)) = ϕ(y) =
ϕ(y) − f (ϕ(y)) + y. D’où (∗) f (ϕ(y)) = y. Si donc x ∈ U1 , de sorte que
x = ϕ(y) où y ∈ V1 , on a x ∈ Bo(0, r) et f (x) = y, ce qui prouve l’inclusion
U1 ⊂ f −1 (V1 ) ∩ Bo(0, r) et permet d’interpréter (∗) en f ◦ ϕ = idV1 .
– D’autre part, si x ∈ f −1 (V1 ) ∩ Bo(0, r), alors kxk < r et f (x) ∈ V1 . Mais
gf (x) (x) = x − f (x) + f (x) = x, ce qui montre que x est point fixe dans
Bf (0, r) de gf (x) . Donc par unicité on a (∗∗) x = ϕ(f (x)). Ceci montre
que x ∈ U1 , ce qui prouve l’inclusion f −1 (V1 ) ∩ Bo(0, r) ⊂ U1 et permet
d’interpréter (∗∗) en ϕ ◦ f = idU1 .
Pour prouver que ϕ est de classe C 1 sur V1 , il suffit de montrer qu’elle est
continue. En effet, pour x ∈ U1 , kidE − Df (x)k ≤ 21 < 1 et la remarque
2.7 du chapitre 2 montre que Df (x) ∈ GL(E). On peut alors appliquer à
l’homéomorphisme f : U1 → V1 la proposition 1.3.
Pour établir la continuité de ϕ, nous allons montrer qu’elle est lipshitzienne de
rapport 2 sur V1 . Si y, y 0 ∈ V1 , alors x = ϕ(y) et x0 = ϕ(y 0 ) appartiennent à
Bo(0, r) et, pour y0 ∈ E fixé (quelconque), en utilisant (?), on a :
1
kx − x0 − f (x) + f (x0 )k = kgy0 (x) − gy0 (x0 )k ≤ kx − x0 k
2
d’où kx − x0 k ≤ kf (x) − f (x0 )k + 21 kx − x0 k et kx − x0 k ≤ 2 kf (x) − f (x0 )k ou
encore
kϕ(y) − ϕ(y 0 )k ≤ 2 ky − y 0 k.

On adopte parfois la terminologie suivante, utile lorsqu’on veut privilégier


l’espace source.
Définition 1.5 Soit f : U → F une application de classe C 1 sur un ouvert
d’un Banach E. On dit que f est un C 1 - difféomorphisme local au voisinage
de a ∈ U s’il existe un voisinage ouvert Ua de a et un ouvert V de F tel que la
restriction de f à Ua soit un C 1 - difféomorphisme de Ua sur V .
Le théorème d’inversion locale peut alors s’énoncer comme suit :
Théorème 1.6 Soit E et F deux espaces de Banach et U un ouvert de E.
Une application f : U → F de classe C 1 est un C 1 - difféomorphisme local au
voisinage de a ∈ U si et seulement si Df (a) ∈ GL(E, F ).

3
Lorsque E = F est de dimension finie, un C 1 - difféomorphisme local s’appelle
aussi un changement de coordonnées.
Le corollaire suivant explicite en dimension finie une généralisation locale C 1
du théorème de la base incomplète de l’algèbre linéaire.

Corollaire 1.7 Soit U un ouvert de Rn , p un entier tel que 1 ≤ p ≤ n et


f1 , · · · , fp des fonctions numériques de classe C 1 . Soit a ∈ U , les deux propriétés
suivantes sont équivalentes :
– les p formes linéaires Df1 (a), · · · , Dfp (a) sont linéairement indépendantes,
– il existe n − p fonctions numériques fp+1 , · · · , fn de classe C 1 sur U telles
que f = (f1 , · · · , fn ) : U → Rn soit un C 1 - difféomorphisme local au
voisinage de a.

Preuve Si p = n, c’est une simple reformulation du théorème d’inversion locale


si on se souvient qu’une matrice est inversible si et seulement si les n formes
linéaires définies par ses lignes sont indépendantes. Si p < n et si les p vecteurs
Df1 (a), · · · , Dfp (a) du dual de Rn sont indépendants, le théorème de la base
incomplète montre qu’il existe n − p formes linéaires sur Rn , up+1 , · · · , un telles
que (Df1 (a), · · · , Dfp (a), up+1 , · · · , un ) soit une base du dual de Rn . Définisssons
f : U → Rn par f = (f1 , · · · , fn ) en posant, pour j ≥ p + 1, fj = uj|U . La
fonction numérique fj (p + 1 ≤ j ≤ n) est de classe C 1 et vérifie, pour tout
x ∈ U, Dfj (x) = uj . On est ainsi ramené au cas n = p.
La réciproque est claire.

Remarques
1. Dans le théorème d’inversion locale, l’hypothèse de continuité de Df est
indispensable. On pourrait croire qu’en demandant seulement à f d’être
différentiable, on aurait le même résultat, sans la continuité de l’applica-
tion inverse. L’exemple suivant prouve qu’il n’en est rien, même en di-
mension finie. Soit f : R → R définie par f (x) = 21 x + x2 sin x1 lorsque
x 6= 0 et f (0) = 0. Un dessin permet de se convaincre que f n’est injective
sur aucun intervalle contenant 0. Pourtant f et dérivable en tout point et
f 0 (0) = limx→0 f (x) 1 0 1 1
x = 2 6= 0. Mais pour x 6= 0, f (x) = 2 +2x sin x −cos x ,
1

qui n’a pas de limite quand x → 0.


2. On ne saurait trop insister sur le fait qu’il s’agit d’un résultat local. Même
si f , de classe C 1 , vérifie Df (x) ∈ GL(E, F ) pour tout x ∈ U , on ne
peut pas en déduire que f est une bijection de U sur son image. Voici
un contre-exemple. L’application f : U = ] 0, +∞ [ ×R → R2 définie par
f (ρ, θ) = (ρ cos θ, ρ sin θ) est de classe C 1 et en tout point de U le jacobien
vaut det Jf (ρ, θ) = ρ 6= 0. Mais la périodicité en θ montre que f n’est
pas injective sur U . Le théorème affirme que si (ρ0 , θ0 ) est fixé dans U ,
il existe U1 ⊂ U , (U1 3 (ρ0 , θ0 )), tel que f|U1 soit injective. On peut en
effet prendre U1 = ] 0, +∞ [ × ] θ0 − α, θ0 − α + 2π [, avec 0 < α < 2π. Un
examen scrupuleux de la preuve montre que l’ouvert qui y est construit
est plus petit que celui-ci.

4
Comme le suggère l’exemple qui vient d’être traité, c’est l’injectivité de f
qui pose problème. Les deux résultats qui suivent sont d’une grande importance
pratique. Le deuxième explicite comment passer du résultat local à un résultat
global.

Proposition 1.8 Si f : U → F de classe C 1 est telle que pour tout x ∈ U ,


Df (x) ∈ GL(E, F ), alors f (U ) est un ouvert de F et, plus généralement, l’image
par f de tout ouvert de E inclus dans U est un ouvert de F .

Preuve Soit y0 ∈ f (U ). Il existe x0 ∈ U tel que y0 = f (x0 ). Le théorème


appliqué au point x0 donne un ouvert U1 ⊂ U , U1 3 x0 , et un ouvert V1 3 y0
tels que f de U1 sur V1 soit bijective. En particulier, pour tout y ∈ V1 , il existe
x ∈ U1 ⊂ U tel que y = f (x). Autrement dit V1 ⊂ f (U ). Ceci montre que f (U )
est un ouvert de F . Bien sûr l’argument s’applique à tout ouvert de E inclus
dans U .

Proposition 1.9 Soit f : U → F une application de classe C 1 . Pour que f soit


un C 1 - difféomorphisme de U sur un ouvert de F il faut et suffit que
1. f soit injective
2. pour tout x ∈ U , Df (x) ∈ GL(E, F )

Preuve Les conditions 1. et 2. sont clairement nécessaires. Pour établir la


réciproque, notons que la proposition 1.8 montre que l’image V = f (U ) est
un ouvert de F et l’hypothèse 1. permet d’affirmer que f est une bijection de U
sur son image V . Il reste à montrer que l’application f −1 : V → U ainsi définie
est continue. Les autres affirmations seront en effet cette fois encore conséquence
de la proposition 1.3. Or la continuité de f −1 équivaut au fait que f est ouverte
et la proposition 1.8 assure cette propriété.

2 Le théorème des fonctions implicites


Le théorème d’inversion locale peut s’interpréter comme la possibilité de
résoudre localement pour chaque valeur de y de façon unique l’équation en
x : f (x) − y = 0 et d’affirmer la régularité de la fonction x(y) ainsi définie.
La condition à satisfaire, en plus d’une « régularité » convenable de f , est l’in-
versibilité de l’application linéaire que constitue la différentielle, ce que l’on
peut interpréter comme la possibilité de résoudre le même problème dans le cas
linéaire. Plus généralement le théorème des fonctions implicites va donner des
conditions permettant de résoudre f (x, y) = 0 par une fonction y(x) convenable
(on a échangé les lettres x et y pour se conformer à l’habitude). Cette fois aussi
l’idée directrice est que ce qu’on sait faire dans le cadre linéaire pourra être fait
localement dans le cadre C 1 .
On sait que, si dans un système linéaire de n équations à n + m incon-
nues un déterminant d’ordre n extrait de la matrice du système est non nul, on
peut choisir convenablement n des inconnues et les exprimer comme fonctions
linéaires des m autres inconnues. Si la matrice de ce système est la matrice

5
jacobienne en un point d’une application d’un ouvert de Rn+m (n + m est
le nombre de variables) dans Rn (n est le nombre d’équations), la condition
précédente s’interprète comme la possibilité, pour un ordre convenable des va-
riables, de décomposer Rn+m en Rm × Rn de sorte que la matrice jacobienne
de la différentielle partielle dans la direction du facteur Rn (deuxième facteur)
soit inversible. Le théorème d’inversion locale peut être traduit dans ce langage.
Reprenons en effet les hypothèses du théorème 1.4 et introduisons l’applica-
tion ϕ : F × U → F définie par ϕ(y, z) = f (z) − y. On a, pour tout y ∈ F ,
D2 ϕ(y, a) = Df (a). L’hypothèse peut donc se lire D2 ϕ(b, a) ∈ GL(E, F ) avec
(b, a) = (f (a), a), point où la relation ϕ(b, a) = 0 est réalisée. La conclusion
du théorème peut se lire : il existe un voisinage ouvert U1 de a, un voisinage
ouvert V de b et une application de classe C 1 , g : V → U1 telle que pour tout
y ∈ V , z = g(y) est l’unique solution dans U1 de ϕ(y, z) = 0. Autrement dit
on peut résoudre localement l’équation ϕ(y, z) = 0 par une application de classe
C 1 , z = g(y). Le théorème suivant montre que cette situation est générale.

Théorème 2.1 Soit E, F , G trois espaces de Banach, Ω un ouvert de E × F


et f : Ω → G une application de classe C 1 . Soit (a, b) ∈ Ω tel que D2 f (a, b) ∈
GL(F, G). Alors il existe un ouvert U de E contenant a, un ouvert V de F
contenant b et une application g : U → V tels que
1. U × V ⊂ Ω
2. pour tout x ∈ U , l’équation f (x, y) = f (a, b) admet y = g(x) pour unique
solution dans V .
De plus l’application g est de classe C 1 dans U et, si U est assez petit, pour tout
x ∈ U,
Dg(x) = −D2 f (x, g(x))−1 ◦ D1 f (x, g(x)).

Remarques
1. L’hypothèse implique que F et G ont même dimension (finie ou non).
2. Il est important de bien comprendre l’affirmation 2. qui ne dit pas que
l’équation f (x, y) = f (a, b) n’a qu’une solution : elle n’en a qu’une dans
V (c’est-à-dire proche de b) mais peut en avoir ailleurs.
3. La propriété 2. peut aussi s’exprimer par l’égalité :

{(x, y) ∈ U × V | f (x, y) = f (a, b)} = {(x, g(x)) | x ∈ U } = Γg

en désignant par Γg le graphe de la fonction g.


Preuve Le préambule du théorème laisse deviner que sa preuve n’est pas très
différente de celle du théorème d’inversion locale. En effet on va déduire ce
résultat du précédent. On aurait pu aussi prouver d’abord ce théorème et en
déduire, comme cas particulier, le théorème 1.4.
Définissons l’application Φ : Ω → E × G par Φ(x, y) = (x, f (x, y)) et mon-
trons qu’on peut lui appliquer le théorème d’inversion locale au point (a, b). Elle

6
est clairement de classe C 1 sur Ω et sa différentielle au point (a, b) est donnée,
pour (h, k) ∈ E × F , par
DΦ(a, b) · (h, k) = (h, Df (a, b) · (h, k)) = (h, D1 f (a, b) · h + D2 f (a, b) · k).
On résout « à la main » l’équation DΦ(a, b) · (h, k) = (h0 , k 0 ). On trouve h = h0
puis D2 f (a, b) · k = k 0 − D1 f (a, b) · h0 et donc
k = D2 f (a, b)−1 · [k 0 − D1 f (a, b) · h0 ].
Autrement dit l’application DΦ(a, b) est inversible, son inverse étant
DΦ(a, b)−1 · (h0 , k 0 ) = (h0 , D2 f (a, b)−1 · [k 0 − D1 f (a, b) · h0 ]).
Il faut aussi montrer la continuité de l’application linéaire DΦ(a, b)−1 . Exami-
nons la deuxième composante. On a
D2 f (a, b)−1 · [k 0 − D1 f (ab) · h0 ] = D2 f (a, b)−1 · k 0 − D2 f (a, b)−1 ◦ D1 f (a, b)(h0 )
d’où
kD2 f (a, b)−1 · [k 0 − D1 f (ab) · h0 ]k ≤ kD2 f (a, b)−1 k(kk 0 k + kD1 f (a, b)k kh0 k)
≤ kD2 f (a, b)−1 k(1 + kD1 f (a, b)k) k(h0 , k 0 )k
| {z }
M

et donc kDΦ(a, b)−1 · (h0 , k 0 )k ≤ max(1, M )k(h0 , k 0 )k. On a ainsi montré que
DΦ(a, b) appartient à GL(E × F, E × G).
On a Φ(a, b) = (a, f (a, b)) et le théorème d’inversion locale appliqué à Φ au
point (a, b) donne un voisinage ouvert Ω1 de (a, b), Ω1 ⊂ Ω et un voisinage ouvert
W de (a, f (a, b)) tels que Φ : Ω1 → W soit un C 1 - difféomorphisme. Quitte à
diminuer de manière cohérente Ω1 et W , on peut supposer que Ω1 = U1 × V
où U1 est un voisinage ouvert de a dans E et V un voisinage ouvert de b dans
F . L’application Φ−1 : W → U1 × V a alors deux composantes : Φ−1 = (g1 , g2 )
où g1 : W → U1 et g2 : W → V sont de classe C 1 . On a alors la chaı̂ne
d’équivalences :
(x, y) ∈ U1 × V et f (x, y) = f (a, b)
m
(x, y) ∈ U1 × V et Φ(x, y) = (x, f (a, b))
m
(x, y) = (g1 (x, f (a, b)), g2 (x, f (a, b)) et (x, f (a, b)) ∈ W
Considérons U = {x ∈ U1 | (x, f (a, b)) ∈ W }. C’est un ouvert de U1 (puisque
W est ouvert), donc de E, contenant a et tel que U × V ⊂ U1 × V ⊂ Ω. De plus
la chaı̂ne d’équivalence indiquée montre que l’application g : U → V donnée par
g(x) = g2 (x, f (a, b)) vérifie
(x, y) ∈ U × V et f (x, y) = f (a, b)
m
x ∈ U et y = g(x).

7
La définition de g montre qu’elle est de classe C 1 dans U .
Enfin de la relation f (x, g(x)) = f (a, b) valable pour tout x ∈ U , on tire par
différentiation que, pour tout h ∈ E,

D1 f (x, g(x)) · h + D2 f (x, g(x)) ◦ Dg(x)(h) = 0.

Si U est assez petit pour qu’en tout point D1 f (x, g(x)) (qui dépend continûment
de x) appartienne à l’ouvert GL(F, G), on en déduit

Dg(x) = −D2 f (x, g(x))−1 ◦ D1 f (x, g(x)).

Insistons sur l’importance de se familiariser avec les diverses façons d’utiliser


ce théorème. Il est souvent nécessaire de découvir la bonne décomposition de E
en produit de deux facteurs. Cette décomposition peut dépendre du point au
voisinage duquel on souhaite faire l’étude. Par exemple prenons U = E = R2 ,
F = R et f (x, y) = x2 +y 2 −R2 , où R > 0, de sorte que f (x, y) = 0 est l’équation
cartésienne du cercle (C) de centre 0 et de rayon R. Si A = (a, b) est un point
de ce cercle alors :
– si A n’est sur aucun des deux axes de coordonnées (ab 6= 0), on peut
décrire les points de (C) voisins de A, soit en exprimant y comme fonction
de x, soit en exprimant x comme
√ fonction de y. L’écriture
√ de cette fonction
dépend de A. On a y(x) = R 2 − x2 si b > 0, y(x) = − R2 − x2 si b < 0.
p p
On a aussi x(y) = R2 − y 2 si a > 0 et x(y) = − R2 − y 2 si a < 0.
Dans tous les cas la fonction est de classe C 1 sur l’ouvert ] −R, +R [.
∂f ∂f
On remarque que (a, b) = 2b 6= 0 et que (a, b) = 2a 6= 0 et qu’on
∂y ∂x
peut voir l’un ou l’autre résultat comme une application du théorème 2.1.
– Si A = (0, ±R), seule l’écriture de y comme fonction de x est possible
∂f
au voisinage de A, en conformité avec le fait que (A) 6= 0 mais que
∂y
∂f
(A) = 0. Les conclusions sont analogues (en échangeant x et y) aux
∂x
points (±R, 0).
Remarquons que tous les points du cercle sont susceptibles d’être étudiés de
l’une ou l’autre façon.

8
3 Applications géométriques en dimension finie
Nous donnons dans ce paragraphe des applications géométriques des théo-
rèmes 1.4 et 2.1 en supposant que les espaces considérés sont de dimension
finie. Toutes les applications seront supposées C 1 et nous ne l’indiquerons pas
systématiquement.

3.1 Sous – variétés de Rn


Sans faire un cours de géométrie différentielle nous voulons illustrer l’usage
que l’on peut faire des notions de calcul différentiel introduites pour généraliser
en toute dimension les objets géométriques auxquels on est habitué en dimension
2 et 3.
Cette fois encore l’idée directrice est que la situation linéaire modélise lo-
calement la situation C 1 . Dans le modèle linéaire, un sous-espace vectoriel de
dimension p (1 ≤ p ≤ n − 1) de Rn c’est, à isomorphisme près, Rp × {0} vu
comme sous-espace de Rn . (Bien sûr, 0 désigne ici le vecteur nul de Rn−p et on
a decomposé Rn en Rp × Rn−p ). La définition suivante met en œuvre le principe
rappelé.

Définition 3.1 Soit p un entier tel que 1 ≤ p ≤ n − 1 et M ⊂ Rn . On dit que


M est une sous-variété de Rn de dimension p et de codimension n − p, si pour
tout x ∈ M , il existe un voisinage ouvert U de x, un voisinage ouvert V de
0 ∈ Rn et un C 1 - difféomorphisme f : U → V tels que

f (M ∩ U ) = V ∩ (Rp × {0}).

Dans cette définition, U , V et f dépendent (en général) de x.


Rappelons qu’un arc de courbe de R2 ou R3 est le graphe Γf d’une fonction
f : I → R ou R2 , où I est un ouvert (souvent un intervalle) de R et qu’un
morceau de surface de R3 est le graphe d’une fonction f : U → R où U est un
ouvert de R2 . Plus généralement l’exemple le plus simple de sous-variétés est
fourni par les graphes.

Proposition 3.2 ( graphes) Soit Ω un ouvert de Rp et g : Ω → Rn−p (1 ≤


p ≤ n−1) une application de classe C 1 . Le graphe de g, Γg = {(u, g(u)) | u ∈ Ω}
est une sous-variété de dimension p de Rn .

Preuve Définissons
f : U = Ω × Rn−p −→ Rn
x = (u, y) 7→ (u, y − g(u)).

C’est une application de classe C 1 (ses deux composantes le sont) et en tout point
x ∈ U , la matrice  
Ip 0
Jf (x) =
−Jg(u) In−p

9
est inversible. D’autre part l’application f est injective puisque (u, y − g(u)) =
(u0 , y 0 − g(u0 )) impose u0 = u, d’où g(u) = g(u0 ) et donc aussi y = y 0 . La
proposition 1.9 montre que f est un C 1 - difféomorphisme de U sur l’ouvert
de Rn , V = f (U ). De plus, si x ∈ U ∩ Γg , x = (u, g(u)) avec u ∈ Ω. Donc
f (x) = (u, g(u) − g(u)) = (u, 0) appartient à V ∩ (Rp × {0}). Réciproquement,
si z ∈ V ∩ (Rp × {0}), z = (z 0 , 0) et il existe x = (u, y) ∈ U tel que z = f (x) =
(u, y − g(y)). On en déduit z 0 = u ∈ Ω et y = g(u) de sorte que z = f (u, y) où
(u, y) ∈ U ∩ Γg .

L’exemple du cercle (C) traité au paragraphe précédent n’entre pas dans


cette catégorie, pourtant le théorème des fonctions implicites montre que locale-
ment au voisinage de tout point de (C), les points de (C) sont ceux d’un graphe.
Le résultat qui suit montre que cette condition suffit à faire de (C) une sous-
variété de dimension 1 de R2 et donne, plus généralement une condition sous
laquelle une sous-variété de dimension p peut être donnée par n − p équations.

Proposition 3.3 ( équations cartésiennes) Soit Ω un ouvert de Rn et F :


Ω → Rn−p (1 ≤ p ≤ n − 1) une application de classe C 1 . On pose

M = F −1 (0) = {x ∈ Ω | F (x) = 0}.

Si pour tout x ∈ M , le rang de la matrice jacobienne en x, JF (x), est n − p,


M est une sous-variété de dimension p de Rn .

Plus explicitement, si F = (F1 , · · · , Fn−p ), où Fj : Ω → R, M est définie par


les n − p équations Fj (x1 , · · · , xn ) = 0. Le nombre d’équations est donc la
codimension.
La condition sur le rang de JF (x) exprime que ce rang est maximum. Il est
égal à la dimension de l’espace but et cela signifie donc que, pour tout x ∈ M ,
l’application linéaire Df (x) est surjective. On dit aussi que F est une submersion
en x.

Preuve Soit a ∈ M . L’hypothèse signifie que les n−p formes linéaires DF1 (a), · · · ,
DFn−p (a) sont linéairement indépendantes. Le corollaire 1.7 appliqué aux n − p
fonctions Fj permet de définir un voisinage U de a et p fonctions G1 · · · , , Gp
telles que f = (G1 · · · , Gp , F1 , · · · Fn−p ) soit un C 1 - difféomorphisme de U sur
un ouvert V de Rn . Quitte à remplacer Gj par Gj − Gj (a), on peut supposer
que V est un voisinage de 0. De plus, si x ∈ U , f (x) ∈ V ∩ (Rp × {0}) équivaut
à Fj (x) = 0 pour 1 ≤ j ≤ n − p, ou encore à x ∈ M .

10
Une autre manière de définir une sous-variété est d’utiliser un paramétrage.

Proposition 3.4 (sous-variété paramétrée) Soit 1 ≤ p ≤ n − 1, Ω un ou-


vert de Rp et ϕ : Ω → Rn de classe C 1 . Si en u0 ∈ Ω, le rang de Jϕ(u0 ) est p, il
existe un voisinage ouvert Ω0 de u0 tel que Ω0 ⊂ Ω et que M = ϕ(Ω0 ) soit une
sous-variété de dimension p de Rn . On dit que ϕ est un paramétrage de M .

Cette fois encore la condition sur le rang signifie qu’il est maximum. La condition
est aussi équivalente au fait que Dϕ(u0 ) est injective. On dit alors que ϕ est
une immersion en u0 .
Mais attention, même si ϕ est une immersion en tout point de Ω il n’est pas
toujours vrai que son image est une sous-variété de Rn .

Preuve L’hypothèse signifie que p des n lignes de la matrice Jϕ(u0 ) sont


linéairement indépendantes. Un choix convenable de l’ordre des coordonnées
de Rn permet de supposer que ce sont les p premières composantes, c’est-à-dire
d’écrire ϕ = (g, h), où g : Ω → Rp et h : Ω → Rn−p sont telles que
 
Jg(u0 )
Jϕ(u0 ) = ,
Jh(u0 )

avec une matrice Jg(u0 ) inversible. Le théorème d’inversion locale appliqué à g


au point u0 donne un voisinage ouvert Ω0 ⊂ Ω de u0 et un voisinage ouvert V
(dans Rp ) de a0 = g(u0 ) tels que g : Ω0 → V soit un C 1 - difféomorphisme. Si
x ∈ Rn , on l’écrit x = (x0 , x00 ) où x0 ∈ Rp et x00 ∈ Rn−p et on pose f = h ◦ g −1 .
C’est une application de classe C 1 de V dans Rn−p et

ϕ(Ω0 ) = {(g(u), h(u)) | u ∈ Ω0 } = {(x0 , h(g −1 (x0 )) | x0 ∈ V }

= {(x0 , f (x0 ) | x0 ∈ V } = Γf .
La proposition 3.2 montre alors le résultat.

On peut en fait montrer l’équivalence, en un sens à préciser, de ces diverses


définitions d’une sous-variété de Rn .

Exemples
Nous donnons quelques exemples et contre-exemples tous très classiques.
1. La sphère S n est définie par

S n = {x = (x0 , · · · , xn ) ∈ Rn+1 | x20 + · · · + x2n − 1 = 0}

est une sous-variété de dimension n de Rn+1 . En effet la fonction F :


Rn+1 → R, F (x) = x20 + · · · + x2n − 1 est C 1 et est une submersion en tout
point de S n , puisque JF (x) = (2x0 , · · · , 2xn ) n’est jamais nulle sur S n et
est donc de rang 1 en tout point de S n .

11
2. Le tore T n est défini par

T n = {x ∈ R2n | x21 + x22 − 1 = x23 + x24 − 1 = · · · = x22n−1 + x22n − 1 = 0}.

C’est une sous-variété de dimension n (= 2n − n) de R2n . On peut le voir


en appliquant la proposition 3.3 (exo.) ou en utilisant la paramétrisation
ϕ(t1 , · · · , tn ) = (cos t1 , sin t1 , · · · , cos tn , sin tn ) et la proposition 3.4.
3. Le groupe orthogonal

O(n) = {A ∈ Mn (R) | At A = In }
2
où l’on a noté Mn (R) l’espace vectoriel, isomorphe à Rn , des matrices
carrées n × n et At la matrice symétrique de la matrice A. Alors O(n)
est une sous-variété de Mn (R) de dimension n(n−1)2 . En effet appelons
Sn (R) l’espace vectoriel des matrices n×n symétriques. Il est de dimension
n(n+1)
2 et O(n) = F −1 (0) où F : Mn (R) −→ Sn (R) est l’application
F (A) = At A − In . Cette application est polynomiale donc C 1 et c’est une
submersion en chaque point A ∈ O(n) puisque (exo.), pour tout H ∈
Mn (R), DF (A) · H = At H + H t A et, si K ∈ Sn (R), la matrice H = 21 AK
vérifie DF (A) · H = K, ce qui prouve la surjectivité de DF (A). Il reste
à remarquer que, de façon générale, si M est une sous-variété de Rn de
dimension p et si on regarde M comme un sous-ensemble de Rm pour
m > n via une inclusion de Rn dans Rm , alors M est aussi une sous-
variété de dimension p de Rm .
4. Le cône de révolution

Γ = {(x, y, z) ∈ R3 | x2 + y 2 − z 2 = 0}

n’est pas une sous-variété de R3 de dimension 2. Il est facile de voir que


le cône privé de son sommet Γ \ {0} est une sous-variété de dimension 2
(surface) de R3 . Pour voir que Γ n’en est pas une, il ne suffit pas de dire
que les propositions énoncées ne s’appliquent pas... L’argument le plus
simple ( ?) est de remarquer que, s’il existait deux voisinages ouverts U et
V de 0 ∈ R3 et un C 1 - difféomorphisme f : U → V tel que f (U ∩ Γ) =
V ∩(R2 ×{0}) et f (0) = 0, il en existerait aussi vérifiant la même propriété
et connexes. Or U ∩ Γ \ {0} a (comme Γ \ {0}) deux composantes connexes
alors qu’un voisinage de 0 dans R2 privé de 0 est connexe.

12
3.2 Espace tangent à une sous-variété en un point
Soit M ⊂ Rn une sous-variété de dimension p et a ∈ M .

Définition 3.5 1. Un arc de courbe tracé sur M passant par a est l’image
γ(I) de γ : I → Rn où I est un intervalle ouvert de R contenant 0, γ est
de classe C 1 , γ(0) = a et γ(I) ⊂ M .
2. Le vecteur γ 0 (0), qui appartient à Rn , est appelé vecteur tangent en a à
M.

La définition donnée ci-dessus d’un vecteur tangent est « raisonnable » car


si J est aussi un intervalle de R contenant 0 et si ϕ : J → I est un C 1 -
difféomorphisme tel que ϕ(0) = 0, de sorte que γ̃ = γ ◦ ϕ définit la même courbe
tracée sur M (avec un autre paramétrage), la relation γ̃ 0 (0) = ϕ0 (0)γ 0 (0), où le
réel ϕ0 (0) est non nul, montre que les vecteurs γ̃ 0 (0) et γ 0 (0) sont nuls en même
temps et, quand ils ne sont pas nuls, définissent la même direction.

Proposition 3.6 L’ensemble des vecteurs tangents en a à une sous-variété M


de dimension p est un sous-espace vectoriel de dimension p de Rn .

Preuve Soit U un voisinage de a ∈ Rn , V un voisinage de 0 ∈ Rn et f : U → V


un C 1 - difféomorphisme tel que f (U ∩ M ) = V ∩ (Rp × {0}). On peut supposer
f (a) = 0. Notons f = (f1 , · · · , , fn ) les composantes de f et soit γ : I → Rn =
Rp × Rn−p une fonction de classe C 1 qui définit un arc de courbe tracé sur M
passant par a. Comme U est un ouvert, si |t| est assez petit γ(t) ∈ U ∩ M et
donc fj (γ(t)) = 0 pour j = p + 1, · · · , n. On en déduit Dfj (a) · γ 0 (0) = 0 pour
j = p + 1, · · · , n. Cela veut dire que tout vecteur tangent en a à M , v = γ 0 (0)
vérifie Df (a) · v ∈ Rp × {0} ou encore que l’ensemble des vecteurs tangents en
a est inclus dans Df (a)−1 (Rp × {0}) qui est un sous-espace vectoriel de Rn de
dimension p puisque Df (a)−1 est un isomorphisme.
Inversement soit v ∈ Df (a)−1 (Rp × {0}), de sorte que w = Df (a) · v ∈ Rp × {0}.
Posons, si |t| est assez petit pour assurer tw ∈ V (c’est possible puisque V est
ouvert et contient 0), γ(t) = f −1 (tw). L’application γ définit une courbe tracée
sur M , passant par a pour laquelle γ 0 (0) = D(f −1 )(0) · w = Df (a)−1 · w = v.

Définition 3.7 Le sous-espace vectoriel des vecteurs tangents en a à M est


noté Ta M . Le sous-espace affine de Rn : a + Ta M est appelé espace tangent en
a à M .

Les trois propositions suivantes décrivent concrêtement Ta M lorsque M est


un graphe ou définie par des équations ou un paramétrage.

Proposition 3.8 Soit Ω un ouvert de Rp et g : Ω → Rn−p (1 ≤ p ≤ n − 1) une


application de classe C 1 . Si a = (a0 , g(a0 )) ∈ Γg , Ta Γg = ΓDg(a0 ) .

Un exercice indispensable consiste à expliciter ce résultat dans le cas d’une


courbe plane, d’une courbe ou d’une surface de R3 .

13
Preuve On commence par se souvenir que le graphe d’une application linéaire
de Rp dans Rn−p est bien un sous-espace vectoriel de dimension p de Rn . Si
γ : I → Rn est une courbe tracée sur Γg passant par a, on a, pour tout t ∈ I,
γ(t) = (γ1 (t), γ2 (t)) où γ1 (t) ∈ Ω et γ2 (t) = g(γ1 (t)). Donc en utilisant le
théorème de dérivation d’une fonction composée et en remarquant que γ1 (0) =
a0 , γ20 (0) = Dg(a0 ) · γ10 (0). On en déduit que v = (γ10 (0), γ20 (0)) appartient au
graphe de Dg(a0 ), ce qui donne l’inclusion Ta Γg ⊂ ΓDg(a0 ) . L’égalité vient alors
de ce que ces deux espaces vectoriels ont la même dimension.

Proposition 3.9 Soit M = F −1 (0), où F : U → Rn−p est de classe C 1 sur un


ouvert U de Rn . Si F est une submersion en tout point de M , alors pour tout
a ∈ M , Ta M = ker DF (a).
n−p
\
Autrement dit, si F = (F1 , · · · , Fn−p ), Ta M = ker DFi (a).
i=1

n
Preuve Si γ : I → R définit un arc de courbe tracé sur M et passant par a, pour
tout t ∈ I, F ◦γ(t) = 0. Donc DF (a)·γ 0 (0) = 0. C’est dire que γ 0 (0) ∈ ker DF (a)
et que Ta M ⊂ ker DF (a). Mais puisque F est une submersion en a, DF (a) est
de rang n − p, donc ker DF (a) est de dimension n − (n − p) = p, qui est aussi
celle de Ta M . Ceci établit l’égalité annoncée.

L’interprétation en termes d’intersection des noyaux des formes linéaires que


sont les différentielles des composantes est de l’algèbre linéaire classique. Cela
veut aussi dire que Ta M est le sous-espace vectoriel de Rn défini par les n − p
équations DFi (a)·h = 0 qui sont les linéarisées en a des n−p équations Fi (x) = 0
qui définissent S.

Proposition 3.10 Sous les hypothèses et notations de la proposition 3.4, si


a = ϕ(u0 ), Ta M = Dϕ(u0 )(Rp ).

Preuve Soit w ∈ Im Dϕ(u0 ) et v ∈ Rp tel que w = Dϕ(u0 ) · v. Puisque Ω est


ouvert, il existe un intervalle ouvert I 3 0 tel que pour tout t ∈ I, u0 + tv ∈ Ω0 .
L’application γ : I → Rn donnée par γ(t) = ϕ(u0 + tv) définit un arc de courbe
tracé sur M passant par a pour lequel γ 0 (0) = Dϕ(u0 ) · v = w. Ceci montre que
w ∈ Ta M et donne l’inclusion Dϕ(u0 )(Rp ) ⊂ Ta M . L’égalité des dimensions
permet de conclure.

Exemples
1. Le plan tangent à la surface de R3 d’équation f (x, y, z) = 0 au point
a = (x0 , y0 , z0 ) (vérifiant f (x0 , y0 , z0 ) = 0) a pour équation
∂f ∂f ∂f
(a)(x − x0 ) + (a)(y − y0 ) + (a)(z − z0 ) = 0.
∂x ∂y ∂z
Dire que f est une submersion en a c’est dire que les trois dérivées partielles
ne sont pas simultanément nulles en a et l’équation écrite est bien celle
d’un plan passant par a.

14
2. La tangente à la courbe de R3 donnée par f (x, y, z) = g(x, y, z) = 0 au
point a = (x0 , y0 , z0 ) a pour direction la droite intersection des deux plans
(
∂f ∂f ∂f
∂x (a)x + ∂y (a)y + ∂z (a)z = 0
∂g ∂g ∂g
∂x (a)x + ∂y (a)y + ∂y (a)z = 0

3. Le plan tangent en a = ϕ(s0 , t0 ) à la surface de R3 paramétrée par ϕ :


U → R3 où ϕ(s, t) = (f1 (s, t), f2 (s, t), f3 (s, t)) a pour direction le plan
engendré par les deux vecteurs de R3 :
  
 ∂ϕ (s0 , t0 ) = ∂f1 (s0 , t0 ), ∂f2 (s0 , t0 ), ∂f3 (s0 , t0 )
∂s  ∂s ∂s ∂s 
 ∂ϕ (s0 , t0 ) = ∂f1 (s0 , t0 ), ∂f2 (s0 , t0 ), ∂f3 (s0 , t0 )
∂t ∂t ∂t ∂t

Une équation du plan tangent est donc


∂f1 ∂f1
x − f1 (s0 , t0 ) ∂s (s0 , t0 ) ∂t (s0 , t0 )
∂f2 ∂f2
y − f2 (s0 , t0 ) ∂t (s0 , t0 ) ∂t (s0 , t0 )
= 0.
∂f3 ∂f3
z − f3 (s0 , t0 ) ∂s (s0 , t0 ) ∂t (s0 , t0 )

4. L’hyperplan (affine) de Rn+1 tangent à la sphère S n au point a = (a0 , · · · , an )


a pour équation

a0 (x0 − a0 ) + · · · + an (xn − an ) = 0.

5. Si A ∈ O(n),

TA O(n) = {H ∈ Mn (R) | At H + H t A = 0} = {H | At H = −(At H)t }.

En particulier TI O(n) est l’espace vectoriel des matrices antisymétriques.


En remarquant que, pour A ∈ O(n), At = A−1 , on voit que

TA O(n) = A TI O(n).

15
Chapitre 4 : DIFFÉRENTIELLES D’ORDRE
SUPÉRIEUR

17 janvier 2007

1 Différentielle seconde
1.1 Définition
Soit E et F des espaces normés, U un ouvert de E et f : U → F une
application de classe C 1 sur U . L’application Df : U → L(E, F ) définie
par x 7→ Df (x) est continue. Si elle est différentiable en a ∈ U , on dit
que f est deux fois différentiable en a. Dans ce cas D(Df )(a) est une ap-
plication linéaire continue de E dans L(E, F ), c’est-à-dire un élément de
L(E, L(E, F )).

Lemme 1.1 L’espace normé L(E, L(E, F )) s’identifie à l’espace normé des
applications bilinéaires continues de E × E dans F , noté L2 (E, F ).

Rappelons qu’une application bilinéaire B : E ×E → F est continue si et


seulement s’il existe C > 0 tel que pour tous h, k ∈ E, kB(h, k)k ≤ Ckhk kkk.
La norme de B est, par définition, le « meilleur » C ou encore :

kBk = sup kB(h, k)k.


khk=kkk=1

En dimension finie, il n’y a pas lieu de se préoccuper des normes et


l’identification est la suivante. On définit l’application linéaire (à vérifier) :

Φ : L(E, L(E, F )) → L2 (E, F )

en associant à T l’application bilinéaire BT : E × E → F définie par

BT (h, k) = T (h) · k

1
On définit l’application linéaire (à vérifier)

Ψ : L2 (E, F ) → L(E, L(E, F ))

en associant à B l’application TB : E → L(E, F ) qui envoie h ∈ E sur


l’application linéaire TB (h) : E → F donnée par TB (h) · k = B(h, k) (pour
tout k ∈ E). On vérifie sans (trop de) peine que Φ et Ψ sont inverses l’une de
l’autre. Si E ou F n’est plus de dimension finie il faut ajouter la vérification,
fastidieuse mais sans piège, de la continuité de ces applications linéaires et
la conservation de la norme (Φ et Ψ sont des isométries).
On fera systématiquement cette identification et on note D2 f (a) l’appli-
cation bilinéaire continue à laquelle s’identifie D(Df )(a). On a donc pour
h, k ∈ E,
∈L(E,L(E,F ))
z }| {
2
D f (a)(h, k) = D(Df )(a) (h) ·k
| {z }
∈L(E,F )

Exemples
1. Soit u : E → F une application linéaire continue. Alors, pour tout x ∈
E, Du(x) = u donc Du est une application constante et sa différentielle
est nulle en tout point. Autrement dit u est deux fois différentiable en
tout point de E et D2 u(x) = 0 pour tout x ∈ E.
2. Soit B : E × E → F une application bilinéaire continue. On sait que
B est différentiable en tout point (x, y) ∈ E × E et que, pour tout
(h, k) ∈ E × E,

DB(x, y) · (h, k) = B(x, k) + B(h, y).

Donc l’application DB : (x, y) 7→ DB(x, y) est linéaire continue donc


différentiable et, pour tout (x, y) ∈ E × E,

D(DB)(x, y) = DB.

Cela s’écrit, pour (h, k) et (h0 , k 0 ) appartenant à E × E,

D2 B(x, y)((h, k), (h0 , k 0 )) = D(DB)(x, y)(h, k) · (h0 , k 0 )


= DB(h, k) · (h0 , k 0 )
= B(h, k 0 ) + B(h0 , k)

et l’application D2 B : E × E → L2 (E × E, F ) obtenue est constante.

2
1.2 Lemme de Schwarz
Dans l’identification précédente les vecteurs h et k ne jouent pas a priori
le même rôle. En fait il n’en est rien.
Proposition 1.2 (Lemme de Schwarz) Si f : U → F est deux fois dif-
férentiable en a, l’application bilinéaire D2 f (a) est symétrique.
Preuve Soit r > 0 assez petit pour que Bo(a, 2r) ⊂ U et que Df y soit
définie. Posons pour khk < r et kkk < r,
ϕ(h, k) = f (a + h + k) − f (a + h) − f (a + k) + f (a) − D2 f (a)(h, k)
ϕ(h, k)
et montrons que → 0 quand k(h, k)k → 0. En effet la différentia-
k(h, k)k2
bilité de Df en a s’exprime par le fait que, quel que soit ε > 0, il existe
α > 0 (on peut imposer α < r) tel que si khk < 2α, alors
kDf (a + h) − Df (a) − D(Df )(a) · hk < εkhk
(il s’agit au premier membre de la norme d’un élément de L(E, F )).
Pour h fixé vérifiant khk < α, l’application ϕh : k 7→ ϕ(h, k) est définie dans
la boule Bo(0, α), à valeurs dans F et différentiable en tout point de cette
boule. De plus (dans L(E, F )) on a Dϕh (k) = Df (a + h + k) − Df (a + k) −
D(Df )(a) · h = Df (a + h + k) − Df (a) − D(Df (a) · (h + k) − [Df (a + k) −
Df (a) − D(Df )(a) · k]. Et donc, puisque kh + kk < 2α et kkk < 2α,
kDϕh (k)k < ε(kh + kk + kkk) < 3εk(h, k)k
La boule Bo(0, α) étant convexe, on peut appliquer le théorème des accrois-
sements finis à ϕh sur le segment [ 0, k ]. On obtient
kϕh (k) − ϕh (0)k = kϕ(h, k)k ≤ 3εk(h, k)k kkk ≤ 3εk(h, k)k2
et le résultat annoncé suit.
Mais cela implique que l’application bilinéaire définie par
B(h, k) = D2 f (a)(h, k) − D2 f (a)(k, h)
B(h, k)
vérifie → 0 quand k(h, k)k → 0, puisque B(h, k) = ϕ(h, k) −
k(h, k)k2
ϕ(k, h). Or, la bilinéarité permet d’en déduire que B = 0. On raisonne
comme dans le Lemme 1.1 du chapitre 1. : si (h0 , k0 ) 6= (0, 0), pour tout réel
B(th0 , tk0 ) B(h0 , k0 )
t 6= 0, = . Mais, par hypothèse le terme de gauche
k(th0 , tk0 )k k(h0 , k0 )k
tend vers 0 quand t → 0. Cela oblige B(h0 , k0 ) = 0. Or, dire que B = 0,
c’est dire que D2 f (a) est symétrique.

3
1.3 Dérivées partielles secondes
Lorsque E et F sont de dimension finie, le choix de bases V = (v1 , · · · , vm )
dans E et W = (w1 , · · · , wn ) dans F permet de se donner l’application
bilinéaire D2 f (a) en se donnant les composantes dans W des m2 vecteurs
D2 f (a)(vi , vj ) (i ≤ j). Si f est donnée par ses composantes f = (f1 , · · · , fn ),
cela revient à se donner pour chaque ` = 1, · · · n, les m2 scalaires

D2 f` (a)(vi , vj ) = D(Df` )(a)(vi ).vj

Mais pour tout x ∈ U , on a par définition


∂f`
Df` (x)(vi ) = (x)
∂xi
et c’est donc la dérivée partielle par rapport à j de cette fonction de x que
l’on calcule pour obtenir le scalaire
 
2 ∂ ∂f`
D f` (a)(vi , vj ) = (a)
∂xj ∂xi

∂ 2 f`
que l’on note (a) et que l’on appelle dérivée partielle seconde de f`
∂xj ∂xi
en a par rapport à xj et xi .
Le théorème de Schwarz s’énonce maintenant : pour tout 1 ≤ i, j ≤ m
∂ 2 f` ∂ 2 f`
et tout 1 ≤ ` ≤ n, (a) = (a)
∂xj ∂xi ∂xi ∂xj
Lorsque n = 1, c’est-à-dire si f : U → R, D2 f (a) est une forme bilinéaire
symétrique dont la matrice est appelée matrice hessienne de f en a. C’est
la matrice carrée symétrique constituée par les dérivées partielles secondes
de f en a :  2 
∂ f
Hf (a) = (a) .
∂xj ∂xi 1≤i,j≤m

Lorsque F est de dimension n, ceci s’applique à chacune des composantes


f` de f .

1.4 Fonctions de classe C 2


Définition 1.3 On dit que f est de classe C 2 dans U si f admet en tout
point de U une différentielle seconde et si D2 f : U → L2 (E, F ) est continue.

4
Noter que l’existence de D2 f (x) pour tout x ∈ U impose à f d’être de classe
C 1 dans U .
Le résultat suivant s’obtient sans peine ( ?).
Proposition 1.4 Si E et F sont de dimension finie, f est de classe C 2 sur
U si et seulement si chaque composante f` de f admet en tout point de U
∂ 2 f`
des dérivées partielles secondes et chacune des fonctions x 7→ (x) est
∂xj ∂xi
continue dans U .

2 Fonctions de classe C p
Rien n’empêche de continuer et d’adopter la définition inductive sui-
vante.

Définition 2.1 Soit E et F des espaces normés et U un ouvert de E.


1. On dit que f : U → F est de classe C 0 si elle est continue.
2. On dit que f : U → F est de classe C p (p ≥ 1) si elle est différentiable
dans U et si Df : U → L(E, F ) est de classe C p−1 .
3. On dit que f : U → F est de classe C ∞ si elle est de classe C p pour
tout p ∈ N.

Pour concrétiser les différentielles successives, il faut généraliser l’isomor-


phisme entre L(E, L(E, F )) et L2 (E, F ) en définissant Lp (E, F ) = {applica-
tions p-(multi)linéaires continues de E p = E| × ·{z
· · × E} → F }. La continuité
p
d’une application p-linéaire ϕ équivaut à l’existence de C > 0 tel que pour
(h1 , · · · , hp ) ∈ E p , kϕ(h1 , · · · , hp )k ≤ Ckh1 k kh2 k · · · khp k. Ceci permet aussi
de définir une norme sur Lp (E, F ). Le résultat clé est le fait (admis) que
L(E, Lp−1 (E, F )) s’identifie (avec sa norme) à Lp (E, F ).
On peut alors identifier la différentielle d’ordre p de f en a à une appli-
cation p-linéaire continue de E p → F notée Dp f (a). L’analogue du lemme
de Schwarz, est la

Proposition 2.2 Si f est p fois différentiable en a, alors Dp f (a) est sy-


métrique, c’est-à-dire que pour toute permutation σ de {1, · · · , p}, et tout
(h1 , · · · , hp ) ∈ E p ,

Dp f (a)(hσ(1) , hσ(2) , · · · , hσ(p) ) = Dp f (a)(h1 , · · · , hp ).

5
A titre d’exemple, on peut retenir que toute application bilinéaire conti-
nue B est de classe C ∞ et que Dp B = 0 pour tout p ≥ 3. Comment ce
résultat se généralise-t-il ?
Un dernier résultat important.

Proposition 2.3 Soient E, F et G des espaces normés, U un ouvert de E


et V un ouvert de G. Si f : U → F et g : V → G sont de classe C p et si
f (U ) ⊂ V , alors g ◦ f est de classe C p .

Preuve Elle se fait par récurrence sur p ≥ 1. Si p = 1, c’est un résultat


connu et, pour tout x ∈ U , D(g ◦ f )(x) = Dg(f (x)) ◦ Df (x). Cette formule
s’interprête aussi en
D(g ◦ f ) = B ◦ Φ
où Φ = (Dg ◦ f, Df ) et où B : L(F, G) × L(E, F ) → L(E, G) est donnée
par B(u, v) = u ◦ v. Comme B est bilinéaire continue, elle est de classe
C ∞ . Supposons alors le résultat établi jusqu’à l’ordre p − 1. Puisque Dg
est de classe C p−1 et que f est de classe C p , a fortiori C p−1 , l’hypothèse de
récurrence montre déjà que les deux composantes de Φ, donc Φ, sont de
classe C p−1 . Un deuxième usage de l’hypothèse de récurrence montre alors
que B ◦ Φ est de classe C p−1 . Mais cela veut dire que D(g ◦ f ) est de classe
C p−1 et donc que g ◦ f est de classe C p .

La formule de Faa di Bruno permet d’exprimer les différentielles succes-


sives d’une fonction composée à l’aide de celles des facteurs. C’est vite très
compliqué, mais on peut vérifier à titre d’exercice que

D2 (g ◦f )(a)(h, k) = D2 g(f (a))(Df (a)·h, Df (a)·k)+Dg(f (a))·D2 f (a)(h, k)

formule qui généralise « visiblement » la formule

(g ◦ f )00 (x) = g 00 (f (x))f 0 (x)2 + g 0 (f (x))f 00 (x).

3 Formule de Taylor
On connaı̂t la formule de Taylor à une variable. Soit I un ouvert de R
contenant le segment [ 0, 1 ] et ϕ : I → Rn une fonction de classe C p (p ≥ 1).
Alors
p−1
X Z 1
1 (k) (1 − t)p−1 (p)
ϕ(1) = ϕ (0) + ϕ (t) dt
k! 0 (p − 1)!
k=0

6
Théorème 3.1 Soit U un ouvert d’un espace normé E et f : U → Rn une
application de classe C p (p ≥ 1). Si a et b sont deux points de U tels que
[ a, b ] ⊂ U , on pose h = b − a, hk = (h, · · · , h) (pour k ∈ N∗ ) et, pour
| {z }
k
t ∈ [ 0, 1 ], γ(t) = a + th. Alors
1 1
f (b) = f (a) + Df (a) · h + D2 f (a)(h2 ) + · · · + Dp−1 f (a)(hp−1 ) +
2 (p − 1)!
Z 1
(1 − t)p−1 p
+ D f (γ(t))(hp ) dt.
0 (p − 1)!

Preuve La fonction ϕ(t) = f (a + th) = f ◦ γ(t) est de classe C p sur un ouvert


de R contenant [ 0, 1 ]. On a γ 0 (t) = h et pour tout k ≥ 2, γ (k) (t) = 0. On
en déduit ϕ0 (t) = Df (γ(t)).h, ϕ00 (t) = D2 f (γ(t))(h2 ) et, plus généralement,
ϕ(k) (t) = Dk f (γ(t))(hk ). La formule est alors une simple retranscription de
la formule rappelée en remarquant que ϕ(0) = f (a) et ϕ(1) = f (b).

Corollaire 3.2 (Taylor-Young) Soit f : U → Rn une application de


classe C p et a ∈ U . Alors
1 p
f (b) = f (a) + Df (a) · h + · · · + D f (a)(hp ) + R(h)
p!
où
R(h)
lim = 0.
h→0 khkp

Preuve Soit r > 0 tel que Bo(a, r) ⊂ U . Si khk < r, on peut appliquer le
théorème précédent au segment [ a, a + h ] et il suffit de montrer que
Z 1
(1 − t)p−1 p 1
D f (γ(t))(hp ) dt = Dp f (a)(hp ) + R(h)
0 (p − 1)! p!
Z 1
R(h) (1 − t)p−1 1
avec lim = 0. Or, puisque dt = , on a
h→0 khkp 0 (p − 1)! p!
Z 1
(1 − t)p−1 p
R(h) = [D f (γ(t))(hp ) − Dp f (a)(hp )] dt.
0 (p − 1)!

Mais puisque x 7→ Dp f (x) est continue en a, pour tout ε > 0, il existe


α > 0 tel que si kx − ak < α, kDp f (x) − Dp f (a)k < ε. Au premier membre

7
de cette inégalité, il s’agit de la norme de l’application p-linéaire continue
Dp f (x) − Dp f (a). Si elle est plus petite que ε, alors, pour tout v ∈ E, on
a kDp f (x)(v p ) − Dp f (a)(v p )k ≤ εkvkp . Si on suppose que khk < α, alors
x = γ(t) = a + th vérifie kx − ak = tkhk < α. On en déduit
Z 1
p (1 − t)p−1 ε
kR(h)k ≤ εkhk dt = khkp
0 (p − 1)! p!

ce qui est le résultat cherché.

8
Chapitre 5 : POINTS CRITIQUES ET EXTREMA

5 janvier 2006

Dans tout ce chapitre on étudie des fonctions à valeurs réelles. Si U est


un ouvert d’un espace normé E et f : U → R une fonction différentiable,
alors pour tout x ∈ U , Df (x) est une forme linéaire (continue) donc elle est
nulle ou surjective.

Définition 0.1 Si Df (a) = 0, on dit que a est un point critique de f et


que f (a) est une valeur critique.

Définition 0.2 Si A ⊂ U (A n’est pas supposé ouvert...), on dit que a ∈ A


est un minimum (resp. maximum) local (resp. strict) relatif de f sur A s’il
existe un voisinage ouvert Va de a tel que, pour tout x ∈ Va ∩ A, on ait
f (x) ≥ f (a) (resp. f (x) ≤ f (a)) (resp. inégalités strictes si x 6= a). Si a
est un minimum local ou un maximum local, on dit que c’est un extremum
local.
Si A = U , on supprime la partie soulignée et on dit que c’est le cas libre.

1 Etude du cas libre


Proposition 1.1 (Condition Nécessaire du 1er ordre) Si la fonction
différentiable f : U → R admet un extremum local en a ∈ U , alors a est un
point critique de f .

Preuve Supposons que a est un minimum local de f . Il existe alors ρ > 0


tel que si kx − ak < ρ, alors f (x) ≥ f (a). Si h ∈ E, h 6= 0 et si t ∈ R vérifie
ρ
|t| < khk , alors a + th ∈ Bo(a, ρ) et donc f (a + th) ≥ f (a). D’une part

f (a + th) − f (a)
Df (a) · h = lim ≥0
t→0+ t

1
puisque numérateur et dénominateur sont des réels positifs. D’autre part

f (a + th) − f (a)
Df (a) · h = lim ≤0
t→0− t
puisque le numérateur est positif et le dénominateur négatif. La seule pos-
sibilité est donc Df (a) · h = 0.

Remarques
1. Si E est de dimension finie, a est un point critique si et seulement si
les dérivées partielles de f sont toutes nulles en a.
2. La condition trouvée est nécessaire mais pas suffisante, comme le
montre la fonction x → x3 qui est strictement croissante sur R bien
que 0 en soit un point critique.

Si f est deux fois dérivable et si E est de dimension finie, ce que nous


supposons jusqu’à la fin du chapitre, on peut obtenir une autre condition
nécessaire en utilisant la formule de Taylor-Young à l’ordre 2. Rappelons
que D2 f (a) est une forme bilinéaire symétrique dont la forme quadratique
associée, h 7→ D2 f (a)(h2 ) est le terme d’ordre 2 figurant dans cette formule.

Quelques rappels sur les formes quadratiques réelles


On désigne par B une forme bilinéaire symétrique sur E = Rm et par Q
la forme quadratique associée.
1. Le noyau de B (ou de Q) est le sous-espace vectoriel

{h ∈ E | ∀k ∈ E, B(h, k) = 0}.

2. On dit que B (ou Q) est non dégénérée si son noyau est le sous-espace
0.
3. On dit que B (ou Q) est positive (resp. négative) si pour tout h ∈ E,
Q(h) ≥ 0 (resp. Q(h) ≤ 0).
4. On dit que B (ou Q) est définie si pour tout h 6= 0, Q(h) 6= 0. Une
forme quadratique réelle définie est soit définie positive soit définie
négative.
5. On dit que B (ou Q) est indéfinie s’il existe h, k ∈ E tels que Q(h) > 0
et Q(k) < 0.
En termes de valeurs propres (toutes réelles) de la matrice M de B cela se
traduit par :

2
– Q est non dégénérée si et seulement 0 n’est pas valeur propre ou encore
det M 6= 0.
– Q est positive ssi toutes les valeurs propres de M sont ≥ 0,
– Q est définie positive ssi toutes les valeurs propres de M sont > 0,
– Q est indéfinie ssi M a des valeurs propres des deux signes.
Si p est le nombre de valeurs propres > 0, et q le nombre de valeurs propres
< 0, le triplet (p, q, m − q − p) est la signature de Q. Elle ne dépend pas de
la base considérée (bien que les valeurs propres en dépendent).

Proposition 1.2 (Condition Nécessaire du 2e ordre) Si f : U → R


de classe C 2 a un minimum (resp. maximum) local en a, la hessienne de f
en a est positive (resp. négative).

Avant de donner la preuve on peut énoncer le

Corollaire 1.3 Si a est un point critique et si la hessienne de f en a est


indéfinie, a n’est pas un extremum local, c’est un col ou une selle (au choix).

Preuve Supposons que a soit un minimum local et écrivons la formule de


Taylor-Young à l’ordre 2. Si a + h ∈ U , on a
1 2
f (a + h) − f (a) = D f (a)(h, h) + ε(h)
2!
ε(h)
où khk 2 → 0 quand h → 0. On fixe h0 ∈ E, h0 6= 0 et on écrit cette

formule avec h = th0 , de sorte que D2 f (a)(h, h) = t2 D2 f (a)(h0 , h0 ). Puisque


ε(th0 )
khk2 = t2 kh0 k2 , on a lim = 0 et donc, puisque
t→0 t2
1 2 ε(th0 ) f (a + th0 ) − f (a)
D f (a)(h0 , h0 ) + = ≥0
2 t2 t2
si |t| est assez petit, à la limite D2 f (a)(h0 , h0 ) ≥ 0.

L’exemple de la fonction f : R2 → R donnée par f (x, y) = x2 −y 3 montre


que cette condition n’est pas suffisante. En effet (0, 0) est un point critique
en lequel la hessienne est positive mais dégénérée (c’est (h, k) 7→ h2 ) et f
change de signe au voisinage de (0, 0) qui n’est donc pas un extremum local.

Proposition 1.4 (Condition Suffisante) Si f : U → R est de classe C 2


et si a est un point critique en lequel la hessienne est définie positive, alors
a est un minimum local strict.

3
Preuve Posons S = {h ∈ E | khk = 1}. C’est une partie compacte de E
(on est en dimension finie !) sur laquelle la forme quadratique D2 f (a)(h, h)
est bornée et atteint son minimum. Il existe donc h0 tel que kh0 k = 1 et
pour tout h ∈ S, D2 f (a)(h, h) ≥ D2 f (a)(h0 , h0 ) = ρ. Comme h0 6= 0 (il est
de norme 1), et que D2 f (a) est définie positive, ρ > 0. Pour tout h ∈ E, si
h
h 6= 0, khk ∈ S et donc

h h
D2 f (a)(h, h) = khk2 D2 f (a)( , ) ≥ ρkhk2
khk khk

Mézalor (Taylor-Young encore)


 
1 2 2 ρ ε(h)
f (a + h) − f (a) = D f (a)(h, h) + ε(h) ≥ khk +
2 2 khk2
où le crochet a une limite strictement positive si h → 0 et est donc stricte-
ment positif si khk est assez petit.

Le fait qu’on ait une propriété plus forte (extremum strict) suggère que
cette condition n’est pas nécessaire. C’est bien le cas comme le montre
l’exemple, toujours sur R2 , de la fonction f (x, y) = x2 + y 4 qui a (0, 0)
pour minimum bien que sa hessienne en (0, 0) soit dégénérée.

2 Etude du cas lié


On étudie la situation suivante. On suppose que f : U → R est définie
sur un ouvert de Rn et que A est une sous-variété de Rn de dimension p.

Définition 2.1 Si f est de classe C 1 , on dit que a ∈ A ∩ U est un point


critique de f sur A si Ta A ⊂ ker Df (a).

Cette définition est justifiée par la

Proposition 2.2 (Condition Nécessaire) Si a est un extremum relatif


de f sur A, alors a est un point critique de f sur A.

Preuve Soit v ∈ Ta A. Il existe une fonction γ : I → Rn , de classe C 1 ,


où I est un intervalle ouvert contenant 0, telle que γ(0) = a, γ 0 (0) = v et
pour tout t ∈ I, γ(t) ∈ A. La fonction ϕ = f ◦ γ : I → R est une fonction
d’une variable, dérivable et présentant en 0 un extremum local. Donc d’après
l’étude du cas libre, ϕ0 (0) = 0. Mais ϕ0 (0) = Df (a) · γ 0 (0) = Df (a) · v, donc
v ∈ ker Df (a).

4
La proposition suivante traduit ce résultat lorsque A est « définie par
équations », autrement dit lorsque A = F −1 (0) où F : V (ouvert de Rn )
→ Rn−p est une submersion en tout point de A.
Proposition 2.3 Si F = (F1 , · · · , Fn−p ) et si a tel que F1 (a) = F2 (a) =
· · · = Fn−p (a) = 0 est un point critique de f sur A, alors il existe des
scalaires λ1 , · · · , λn−p , déterminés de manière unique, tels que
n−p
X
Df (a) = λi DFi (a)
i=1

(il s’agit d’une égalité entre formes linéaires).


n−p
\
Preuve On sait que Ta A = ker DFi (a) et que, puisque Ta A est de dimen-
i=1
sion p, les n − p formes linéaires DFi (a) sont linéairement indépendantes.
n−p
\
La condition ker DFi (a) ⊂ ker Df (a) signifie que les n − p + 1 formes
i=1
linéaires Df (a) et DFi (a) (i = 1, · · · , n − p) sont linéairement dépendantes,
donc que Df (a) est une combinaison linéaire, déterminée de façon unique,
des DFi (a).

Les λi s’appellent multiplicateurs de Lagrange de f en a. Concrêtement


les Fi s’interprètent comme des « contraintes » et f est une fonction à maxi-
miser ou minimiser. On cherche les points critiques et les multiplicateurs de
Lagrange en résolvant le système de 2n − p équations en les 2n − p inconnues
(a1 , · · · , an , λ1 , · · · , λn−p ) :
| {z }
a

 Fj (a) = 0 j = 1···n − p

 ∂f Pn−p ∂F
∂xi (a) = j=1 λj ∂xji (a) i = 1 · · · n
Ce sytème est linéaire par rapport aux λj , ce qui, parfois, facilite sa résolution.

On peut aussi énoncer des conditions (nécessaires ou suffisantes) au 2e


ordre. Voici sans preuve un résultat. Si f et les Fi sont supposés de classe C 2
sur U et si a est un point critique de f sur A de multiplicateurs de Lagrange
λ1 , · · · , λn−p , la restriction à l’espace vectoriel Ta A de la forme quadratique
n−p
X
2
D f (a) − λi D2 Fi (a)
i=1

5
est appelée forme hessienne de f sur A en a.
1. Si a est un minimum local de f sur A, la hessienne de f sur A en a
est positive.
2. Si la hessienne de f sur A en a est définie positive, a est un minimum
local strict de f sur A.

6
Chapitre 6 : ÉQUATIONS DIFFÉRENTIELLES
ORDINAIRES. THÉORÈMES
FONDAMENTAUX

17 janvier 2007

Dans toute la suite les espaces vectoriels considérés sont de dimension


finie.

1 Terminologie
1.1 E.D.O. du premier ordre. Solutions
Soit U un ouvert de R × Rn et f : U → Rn une application. Elle définit
l’« équation différentielle ordinaire du premier ordre »

(E) y 0 = f (t, y)

parfois notée ẏ = f (t, y).

Définition 1.1 1. Une solution de (E) sur un intervalle J (d’intérieur


non vide) est une fonction dérivable ϕ : J → Rn telle que
(a) pour tout t ∈ J, (t, ϕ(t)) ∈ U ,
(b) pour tout t ∈ J, ϕ0 (t) = f (t, ϕ(t)).
2. Le graphe d’une solution, Γϕ = {(t, ϕ(t)) | t ∈ J}, est une courbe
intégrale de (E).
3. Si (t0 , y0 ) ∈ U , une solution de condition initiale (t0 , y0 ) est une solu-
tion ϕ telle que J 3 t0 et ϕ(t0 ) = y0 .

Une « équation différentielle ordinaire » est donc une expression compor-


tant une inconnue (représentée par y) qui est une fonction d’une variable
notée t. Cette inconnue intervient aussi dans (E) par sa dérivée première

1
(d’où la mention du premier ordre). Résoudre l’équation c’est en trouver (ou
caractériser) une (ou toutes les) solution(s).
Remarquons que J est un intervalle qui peut être ouvert, semi-ouvert,
fermé, borné ou non. On a vu dans les chapitres précédents ce que signifie
ϕ est dérivable sur J pour tout type d’intervalle : la notation ϕ0 désigne
la fonction de J dans Rn qui associe à t le vecteur dérivée en t. Si f est
supposée continue toute solution de (E) est automatiquement C 1 . Elle est
C k+1 (resp. C ∞ ) si on suppose que f est C k (resp. C ∞ ).

Exemples
Evolution d’une population Si p(t) représente la population d’une es-
p0 (t)
pèce donnée à l’instant t, le taux de croissance instantané est .
p(t)
L’évolution de la population est gouvernée par l’équation différentielle

p0
= r(t, p) = g(t, p) − s(t, p)
p
où g et s sont deux fonctions, supposées connues, donnant le taux de
naissance et le taux de décès de la population étudiée. Le cas le plus
simple correspond à g et s constantes donc r(t, p) est une constante
α et les solutions sont de la forme p(t) = ceαt . Si α > 0, ce modèle
conduit à une population dont la croissance est illimitée, ce qui est peu
réaliste. Un meilleur modèle est obtenu en supposant que r = α−βp où
α et β sont des constantes positives. L’équation différentielle obtenue

p0 = (α − βp)p

est appelée équation logistique. Elle se résout (c’est une « équation


à variables séparées »), mais il est intéressant de constater que les
résultats de ce chapitre permettent d’établir les propriétés suivantes
sans utiliser la forme explicite des solutions :
– si à l’instant t0 , p(t0 ) = p0 = αβ , alors p(t) = p0 pour tout t > t0 ,
– si à l’instant t0 , p(t0 ) > p0 , alors p(t) est, après t0 , une fonction
décroissante de t et limt→+∞ p(t) = p0 ,
– si à l’instant t0 , p(t0 ) < p0 , alors p(t) est, après t0 , une fonction
croissante de t et limt→+∞ p(t) = p0 .
Dans ces exemples la fonction f : R × R → R définissant l’équation
(E) est f (t, p) = αp dans le premier cas et f (t, p) = (α − βp)p dans le
second. Il s’agit de fonctions indépendantes de t. On dit alors que (E)
est une équation autonome.

2
Système proie-prédateur Il s’agit de décrire l’évolution de deux espèces
dont l’une (proie) est la nourriture de l’autre (prédateur). Il y a donc
deux inconnues : la population des proies, y1 (t) et la population des
prédateurs y2 (t). L’équation (E) est un système différentiel :
 0
y1 = r1 (t, y1 , y2 )y1
y20 = r2 (t, y1 , y2 )y2

Une situation simple et pas trop irréaliste est r1 (t, y1 , y2 ) = α − βy2


et r2 (t, y1 , y2 ) = −γ + δy1 où α, β, γ, δ sont des constantes stricte-
ment positives. Ce choix s’interprête de la façon suivante : en l’ab-
sence de prédateurs le taux de croissance des proies est constant (α)
et en présence de prédateurs ce taux diminue proportionnellement au
nombre de prédateurs. De façon symétrique, en l’absence de proies les
prédateurs s’éteignent à taux constant (γ) et en présence de proies le
taux augmente proportionnellement au nombre de proies. Le système
obtenu est un système de Lotka – Volterra
 0
y1 = αy1 − βy1 y2
y20 = −γy2 + δy1 y2

qui n’est pas pas si facile à étudier...


Cette fois f : R × R2 → R2 est donnée, si y = (y1 , y2 ), par f = (f1 , f2 )
où f1 (t, y) = αy1 − βy1 y2 et f2 (t, y) = −γy2 + δy1 y2 . Il s’agit encore
d’un système autonome, de dimension 2.

En dimension n = 1, on peut représenter les graphes des solutions dans


le plan (t, y) ∈ R2 . Même sans résoudre l’équation (E), on peut représenter
le champ des tangentes. On peut en effet associer à tout point (t0 , y0 ) ∈ U ,
la droite passant par M0 de pente f (t0 , y0 ). Cette droite est la tangente en
M0 au graphe Γϕ d’une solution de (E) telle que ϕ(t0 ) = y0 . Inversement
si Γϕ est un graphe ayant la propriété qu’en tout point M = (t, y) ∈ Γϕ ,
la tangente en M a pour pente f (t, y), alors ϕ est une solution de (E)
sur l’intervalle de définition de Γϕ . Voici l’un des rares exemples où cette
propriété permet de résoudre (E). Considérons l’équation différentielle
t
y0 = −
y

sur l’ouvert U = {(t, y) ∈ R × R | y 6= 0}. Si M = (t, y) ∈ U , la droite


y
OM a pour pente (elle est infinie si t = 0) et est donc perpendiculaire à
t

3
la tangente en M à une courbe intégrale passant par M (qui a pour pente
− yt ). Or les courbes ayant la propriété qu’en chaque point la tangente est
perpendiculaire au « rayon vecteur » sont les cercles de centre O. Un tel
cercle a pour équation t2 + y 2 = R2 , de sorte qu’on a bien t + yy 0 = 0.
Toujours en dimension 1, on a la classique définition suivante.

Définition 1.2 Soit U un ouvert de R × R et f : U → R. Si m ∈ R, la


courbe Cm d’équation f (t, y) = m est la ligne isocline de pente m de (E).

Une courbe intégrale passant par M0 ∈ Cm a en M0 une tangente de pente


m. Le long de Cm les courbes intégrales, si elles existent, sont parallèles
entre elles.

Exemple Les isoclines de l’équation (E) y 0 = t−y 2 sont les paraboles d’axe
Ot, t = y 2 + m. L’isocline C0 sépare le plan en deux régions : l’intérieur de
la parabole t = y 2 , région dans laquelle toute courbe intégrale est crois-
sante et l’extérieur de la parabole, dans laquelle toute courbe intégrale est
décroissante. Les points de C0 ont vocation à être des extrema locaux des
courbes intégrales.
Toujours sans chercher à résoudre (E), on peut déterminer les points en
lesquels la dérivée seconde d’une solution s’annule (probables points d’in-
flexion). Rappelons que dans cet exemple toute solution est C ∞ . Si ϕ(t) est
une solution on a ϕ0 (t) = t − ϕ(t)2 et, en dérivant, ϕ00 (t) = 1 − 2ϕ(t)ϕ0 (t) =
1 − 2ϕ(t)(t − ϕ(t)2 ). Donc ϕ00 (t) = 0 si et seulement si (t, ϕ(t) est un point
de la courbe d’équation 2y(t − y 2 ) = 1.

Si n > 1, il est plus difficile de faire des dessins. Cependant, si n = 2 et


si ϕ = (ϕ1 , ϕ2 ) est une solution de (E) sur  J, on peut représenter dans le
y1 = ϕ1 (t)
plan (y1 , y2 ) ∈ R2 , la courbe paramétrée , t ∈ J . Lorsque
y2 = ϕ2 (t)
la fonction f = (f1 , f2 ) est indépendante de t (cas autonome), on peut sans
résoudre représenter dans le plan (y1 , y2 ) le champ des tangentes en traçant
pour chaque point M0 = (y10 , y20 ) ∈ U , un segment de droite passant par M0
de direction donnée par le vecteur f (M0 ) = (f1 (M0 ), f2 (M0 )). Ce segment
est la tangente en M0 à une (éventuelle) solution de (E) passant par ce
point. A titre d’exercice on représentera ce champ pour le système de Lotka
– Volterra. La représentation paramétrée des courbes intégrales s’appelle le
portrait de phases de (E).

4
1.2 Généralisations
1.2.1 Equation différentielle implicite
C’est une équation (E) e F (t, y, y 0 ) = 0 où F : Ω → Rn , Ω ouvert
de R × R × R . Si on suppose que F est de classe C 1 et qu’en M0 =
n n

(t0 , y0 , y1 ) ∈ Ω tel que F (M0 ) = 0 on a D3 F (M0 ) ∈ GL(Rn ), on peut ap-


pliquer le théorème des fonctions implicites qui permet de se ramener (au
moins théoriquement) au voisinage de M0 à la forme « explicite » y 0 = G(t, y)
traitée précédemment.

1.2.2 E.D.O. d’ordre > 1


En Mécanique le mouvement d’un point matériel est régi par une équa-
tion différentielle du type y 00 = F (t, y, y 0 ) qui est du second ordre, donnée
par une fonction F : Ω → Rn où Ω est un ouvert de R × Rn × Rn , de la
forme (t, y1 , y2 ) 7→ F (t, y1 , y2 ). L’astuce suivante permet de faire entrer ce
type d’équations dans le cadre précédent en augmentant la dimension. On
pose Y = (y1 , y2 ) et on définit f : Ω → R2n par f (t, Y ) = (y2 , F (t, y1 , y2 )).
L’équation différentielle (E) Y 0 = f (t, Y ) est identique au système
 0
y1 = y2
y20 = F (t, y1 , y2 )

Une solution de (E) est une fonction ϕ : J → R2n de la forme ϕ = (ϕ1 , ϕ2 )


où ϕ1 et ϕ2 sont des fonctions de J dans Rn vérifiant
 0
ϕ1 (t) = ϕ2 (t)
ϕ02 (t) = F (t, ϕ1 (t), ϕ2 (t))

donc aussi ϕ001 (t) = F (t, ϕ1 (t), ϕ01 (t)). Inversement si ϕ1 : J → Rn est une
fonction deux fois dérivable et telle que ϕ001 (t) = F (t, ϕ1 (t), ϕ01 (t)), en posant
ϕ2 (t) = ϕ01 (t), la fonction ϕ = (ϕ1 , ϕ2 ) est solution de (E). Autrement dit
ϕ1 est solution de l’équation du second ordre si et seulement (ϕ1 , ϕ01 ) est
solution du système (E) du premier ordre de dimension 2n associé.
Pour un système d’ordre 2, une condition initiale est la donnée d’un
point (t0 , y0 , y1 ) ∈ Ω. Une solution vérifiant cette condition initiale est une
solution ϕ1 telle que ϕ1 (t0 ) = y0 et ϕ01 (t0 ) = y1 . Si t est le temps, y0 est
donc la position et y1 la vitesse à l’instant t0 .
Ceci se généralise à l’ordre p : un système de dimension n et d’ordre p,
donnant la dérivée p-ième en fonction de t, y et des dérivées d’ordre < p, se
transforme en un système d’ordre 1 de dimension np.

5
2 Théorie locale
2.1 Lemme de Gronwall
Proposition 2.1 Soit a < b deux réels, f : [ a, b ] → [ 0, +∞ [ une fonction
continue et c ∈ [ a, b ]. S’il existe A ≥ 0 et B ≥ 0 tels que pour tout t ∈ [ a, b ],
Z t
f (t) ≤ A + B f (s) ds
c

alors pour tout t ∈ [ a, b ],


f (t) ≤ A eB|t−c| .

Z t
Preuve Supposons d’abord t ≥ c. Posons F (t) = A+B f (s) ds. C’est une
c
fonction de classe C 1 et F 0 (t) = Bf (t). Par hypothèse, pour tout t ∈ [ c, b ],
d  −Bt 
f (t) ≤ F (t), de sorte que e F (t) = e−Bt [Bf (t) − BF (t)] ≤ 0. On
dt
en déduit que la fonction e−Bt F (t) est décroissante sur [ c, b ] et donc, pour
tout t ∈ [ c, b ],
e−Bt F (t) ≤ e−Bc F (c) = A e−Bc .
D’où, pour tout t ∈ [ c, b ], F (t) ≤ AeB(t−c) et, a fortiori,
f (t) ≤ A eB(t−c) .
Z c
Si maintenant t ≤ c, on pose G(t) = A + B f (s) ds et l’hypothèse est
t
f (t) ≤ G(t) pour tout t ∈ [ a, c ]. On a G0 (t) = −Bf (t) ≥ −BG(t) et on
en déduit, comme plus haut, la croissance de eBt G(t) sur [ a, c ], puis la
majoration eBt G(t) ≤ eBc G(c) = AeBc d’où l’on déduit enfin, pour tout
t ∈ [ a, c ],
f (t) ≤ AeB(c−t) = AeB|t−c| .

2.2 Fonctions lipschitziennes par rapport à y


Définition 2.2 Soit U un ouvert de R × Rn , f : U → Rn , (t, y) 7→ f (t, y)
et A ⊂ U .
1. f est uniformément sur A lipschitzienne par rapport à y s’il existe
k > 0 tel que pour (t, y1 ) et (t, y2 ) ∈ A,
kf (t, y1 ) − f (t, y2 )k ≤ kky1 − y2 k.

6
2. f est localement lipschitzienne par rapport à y si pour tout (t0 , y0 ) ∈
U , il existe un voisinage de ce point sur lequel f est uniformément
lipschitzienne par rapport à y.

Remarques
1. Une fonction lipschitzienne par rapport à y n’est pas automatiquement
continue.
2. Si f admet une différentielle partielle dans la direction de y et si D2 f
est continue sur U , alors f est localement lipschitzienne par rapport à
y. Soit en effet (t0 , y0 ) ∈ U . La continuité de D2 f implique l’existence
d’un ouvert U0 qu’on peut supposer de la forme I × Bo(y0 , ρ) avec I
ouvert de R contenant t0 , tel que, si (t, y) ∈ U0 ,

kD2 f (t, y) − D2 f (t0 , y0 )k ≤ 1

Donc aussi kD2 f (t, y)k ≤ m = 1 + kD2 f (t0 , y0 )k. On peut alors appli-
quer la formule des accroissements finis à la fonction y 7→ f (t, y) sur
le convexe Bo(y0 , ρ). Pour tout t ∈ I, si (t, y1 ) et (t, y2 ) ∈ U0 on a la
majoration kf (t, y1 ) − f (t, y2 )k ≤ mky1 − y2 k.
Cela s’applique bien sûr dans le cas, souvent réalisé en pratique, où f
est de classe C 1 .

Proposition 2.3 Si f est continue et localement lipschitzienne par rapport


à y, alors pour tout K compact tel que K ⊂ U , f est uniformément sur K
lipschitzienne par rapport à y.

Preuve Par l’absurde. Sinon, pour tout entier non nul n, il existe (tn , yn )
et (tn , yn0 ) dans K tels que kf (tn , yn ) − f (tn , yn0 )k > nkyn − yn0 k. Grâce à
la compacité de K, on peut extraire de la suite ((tn , yn )) une sous-suite
((tϕ(n) , yϕ(n) )) convergeant vers (t0 , y0 ) ∈ K. Ensuite on extrait de la suite
0
((tϕ(n) , yϕ(n) 0
)) une sous-suite ((tϕ◦ψ(n) , yϕ◦ψ(n) )) convergeant vers un point
de K qui est nécessairement de la forme (t0 , y00 ), puisque la suite (tϕ◦ψ(n) )
est extraite de la suite (tϕ(n)) qui converge vers t0 . En changeant les nota-
tions pour alléger l’écriture, on peut donc supposer que (tn , yn ) → (t0 , y0 ),
(tn , yn0 ) → (t0 , y00 ) et (puisque ϕ ◦ ψ(n) ≥ n) que pour tout n > 0,

kf (tn , yn ) − f (tn , yn0 )k > nkyn − yn0 k.

Puisque f est continue elle est bornée (par M ) sur le compact K et on a


2M
donc kyn − yn0 k ≤ . On en déduit que y00 = y0 .
n

7
L’hypothèse faite sur f permet alors de trouver un voisinage U0 de (t0 , y0 )
et un k > 0 tels que si (t, y) et (t, y 0 ) ∈ U0 , alors kf (t, y) − f (t, y 0 )k ≤
kky − y 0 k. Or il existe un entier N tel que si n > N , (tn , yn ) et (tn , yn0 )
appartiennent à U0 . Les deux inégalités kf (tn , yn ) − f (tn , yn0 )k > nkyn − yn0 k
et kf (tn , yn ) − f (tn , yn0 )k ≤ k kyn − yn0 k sont alors vérifiées pour n > N . Elles
sont contradictoires dès que n > k.

2.3 Théorie de Cauchy locale


Théorème 2.4 (Cauchy – Lipschitz local précisé) Si f est une fonc-
tion continue et localement lipschitzienne par rapport à y sur un ouvert U de
R × Rn , à valeurs dans Rn . Soit [ t0 − a, t0 + a ] un segment de R et Bf (y0 , r)
une boule compacte de Rn tels que K = [ t0 − a, t0 + a ] ×Bf (y0 , r) ⊂ U .
r
Soit M tel que pour tout (t, y) ∈ K, kf (t, y)k ≤ M , et T = min(a, M ). Il
existe une unique fonction ϕ dérivable sur J = [ t0 − T, t0 + T ] à valeurs
dans Bf (y0 , r) telle que ϕ(t0 ) = y0 et, pour tout t ∈ J, ϕ0 (t) = f (t, ϕ(t)).

Preuve Unicité. Si ϕ et ϕ̃ vérifient les assertions Z


de l’énoncé, pour
Z tout t ∈ J,
t t
ϕ(t) − ϕ̃(t) = ϕ(t) − ϕ(t0 ) − [ϕ̃(t) − ϕ̃(t0 )] = ϕ0 (s) ds − ϕ̃0 (s) ds =
Z t t0 t0

[f (s, ϕ(s) − f (s, ϕ̃(s))] ds.


t0
La proposition 2.3 montre qu’il existe k > 0 tel que si t ∈ [ t0 − a, t0 + a ]
et y1 , y2 ∈ Bf (y0 , r) alors kf (t, y1 ) − f (t, y2 )k ≤ kky1 − y2 k. On en déduit
pour tout t ∈ J,
Z t
kϕ(t) − ϕ̃(t)k ≤ k kϕ(s) − ϕ̃(s)k ds .
t0

On applique le lemme de Gronwall à la fonction continue kϕ(t) − ϕ̃(t)k sur


le segment J avec A = 0, B = k et c = t0 . On en déduit kϕ(t) − ϕ̃(t)k ≤ 0
donc ϕ(t) = ϕ̃(t) pour tout t ∈ J.
Existence. Montrons qu’on peut définir par récurrence une suite ϕn (t) de
fonctions continues sur J à valeurs dans Bf (y0 , r) en partant de ϕ0 (t) = y0
(fonction constante) et en posant, pour n > 1 et t ∈ J,
Z t
ϕn (t) = y0 + f (s, ϕn−1 (s)) ds.
t0

En effet, si ϕn−1 est définie, continue sur J et prend ses valeurs dans
Bf (y0 , r), alors ϕn est clairement définie et continue sur J et la majora-

8
tion (∗)n suivante : pour tout t ∈ J,
Z t
kϕn (t) − y0 k = f (s, ϕn−1 (s)) ds ≤ M |t − t0 | ≤ M T ≤ r
t0

montre que ϕn est à valeurs dans Bf (y0 , r).


Etudions la convergence de la suite (ϕn ). D’abord, pour tout t ∈ J, on a
Z t
(?)1 kϕ1 (t) − ϕ0 (t)k = f (s, y0 ) ds ≤ M |t − t0 |.
t0

Ensuite, pour n ≥ 2 et t ∈ J, on a la majoration (?)n suivante :


Z t
kϕn (t) − ϕn−1 (t)k = [f (s, ϕn−1 (s)) − f (s, ϕn−2 (s))] ds
t0
Z t
≤ kf (s, ϕn−1 (s)) − f (s, ϕn−2 (s))k ds
t0
Z t
≤ k kϕn−1 (s) − ϕn−2 (s)k ds
t0

Si n = 2 et en utilisant (?)1 on en déduit, pour tout t ∈ J,

|t − t0 |2
kϕ2 (t) − ϕ1 (t)k ≤ kM .
2
En utilisant cette majoration dans (?)3 , on voit qu’il est raisonnable d’espé-
rer prouver par récurrence que, pour tout t ∈ J et tout entier n,

|t − t0 |n
kϕn (t) − ϕn−1 (t)k ≤ k n−1 M .
n!
Cette formule est vraie pour n = 1 et, en la supposant vraie au rang n − 1,
on déduit de (?)n :
Z t
|s − t0 |n−1 |t − t0 |n
kϕn (t) − ϕn−1 (t)k ≤ k k n−2 M ds = k n−1 M
t0 (n − 1)! n!

ce qui est la formule cherchée au rang n. En prenant le sup sur J, on en


k n−1 M T n
déduit kϕn − ϕn−1 k∞ ≤ , terme général d’une série convergente.
n!
Ceci établit la convergence normale (donc uniforme) de la suite de fonctions
(ϕn ) sur J vers une fonction ϕ qui est donc continue sur J.

9
En faisant tendre n vers l’infini dans (∗)n , on voit que, pour tout t ∈ J,
kϕ(t) − y0 k ≤ r, ce qui montre que ϕ est à valeurs dans Bf (y0 , r). On peut
alors écrire, pour tout t ∈ J,

kf (t, ϕn (t)) − f (t, ϕ(t))k ≤ kkϕn (t) − ϕ(t)k ≤ kkϕn − ϕk∞

ce qui prouve que la suite de fonctions (f (t, ϕn (t))) converge uniformément


sur J vers f (t, ϕ(t)). On en déduit, pour tout t ∈ J,
Z t
ϕ(t) = lim ϕn (t) = lim [y0 + f (t, ϕn−1 (t)) dt]
n→∞ n→∞ t0
Z t Z t
= y0 + lim f (t, ϕn−1 (t)) dt = y0 + f (t, ϕ(t)) dt
t0 n→∞ t0

Cette formule montre, d’une part, que ϕ(t0 ) = y0 et, d’autre part, puis-
qu’une primitive de fonction continue est dérivable, que ϕ est dérivable dans
J et que ϕ0 (t) = f (t, ϕ(t)).

On peut remarquer que la longueur (2T ) de l’intervalle J dépend de


a, r, M et de l’existence mais pas de la valeur d’une constante de Lipschitz
k par rapport à y.

Corollaire 2.5 (Cauchy – Lipschitz local) Soit U un ouvert de R × Rn


et f : U → Rn une fonction continue et localement lipschitzienne par rapport
à y. Alors, pour tout (t0 , y0 ) ∈ U , il existe une unique solution ϕ de (E)
définie dans un voisinage de t0 et telle que ϕ(t0 ) = y0 .

Preuve Soit U0 un voisinage de (t0 , y0 ) sur lequel f est uniformément lip-


schitzienne par rapport à y. Soit a, r > 0 tels que [ t0 −a, t0 +a ] ×Bf (y0 , r) ⊂
U0 . Le théorème 2.4 fournit une solution de (E) définie dans un voisinage
compact [ t0 −T, t0 +T ] de t0 et telle que ϕ(t0 ) = y0 . L’unicité veut dire que,

si ϕ̃ est une solution de (E) sur un intervalle J telle que t0 ∈J et ϕ̃(t0 ) = y0 ,
alors il existe un intervalle ouvert contenant t0 tel que J˜ ⊂ J ∩[ t0 −T, t0 +T ]
sur lequel ϕ̃(t) = ϕ(t). Mais la continuité de ϕ̃ implique, puisque ϕ(t0 ) = y0
l’existence de J˜ ⊂ J ∩ [ t0 − T, t0 + T ] tel que, pour t ∈ J,
˜ kϕ̃(t) − y0 k < r, ce
qui montre que sur cet intervalle ϕ̃ est à valeurs dans Bf (y0 , r) et l’unicité
découle aussi de 2.4.

10
3 Théorie globale
3.1 Unicité globale
Proposition 3.1 Soit f : U → Rn continue et localement lipschitzienne par
rapport à y. Si ϕ1 et ϕ2 sont deux solutions de (E) sur un même intervalle
J et s’il existe t0 ∈ J en lequel ϕ1 (t0 ) = ϕ2 (t0 ) alors ϕ1 = ϕ2 .

Interprétation géométrique Cette proposition signifie que deux courbes


intégrales de (E) ne peuvent se couper en un point en lequel 2.5 s’applique.

Preuve C’est la connexité de J qui assure cette propriété. En effet soit


J1 = {t ∈ J | ϕ1 (t) = ϕ2 (t)}. C’est un fermé de J puisque ϕ1 et ϕ2 sont
continues. Il est non vide par hypothèse. Montrons que c’est aussi un ouvert
de J. Soit t1 ∈ J1 . Posons y0 = ϕ1 (t1 ) = ϕ2 (t1 ) et appliquons 2.5 au point
(t1 , y0 ) ∈ U . Il existe une unique solution ϕ de (E) définie dans un voisinage

J 0 de t1 et telle que ϕ(t1 ) = y0 . Sur J 0 ∩J, qui est un ouvert de J, ϕ1 et

ϕ2 doivent toutes deux coı̈ncider avec ϕ. Cela implique que J 0 ∩J ⊂ J1 et
montre que J1 est un ouvert de J. La connexité de J exige donc J1 = J.

3.2 Solutions maximales


Définition 3.2 Soit (E) une équation différentielle donnée par une fonc-
tion f : U → Rn .
1. Soit ϕ une solution de (E) sur un intervalle J. On dit que ϕ̃ est un
prolongement de ϕ si
(a) ϕ̃ est une solution de (E) sur un intervalle J˜ et
(b) J ⊂ J˜ et pour tout t ∈ J, ϕ(t) = ϕ̃(t).
2. Une solution ϕ de (E) sur un intervalle J est une solution maximale
de (E) si elle n’admet aucun prolongement défini sur un intervalle J˜
avec J˜ 6= J.

Proposition 3.3 (critère de prolongement) Supposons f : U → Rn


continue et localement lipschitzienne par rapport à y. Soit ϕ une solution
de (E) sur un intervalle J. Si β = sup J est fini et si lim ϕ(t) = ` existe et
t→β −
vérifie (β, `) ∈ U , alors ϕ se prolonge à un intervalle J˜ pour lequel sup J˜ > β.

11
Preuve Le théorème 2.5 s’applique en (β, `) et fournit T > 0 et une unique
solution ϕ0 sur [ β − T, β + T ] telle que ϕ0 (β) = `. Si β ∈ J, par continuité,
on a ϕ(β) = ` donc ϕ0 et ϕ, qui coı̈ncident en β, coı̈ncident par 3.1 sur
ϕ(t) si t ∈ J
J ∩ [ β − T, β ] et en posant ϕ̃(t) = on
ϕ0 (t) si t ∈ [ β − T, β + T ]
définit le prolongement cherché.
Si β 6∈ J, montrons que l’hypothèse permet de prolonger ϕ en une so-
lution définie
 sur J ∪ {β}. On est alors ramené au cas précédent. On pose
ϕ(t) si t ∈ J
ϕ̄(t) = et il faut montrer que ϕ̄ est dérivable à gauche
` si t = β
en β et que cette dérivée (à gauche) est f (β, `). Or, par continuité de f et
de ϕ,
f (β, `) = lim f (t, ϕ(t)) = lim ϕ0 (t) = lim ϕ̄0 (t)
t→β − t→β − t→β −

et on raisonne de la façon suivante (classique et à connaı̂tre). Pour tout


ε > 0, il existe η > 0 tel que si β − η < t < β, kϕ̄0 (t) − f (β, `)k < ε.
Si β − η < t < t0 < β, on a
Z t0 Z t0
0 0
ϕ̄(t ) − ϕ̄(t) = ϕ̄ (s) ds = [ϕ̄0 (s) − f (β, `)] ds + (t0 − t)f (β, `)
t t

d’où en faisant tendre t0


vers β,
Z t0
(∗) ` − ϕ̄(t) = lim ϕ̄0 (s) ds = (β − t)f (β, `) + ψ(t)
t0 →β − t

où Z t0
ψ(t) = lim [ϕ̄0 (s) − f (β, `)] ds.
t0 →β − t
Mais Z t0
[ϕ̄0 (s) − f (β, `)] ds ≤ ε(t0 − t) ≤ ε(β − t)
t

et donc kψ(t)k ≤ ε(β − t). En divisant par β − t (qui est positif) (∗) s’écrit,
pour β − η < t < β,
ϕ̄(t) − `
− f (β, `) ≤ ε
t−β
et cela montre que ϕ̄ admet en β une dérivée à gauche égale à f (β, `).
Théorème 3.4 (Cauchy – Lipschitz global) Soit U un ouvert de R ×
Rn et f : U → Rn une application continue et localement lipschitzienne par
rapport à y. Pour tout (t0 , y0 ) ∈ U , il existe une unique solution maximale
ϕ telle que ϕ(t0 ) = y0 . Cette solution est définie sur un intervalle ouvert.

12
Preuve Soit J = {(J, ϕ)} où J est un intervalle contenant t0 et ϕ : J → Rn
une solution telle que ϕ(t0 ) = y0 . Le théorème 2.5 montre que J 6= ∅. Posons
[
Jmax = J
(J,ϕ)∈J

C’est une réunion de connexes (de R) dont l’intersection est non vide (elle
contient t0 ). C’est donc un connexe de R, c’est-à-dire un intervalle.
Définissons ϕmax : Jmax → Rn de la façon suivante. Si t ∈ Jmax , il existe par
définition un couple (J, ϕ) tel que J 3 t et ϕ est une solution de (E) sur J.
On pose ϕmax (t) = ϕ(t). Bien sûr, il n’y a pas unicité du couple (J, ϕ) mais le
théorème d’unicité assure que tout choix conduit au même résultat et permet
donc de définir la solution maximale passant par (t0 , y0 ). Pour montrer que
Jmax est ouvert, supposons que β = sup Jmax ∈ Jmax . Par construction
de Jmax et définition d’une solution cela implique que (β, ϕmax (β)) ∈ U ,
mais alors le critère de prolongement 3.3 contredit la maximalité de Jmax .
Le même argument s’applique à la borne inférieure et montre donc que
l’intervalle Jmax est ouvert.

3.3 Solutions globales


Dans tout ce paragraphe plaçons-nous dans le cas particulier où U =
I × V avec I intervalle ouvert de R et V ouvert de Rn . On peut dans ce cas
préciser le critère de prolongement 3.3.

Proposition 3.5 Soit f : ] a, b [ ×V → Rn une application continue et lo-


calement lipschitzienne par rapport à y. Soit ϕ : ] α, β [ → V une solution
de (E). On suppose que β < b. S’il existe δ > 0 et K compact de V tels
que pour tout t ∈ ] β − δ, β [, ϕ(t) ∈ K, alors ϕ se prolonge en une solution
définie sur un intervalle J˜ tel que sup J˜ > β. Il y a une propriété analogue
en α.

Preuve Soit K0 = [ β − δ, β ] ×K. C’est un compact inclus dans U . Si


M0 = sup kf (t, y)k, alors ϕ est M0 – lipschitzienne sur [ β − δ, β [ puisque
(t,y)∈K0
si t et t0 appartiennent à cet intervalle,
Z t
0
kϕ(t) − ϕ(t )k = f (s, ϕ(s)) ds ≤ M0 |t − t0 |.
t0

Cela implique que ϕ est uniformément continue sur [ β − δ, β [ et admet donc


un prolongement continu à l’adhérence de [ β −δ, β [, c’est-à-dire à [ β −δ, β ].

13
Cela veut dire que ` = lim ϕ(t) existe et appartient à K. Donc (β, `) ∈ U
t→β −
et on peut appliquer le critère 3.3 pour conclure.

Corollaire 3.6 (« Théorème des bouts ») Soit ϕ une solution maxima-


le de (E) définie sur ] T∗ , T ∗ [. Alors
– ou bien T ∗ = b,
– ou bien T ∗ < b et pour tout K compact de V , il existe t ∈ ] T∗ , T ∗ [ tel
que ϕ(t) 6∈ K. (Autrement dit « une solution maximale sort de tout
compact »).
Il y a un énoncé analogue en T∗ .

Si on suppose de plus que V = Rn , l’alternative s’écrit


– ou bien T ∗ = b,
– ou bien T ∗ < b et lim sup kϕ(t)k = +∞.
t→β −
On peut montrer (nous l’admettrons) qu’en fait lim kϕ(t)k = +∞.
t→β −
La définition suivante est naturelle.

Définition 3.7 Une solution ϕ : J → V de (E) est globale si J = ] a, b [.

Clairement toute solution globale est maximale. La réciproque est fausse


comme l’illustre l’exemple de l’équation (E) y 0 = y 2 . Elle admet la solution
globale ϕ(t) = 0. On en déduit qu’aucune autre solution ne s’annule sur
son intervalle dedéfinition.
 Si alors ϕ est une solution non nulle sur J, on a
ϕ0 (t) d 1 1
2
=1= − et donc − = t + c, t ∈ J et c ∈ R. Pour tout
ϕ(t) dt ϕ(t) ϕ(t)
1
c ∈ R, la formule ϕ(t) = − définit deux solutions différentes de (E) :
t+c
ϕ1 (t) : ] −∞, −c [ → R et ϕ2 (t) : ] −c, +∞ [ → R. Ces deux solutions sont
maximales mais pas globales. On a lim ϕ1 (t) = +∞ et lim ϕ2 (t) = −∞,
t→−c− t→−c+
ce qui illustre le « théorème des bouts ».

Lorsque V = Rn , voici un critère bien utile pour affirmer que les solutions
maximales sont globales.

Proposition 3.8 Soit f : U = I × Rn → Rn une application continue. S’il


existe k : I → [ 0, +∞ [ continue telle que pour tout t ∈ I, l’application
y 7→ f (t, y) soit k(t) – lipschitzienne, alors pour tout (t0 , y0 ) ∈ U , il existe
une unique solution globale ϕ de (E) telle que ϕ(t0 ) = y0 .

14
Preuve Remarquons d’abord que l’hypothèse faite sur f entraı̂ne qu’elle est
localement lipschitzienne en y. En effet si (t0 , y0 ) est un point de U et si
α > 0 est tel que [ t0 − α, t0 + α ] ⊂ I, en posant λ = max k(t), on a,
t∈[ t0 −α,t0 +α ]
pour y, y 0 ∈ Rn et t ∈ [ t0 − α, t0 + α ],

kf (t, y) − f (t, y 0 )k ≤ k(t)ky − y 0 k ≤ λky − y 0 k.

On peut alors appliquer le théorème 3.4 et obtenir l’existence d’une unique


solution maximale ϕ définie sur ] T∗ , T ∗ [ telle que ϕ(t0 ) = y0 .
Supposons T ∗ < b = sup I. L’intervalle [ t0 , T ∗ ] est un compact de I. Posons
C = max k(t) et M = sup kf (t, y0 )k. Pour tout t ∈ [ t0 , T ∗ [, on a
t∈[ t0 ,T ∗ ] t∈[ t0 ,T ∗ ]

Z t Z t
0
kϕ(t) − ϕ(t0 )k = ϕ (s) ds = f (s, ϕ(s)) ds .
t0 t0

Mais pour tout y ∈ Rn et tout s ∈ [ t0 , T ∗ ],

kf (s, y)k ≤ kf (s, y0 )k + Cky − y0 k ≤ Ckyk + D

où D = M + Cky0 k. D’où pour t ∈ [ t0 , T ∗ [,


Z t Z t
kϕ(t)k ≤ ky0 k + D(t − t0 ) + C kϕ(s)k ds ≤ A + C kϕ(s)k ds
t0 t0

si A = ky0 k + D(T ∗ − t0 ). Le lemmme de Gronwall permet d’en déduire pour


tout t ∈ [ t0 , T ∗ [, la majoration
∗ −t )
kϕ(t)k ≤ AeC(t−t0 ) ≤ AeC(T 0

qui est en contradiction avec le théorème des bouts puisqu’on a supposé


T ∗ < b. Donc T ∗ = b et une preuve analogue fournit T∗ = a.

4 Un théorème de régularité
Voici, sans preuve (pour le moment ?) un théorème décrivant la dépen-
dance de la solution par rapport aux conditions initiales où à d’éventuels
paramètres.

Théorème 4.1 Soit W = I × V × Λ un ouvert de R × Rn × Rp (ce dernier


facteur est l’espace des paramètres) et f : W → Rn , (t, y, λ) 7→ f (t, y, λ) une
application de classe C k (k ≥ 0) supposée de plus localement lipschitzienne

15
par rapport à y si k = 0. Pour tout (t0 , y0 , λ0 ) ∈ W , on note ϕ(t, y0 , λ0 )
l’unique solution maximale de l’équation

y 0 = f (t, y, λ0 )

telle que ϕ(t0 , y0 , λ0 ) = y0 . On note J(y0 ,λ0 ) l’intervalle ouvert sur lequel
cette solution est définie. On pose

Ω = {(t, y0 , λ0 ) ∈ W | t ∈ J(y0 ,λ0 ) }.

Alors
1. Ω est un ouvert de R × Rn × Rp ,
2. l’application ϕ : Ω → Rn donnée par (t, y0 , λ0 ) 7→ ϕ(t, y0 , λ0 ) est de
classe C k , et de classe C k+1 par rapport à t.

16
C’est le nom donné traditionnellement aux équations différentielles défi-
nies par une fonction f (t, y) qui dépend de façon affine de y. En identifiant,
comme d’habitude, une application linéaire à sa matrice dans la base cano-
nique, on adopte dans ce chapitre les notations suivantes. On note M(n, R)
l’espace vectoriel des matrices n × n à coefficients réels. Si on a fixé une
norme sur Rn , on munit M(n, R) de la norme d’application linéaire corres-
pondante.
Si I est un intervalle ouvert de R et si A : I → M(n, R) et b : I → Rn sont
deux applications continues, on considère l’équation différentielle

(E) y 0 = A(t)y + b(t)

où le produit de la matrice A(t) par le vecteur y de Rn s’effectue comme


d’habitude et fournit un vecteur de Rn . Le choix des normes permet d’écrire,
pour tout t ∈ I, kA(t)yk ≤ kA(t)k kyk. L’équation différentielle (E) est
donnée par l’application f : I × Rn → Rn , (t, y) 7→ A(t)y + b(t).
L’équation (E) est dire homogène si b = 0, autonome (ou « à coefficients
constants ») si, de plus, A est une application constante.

1 Équations non autonomes


La linéarité se traduit par le très important résultat général suivant.

Proposition 1.1 Par tout point (t0 , y0 ) ∈ I × Rn passe une unique solution
globale.

Preuve L’application k : I → [ 0, +∞ [ donnée par k(t) = kA(t)k est conti-


nue par hypothèse et, pour y1 , y2 ∈ Rn , on a

kf (t, y1 ) − f (t, y2 )k = kA(t)(y1 − y2 )k ≤ kA(t)k ky1 − y2 k = k(t)ky1 − y2 k

On peut donc appliquer la proposition 3.8 du chapitre 6 qui établit le ca-


ractère global des solutions maximales.
Puisque toutes les solutions de (E) sont globales, il est naturel de no-
ter S l’ensemble qu’elles forment, c’est-à-dire le sous-ensemble de C 1 (I, Rn )
constitué par les fonctions dérivables ϕ : I → Rn telles que, pour tout
t ∈ I, ϕ0 (t) = A(t)ϕ(t) + b(t). La proposition précédente a le corollaire sui-
vant.

Corollaire 1.2 Pour tout t0 ∈ I, on définit une bijection Ft0 de Rn dans


S en associant à y ∈ Rn l’unique solution globale de (E) qui prend en t0 la

1
valeur y. Autrement dit, pour y ∈ Rn , Ft0 (y) est une fonction dérivable sur
I vérifiant Ft0 (y)(t0 ) = y et, pour tout t ∈ I, (Ft0 (y))0 (t) = A(t)Ft0 (y)(t) +
b(t).

Remarquons que l’inverse de Ft0 est l’application évaluation en t0 ,


εt0 : S → Rn définie par ϕ 7→ ϕ(t0 ).
La structure algébrique de S sera précisée dans les paragraphes qui
suivent.

1.1 Équations homogènes


Dans ce paragraphe la fonction b(t) est nulle. On peut alors préciser la
proposition 1.1.

Proposition 1.3 La solution de condition initiale (t0 , y0 ) vérifie, pour tout


t ∈ I, ˛ ˛
˛R t ˛
˛ t kA(s)k ds˛
kFt0 (y0 )(t)k ≤ ky0 ke 0 .

Preuve La preuve s’inspire de celle du lemme de Gronwall (et pourrait se


déduire d’une version plus forte de celui-ci).
Z t
Pour tout t ∈ I, on a kFt0 (y0 )(t) − y0 k = A(s)Ft0 (y0 )(s) ds .
t0
En posant g(t) = kFt0 (y0 )(t)k, on définit une fonction continue sur I à
valeurs dans [ 0, +∞ [, qui vérifie l’inégalité :
Z t
g(t) ≤ ky0 k + kA(s)k g(s) ds
t0

Supposons t > t0 (le cas t < t0 est laissé en exercice).


Z t
Définisssons G(t) = ky0 k + kA(s)k g(s) ds.
t0
C’est une fonction dérivable sur I et G0 (t) = kA(t)k g(t) ≤ kA(t)k G(t) par
hypothèse. R t
− kA(s)k ds
De sorte que la fonction Φ(t) = e t0 G(t) a pour dérivée
Rt
− kA(s)k ds  
Φ0 (t) = e t0 −kA(t)k G(t) + G0 (t) ≤ 0.

C’est donc une fonction décroissante pour t ≥ t0 et

Φ(t) ≤ Φ(t0 ) = G(t0 ) = ky0 k.

2
On en déduit
Rt
kA(s)k ds
kFt0 (y0 )(t)k = g(t) ≤ G(t) ≤ ky0 ke t0

ce qui est le résultat voulu.

Par ailleurs le caractère vraiment linéaire de (E) se traduit par la pro-


position suivante.

Proposition 1.4 L’ensemble S est un sous-espace vectoriel de dimension


n de C 1 (I, Rn ). Plus précisément, pour tout t0 ∈ I, Ft0 est un isomorphisme
de Rn sur S.

Preuve Il est immédiat de vérifier que, comme b(t) = 0, toute combinaison


linéaire de solutions est solution. Les applications εt0 et Ft0 sont dans ce cas
clairement linéaires. Ce sont donc des isomorphismes et dim S = dim Rn =
n.

Remarques
1. Pour toute ϕ ∈ S, si ϕ n’est pas la fonction nulle, alors, pour tout
t ∈ I, ϕ(t) 6= 0.
2. Si (v1 , · · · , vn ) est une base de Rn et t0 ∈ I, (Ft0 (v1 ), · · · , Ft0 (vn )) est
une base de S. On parle plutôt de système fondamental de solutions
de (E).

Définition 1.5 (matrice de solutions) Une matrice carrée n × n dont


chaque colonne est une solution de (E) est appelée matrice de solutions de
(E).

Si X(t) est une matrice de solutions de (E), alors pour tout t ∈ I, on a


X 0 (t) = A(t)X(t) (produit des deux matrices). Ici X 0 (t) désigne la matrice
n × n obtenue en dérivant chaque coefficient de X(t). On peut donc regarder
X(t) comme une solution de l’équation
e X 0 = A(t)X
(E)
2
qui est une équation linéaire homogène sur l’espace Rn . Inversement toute
solution de cette équation est une matrice dont les colonnes sont des solutions
de (E).

Définition 1.6 (Wronskien) Soit X(t) une matrice de solutions de (E).


Le déterminant de X(t) est appelé wronskien de X(t). On le note W (t) =
det X(t).

3
Théorème 1.7 (Théorème de Liouville) Soit X(t) une matrice de so-
lutions de (E) et W (t) son wronskien. Alors
1. W (t) vérifie l’équation différentielle scalaire du premier ordre
W 0 (t) = tr A(t)W (t)
où tr A(t) désigne la trace de la matrice A(t).
2. Pour t, t0 ∈ I, Rt
tr A(s) ds
W (t) = W (t0 )e t0 .

Preuve La deuxième affirmation se déduit immédiatement de la première


et de la formule bien connue donnant les solutions d’une équation linéaire
scalaire du premier ordre.
Pour prouver la première affirmation, on sait que le déterminant de n
vecteurs colonnes est une forme n-linéaire alternée sur Rn et on en déduit
que si C1 (t), · · · , Cn (t) sont n fonctions dérivables de t (à valeurs dans Rn ),
la fonction U (t) = det(C1 (t), · · · , Cn (t)) est dérivable et
n
X
U 0 (t) = det(C1 (t), · · · , Cj−1 (t), Cj0 (t), Cj+1 (t) · · · , Cn (t))
j=1

Si chaque Cj (t) est une solution ϕj (t) de (E), U (t) est le wronskien et la
formule s’écrit
n
X
W 0 (t) = det(ϕ1 (t), · · · , ϕj−1 (t), A(t)ϕj (t), ϕj+1 (t), · · · , ϕn (t))
j=1

Un résultat « bien connu » d’algèbre linéaire fournit alors le résultat. En


effet, on s’assure facilement que, pour t fixé, l’application (Rn )n → Rn
n
X
qui, à (U1 , · · · , Un ), associe det(U1 , · · · , Uj−1 , A(t)Uj , Uj+1 , · · · , Un ), est
j=1
n- linéaire alternée et coı̈ncide donc à constante multiplicative près avec
det(U1 , · · · , , Un ). La constante se calcule en choisissant pour (U1 , · · · , Un ) la
base canonique et en remarquant que det(e1 , · · · , ej−1 , A(t)ej , ej+1 , · · · , en )
est le jème élèment de la diagonale de la matrice A(t). La somme de ces n
termes est alors la trace de A(t) et donc W 0 (t) = tr A(t)W (t).

Corollaire 1.8 Le wronskien d’une matrice de solutions de (E) soit est


identiquement nul soit ne s’annule jamais dans I. Une matrice de solutions
est un système fondamental de solutions si et seulement si son wronskien
est non nul en un point (donc en tout point) de I.

4
On reprend les notations introduites ci-dessus et on note Xt0 (t) la matrice
de solutions dont la jème colonne est Ft0 (ej ) où (e1 , · · · , en ) est la base
canonique de Rn . C’est un système fondamental de solutions de (E). On
peut aussi voir Xt0 comme la solution de (E) e vérifiant la condition initiale
Xt0 (t0 ) = In (matrice identité de dimension n).

Proposition 1.9 Pour tout y ∈ Rn et tout t ∈ I,

Ft0 (y)(t) = Xt0 (t)y

(produit de la matrice Xt0 (t) par le vecteur y).

Preuve Si on pose ϕ(t) = Xt0 (t)y, on a ϕ0 (t) = Xt00 (t)y = A(t)Xt0 (t)y =
A(t)ϕ(t). Ceci montre que ϕ ∈ S. D’autre part ϕ(t0 ) = In y = y, donc ϕ est
la solution de (E) de condition initiale (t0 , y), c’est donc Ft0 (y).

Corollaire 1.10 Si X(t) est une matrice de solutions de (E) et si t0 ∈ I,

X(t) = Xt0 (t)X(t0 ).

Preuve Il suffit d’appliquer la proposition en prenant pour y la jème colonne


de X(t0 ) et d’utiliser la définition du produit de deux matrices.

Proposition 1.11 (Définition de la Résolvante) Pour s, t ∈ I la ma-


trice X(t)X(s)−1 est indépendante du système fondamental X(t) de solu-
tions de (E) choisi. On la note R(t, s) et on l’appelle résolvante de (E) (ou
aussi opérateur d’évolution).

Preuve Soit X(t) et Y (t) deux systèmes fondamentaux de solutions de


(E). Fixons t0 ∈ I. On a pour tout t ∈ I, X(t) = Xt0 (t)X(t0 ) et Y (t) =
Xt0 (t)Y (t0 ). Donc X(t)X(s)−1 = Xt0 (t)Xt0 (s)−1 = Y (t)Y (s)−1 .

Proposition 1.12 1. La matrice R(t, s) est celle de l’application linéaire


εt ◦ Fs : R → R dans la base canonique de Rn . Elle est inversible et,
n n

pour tout y ∈ Rn , l’application t 7→ R(t, s)y est la solution de (E) qui


vaut y en t = s. Autrement dit R(t, s)y = Fs (y)(t).
2. Pour s, t, u ∈ I, R(t, u)R(u, s) = R(t, s) et R(s, s) = In . En particu-
lier R(t, s)−1 = R(s, t).
3. Pour tout s fixé dans I, l’application t 7→ R(t, s) est le système fon-
damental de solutions
Rt
de (E) qui prend la valeur In en t = s. Son
wronskien vaut e s tr A(u) du
.

5
Preuve
1. Par définition, si (e1 , · · · , en ) est la base canonique de Rn , εt ◦ Fs (ej )
est la valeur en t de la solution de (E) qui prend en s la valeur ej , mais
cette solution constitue, toujours par définition, la j-ième colonne de
Xs (t). Donc Xs (t) est la matrice de εt ◦ Fs dans la base canonique.
Mais Xs (t) = Xs (t)Xs (s)−1 = R(t, s).
2. Les diverses affirmations se déduisent immédiatement des définitions.
3. La première affirmation se déduit de R(t, s) = Xs (t) et la deuxième
s’obtient en appliquant le théorème de Liouville avec t0 = s en remar-
quant que le wronskien de Xs (t) vaut 1 en t = s.

1.2 Équations non homogènes


Maintenant (E) désigne l’équation y 0 = A(t)y + b(t).

Proposition 1.13 L’ensemble S des solutions de (E) est un sous-espace


affine de C 1 (I, Rn ), de la forme ϕ + V où V désigne l’espace vectoriel des
solutions de l’équation homogène (H) y 0 = A(t)y, dite « associée » à (E).

Preuve Il suffit de remarquer que deux fonctions ψ et ϕ sont solutions de


(E) si et seulement si la fonction ϕ est solution de (E) et la fonction ψ − ϕ
est solution de (H), c’est-à-dire appartient à V .

L’utilisation de la résolvante de (H) permet de donner une formule ex-


primant la solution de (E) prenant en t0 ∈ I la valeur y0 ∈ Rn . C’est la
« méthode de variation de la constante », appelée parfois aussi méthode de
d’Alembert.

Théorème 1.14 Si R(t, s) désigne la résolvante de (H) et si (t0 , y0 ) ∈


I × Rn , la solution de (E) de condition initiale (t0 , y0 ) est :
Z t
Ft0 (y0 )(t) = R(t, t0 )y0 + R(t, s)b(s) ds.
t0

Preuve Une vérification directe est facile. La présentation « habituelle » qui


suit est plus instructive et mérite d’être connue voire retenue. On sait que
la solution « générale » de (H) est donnée par ϕ(t) = R(t, t0 )y où y ∈ Rn
est arbitraire (c’est la « constante »). On fait « varier » y, c’est-à-dire qu’on
cherche à déterminer une fonction ψ : I → Rn telle que ϕ(t) = R(t, t0 )ψ(t)

6
soit la solution de (E) de condition initiale (t0 , y0 ). Ce dernier point demande
ψ(t0 ) = y0 . Pour satisfaire la première exigence on dérive :
ϕ0 (t) = A(t)R(t, t0 )ψ(t) + R(t, t0 )ψ 0 (t) = A(t)ϕ(t) + R(t, t0 )ψ 0 (t).
On voit alors que ϕ est solution de (E) si et seulement si R(t, t0 )ψ 0 (t) = b(t)
ou encore ψ 0 (t) = R(t, t0 )−1 b(t) = R(t0 , t)b(t). On en déduit
Z t Z t
ψ(t) = y0 + ψ 0 (s) ds = y0 + R(t0 , s)b(s) ds
t0 t0

puis
Ft0 (y0 )(t) = R(t, t0 )ψ(t)
Z t
= R(t, t0 )y0 + R(t, t0 ) R(t0 , s)b(s) ds
t0
Z t
= R(t, t0 )y0 + R(t, s)b(s) ds
t0

Dans cette dernière formule, le premier terme appartient à V et le second


est une « solution particulière » de (E).

2 Équations autonomes
On rappelle maintenant comment résoudre explicitement une équation
à coefficients constants y 0 = Ay où A ∈ M(n, R). On peut alors expliciter
la résolvante d’un tel système et, en appliquant le théorème 1.14, résoudre
explicitement toute équation y 0 = Ay + b(t) si A ∈ M(n, R) et b ∈ C 0 (I, Rn ).

2.1 La fonction exponentielle


Vous connaissez probablement le résultat suivant.
Ap
Proposition 2.1 Soit A ∈ M(n, R). La série de terme général converge
p!
dans M(n, R). Sa somme se note eA . On a eA ≤ ekAk .

Preuve L’espace M(n, R) est complet (il est de dimension finie) et la majo-
kAp k kAkp
ration ≤ , due au choix de la norme indiqué en début de chapitre,
p! p!
montre que la série considérée est normalement convergente. Elle est donc
convergente. L’inégalité s’obtient par passage à la limite dans l’inégalité cor-
respondante pour les sommes partielles.

7
Proposition 2.2 1. Si A, B ∈ M(n, R) commutent, alors

eA+B = eA eB .

De plus, dans ce cas, eA commute avec B et avec eB .


2. Si P ∈ GL(n, R) et A ∈ M(n, R), alors
−1 AP
eP = P −1 eA P.

Preuve Puisque AB = BA, on peut utiliser la formule du binôme de New-


ton : pour tout entier p,
p
X p!
(A + B)p = Ak B p−k .
k!(p − k)!
k=0

On en déduit, en utilisant la convergence normale pour justifier le calcul,



X p
∞ X
X
(A + B)p Ak B p−k
=
p! k! (p − k)!
p=0 p=0 k=0

X ∞
Ak X B p−k
= = eA eB .
k! (p − k)!
k=0 p=k

Si A et B commutent, A commute avec tout polynôme en B donc, par


passage à la limite dans les sommes partielles, avec eB . On peut en déduire la
commutativité de eA et eB , mais cela se déduit de la formule établie puisque
le membre de gauche garde la même valeur lorsqu’on échange A et B. Enfin
le deuxième point se montre en utilisant la relation (P −1 AP )n = P −1 An P
et en passant à la limite dans les sommes partielles.

On en déduit immédiatement le corollaire suivant.


−1
Corollaire 2.3 Pour tout A ∈ M(n, R), eA ∈ GL(n, R) et eA = e−A .
L’exemple suivant montre A B de eA+B lorsque
 quee e peut  être différent

0 0 0 −θ
AB 6= BA. Prenons A = et B = . On a A2 = B 2 = 0
θ 0 0 0
   
A 1 0 B 1 −θ
donc e = I2 + A = et e = I2 + B = d’où
θ 1 0 1
 
1 −θ
eA eB = .
θ 1 − θ2

8
   
0 −θ 0 −1
D’autre part A + B = = θJ2 où J2 = . On établit,
θ 0 1 0
par récurrence, que (A + B)2n = (−1)n θ2n I2 et (A + B)2n+1 = (−1)n θ2n+1 J2
et on en déduit que  
cos θ − sin θ
eA+B =
sin θ cos θ
qui est manifestement distinct de eA eB . L’explication est :
   
0 0 −θ2 0
AB = 6 BA =
=
0 −θ2 0 0

La proposition suivante explique pourquoi on peut utiliser l’exponentielle


d’une matrice pour résoudre un système linéaire autonome.

Proposition 2.4 Si A ∈ M(n, R), la fonction U : R → M(n, R) définie


par U (t) = etA est de classe C ∞ et réalise un homomorphisme du groupe
additif (R, +) dans le groupe multiplicatif (GL(n, R), ·). (Ceci signifie que
pour s, t ∈ R, U (s) et U (t) sont inversibles et U (s + t) = U (s)U (t)).
De plus, pour tout t ∈ R, U 0 (t) = AU (t) = U (t)A.

Preuve La proposition 2.2, jointe à la remarque que pour s, t ∈ R, les ma-


trices sA et tA commutent, montre la partie « algébrique » de la proposition.
Etablissons la dérivabilité de U . Si t0 est choisi dans R, pour tout h ∈ R, on
a (en utilisant 2.2)
Ah ∞
X hp−1 Ap
U (t0 + h) − U (t0 ) t0 A e − In
= e = et0 A
h h p!
p=1

X h p Ap
= et0 A A + h et0 A A2
(p + 2)!
p=0

et donc, en supposant |h| ≤ 1,

U (t0 + h) − U (t0 )
− et0 A A ≤ kAk2 e(|t0 |+1)kAk |h|
h

quantité qui tend vers 0 avec h. Ceci montre que U (t) est dérivable en t0 et
que U 0 (t0 ) = et0 A A = Aet0 A puisque A et t0 A commutent. La valeur obtenue
pour U 0 (t) montre que c’est une fonction dérivable et, par récurrence, on voit
que U est C ∞ et aussi que U (p) (t) = Ap etA .

9
2.2 Calcul d’une base de V
Proposition 2.5 1. Pour t0 ∈ R et y0 ∈ Rn , la solution de y 0 = Ay de
condition initiale (t0 , y0 ) est
ϕ(t, y0 ) = e(t−t0 )A y0 .

2. Si (v1 , · · · , vn ) est une base de Rn , alors (etA v1 , · · · , etA vn ) est une base
de V , ou encore un système fondamental de solutions de (E).
3. La résolvante de (E) est
R(t, t0 ) = e(t−t0 )A .

Preuve La fonction ϕ(t) = e(t−t0 )A y0 vérifie ϕ(t0 ) = e0A y0 = In y0 = y0 et


s’écrit ϕ(t) = U (t)c où c = e−t0 A y0 est un vecteur de Rn indépendant de
t. On déduit de la proposition 2.4 que ϕ est dérivable et ϕ0 (t) = U 0 (t)c =
AU (t)c = Aϕ(t).
Avec les notations du premier paragraphe, (etA v1 , · · · , etA vn ) est l’image par
Ft0 de la base choisie dans Rn . C’est donc une base de V .
Le troisième point se montre aussi en faisant le lien avec le paragraphe
précédent. La matrice de solutions associée au système fondamental de so-
lutions du 2. s’écrit X(t) = etA C où C est la matrice n × n dont la j-ième
colonne est formée des coordonnées de vj dans la base canonique. La ma-
trice C est donc inversible et, par définition, R(t, t0 ) = X(t)X(t0 )−1 =
etA CC −1 e−t0 A = e(t−t0 )A . (Dans ce calcul, attention à l’ordre des termes :
les matrices C et A ne commutent pas !).

Cette proposition est une méthode pratique de calcul d’une base de V


lorsque etA est (assez) facile à calculer... ce qui ne se produit pas très sou-
vent... Citons cependant le cas n = 2 (toutes les méthodes y donnent des
calculs « faciles ») et surtout, en dimension quelconque, le cas où A est dia-
gonalisable et le cas, très particulier, A = λIn + N où N est une matrice
nilpotente. Expliquons ces deux situations.
– Si A = P −1 DP , alors tA = P −1 (tD)P et (proposition 2.2) etA =
P −1 etD P . Mais, si D = diag (λ1 , · · · , λn ), la définition montre que
etD = diag (etλ1 , · · · , etλn ). Bien sûr, provisoirement, on a supposé que
c’est sur R que A est diagonalisable.
– Dans le deuxième cas, par définition, il existe un entier positif p tel que
N p = 0 (on sait d’ailleurs que p ≤ n). Comme N et λIn commutent,
on peut écrire :
etA = et(λIn +N ) = eλtIn etN = eλt In etN = eλt etN

10
p−1 k k
X
tN t N
Or e = puisqu’à partir de p les puissances de N sont
k!
k=0
nulles. On obtient finalement
p−1 k k
X
t(λIn +N ) λt t N
e =e
k!
k=0

formule qui montre qu’il suffit de calculer les puissances de N jusqu’à


l’ordre p − 1.
Inspiré par ces exemples on peut penser à établir le lemme suivant.

Lemme 2.6 1. Si v est un vecteur propre de A pour la valeur propre λ,


alors etA v = eλt v.
2. Si r ∈ N∗ et w ∈ ker(A − λIn )r , alors etA w = eλt P (t) où P (t) est un
polynôme de degré inférieur ou égal à r − 1, à coefficients dans Rn .

Preuve Puisque Av = λv, par récurrence, pour tout entier p, Ap v = λp v et


donc
X∞ p p
t λ
etA v = v = eλt v.
p!
p=0

On remarque qu’un vecteur propre étant un élément de ker(A − λIn ), le


deuxième point est établi pour r = 1 : le vecteur v peut être vu comme un
polynôme de degré 0.
En écrivant A = λIn + (A − λIn ) et en calculant comme plus haut, on a
∞ p
X t
etA w = eλt e(tA−λIn ) w = eλt (A − λIn )p w
p!
p=0

Mais, si p ≥ r, (A − λIn )p w = 0, ce qui donne le résultat.

Malheureusement, une matrice réelle n’a pas toujours de valeur propre


réelle (ou pas toujours « suffisamment ») . On s’en sort en « complexifiant »,
c’est-à-dire en faisant agir A sur Cn . On cherche des fonctions ϕC : R →
Cn (c’est bien un espace vectoriel sur R), dérivables et telles que ϕ0C (t) =
AϕC (t). Si z = (z1 , · · · , zn ) ∈ Cn , on écrit zj = xj + iyj où xj , yj ∈ R et
on note <z = (x1 , · · · , xn ) ∈ Rn et =z = (y1 , · · · , yn ) ∈ Rn . On peut alors
écrire z = <z + i=z. Avec ces notations, comme A est une matrice réelle, on
voit que <(AϕC (t)) = A<ϕC (t). D’autre part, par définition de la dérivée
d’une fonction (d’une variable réelle) à valeurs complexes, on a <ϕ0C (t) =

11
(<ϕC )0 (t). Le même discours étant valable pour la partie imaginaire, on voit
que la connaissance d’une solution à valeurs complexes fournit, en prenant
la partie réelle et la partie imaginaire, deux solutions réelles.
En recopiant les points correspondants de l’étude précédente, on montre
que VC = {ϕ : R → Cn | ϕ0 (t) = Aϕ(t)} est un C-espace vectoriel de
dimension n et que si (v1 , · · · , vn ) est une base de Cn , alors (etA v1 , · · · , etA vn )
est une base de VC . Mais cette fois l’algèbre linéaire nous dit que, si le
Ys
P
polynôme caractéristique de A est P (λ) = (λ − λj )rj (et donc sj=1 rj =
L j=1
n), on a Cn = sj=1 ker(A − λj In )rj . Il est donc possible de déterminer une
base de Cn formée de vecteurs auxquels on peut appliquer le lemme 2.6. On
obtient de cette façon une base de VC constituée de fonctions de la forme
eλj t p(t) où λj est une valeur propre de A et p un polynôme à coefficients
dans Cn de degré ≤ rj − 1. Chaque fois que λj est réel p l’est aussi et la
solution correspondante appartient à V . Si λj = αj + iβj (avec βj 6= 0),
la partie réelle et la partie imaginaire sont des éléments de V de la forme
eαj t [q(t) cos βj t + q̃(t) sin βj t] où q et q̃ sont des polynômes de degré ≤ rj − 1.
Bien sûr λ̄j (qui est aussi valeur propres de A) fournit les mêmes éléments
de V .

12
2.3 Cas d’une équation scalaire d’ordre n
Il s’agit dans ce paragraphe d’étudier une équation scalaire d’ordre n de
la forme
(e) an y (n) + an−1 y (n−1) + · · · + a0 y = f (t)
où les ai ∈ R, avec an 6= 0, et f : I → R est une fonction continue. On
sait transformer cette équationen le système d’ordre  1 et de dimension
0 1 ··· 0
 0 0 1 ··· 
  aj−1
0  .. 
n, Y = AY + b(t) où A =  .  avec cj = − et
  an
 0 0 ··· 1 
c1 c2 · · · cn
 
0
 .. 
 . 
b(t) =  . La matrice A est appelée « matrice compagnon », pour
 0 
1
an f (t)
indiquer son origine et sa forme particulière.
Il est cependant possible et instructif d’étudier directement les solutions
(à valeurs complexes d’abord) de l’équation sans passer par le système as-
socié. Pour cela, on introduit l’opérateur différentiel :

X dj n
d
P( ) = aj j .
dt dt
j=1

Un calcul aisé montre que si λ ∈ C,


d
(1) P ( )(eλt ) = P (λ)eλt .
dt
On en déduit que eλt ∈ VC , espace vectoriel (de dimension n sur C) des
solutions de l’équation homogène (h) associée à (e), si et seulement si P (λ) =
0. On constate facilement que P , appelé polynôme caractéristique de (e),
n’est autre que le polynôme caractéristique de A.
En dérivant (1) q-fois par rapport à λ et en utilisant le lemme de Schwarz
pour justifier l’échange de l’ordre des dérivations par rapport à λ et par
rapport à t, on a
d q λt d dq dq  
P( )(t e ) = P ( ) q (eλt ) = q P (λ)eλt
dt dt dλ dλ

13
A l’aide de la formule de Leibnitz, on en déduit
Xq  
d q λt q
P ( )(t e ) = P (k) (λ)tq−k eλt .
dt k
k=0

Si λ0 est racine d’ordre r de P , on a P (λ0 ) = P 0 (λ0 ) = · · · = P (r−1) (λ0 ) = 0


et P (r) (λ0 ) 6= 0. On en déduit que les fonctions tq eλ0 t appartiennent à VC si
et seulement si 0 ≤ q ≤ r − 1. Il est alors facile, en prouvant l’indépendance
linéaire sur C des n solutions obtenues, détablir le théorème suivant.
Théorème 2.7 1. Si λ1 , · · · , λs sont les racines complexes distinctes du
polynôme caractéristique de (e) et si r1 , · · · , rs sont les multiplicités
respectives, alors une base de VC est constituée des n fonctions tq eλj t
pour 0 ≤ q ≤ rj − 1 et 1 ≤ j ≤ s.
2. Si λj = αj + iβj avec αj , βj ∈ R, une base de l’espace vectoriel V
des solutions réelles de (h) est consituée des fonctions tq eλj t pour 0 ≤
q ≤ rj − 1 si βj = 0 et des fonctions tq eαj t cos βj t et tq eαj t sin βj t pour
0 ≤ q ≤ rj − 1 si βj 6= 0.
Enfin il est utile de connaı̂tre la forme que prend dans ce cas la « méthode
de variation de la constante ». Supposons que (ϕ1 (t), · · · , ϕn (t)) soit une base
 
ϕj (t)
 ϕ0j (t) 
 
de V . Pour j = 1, · · · , n, le vecteur Yj (t) =  ..  est une solution
 . 
(n−1)
ϕj (t)
du système Y 0 = AY et la matrice n × n dont la j-ième colonne est Yj (t) est
un système fondamental de solutions de ce système. Son wronskien W (t) est
appelé wronskien des n solutions ϕ1 (t), · · · , ϕn (t). Il est non nul pour tout
t ∈ R. Cherchons alorsP à déterminer n fonctions µj (t) (j = 1, · · · , n) de sorte
que le vecteur Y (t) = nj=1 µj (t)Yj (t) vérifie Y 0 (t) = AY (t) + b(t). On doit
avoir
X n Xn
0 0
AY (t) + b(t) = µj (t)Yj (t) + µj (t)Yj (t) = µ0j (t)Yj (t) + µj (t)AYj (t)
j=1 j=1
n
X
= AY (t) + µ0j (t)Yj (t)
j=1

et ceci est réalisé si et seulement si


Xn
µ0j (t)Yj (t) = b(t)
j=1

14
Cette condition demande aux µ0j d’être solutions d’un système linéaire dont
le déterminant est W (t), donc non nul. On peut alors déterminer de façon
unique les µ0j , puis (par intégation) les µj et obtenir une solution particulière
de (e) donnée par la formule
n
X
(p) ϕ(t) = µj (t)ϕj (t).
j=1

Signalons la forme explicite du système à résoudre :


 0

 µ1 ϕ1 + µ02 ϕ2 + · · · + µ0n ϕn = 0

 0 0 0 0 0 0
 µ1 ϕ1 + µ2 ϕ2 + · · · + µn ϕn = 0

···

 (n−2) (n−2) (n−2)

 µ01 ϕ1 + µ02 ϕ2 + · · · + µ0n ϕn =0

 0 (n−1) (n−1) (n−1)
µ1 ϕ1 0
+ µ1 ϕ2 0
+ · · · + µn ϕn = a1n f (t)

On peut retenir cette méthode sous la forme suivante. On part de la formule


(p) que l’on dérive n fois en imposant, dans les n − 1 premiers calculs que les
dérivées des µj n’apparaissent pas. Cela donne les n−1 premières équations.
(n)
La dernière est obtenue en remplaçant chaque ϕj par sa valeur tirée de (e).

3 Équation aux variations


On reprend la situation du chapitre 6 et on donne une preuve partielle
d’une version améliorée d’une partie du dernier théorème ( !). Soit U = I ×V
un ouvert de R × Rn et f : U → Rn une application qu’on suppose de
classe C 1 . On appelle (E) l’équation différentielle associée à f . Dans tout
ce paragraphe t0 ∈ I est supposé fixé et on adopte les notations suivantes.
Pour y ∈ V , Jy désigne l’intervalle (ouvert) sur lequel est définie la solution
maximale de (E) de condition initiale (t0 , y), notée ϕ(t, y). Donc pour tout
y ∈ V , ϕ(t0 , y) = y.
On pose
Ω = {(t, y) ∈ I × V | t ∈ Jy }
et on définit ϕ : Ω → Rn par (t, y) 7→ ϕ(t, y). L’ensemble Ω est donc l’« en-
semble de définition » de ϕ et, par construction, ϕ admet en tout point de
Ω, une différentielle partielle par rapport à t qui est l’application linéaire
∂ϕ
R → Rn donnée par u 7→ u (t, y) où, pour t ∈ Jy ,
∂t
∂ϕ
(1) (t, y) = f (t, ϕ(t, y)).
∂t

15
On se propose d’étudier la régularité de ϕ, en particulier sa dépendance
pa rapport à y. Pour ce dernier point, remarquons, que, en supposant que
cela a un sens, on obtient en dérivant (1) par rapport à y,
 
∂ϕ
D2 (t, y) = D2 f (t, ϕ(t, y)) ◦ D2 ϕ(t, y).
∂t
En utilisant le théorème de Schwarz ceci s’écrit aussi, pour tout y ∈ V ,

(2) (D2 ϕ(t, y)) = D2 f (t, ϕ(t, y)).D2 ϕ(t, y)
∂t
que l’on peut encore interprêter de la façon suivante. Définissons les fonctions
Jy → M(n, R) par X(t) = D2 ϕ(t, y) et A(t) = D2 f (t, ϕ(t, y)). Puisque,
pour tout y ∈ V , ϕ(t0 , y) = y, on a D2 ϕ(t0 , y) = IdRn et donc X(t0 ) = In .
Jointe à la formule (2) cette propriété traduit le fait que X(t) est sur Jy la
résolvante R(t, t0 ) de l’équation linéaire X 0 = A(t)X. Cette équation gère
« la variation » de la fonction ϕ dans la direction y en fonction de celle de f
dans la direction y mais « le long de la solution ϕ(t, y) ». Elle porte le nom
d’équation aux variations (ou parfois variationnelle) le long de la solution
ϕ(t, y).

Théorème 3.1 Avec les notations et hypothèses ci-dessus,


1. Ω est un ouvert de U ,
2. ϕ est de classe C 1 ,
3. pour tout y0 ∈ V , et tout t ∈ Jy0 , D2 ϕ(t, y0 ) est la valeur en t de
la solution de condition initiale (t0 , In ) de l’équation aux variations
X 0 = A(t)X où A(t) = D2 f (t, ϕ(t, y0 )).

Preuve Remarquons d’abord que le théorème de Cauchy-Lipschitz global


s’applique en tout point de U .
Commençons par traiter le cas particulier suivant. On dit que f vérifie
l’hypothèse (H) en y0 sur I0 , intervalle compact dont t0 est l’une des bornes,
si y0 ∈ V , I0 ⊂ I et, pour tout t ∈ I0 , f (t, y0 ) = 0 et D2 f (t, y0 ) = 0.
Dans ce cas la fonction constante égale à y0 sur I0 est clairement une solution
de (E). Donc Jy0 ⊃ I0 et ϕ(t, y0 ) = y0 sur I0 .
L’hypothèse (H) jointe à la compacité de I0 permettent, pour tout ε >
0, de déterminer δ > 0 tel que pour tout (t, y) ∈ I0 × Bf (y0 , δ), on ait
kD2 f (t, y)k ≤ ε.
Le théorème des accroissements finis (sur le convexe Bf (y0 , δ)) permet d’en
déduire, pour tout t ∈ I0 et pour y1 , y2 ∈ Bf (y0 , δ),
kf (t, y1 ) − f (t, y2 )k ≤ εky1 − y2 k.

16
En particulier, pour tout (t, y) ∈ I0 × Bf (y0 , δ), on a kf (t, y)k ≤ εky − y0 k.
Posons E = C 0 (I0 , Bf (y0 , δ)) muni de la distance d∞ . C’est un espace
métrique (mais pas vectoriel !) complet.
Pour y ∈ Bf (y0 , 2δ ), définissons une application Φy sur E en posant pour
g ∈ E, Z t
Φy (g)(t) = y + f (s, g(s)) ds.
t0

La fonction Φy (g) est clairement définie sur I0 et, puisque kf (s, g(s))k ≤
εkg(s) − y0 k ≤ ε 2δ , elle vérifie, pour tout t ∈ I0 ,
Z t
δ δ
kΦy (g)(t) − y0 k ≤ ky − y0 k + k f (s, g(s)) dsk ≤ + ε`
t0 2 2

si ` désigne la longueur du segment I0 . Supposons désormais ε assez petit


pour que `ε < 1. Alors pour tout t ∈ I0 , Φy (g)(t) ∈ Bf (y0 , δ) et, comme
Φy (g) est clairement une fonction continue (et même C 1 ) de t, on en déduit
que Φy : E → E.
De plus, si g1 , g2 ∈ E et t ∈ I0 ,
Z t
kΦy (g1 )(t) − Φy (g2 )(t)k = [f (s, g1 (s)) − f (s, g2 (s))] ds
t0
Z t
≤ εkg1 (s) − g2 (s)k ds ≤ ε`d∞ (g1 , g2 )
t0

et donc
d∞ (Φy (g1 ), Φy (g2 )) ≤ ε`d∞ (g1 , g2 ).
Comme `ε < 1, cela montre que Φy est contractante et a donc un unique
point fixe g̃y ∈ E. La fonction continue g̃y vérifie donc, pour tout t ∈ I0 ,
Z t
g̃y (t) = y + f (s, g̃y (s)) ds
t0

ce qui montre d’une part que g̃y (t0 ) = y et d’autre part que g̃y est dérivable
dans I0 , sa dérivée vérfiant dans I0 , g̃y0 (t) = f (t, g̃y (t)).
Le théorème de Cauchy-Lipschitz et la définition de ϕ imposent alors Jy ⊃ I0
et g̃y (t) = ϕ(t, y)|I0 . Puisque y est arbitraire dans Bf (y0 , 2δ ), la définition

de Ω montre alors que Ω ⊃ I0 × Bf (y0 , 2δ ) .


De plus, toujours d’après le théorème du point fixe, si on définit gn ∈ E
par récurrence en posant g0 (t) = y0 (fonction constante) et, pour n ≥ 1,

17
gn = Φy (gn−1 ), alors pour tout n ≥ 1,

(ε`)n
(?)n d∞ (g̃y , gn ) ≤ d∞ (g1 , g0 ).
1 − ε`
Z t
On a g1 (t) = y + f (s, y0 ) ds = y (ne pas oublier les hypothèses de ce cas
t0
particulier...) et g1 est donc aussi une fonction constante. La relation (?)1
s’écrit alors
ε`
d∞ (g̃y , g1 ) = sup kϕ(t, y) − yk ≤ ky − y0 k
t∈I0 1 − ε`

et on en déduit (en se souvenant que ϕ(t, y0 ) = y0 ) que, pour tout t ∈ I0 ,

kϕ(t, y) − ϕ(t, y0 ) − (y − y0 )k
→0
ky − y0 k

quand y → y0 . Autrement dit, pour tout t ∈ I0 , la fonction y 7→ ϕ(t, y)


est différentiable en y0 et sa différentielle en y0 est l’application identité. A
titre d’exercice, on pourra s’assurer que c’est là ce qu’on voulait démontrer
dans ce cas particulier. Remarquons encore que la preuve a utilisé seulement
le fait que f est continue dans U et admet une différentielle partielle par
rapport à y qui est continue (dans U ).
Passons maintenant au cas général. Bien sûr on cherche à se ramener
au cas précédent. Soit y0 ∈ V . Sur Jy0 on considère le système différentiel
linéaire X 0 = A(t)X de matrice A(t) = D2 f (t, ϕ(t, y0 )) et on note R(t, t0 ) sa
résolvante, qui est définie sur Jy0 . A toute fonction (dérivable) ϕ définie sur
un intervalle inclus dans Jy0 , on associe la fonction ψ donnée sur le même
intervalle par
(∗) ψ(t) = R(t0 , t).(ϕ(t) − ϕ(t, y0 ))
Puisque R(t0 , t) est inversible, on peut tout aussi bien partir de ψ et définir
ϕ à partir de (∗). Si on suppose que ϕ est solution de (E) alors ψ sera
solution sur le même intervalle d’une équation (Ẽ) que l’on va déterminer.
Puisque ϕ(t) = ϕ(t, y0 ) + R(t, t0 ).ψ(t), on a d’une part

ϕ0 (t) = f (t, ϕ(t, y0 )) + A(t)R(t, t0 )ψ(t) + R(t, t0 )ψ 0 (t)

D’autre part f (t, ϕ(t)) = f (t, ϕ(t, y0 ) + R(t, t0 ).ψ(t)) et donc ϕ est solution
de (E) si et seulement si

ψ 0 (t) = R(t0 , t).[f (t, ϕ(t, y0 )+R(t, t0 ).ψ(t))−f (t, ϕ(t, y0 ))−A(t)R(t, t0 )ψ(t)]

18
c’est-à-dire si ψ est solution de l’équation (Ẽ) associée à la fonction f˜ donnée
par :

f˜(t, z) = R(t0 , t).[f (t, ϕ(t, y0 ) + R(t, t0 ).z) − f (t, ϕ(t, y0 )) − A(t)R(t, t0 )z)]

Cette fonction est définie si t ∈ Jy0 et si ϕ(t, y0 ) + R(t, t0 ).z ∈ V .


Fixons alors t1 ∈ Jy0 et appelons I0 le segment d’extrêmités t0 et t1 . Il
existe un intervalle ouvert J˜ ⊃ I0 et un réel ρ > 0 tels que f˜ soit définie sur
Ũ = J˜×Bo(0, ρ). Cela découle des trois remarques : 1) I0 est compact et pour
tout t ∈ I0 , f˜ est définie en (t, 0) puisque ϕ(t, y0 ) + R(t, t0 ).0 = ϕ(t, y0 ) ∈ V ,
2) V est ouvert et 3) toutes les fonctions en jeu sont continues.
Sur Ũ la fonction f˜ est continue, admet une différentielle partielle continue
par rapport à z et vérifie l’hypothèse (H) en 0 sur I0 . En effet, pour tout
t ∈ J˜ (a fortiori dans I0 ),
– f˜(t, 0) = R(t0 , t).[f (t, ϕ(t, y0 )) − f (t, ϕ(t, y0 ))] = 0
– D2 f˜(t, 0) = R(t0 , t).[D2 f (t, ϕ(t, y0 )).R(t, t0 ) − A(t)R(t, t0 ))] = 0.
En notant Ω̃ et ϕ̃ les analogues de Ω et ϕ pour (Ẽ), l’étude du cas particulier
montre ce qui suit. Il existe δ > 0 (avec δ < ρ) tel que Ω̃ ⊃ I0 × Bo(0, δ)
et pour tout t ∈ I0 , l’application z 7→ ϕ̃(t, z) est différentiable en 0, sa
différentielle étant l’application identité.
La formule ϕ(t) = ϕ(t, y0 ) + R(t, t0 ).ϕ̃(t, z) définit alors une solution de (E)
sur I0 qui vérifie ϕ(t0 ) = y0 + R(t0 , t0 ).z = y0 + z et donc, pour tout t ∈ I0 ,

ϕ(t) = ϕ(t, y0 + z) = ϕ(t, y0 ) + R(t, t0 ).ϕ̃(t, z).

On en déduit les deux affirmations :


– Ω ⊃ I0 × Bo(y0 , δ) et est donc ouvert,
– si t ∈ I0 , la fonction ϕ(t, y) admet en (t, y0 ) une différentielle partielle
par rapport à y et D2 ϕ(t, y0 ) = R(t, t0 ).IdRn = R(t, t0 ).
Il n’y a plus qu’à remarquer que I0 contient t1 arbitrairement choisi dans Jy0
et à se souvenir de la définition de la résolvante. Bien sûr il faudrait encore
montrer que les dérivées partielles D1 ϕ(t, y) et D2 ϕ(t, y) sont continues dans
Ω mais l’auteure déclare forfait...

19

Vous aimerez peut-être aussi