Différentiel Toop
Différentiel Toop
APPLICATION
31 décembre 2005
Dans tout ce cours les espaces considérés sont des espaces vectoriels sur R,
munis d’une norme, notée k.k. Si E et F sont de tels espaces, l’image par une
application linéaire u : E → F d’un vecteur h ∈ E sera souvent notée u · h et
parfois u(h). Lorsque u est continue, sa norme est notée kuk. L’espace vectoriel
des applications linéaires continues de E dans F est noté L(E, F ). Il est muni
de la norme kuk.
1 Quelques définitions
Commençons par le
ku · hk
Lemme 1.1 Si u : E → F est linéaire continue, et vérifie lim = 0,
h→0 khk
alors u = 0.
Preuve : L’hypothèse signifie que pour tout ε > 0, il existe α > 0 tel que
αx
khk < α implique ku · hk ≤ εkhk. Soit x ∈ E. Si x 6= 0, le vecteur h = 2kxk
a pour norme α2 < α, donc ku( 2kxk αx αx
)k ≤ ε 2kxk , ce qui s’écrit, en utilisant la
linéarité, ku · xk ≤ εkxk. On en déduit kuk ≤ ε pour tout ε > 0, d’où kuk = 0
et donc u = 0.
1
normé le sous-espace vectoriel engendré par un ouvert non vide est toujours
l’espace entier.
Le lemme 1.1 justifie de donner un nom à l’application linéaire continue u.
Preuve : On écrit
f (a + th) − f (a) f (a + th) − f (a) − Df (a)(th)
= + Df (a) · h
t t
et on utilise la définition en remarquant que si t → 0 alors th → 0.
Il est essentiel de signaler tout de suite que la réciproque n’est pas vraie.
L’existence d’une limite pour chaque h ∈ E permet de deviner Df (a) mais ne
dispense de montrer ni la linéarité ni la continuité.
Remarquons cependant que cette proposition permet de s’assurer que dans le
cas particulier où E = F = R, f est différentiable en a si et seulement si elle
est dérivable en a. Si c’est le cas l’application linéaire Df (a) : R → R est
Df (a) · t = f 0 (a)t.
Proposition 1.6 Si on remplace les normes choisies sur E et F par des normes
équivalentes, la différentiabilité d’une application en un point et la valeur de la
différentielle sont inchangées.
2
Rappelons que sur un espace vectoriel de dimension finie toutes les normes
sont équivalentes et que cette propriété est caractéristique des espaces de di-
mension finie.
Cela prouve que, pour chaque j, fj est différentiable en a et que Dfj (a) = uj .
Réciproquement, supposons chaque fj différentiable en a. L’application u =
(Df1 (a), · · · , Dfn (a)) est linéaire et continue d’après ce qui est rappelé. De plus
en écrivant simultanément pour les n composantes la différentiabilité en a, on
voit que pour tout ε > 0, il existe α > 0 tel que, si khk < α, a + h ∈ U et pour
j = 1 · · · n, kfj (a + h) − fj (a) − Dfj (a) · hk < εkhk. Alors
3
Ceci s’applique en particulier au cas où F est de dimension finie. En ap-
pelant n cette dimension, le choix d’une base W = (w1 , · · · , wn ) de F permet
d’identifier (topologiquement) F à Rn . Les composantes de f sont alors appelées
fonctions coordonnées. Leurs différentielles (lorsqu’elles existent) sont des formes
linéaires continues sur E.
L’utilisation de la base W conduit aux écritures suivantes. Pour tout x ∈ U ,
n
X
f (x) = fj (x)wj
j=1
et pour tout h ∈ E,
n
X
Df (a) · h = (Dfj (a) · h)wj
j=1
2 Exemples
2.1 Application affine
Une application affine A : E → F est de la forme A(x) = b + u(x) où b ∈ F
et u est une application linéaire de E dans F . Pour a, x ∈ E,
DA(a) = u.
4
2.2 Un exemple en dimension finie
Soit f : R2 → R2 l’application définie par f (x, y) = (x + y, xy). Soit (a, b) ∈
R . Pour (h, k) ∈ R2 , on a
2
H(f + h) − H(f ) = h0 + 2f h + h2
5
3 Différentielles partielles
3.1 Différentiabilité dans une « direction »
Soit f : U → F et a ∈ U . Soit v ∈ E, v 6= 0, la fonction d’une variable ϕv :
t 7→ f (a + tv) est définie au voisinage de 0 (U est ouvert). Elle est différentiable
f (a + tv) − f (a)
en 0 si et seulement si ϕ0v (0) = lim existe. On dit alors que
t→0 t
f admet une dérivée partielle en a dans la direction v, égale à ϕ0v (0). C’est un
vecteur de F .
D’après la Proposition 1.4, c’est le cas pour tout v 6= 0 si f est différentiable
en a et ϕ0v (0) = Df (a) · v.
Il n’y a pas de réciproque à cette propriété sauf si E = R, comme le montre
l’exemple suivant en dimension 2.
x2 y
Prenons U = R2 , F = R et f définie par f (x, y) = 2 si (x, y) 6= (0, 0)
x + y2
et f (0, 0) = 0. Etudions f au point (0, 0).
En remarquant que pour tout t ∈ R et tout v = (x, y) ∈ R2 , on a f (tv) = tf (v),
f (tv) − f (0)
on en déduit, pour t 6= 0, = f (v) et donc f admet f (v) pour
t
dérivée partielle en (0, 0) dans la direction v, pour tout v 6= 0. Pourtant f n’est
pas différentiable en (0, 0). Si elle l’était, le calcul précédent montre (Proposition
1.4) que sa différentielle serait f . Mais f n’est pas linéaire et ne saurait donc
être une différentielle.
Preuve On sait que quel que soit ε > 0, il existe δ > 0 tel que si h ∈ E vérifie
khk < δ, alors kf (a+h)−f (a)−Df (a)·hk < εkhk. C’est vrai a fortiori si h1 ∈ E1
vérifie kh1 k < δ et cela s’écrit alors kϕ1 (h1 ) − ϕ1 (0) − Df (a)|E1 · h1 k < εkh1 k
et le résultat suit en remarquant que Df (a)|E1 ∈ L(E1 , F ).
6
Si E = E1 × E2 muni de la norme produit, E1 et E2 peuvent être vus comme
des sous-espaces vectoriels de E en identifiant E1 à E1 × 0 = {(h1 , 0) | h1 ∈ E1 }
(resp. E2 à 0 × E2 ) et en remarquant que la norme dans E de (h1 , 0) est égale
à la norme dans E1 de h1 . Si f : U → F admet en a ∈ U une différentielle
partielle dans la direction E1 (resp. E2 ), on la note D1 f (a) (resp. D2 f (a)). Si
f est différentiable en a ∈ U , la proposition 3.2 permet d’écrire l’utile formule
suivante. Si h = (h1 , h2 ) ∈ E = E1 × E2 , puisque h = (h1 , 0) + (0, h2 ),
m
X ∂f
Df (a) · h = hj (a)
j=1
∂xj
∂f
où les hj sont des scalaires et les (a) des vecteurs de F . On a aussi la formule
∂xj
∂f
(a) = Df (a) · vj
∂xj
7
L’application linéaire Df
(a) est donccelle qui associe au vecteur h de E le
n
X X m
∂fi
vecteur Df (a)·h = (a)hj wi de F . En d’autres termes la matrice
i=1 j=1
∂xj
de l’application linéaire Df (a) dans les bases V et W est la matrice à n lignes
et m colonnes notée Jf (a) donnée par
∂fi
Jf (a) = (a)
∂xj 1≤i≤n,1≤j≤m
Une ligne de la matrice jacobienne est constituée des dérivées partielles d’une
même composante de f et une colonne par les dérivées partielles par rapport à
une même variable.
Remarquons que, si E = E1 × E2 , ce qui correspond, via l’identification déjà
faite, à supposer que (v1 , · · · , vr ) est une base de E1 et (vr+1 , · · · , vm ) une base
de E2 , la matrice Jf (a) est de la forme
8
Proposition 4.2 Soit f : U → F , a ∈ U , V un ouvert de F contenant f (a) = b
et g : V → G. Si f est différentiable en a et g en b, alors g ◦ f est différentiable
en a et
D(g ◦ f )(a) = Dg(b) ◦ Df (a).
D’autre part, pour tout ε > 0, il existe α > 0 tel que, pour tout k ∈ F , si
kkk < α,
kg(b + k) − g(b) − Dg(b) · kk ≤ εkkk.
Or g ◦ f (a + h) = g(b + k) où k = f (a + h) − b = f (a + h) − f (a).
α
Si khk < α1 = min r, , on a donc kkk < α et par suite :
1 + kDf (a)k
kg ◦ f (a + h) − g ◦ f (a) − Dg(b) ◦ Df (a)(h)k = kg(b + k) − g(b) − Dg(b) · k + Dg(b) ·
[k − Df (a) · h]k ≤ εkf (a + h) − f (a)k + kDg(b)k kf (a + h) − f (a) − Df (a) · hk.
Mais il existe η > 0 tel que khk < η implique kf (a+h)−f (a)−Df (a)·hk < εkhk.
Si donc khk < min(α1 , η), on a
9
Preuve L’affirmation concernant la continuité se montre comme son analogue
pour les applications linéaires. Si B est continue, elle l’est en (0, 0) et il existe
α > 0 tel que si k(x, y)k = max(kxk, kyk) < α, alors kB(x, y)k ≤α1. Si x ∈ E,
αx αy
x 6= 0 et y ∈ F , y 6= 0, (u, v) = 2kxk , 2kyk vérifie k(u, v)k = < α. D’où
2
αx αy
kB(u, v)k = B 2kxk , 2kyk ≤ 1 ou encore, en utilisant la bilinéarité et la
propriété convenable d’une norme,
4
kB(x, y)k ≤ kxk kyk
α2
4
ce qui permet de choisir C = 2 .
α
Montrons maintenant que cette propriété implique la différentiabilité de B.
Cela établira a fortiori sa continuité. (Une peuve directe est un excellent exer-
cice...) Tout d’abord une vérification facile montre que l’application u : (h, k) 7→
B(x, k) + B(h, y) est linéaire. La majoration
B(h, k)
et la majoration kB(h, k)k ≤ Ckhk kkk ≤ Ck(h, k)k2 montre que →0
k(h, k)k
quand k(h, k)k → 0.
Exemples
1. Soit E un espace normé et L(E) l’espace vectoriel normé des applications
linéaires continues de E dans E. L’application B : L(E) × L(E) → L(E)
définie par (u, v) 7→ u ◦ v est bilinéaire continue car ku ◦ vk ≤ kuk kvk. Elle
est donc différentiable dans L(E) × L(E) et sa différentielle en (u, v) est
donnée par
(h, k) 7→ DB(u, v) · (h, k) = u ◦ k + h ◦ v.
10
1. Produit de deux fonctions numériques
Proposition 4.4 Si f et g : U → R sont différentiables en a ∈ U , leur
produit ϕ = f g, défini par ϕ(x) = f (x)g(x), est différentiable en a. La
différentielle est la forme linéaire continue donnée, pour h ∈ E, par
(Dans cette formule, ϕ(a) et Dϕ(a) · h sont des scalaires tandis que f (a)
et Df (a) · h sont des vecteurs de F .)
Preuve La preuve est identique en écrivant g = B ◦ Φ où Φ : U → R × F
a pour composantes (ϕ, f ) et B est l’application bilinéaire de R × F → F
donnée par B(λ, y) = λy. La continuité de B est conséquence de kλyk =
|λ| kyk.
3. Produit scalaire
Proposition 4.6 Supposons l’espace F muni d’une norme associée à un
produit scalaire. Soit f, g : U → F des fonctions différentiables en a ∈ U .
L’application ϕ : U → R définie par ϕ(x) = hf (x), g(x)i est différentiable
en a et sa différentielle est la forme linéaire continue sur E donnée par
peut se lire
Df (a) · h = hgrad f (a), hi
11
où grad f (a) (appelé gradient de f en a) est le vecteur de E
Xm
∂f
grad f (a) = (a)vj
j=1
∂xj
4.3 Inverse
Ce mot peut désigner
1
– la fonction lorsque la fonction f : U → R ne s’annule pas,
f (x)
– l’application f −1 lorsque f est une bijection.
Il ne faut pas confondre ces deux situations... et il y a un théorème pour chacune
d’elles.
Df −1 (b) = Df (a)−1 .
12
Preuve Si f −1 est différentiable en b, la proposition 4.2 donne pour sa différentielle
la formule indiquée. En effet la proposition 4.2 permet de déduire de l’égalité
f ◦f −1 = id (sur V ) et de f −1 (b) = a l’égalité Df (a)◦Df −1 (b) = id (sur F ). De
même les égalités f −1 ◦f = id (sur U ) et f (a) = b donnent Df −1 (b)◦Df (a) = id
(sur E). Il faut donc établir qu’en posant, pour k ∈ F de norme assez petite,
ϕ(k)
on a lim = 0.
k→0 kkk
Comme f est différentiable en a, si ε > 0 est fixé, il existe α > 0 tel que si h ∈ E
vérifie khk < α, alors a + h ∈ U et
Comme f −1 est continue en b, il existe η > 0 tel que kkk < η implique b + k ∈ V
et kf −1 (b + k) − f −1 (b)k < α et donc, en posant h = f −1 (b + k) − f −1 (b) de
sorte que a + h = f −1 (b + k), (?) s’écrit kb + k − b − Df (a) · hk < εkhk. D’où
ou encore
(1 − εkDf (a)−1 k)khk ≤ kDf (a)−1 k kkk.
1
Si on prend ε < , on a donc
2kDf (a)−1 k
Mézalor
13
Chapitre 2 : THÉORÈME DES
ACCROISSEMENTS FINIS ET
APPLICATIONS DE CLASSE C 1
31 décembre 2005
1
le segment [ α1 , β1 ] au lieu de [ α, β ]. Par récurrence on construit une suite de
segments emboı̂tés [ αn , βn ] tels que βn − αn = 21n (β − α) et kf (βn ) − f (αn )k >
ϕ(βn ) − ϕ(αn ). Les suites (αn ) et (βn ) sont adjacentes et convergent vers une
même limite γ ∈ [ α, β ]. Par hypothèse kf 0 (γ)k < ϕ0 (γ) et il est possible de
choisir ε > 0 tel que kf 0 (γ)k + 2ε < ϕ0 (γ). En exprimant la dérivabilité de f et
de ϕ en γ on peut trouver η > 0 tel que, si t ∈ [ α, β ] vérifie |t − γ| < η, alors
et
|ϕ(t) − ϕ(γ) − (t − γ)ϕ0 (γ)| < ε |t − γ|.
Puisque les suites (αn ) et (βn ) convergent vers γ, pour n convenable on a
|αn − γ| < η et |βn − γ| < η. Alors :
Vu le choix de ε, on a aussi
D’autre part
(γ − αn )ϕ0 (γ) < ϕ(γ) − ϕ(αn ) + ε(γ − αn )
et
(βn − γ)ϕ0 (γ) < ϕ(βn ) − ϕ(γ) + ε(βn − γ)
d’où
(βn − αn )ϕ0 (γ) < ϕ(βn ) − ϕ(αn ) + ε(βn − αn )
En combinant avec l’inégalité précédente on obtient
2
Preuve Soit g = f ◦ γ : [ 0, 1 ] → F , c’est-à-dire g(t) = f (a + t(b − a)). Pour tout
t ∈ [ 0, 1 ] on a
g 0 (t) = D(f ◦γ)(t)·1 = Df (γ(t))◦Dγ(t)(1) = Df (γ(t))·γ 0 (t) = Df (γ(t))·(b−a)
donc kg 0 (t)k ≤ M kb − ak et on applique la proposition 1.2 à g sur [ 0, 1 ] avec
ϕ(t) = M 0 kb − ak t où M 0 > M . On obtient
c’est-à-dire
kf (b) − f (a)k ≤ M 0 kb − ak
pour tout M 0 > M donc aussi kf (b) − f (a)k ≤ M kb − ak.
Rappelons qu’une partie A d’un espace vectoriel E est convexe si pour tous
a, b ∈ A le segment [ a, b ] ⊂ A. Les boules d’un espace normé sont convexes.
Preuve Ce résultat n’a d’intérêt que lorsque supz∈U kDf (z)k est fini. Dans
ce cas, pour tout choix de deux points de U la convexité assure qu’on peut
appliquer le corollaire précédent au segment défini par ces deux points.
2 Applications de classe C 1
Soit U un ouvert de E et f : U → F une application différentiable dans U .
On peut définir l’application Df : U → L(E, F ) qui associe à x l’application
linéaire continue Df (x). Puisque L(E, F ) est aussi un espace normé, on se trouve
dans la même situation qu’au point de départ et on peut parler de la continuité
ou de la différentiabilité de Df en un point.
3
Définition 2.1 Soit U un ouvert de E. On dit que f : U → F est de classe C 1
(ou continûment différentiable) sur U si
– f est différentiable dans U ,
– l’application Df est continue sur U .
La deuxième propriété s’explicite en : pour tout x ∈ U et tout ε > 0, il existe
α > 0 tel que pour tout y ∈ U si ky − xk < α, alors kDf (x) − Df (y)k ≤ ε. Cette
inégalité équivaut à la propriété : pour tout h ∈ E, kDf (x)·h−Df (y)·hk ≤ εkhk.
Remarque
Si E et F sont tous deux de dimension finie la continuité (en x) de Df
équivaut à celle de l’application x 7→ Jf (x) ou encore à la continuité comme
∂fi
fonction de x = (x1 , · · · , xm ) de chacune des dérivées partielles (x).
∂xj
Proposition 2.2 Toute application de classe C 1 sur un ouvert U est localement
lipshitzienne, c’est-à-dire que, pour tout a ∈ U , il existe ρ > 0 et k > 0 tels que
∀x, y ∈ Bo(a, ρ), on a kf (x) − f (y)k ≤ kkx − yk.
Preuve Noter que k et ρ dépendent de a. Soit k > kDf (a)k. Par continuité de
Df , il existe une boule centrée en a sur laquelle kDf (x)k ≤ k. On peut alors
appliquer à cette boule, qui est convexe, le corollaire 2.1.
4
Clairement u est linéaire. Sa continuité est conséquence de la majoration
ϕ(h)
vérifie lim = 0. Supposons a = (a1 , a2 ) et posons b = (a1 + h1 , a2 ). On
h→0 khk
peut écrire
ϕ(h) = ϕ1 (h) + ϕ2 (h)
où
ϕ1 (h) = f (b) − f (a) − D1 f (a) · h1
et
ϕ2 (h) = f (a + h) − f (b) − D2 f (a) · h2 .
Par définition de la différentielle partielle en a dans la direction E1 , on a
ϕ1 (h)
lim = 0. En fait ϕ1 ne dépend de h que par l’intermédiaire de h1 et
h1 →0 kh1 k
ϕ1 (h)
kh1 k ≤ khk donc, a fortiori, lim = 0.
h→0 khk
C’est pour étudier ϕ2 (h) qu’on utilise le théorème des accroissements finis. On
introduit l’application x2 7→ g(x2 ) avec
Donc, si x = (a1 +h1 , x2 ) avec kh1 k < η et kx2 −a2 k < η, on a kDg(x2 )k < ε. En
particulier, si kh2 k < η, cette majoration est valable pour tout x2 ∈ [ a2 , a2 +h2 ]
et le théorème des accroissements finis appliqué à g sur ce segment donne
5
On a donc établi que f est différentiable dans U et que pour tout x ∈ U et tout
h = (h1 , h2 ) ∈ E,
et cette dernière quantité tend vers 0 lorsque x tend vers a puisque les différentielles
partielles sont continues en a.
Les points non démontrés de la proposition qui suit sont sans piège.
Preuve
– On sait que si f : U → F est différentaible et si g : V → G est différentaible
où V est un ouvert de F tel que f (U ) ⊂ V , alors ϕ = g ◦f est différentiable
et, pour tout x ∈ U , Dϕ(x) = Dg(f (x)) ◦ Df (x). Cette formule peut se
lire Dϕ = B ◦ Φ où
Φ : U −→ L(F, G) × L(E, F )
x 7→ (Dg(f (x)), Df (x))
6
autrement dit Φ = (Dg ◦ f, Df ). Et B est l’application bilinéaire continue
Dans la suite de ce chapitre on suppose que les espaces sont des Banach.
Preuve Le cas GL(E, F ) = ∅ n’est pas exclu, mais c’est bien un ouvert. Sinon,
soit u ∈ GL(E, F ) et h ∈ L(E, F ), on peut écrire, puisque u est inversible
u + h = u ◦ (idE + u−1 ◦ h) = u ◦ v
où v = idE + u−1 ◦ h appartient à L(E) (abréviation de L(E, E)) qui est un
Banach puisque E en est un. Si ku−1 ◦hk < 1, ce qui a sûrement lieu si khk < r =
1
, la série de terme général (−1)n (u−1 ◦ h)n est normalement convergente
ku−1 k
donc convergente et sa somme est l’inverse de v qui appartient donc à GL(E).
Mais alors u ◦ v = u + h appartient à GL(E, F ). On vient de montrer que la
boule ouverte de L(E, F ) de centre u de rayon r est incluse dans GL(E, F ).
7
est différentiable et DJ (u) est l’application (linéaire continue) de L(E, F ) dans
L(F, E) donnée, pour h ∈ L(E, F ), par
DJ (u) · h = −u−1 ◦ h ◦ u−1 .
ϕ(h)
Cette dernière égalité montre que lim = 0.
h→0 khk
Corollaire 2.9 Sous les mêmes hypothèses, l’application J est continue.
8
Chapitre 3 : THÉORÈME D’INVERSION
LOCALE ET THÉORÈME DES FONCTIONS
IMPLICITES
19 février 2007
1
en particulier en dimension finie, est le fait que GL(E, F ) est un ouvert de
L(E, F ). Toujours en dimension 1, on peut même déduire de f 0 (a) 6= 0 et de la
continuité de f 0 qu’au voisinage de a la fonction f est strictement monotone et
réalise donc une bijection d’un voisinage de a sur son image. Autrement dit on
peut localement « remonter » du fait que la différentielle est bijective au fait que
la fonction l’est. Le théorème d’inversion locale permet d’obtenir cette propriété
pour les Banach.
Théorème 1.4 Soit E et F deux espaces de Banach et U un ouvert de E. Soit
f : U → F une application de classe C 1 . Soit a ∈ U tel que Df (a) ∈ GL(E, F ),
alors il existe un voisinage ouvert U1 de a et un voisinage ouvert V1 de f (a) tels
que U1 ⊂ U et f : U1 → V1 est un C 1 - difféomorphisme.
Preuve Commençons par montrer qu’il suffit d’établir le théorème lorsque E =
F , a = f (a) = 0 et Df (0) = idE . En effet, posons
f˜(x) = Df (a)−1 · [f (a + x) − f (a)].
On vérifie que
– l’application f˜ est définie sur Ue = {x ∈ E | a+x ∈ U } qui est un voisinage
˜ e
ouvert de 0 et f : U → E est de classe C 1 ,
– en 0, f˜(0) = Df (a)−1 · 0 = 0,
– Df˜(x) = Df (a)−1 ◦Df (a+x). En particulier Df˜(0) = Df (a)−1 ◦Df (a) =
idE .
Si on a établi le théorème pour f˜, on « revient » à f en remarquant que f (a+x) =
f (a) + Df (a) · f˜(x) ou encore f (x) = f (a) + Df (a) ◦ f˜(x − a) = A ◦ f˜(x − a) où
A : E → F est la bijection affine continue h 7→ f (a) + Df (a) · h. Si donc f˜ est
un C 1 - difféomorphisme de U e1 (voisinage ouvert de 0) sur Ve1 (voisinage ouvert
1
de 0), alors f est un C - difféomorphisme de U1 = a + U e1 (voisinage ouvert de
e
a) sur V1 = A(V1 ) qui est un voisinage ouvert de A(0) = f (a) dans F .
On se place dans le cas particulier indiqué. Montrer que f est bijective de
U1 sur V1 c’est montrer qu’on peut résoudre, pour y fixé dans V1 , l’équation
f (x) = y de façon unique si l’on impose que la solution trouvée x appartient
à U1 . On le fait en montrant qu’on peut appliquer le théorème du point fixe à
l’application gy (x) = x − f (x) + y dans une boule fermée convenable, puisqu’une
boule fermée d’un Banach est un espace métrique complet.
Pour tout y ∈ E, l’application gy est de classe C 1 sur U et Dgy (x) = idE −
Df (x) est indépendante de y et nulle en x = 0. Donc par continuité, il existe
r > 0 tel que, si x vérifie kxk ≤ r, alors x ∈ U et pour tout y ∈ E, kDgy (x)k ≤ 21 .
Le théorème des accroissements finis permet d’en déduire que pour tous x, x0 ∈
Bf (0, r) et tout y ∈ E,
1
(?) kgy (x) − gy (x0 )k ≤ kx − x0 k.
2
Comme gy (0) = y, on a en particulier kgy (x)−yk ≤ 12 kxk pour tout x ∈ Bf (0, r).
Supposons que y vérifie kyk < 12 r. Alors, si x ∈ Bf (0, r),
1
kgy (x)k = kgy (x) − yk + kyk ≤ kxk + kyk < r.
2
2
Donc gy envoie la boule fermée Bf (0, r) sur la boule ouverte Bo(0, r) et, a for-
tiori, sur la boule fermée elle-même. L’inégalité (?) montre que gy est contrac-
tante et a donc un unique point fixe. Ceci permet de définir une application
ϕ : V1 → E où V1 = Bo(0, 12 r) en associant à y ∈ V1 l’unique point fixe ϕ(y) de
gy dans Bf (0, r). Comme ce point fixe est image par gy d’un point de la boule
fermée Bf (0, r), il appartient en fait à la boule ouverte Bo(0, r). On va montrer
que U1 = ϕ(V1 ) vérifie U1 = f −1 (V1 ) ∩ Bo(0, r) et est donc un voisinage ouvert
de 0 et que les applications f : U1 → V1 et ϕ : V1 → U1 sont inverses l’une de
l’autre. En effet :
– D’une part, si y ∈ V1 , ϕ(y) ∈ Bo(0, r) et vérifie gy (ϕ(y)) = ϕ(y) =
ϕ(y) − f (ϕ(y)) + y. D’où (∗) f (ϕ(y)) = y. Si donc x ∈ U1 , de sorte que
x = ϕ(y) où y ∈ V1 , on a x ∈ Bo(0, r) et f (x) = y, ce qui prouve l’inclusion
U1 ⊂ f −1 (V1 ) ∩ Bo(0, r) et permet d’interpréter (∗) en f ◦ ϕ = idV1 .
– D’autre part, si x ∈ f −1 (V1 ) ∩ Bo(0, r), alors kxk < r et f (x) ∈ V1 . Mais
gf (x) (x) = x − f (x) + f (x) = x, ce qui montre que x est point fixe dans
Bf (0, r) de gf (x) . Donc par unicité on a (∗∗) x = ϕ(f (x)). Ceci montre
que x ∈ U1 , ce qui prouve l’inclusion f −1 (V1 ) ∩ Bo(0, r) ⊂ U1 et permet
d’interpréter (∗∗) en ϕ ◦ f = idU1 .
Pour prouver que ϕ est de classe C 1 sur V1 , il suffit de montrer qu’elle est
continue. En effet, pour x ∈ U1 , kidE − Df (x)k ≤ 21 < 1 et la remarque
2.7 du chapitre 2 montre que Df (x) ∈ GL(E). On peut alors appliquer à
l’homéomorphisme f : U1 → V1 la proposition 1.3.
Pour établir la continuité de ϕ, nous allons montrer qu’elle est lipshitzienne de
rapport 2 sur V1 . Si y, y 0 ∈ V1 , alors x = ϕ(y) et x0 = ϕ(y 0 ) appartiennent à
Bo(0, r) et, pour y0 ∈ E fixé (quelconque), en utilisant (?), on a :
1
kx − x0 − f (x) + f (x0 )k = kgy0 (x) − gy0 (x0 )k ≤ kx − x0 k
2
d’où kx − x0 k ≤ kf (x) − f (x0 )k + 21 kx − x0 k et kx − x0 k ≤ 2 kf (x) − f (x0 )k ou
encore
kϕ(y) − ϕ(y 0 )k ≤ 2 ky − y 0 k.
3
Lorsque E = F est de dimension finie, un C 1 - difféomorphisme local s’appelle
aussi un changement de coordonnées.
Le corollaire suivant explicite en dimension finie une généralisation locale C 1
du théorème de la base incomplète de l’algèbre linéaire.
Remarques
1. Dans le théorème d’inversion locale, l’hypothèse de continuité de Df est
indispensable. On pourrait croire qu’en demandant seulement à f d’être
différentiable, on aurait le même résultat, sans la continuité de l’applica-
tion inverse. L’exemple suivant prouve qu’il n’en est rien, même en di-
mension finie. Soit f : R → R définie par f (x) = 21 x + x2 sin x1 lorsque
x 6= 0 et f (0) = 0. Un dessin permet de se convaincre que f n’est injective
sur aucun intervalle contenant 0. Pourtant f et dérivable en tout point et
f 0 (0) = limx→0 f (x) 1 0 1 1
x = 2 6= 0. Mais pour x 6= 0, f (x) = 2 +2x sin x −cos x ,
1
4
Comme le suggère l’exemple qui vient d’être traité, c’est l’injectivité de f
qui pose problème. Les deux résultats qui suivent sont d’une grande importance
pratique. Le deuxième explicite comment passer du résultat local à un résultat
global.
5
jacobienne en un point d’une application d’un ouvert de Rn+m (n + m est
le nombre de variables) dans Rn (n est le nombre d’équations), la condition
précédente s’interprète comme la possibilité, pour un ordre convenable des va-
riables, de décomposer Rn+m en Rm × Rn de sorte que la matrice jacobienne
de la différentielle partielle dans la direction du facteur Rn (deuxième facteur)
soit inversible. Le théorème d’inversion locale peut être traduit dans ce langage.
Reprenons en effet les hypothèses du théorème 1.4 et introduisons l’applica-
tion ϕ : F × U → F définie par ϕ(y, z) = f (z) − y. On a, pour tout y ∈ F ,
D2 ϕ(y, a) = Df (a). L’hypothèse peut donc se lire D2 ϕ(b, a) ∈ GL(E, F ) avec
(b, a) = (f (a), a), point où la relation ϕ(b, a) = 0 est réalisée. La conclusion
du théorème peut se lire : il existe un voisinage ouvert U1 de a, un voisinage
ouvert V de b et une application de classe C 1 , g : V → U1 telle que pour tout
y ∈ V , z = g(y) est l’unique solution dans U1 de ϕ(y, z) = 0. Autrement dit
on peut résoudre localement l’équation ϕ(y, z) = 0 par une application de classe
C 1 , z = g(y). Le théorème suivant montre que cette situation est générale.
Remarques
1. L’hypothèse implique que F et G ont même dimension (finie ou non).
2. Il est important de bien comprendre l’affirmation 2. qui ne dit pas que
l’équation f (x, y) = f (a, b) n’a qu’une solution : elle n’en a qu’une dans
V (c’est-à-dire proche de b) mais peut en avoir ailleurs.
3. La propriété 2. peut aussi s’exprimer par l’égalité :
6
est clairement de classe C 1 sur Ω et sa différentielle au point (a, b) est donnée,
pour (h, k) ∈ E × F , par
DΦ(a, b) · (h, k) = (h, Df (a, b) · (h, k)) = (h, D1 f (a, b) · h + D2 f (a, b) · k).
On résout « à la main » l’équation DΦ(a, b) · (h, k) = (h0 , k 0 ). On trouve h = h0
puis D2 f (a, b) · k = k 0 − D1 f (a, b) · h0 et donc
k = D2 f (a, b)−1 · [k 0 − D1 f (a, b) · h0 ].
Autrement dit l’application DΦ(a, b) est inversible, son inverse étant
DΦ(a, b)−1 · (h0 , k 0 ) = (h0 , D2 f (a, b)−1 · [k 0 − D1 f (a, b) · h0 ]).
Il faut aussi montrer la continuité de l’application linéaire DΦ(a, b)−1 . Exami-
nons la deuxième composante. On a
D2 f (a, b)−1 · [k 0 − D1 f (ab) · h0 ] = D2 f (a, b)−1 · k 0 − D2 f (a, b)−1 ◦ D1 f (a, b)(h0 )
d’où
kD2 f (a, b)−1 · [k 0 − D1 f (ab) · h0 ]k ≤ kD2 f (a, b)−1 k(kk 0 k + kD1 f (a, b)k kh0 k)
≤ kD2 f (a, b)−1 k(1 + kD1 f (a, b)k) k(h0 , k 0 )k
| {z }
M
et donc kDΦ(a, b)−1 · (h0 , k 0 )k ≤ max(1, M )k(h0 , k 0 )k. On a ainsi montré que
DΦ(a, b) appartient à GL(E × F, E × G).
On a Φ(a, b) = (a, f (a, b)) et le théorème d’inversion locale appliqué à Φ au
point (a, b) donne un voisinage ouvert Ω1 de (a, b), Ω1 ⊂ Ω et un voisinage ouvert
W de (a, f (a, b)) tels que Φ : Ω1 → W soit un C 1 - difféomorphisme. Quitte à
diminuer de manière cohérente Ω1 et W , on peut supposer que Ω1 = U1 × V
où U1 est un voisinage ouvert de a dans E et V un voisinage ouvert de b dans
F . L’application Φ−1 : W → U1 × V a alors deux composantes : Φ−1 = (g1 , g2 )
où g1 : W → U1 et g2 : W → V sont de classe C 1 . On a alors la chaı̂ne
d’équivalences :
(x, y) ∈ U1 × V et f (x, y) = f (a, b)
m
(x, y) ∈ U1 × V et Φ(x, y) = (x, f (a, b))
m
(x, y) = (g1 (x, f (a, b)), g2 (x, f (a, b)) et (x, f (a, b)) ∈ W
Considérons U = {x ∈ U1 | (x, f (a, b)) ∈ W }. C’est un ouvert de U1 (puisque
W est ouvert), donc de E, contenant a et tel que U × V ⊂ U1 × V ⊂ Ω. De plus
la chaı̂ne d’équivalence indiquée montre que l’application g : U → V donnée par
g(x) = g2 (x, f (a, b)) vérifie
(x, y) ∈ U × V et f (x, y) = f (a, b)
m
x ∈ U et y = g(x).
7
La définition de g montre qu’elle est de classe C 1 dans U .
Enfin de la relation f (x, g(x)) = f (a, b) valable pour tout x ∈ U , on tire par
différentiation que, pour tout h ∈ E,
Si U est assez petit pour qu’en tout point D1 f (x, g(x)) (qui dépend continûment
de x) appartienne à l’ouvert GL(F, G), on en déduit
8
3 Applications géométriques en dimension finie
Nous donnons dans ce paragraphe des applications géométriques des théo-
rèmes 1.4 et 2.1 en supposant que les espaces considérés sont de dimension
finie. Toutes les applications seront supposées C 1 et nous ne l’indiquerons pas
systématiquement.
f (M ∩ U ) = V ∩ (Rp × {0}).
Preuve Définissons
f : U = Ω × Rn−p −→ Rn
x = (u, y) 7→ (u, y − g(u)).
C’est une application de classe C 1 (ses deux composantes le sont) et en tout point
x ∈ U , la matrice
Ip 0
Jf (x) =
−Jg(u) In−p
9
est inversible. D’autre part l’application f est injective puisque (u, y − g(u)) =
(u0 , y 0 − g(u0 )) impose u0 = u, d’où g(u) = g(u0 ) et donc aussi y = y 0 . La
proposition 1.9 montre que f est un C 1 - difféomorphisme de U sur l’ouvert
de Rn , V = f (U ). De plus, si x ∈ U ∩ Γg , x = (u, g(u)) avec u ∈ Ω. Donc
f (x) = (u, g(u) − g(u)) = (u, 0) appartient à V ∩ (Rp × {0}). Réciproquement,
si z ∈ V ∩ (Rp × {0}), z = (z 0 , 0) et il existe x = (u, y) ∈ U tel que z = f (x) =
(u, y − g(y)). On en déduit z 0 = u ∈ Ω et y = g(u) de sorte que z = f (u, y) où
(u, y) ∈ U ∩ Γg .
Preuve Soit a ∈ M . L’hypothèse signifie que les n−p formes linéaires DF1 (a), · · · ,
DFn−p (a) sont linéairement indépendantes. Le corollaire 1.7 appliqué aux n − p
fonctions Fj permet de définir un voisinage U de a et p fonctions G1 · · · , , Gp
telles que f = (G1 · · · , Gp , F1 , · · · Fn−p ) soit un C 1 - difféomorphisme de U sur
un ouvert V de Rn . Quitte à remplacer Gj par Gj − Gj (a), on peut supposer
que V est un voisinage de 0. De plus, si x ∈ U , f (x) ∈ V ∩ (Rp × {0}) équivaut
à Fj (x) = 0 pour 1 ≤ j ≤ n − p, ou encore à x ∈ M .
10
Une autre manière de définir une sous-variété est d’utiliser un paramétrage.
Cette fois encore la condition sur le rang signifie qu’il est maximum. La condition
est aussi équivalente au fait que Dϕ(u0 ) est injective. On dit alors que ϕ est
une immersion en u0 .
Mais attention, même si ϕ est une immersion en tout point de Ω il n’est pas
toujours vrai que son image est une sous-variété de Rn .
= {(x0 , f (x0 ) | x0 ∈ V } = Γf .
La proposition 3.2 montre alors le résultat.
Exemples
Nous donnons quelques exemples et contre-exemples tous très classiques.
1. La sphère S n est définie par
11
2. Le tore T n est défini par
O(n) = {A ∈ Mn (R) | At A = In }
2
où l’on a noté Mn (R) l’espace vectoriel, isomorphe à Rn , des matrices
carrées n × n et At la matrice symétrique de la matrice A. Alors O(n)
est une sous-variété de Mn (R) de dimension n(n−1)2 . En effet appelons
Sn (R) l’espace vectoriel des matrices n×n symétriques. Il est de dimension
n(n+1)
2 et O(n) = F −1 (0) où F : Mn (R) −→ Sn (R) est l’application
F (A) = At A − In . Cette application est polynomiale donc C 1 et c’est une
submersion en chaque point A ∈ O(n) puisque (exo.), pour tout H ∈
Mn (R), DF (A) · H = At H + H t A et, si K ∈ Sn (R), la matrice H = 21 AK
vérifie DF (A) · H = K, ce qui prouve la surjectivité de DF (A). Il reste
à remarquer que, de façon générale, si M est une sous-variété de Rn de
dimension p et si on regarde M comme un sous-ensemble de Rm pour
m > n via une inclusion de Rn dans Rm , alors M est aussi une sous-
variété de dimension p de Rm .
4. Le cône de révolution
Γ = {(x, y, z) ∈ R3 | x2 + y 2 − z 2 = 0}
12
3.2 Espace tangent à une sous-variété en un point
Soit M ⊂ Rn une sous-variété de dimension p et a ∈ M .
Définition 3.5 1. Un arc de courbe tracé sur M passant par a est l’image
γ(I) de γ : I → Rn où I est un intervalle ouvert de R contenant 0, γ est
de classe C 1 , γ(0) = a et γ(I) ⊂ M .
2. Le vecteur γ 0 (0), qui appartient à Rn , est appelé vecteur tangent en a à
M.
13
Preuve On commence par se souvenir que le graphe d’une application linéaire
de Rp dans Rn−p est bien un sous-espace vectoriel de dimension p de Rn . Si
γ : I → Rn est une courbe tracée sur Γg passant par a, on a, pour tout t ∈ I,
γ(t) = (γ1 (t), γ2 (t)) où γ1 (t) ∈ Ω et γ2 (t) = g(γ1 (t)). Donc en utilisant le
théorème de dérivation d’une fonction composée et en remarquant que γ1 (0) =
a0 , γ20 (0) = Dg(a0 ) · γ10 (0). On en déduit que v = (γ10 (0), γ20 (0)) appartient au
graphe de Dg(a0 ), ce qui donne l’inclusion Ta Γg ⊂ ΓDg(a0 ) . L’égalité vient alors
de ce que ces deux espaces vectoriels ont la même dimension.
n
Preuve Si γ : I → R définit un arc de courbe tracé sur M et passant par a, pour
tout t ∈ I, F ◦γ(t) = 0. Donc DF (a)·γ 0 (0) = 0. C’est dire que γ 0 (0) ∈ ker DF (a)
et que Ta M ⊂ ker DF (a). Mais puisque F est une submersion en a, DF (a) est
de rang n − p, donc ker DF (a) est de dimension n − (n − p) = p, qui est aussi
celle de Ta M . Ceci établit l’égalité annoncée.
Exemples
1. Le plan tangent à la surface de R3 d’équation f (x, y, z) = 0 au point
a = (x0 , y0 , z0 ) (vérifiant f (x0 , y0 , z0 ) = 0) a pour équation
∂f ∂f ∂f
(a)(x − x0 ) + (a)(y − y0 ) + (a)(z − z0 ) = 0.
∂x ∂y ∂z
Dire que f est une submersion en a c’est dire que les trois dérivées partielles
ne sont pas simultanément nulles en a et l’équation écrite est bien celle
d’un plan passant par a.
14
2. La tangente à la courbe de R3 donnée par f (x, y, z) = g(x, y, z) = 0 au
point a = (x0 , y0 , z0 ) a pour direction la droite intersection des deux plans
(
∂f ∂f ∂f
∂x (a)x + ∂y (a)y + ∂z (a)z = 0
∂g ∂g ∂g
∂x (a)x + ∂y (a)y + ∂y (a)z = 0
a0 (x0 − a0 ) + · · · + an (xn − an ) = 0.
5. Si A ∈ O(n),
TA O(n) = A TI O(n).
15
Chapitre 4 : DIFFÉRENTIELLES D’ORDRE
SUPÉRIEUR
17 janvier 2007
1 Différentielle seconde
1.1 Définition
Soit E et F des espaces normés, U un ouvert de E et f : U → F une
application de classe C 1 sur U . L’application Df : U → L(E, F ) définie
par x 7→ Df (x) est continue. Si elle est différentiable en a ∈ U , on dit
que f est deux fois différentiable en a. Dans ce cas D(Df )(a) est une ap-
plication linéaire continue de E dans L(E, F ), c’est-à-dire un élément de
L(E, L(E, F )).
Lemme 1.1 L’espace normé L(E, L(E, F )) s’identifie à l’espace normé des
applications bilinéaires continues de E × E dans F , noté L2 (E, F ).
BT (h, k) = T (h) · k
1
On définit l’application linéaire (à vérifier)
Exemples
1. Soit u : E → F une application linéaire continue. Alors, pour tout x ∈
E, Du(x) = u donc Du est une application constante et sa différentielle
est nulle en tout point. Autrement dit u est deux fois différentiable en
tout point de E et D2 u(x) = 0 pour tout x ∈ E.
2. Soit B : E × E → F une application bilinéaire continue. On sait que
B est différentiable en tout point (x, y) ∈ E × E et que, pour tout
(h, k) ∈ E × E,
D(DB)(x, y) = DB.
2
1.2 Lemme de Schwarz
Dans l’identification précédente les vecteurs h et k ne jouent pas a priori
le même rôle. En fait il n’en est rien.
Proposition 1.2 (Lemme de Schwarz) Si f : U → F est deux fois dif-
férentiable en a, l’application bilinéaire D2 f (a) est symétrique.
Preuve Soit r > 0 assez petit pour que Bo(a, 2r) ⊂ U et que Df y soit
définie. Posons pour khk < r et kkk < r,
ϕ(h, k) = f (a + h + k) − f (a + h) − f (a + k) + f (a) − D2 f (a)(h, k)
ϕ(h, k)
et montrons que → 0 quand k(h, k)k → 0. En effet la différentia-
k(h, k)k2
bilité de Df en a s’exprime par le fait que, quel que soit ε > 0, il existe
α > 0 (on peut imposer α < r) tel que si khk < 2α, alors
kDf (a + h) − Df (a) − D(Df )(a) · hk < εkhk
(il s’agit au premier membre de la norme d’un élément de L(E, F )).
Pour h fixé vérifiant khk < α, l’application ϕh : k 7→ ϕ(h, k) est définie dans
la boule Bo(0, α), à valeurs dans F et différentiable en tout point de cette
boule. De plus (dans L(E, F )) on a Dϕh (k) = Df (a + h + k) − Df (a + k) −
D(Df )(a) · h = Df (a + h + k) − Df (a) − D(Df (a) · (h + k) − [Df (a + k) −
Df (a) − D(Df )(a) · k]. Et donc, puisque kh + kk < 2α et kkk < 2α,
kDϕh (k)k < ε(kh + kk + kkk) < 3εk(h, k)k
La boule Bo(0, α) étant convexe, on peut appliquer le théorème des accrois-
sements finis à ϕh sur le segment [ 0, k ]. On obtient
kϕh (k) − ϕh (0)k = kϕ(h, k)k ≤ 3εk(h, k)k kkk ≤ 3εk(h, k)k2
et le résultat annoncé suit.
Mais cela implique que l’application bilinéaire définie par
B(h, k) = D2 f (a)(h, k) − D2 f (a)(k, h)
B(h, k)
vérifie → 0 quand k(h, k)k → 0, puisque B(h, k) = ϕ(h, k) −
k(h, k)k2
ϕ(k, h). Or, la bilinéarité permet d’en déduire que B = 0. On raisonne
comme dans le Lemme 1.1 du chapitre 1. : si (h0 , k0 ) 6= (0, 0), pour tout réel
B(th0 , tk0 ) B(h0 , k0 )
t 6= 0, = . Mais, par hypothèse le terme de gauche
k(th0 , tk0 )k k(h0 , k0 )k
tend vers 0 quand t → 0. Cela oblige B(h0 , k0 ) = 0. Or, dire que B = 0,
c’est dire que D2 f (a) est symétrique.
3
1.3 Dérivées partielles secondes
Lorsque E et F sont de dimension finie, le choix de bases V = (v1 , · · · , vm )
dans E et W = (w1 , · · · , wn ) dans F permet de se donner l’application
bilinéaire D2 f (a) en se donnant les composantes dans W des m2 vecteurs
D2 f (a)(vi , vj ) (i ≤ j). Si f est donnée par ses composantes f = (f1 , · · · , fn ),
cela revient à se donner pour chaque ` = 1, · · · n, les m2 scalaires
∂ 2 f`
que l’on note (a) et que l’on appelle dérivée partielle seconde de f`
∂xj ∂xi
en a par rapport à xj et xi .
Le théorème de Schwarz s’énonce maintenant : pour tout 1 ≤ i, j ≤ m
∂ 2 f` ∂ 2 f`
et tout 1 ≤ ` ≤ n, (a) = (a)
∂xj ∂xi ∂xi ∂xj
Lorsque n = 1, c’est-à-dire si f : U → R, D2 f (a) est une forme bilinéaire
symétrique dont la matrice est appelée matrice hessienne de f en a. C’est
la matrice carrée symétrique constituée par les dérivées partielles secondes
de f en a : 2
∂ f
Hf (a) = (a) .
∂xj ∂xi 1≤i,j≤m
4
Noter que l’existence de D2 f (x) pour tout x ∈ U impose à f d’être de classe
C 1 dans U .
Le résultat suivant s’obtient sans peine ( ?).
Proposition 1.4 Si E et F sont de dimension finie, f est de classe C 2 sur
U si et seulement si chaque composante f` de f admet en tout point de U
∂ 2 f`
des dérivées partielles secondes et chacune des fonctions x 7→ (x) est
∂xj ∂xi
continue dans U .
2 Fonctions de classe C p
Rien n’empêche de continuer et d’adopter la définition inductive sui-
vante.
5
A titre d’exemple, on peut retenir que toute application bilinéaire conti-
nue B est de classe C ∞ et que Dp B = 0 pour tout p ≥ 3. Comment ce
résultat se généralise-t-il ?
Un dernier résultat important.
3 Formule de Taylor
On connaı̂t la formule de Taylor à une variable. Soit I un ouvert de R
contenant le segment [ 0, 1 ] et ϕ : I → Rn une fonction de classe C p (p ≥ 1).
Alors
p−1
X Z 1
1 (k) (1 − t)p−1 (p)
ϕ(1) = ϕ (0) + ϕ (t) dt
k! 0 (p − 1)!
k=0
6
Théorème 3.1 Soit U un ouvert d’un espace normé E et f : U → Rn une
application de classe C p (p ≥ 1). Si a et b sont deux points de U tels que
[ a, b ] ⊂ U , on pose h = b − a, hk = (h, · · · , h) (pour k ∈ N∗ ) et, pour
| {z }
k
t ∈ [ 0, 1 ], γ(t) = a + th. Alors
1 1
f (b) = f (a) + Df (a) · h + D2 f (a)(h2 ) + · · · + Dp−1 f (a)(hp−1 ) +
2 (p − 1)!
Z 1
(1 − t)p−1 p
+ D f (γ(t))(hp ) dt.
0 (p − 1)!
Preuve Soit r > 0 tel que Bo(a, r) ⊂ U . Si khk < r, on peut appliquer le
théorème précédent au segment [ a, a + h ] et il suffit de montrer que
Z 1
(1 − t)p−1 p 1
D f (γ(t))(hp ) dt = Dp f (a)(hp ) + R(h)
0 (p − 1)! p!
Z 1
R(h) (1 − t)p−1 1
avec lim = 0. Or, puisque dt = , on a
h→0 khkp 0 (p − 1)! p!
Z 1
(1 − t)p−1 p
R(h) = [D f (γ(t))(hp ) − Dp f (a)(hp )] dt.
0 (p − 1)!
7
de cette inégalité, il s’agit de la norme de l’application p-linéaire continue
Dp f (x) − Dp f (a). Si elle est plus petite que ε, alors, pour tout v ∈ E, on
a kDp f (x)(v p ) − Dp f (a)(v p )k ≤ εkvkp . Si on suppose que khk < α, alors
x = γ(t) = a + th vérifie kx − ak = tkhk < α. On en déduit
Z 1
p (1 − t)p−1 ε
kR(h)k ≤ εkhk dt = khkp
0 (p − 1)! p!
8
Chapitre 5 : POINTS CRITIQUES ET EXTREMA
5 janvier 2006
f (a + th) − f (a)
Df (a) · h = lim ≥0
t→0+ t
1
puisque numérateur et dénominateur sont des réels positifs. D’autre part
f (a + th) − f (a)
Df (a) · h = lim ≤0
t→0− t
puisque le numérateur est positif et le dénominateur négatif. La seule pos-
sibilité est donc Df (a) · h = 0.
Remarques
1. Si E est de dimension finie, a est un point critique si et seulement si
les dérivées partielles de f sont toutes nulles en a.
2. La condition trouvée est nécessaire mais pas suffisante, comme le
montre la fonction x → x3 qui est strictement croissante sur R bien
que 0 en soit un point critique.
{h ∈ E | ∀k ∈ E, B(h, k) = 0}.
2. On dit que B (ou Q) est non dégénérée si son noyau est le sous-espace
0.
3. On dit que B (ou Q) est positive (resp. négative) si pour tout h ∈ E,
Q(h) ≥ 0 (resp. Q(h) ≤ 0).
4. On dit que B (ou Q) est définie si pour tout h 6= 0, Q(h) 6= 0. Une
forme quadratique réelle définie est soit définie positive soit définie
négative.
5. On dit que B (ou Q) est indéfinie s’il existe h, k ∈ E tels que Q(h) > 0
et Q(k) < 0.
En termes de valeurs propres (toutes réelles) de la matrice M de B cela se
traduit par :
2
– Q est non dégénérée si et seulement 0 n’est pas valeur propre ou encore
det M 6= 0.
– Q est positive ssi toutes les valeurs propres de M sont ≥ 0,
– Q est définie positive ssi toutes les valeurs propres de M sont > 0,
– Q est indéfinie ssi M a des valeurs propres des deux signes.
Si p est le nombre de valeurs propres > 0, et q le nombre de valeurs propres
< 0, le triplet (p, q, m − q − p) est la signature de Q. Elle ne dépend pas de
la base considérée (bien que les valeurs propres en dépendent).
3
Preuve Posons S = {h ∈ E | khk = 1}. C’est une partie compacte de E
(on est en dimension finie !) sur laquelle la forme quadratique D2 f (a)(h, h)
est bornée et atteint son minimum. Il existe donc h0 tel que kh0 k = 1 et
pour tout h ∈ S, D2 f (a)(h, h) ≥ D2 f (a)(h0 , h0 ) = ρ. Comme h0 6= 0 (il est
de norme 1), et que D2 f (a) est définie positive, ρ > 0. Pour tout h ∈ E, si
h
h 6= 0, khk ∈ S et donc
h h
D2 f (a)(h, h) = khk2 D2 f (a)( , ) ≥ ρkhk2
khk khk
Le fait qu’on ait une propriété plus forte (extremum strict) suggère que
cette condition n’est pas nécessaire. C’est bien le cas comme le montre
l’exemple, toujours sur R2 , de la fonction f (x, y) = x2 + y 4 qui a (0, 0)
pour minimum bien que sa hessienne en (0, 0) soit dégénérée.
4
La proposition suivante traduit ce résultat lorsque A est « définie par
équations », autrement dit lorsque A = F −1 (0) où F : V (ouvert de Rn )
→ Rn−p est une submersion en tout point de A.
Proposition 2.3 Si F = (F1 , · · · , Fn−p ) et si a tel que F1 (a) = F2 (a) =
· · · = Fn−p (a) = 0 est un point critique de f sur A, alors il existe des
scalaires λ1 , · · · , λn−p , déterminés de manière unique, tels que
n−p
X
Df (a) = λi DFi (a)
i=1
∂f Pn−p ∂F
∂xi (a) = j=1 λj ∂xji (a) i = 1 · · · n
Ce sytème est linéaire par rapport aux λj , ce qui, parfois, facilite sa résolution.
5
est appelée forme hessienne de f sur A en a.
1. Si a est un minimum local de f sur A, la hessienne de f sur A en a
est positive.
2. Si la hessienne de f sur A en a est définie positive, a est un minimum
local strict de f sur A.
6
Chapitre 6 : ÉQUATIONS DIFFÉRENTIELLES
ORDINAIRES. THÉORÈMES
FONDAMENTAUX
17 janvier 2007
1 Terminologie
1.1 E.D.O. du premier ordre. Solutions
Soit U un ouvert de R × Rn et f : U → Rn une application. Elle définit
l’« équation différentielle ordinaire du premier ordre »
(E) y 0 = f (t, y)
1
(d’où la mention du premier ordre). Résoudre l’équation c’est en trouver (ou
caractériser) une (ou toutes les) solution(s).
Remarquons que J est un intervalle qui peut être ouvert, semi-ouvert,
fermé, borné ou non. On a vu dans les chapitres précédents ce que signifie
ϕ est dérivable sur J pour tout type d’intervalle : la notation ϕ0 désigne
la fonction de J dans Rn qui associe à t le vecteur dérivée en t. Si f est
supposée continue toute solution de (E) est automatiquement C 1 . Elle est
C k+1 (resp. C ∞ ) si on suppose que f est C k (resp. C ∞ ).
Exemples
Evolution d’une population Si p(t) représente la population d’une es-
p0 (t)
pèce donnée à l’instant t, le taux de croissance instantané est .
p(t)
L’évolution de la population est gouvernée par l’équation différentielle
p0
= r(t, p) = g(t, p) − s(t, p)
p
où g et s sont deux fonctions, supposées connues, donnant le taux de
naissance et le taux de décès de la population étudiée. Le cas le plus
simple correspond à g et s constantes donc r(t, p) est une constante
α et les solutions sont de la forme p(t) = ceαt . Si α > 0, ce modèle
conduit à une population dont la croissance est illimitée, ce qui est peu
réaliste. Un meilleur modèle est obtenu en supposant que r = α−βp où
α et β sont des constantes positives. L’équation différentielle obtenue
p0 = (α − βp)p
2
Système proie-prédateur Il s’agit de décrire l’évolution de deux espèces
dont l’une (proie) est la nourriture de l’autre (prédateur). Il y a donc
deux inconnues : la population des proies, y1 (t) et la population des
prédateurs y2 (t). L’équation (E) est un système différentiel :
0
y1 = r1 (t, y1 , y2 )y1
y20 = r2 (t, y1 , y2 )y2
3
la tangente en M à une courbe intégrale passant par M (qui a pour pente
− yt ). Or les courbes ayant la propriété qu’en chaque point la tangente est
perpendiculaire au « rayon vecteur » sont les cercles de centre O. Un tel
cercle a pour équation t2 + y 2 = R2 , de sorte qu’on a bien t + yy 0 = 0.
Toujours en dimension 1, on a la classique définition suivante.
Exemple Les isoclines de l’équation (E) y 0 = t−y 2 sont les paraboles d’axe
Ot, t = y 2 + m. L’isocline C0 sépare le plan en deux régions : l’intérieur de
la parabole t = y 2 , région dans laquelle toute courbe intégrale est crois-
sante et l’extérieur de la parabole, dans laquelle toute courbe intégrale est
décroissante. Les points de C0 ont vocation à être des extrema locaux des
courbes intégrales.
Toujours sans chercher à résoudre (E), on peut déterminer les points en
lesquels la dérivée seconde d’une solution s’annule (probables points d’in-
flexion). Rappelons que dans cet exemple toute solution est C ∞ . Si ϕ(t) est
une solution on a ϕ0 (t) = t − ϕ(t)2 et, en dérivant, ϕ00 (t) = 1 − 2ϕ(t)ϕ0 (t) =
1 − 2ϕ(t)(t − ϕ(t)2 ). Donc ϕ00 (t) = 0 si et seulement si (t, ϕ(t) est un point
de la courbe d’équation 2y(t − y 2 ) = 1.
4
1.2 Généralisations
1.2.1 Equation différentielle implicite
C’est une équation (E) e F (t, y, y 0 ) = 0 où F : Ω → Rn , Ω ouvert
de R × R × R . Si on suppose que F est de classe C 1 et qu’en M0 =
n n
donc aussi ϕ001 (t) = F (t, ϕ1 (t), ϕ01 (t)). Inversement si ϕ1 : J → Rn est une
fonction deux fois dérivable et telle que ϕ001 (t) = F (t, ϕ1 (t), ϕ01 (t)), en posant
ϕ2 (t) = ϕ01 (t), la fonction ϕ = (ϕ1 , ϕ2 ) est solution de (E). Autrement dit
ϕ1 est solution de l’équation du second ordre si et seulement (ϕ1 , ϕ01 ) est
solution du système (E) du premier ordre de dimension 2n associé.
Pour un système d’ordre 2, une condition initiale est la donnée d’un
point (t0 , y0 , y1 ) ∈ Ω. Une solution vérifiant cette condition initiale est une
solution ϕ1 telle que ϕ1 (t0 ) = y0 et ϕ01 (t0 ) = y1 . Si t est le temps, y0 est
donc la position et y1 la vitesse à l’instant t0 .
Ceci se généralise à l’ordre p : un système de dimension n et d’ordre p,
donnant la dérivée p-ième en fonction de t, y et des dérivées d’ordre < p, se
transforme en un système d’ordre 1 de dimension np.
5
2 Théorie locale
2.1 Lemme de Gronwall
Proposition 2.1 Soit a < b deux réels, f : [ a, b ] → [ 0, +∞ [ une fonction
continue et c ∈ [ a, b ]. S’il existe A ≥ 0 et B ≥ 0 tels que pour tout t ∈ [ a, b ],
Z t
f (t) ≤ A + B f (s) ds
c
Z t
Preuve Supposons d’abord t ≥ c. Posons F (t) = A+B f (s) ds. C’est une
c
fonction de classe C 1 et F 0 (t) = Bf (t). Par hypothèse, pour tout t ∈ [ c, b ],
d −Bt
f (t) ≤ F (t), de sorte que e F (t) = e−Bt [Bf (t) − BF (t)] ≤ 0. On
dt
en déduit que la fonction e−Bt F (t) est décroissante sur [ c, b ] et donc, pour
tout t ∈ [ c, b ],
e−Bt F (t) ≤ e−Bc F (c) = A e−Bc .
D’où, pour tout t ∈ [ c, b ], F (t) ≤ AeB(t−c) et, a fortiori,
f (t) ≤ A eB(t−c) .
Z c
Si maintenant t ≤ c, on pose G(t) = A + B f (s) ds et l’hypothèse est
t
f (t) ≤ G(t) pour tout t ∈ [ a, c ]. On a G0 (t) = −Bf (t) ≥ −BG(t) et on
en déduit, comme plus haut, la croissance de eBt G(t) sur [ a, c ], puis la
majoration eBt G(t) ≤ eBc G(c) = AeBc d’où l’on déduit enfin, pour tout
t ∈ [ a, c ],
f (t) ≤ AeB(c−t) = AeB|t−c| .
6
2. f est localement lipschitzienne par rapport à y si pour tout (t0 , y0 ) ∈
U , il existe un voisinage de ce point sur lequel f est uniformément
lipschitzienne par rapport à y.
Remarques
1. Une fonction lipschitzienne par rapport à y n’est pas automatiquement
continue.
2. Si f admet une différentielle partielle dans la direction de y et si D2 f
est continue sur U , alors f est localement lipschitzienne par rapport à
y. Soit en effet (t0 , y0 ) ∈ U . La continuité de D2 f implique l’existence
d’un ouvert U0 qu’on peut supposer de la forme I × Bo(y0 , ρ) avec I
ouvert de R contenant t0 , tel que, si (t, y) ∈ U0 ,
Donc aussi kD2 f (t, y)k ≤ m = 1 + kD2 f (t0 , y0 )k. On peut alors appli-
quer la formule des accroissements finis à la fonction y 7→ f (t, y) sur
le convexe Bo(y0 , ρ). Pour tout t ∈ I, si (t, y1 ) et (t, y2 ) ∈ U0 on a la
majoration kf (t, y1 ) − f (t, y2 )k ≤ mky1 − y2 k.
Cela s’applique bien sûr dans le cas, souvent réalisé en pratique, où f
est de classe C 1 .
Preuve Par l’absurde. Sinon, pour tout entier non nul n, il existe (tn , yn )
et (tn , yn0 ) dans K tels que kf (tn , yn ) − f (tn , yn0 )k > nkyn − yn0 k. Grâce à
la compacité de K, on peut extraire de la suite ((tn , yn )) une sous-suite
((tϕ(n) , yϕ(n) )) convergeant vers (t0 , y0 ) ∈ K. Ensuite on extrait de la suite
0
((tϕ(n) , yϕ(n) 0
)) une sous-suite ((tϕ◦ψ(n) , yϕ◦ψ(n) )) convergeant vers un point
de K qui est nécessairement de la forme (t0 , y00 ), puisque la suite (tϕ◦ψ(n) )
est extraite de la suite (tϕ(n)) qui converge vers t0 . En changeant les nota-
tions pour alléger l’écriture, on peut donc supposer que (tn , yn ) → (t0 , y0 ),
(tn , yn0 ) → (t0 , y00 ) et (puisque ϕ ◦ ψ(n) ≥ n) que pour tout n > 0,
7
L’hypothèse faite sur f permet alors de trouver un voisinage U0 de (t0 , y0 )
et un k > 0 tels que si (t, y) et (t, y 0 ) ∈ U0 , alors kf (t, y) − f (t, y 0 )k ≤
kky − y 0 k. Or il existe un entier N tel que si n > N , (tn , yn ) et (tn , yn0 )
appartiennent à U0 . Les deux inégalités kf (tn , yn ) − f (tn , yn0 )k > nkyn − yn0 k
et kf (tn , yn ) − f (tn , yn0 )k ≤ k kyn − yn0 k sont alors vérifiées pour n > N . Elles
sont contradictoires dès que n > k.
En effet, si ϕn−1 est définie, continue sur J et prend ses valeurs dans
Bf (y0 , r), alors ϕn est clairement définie et continue sur J et la majora-
8
tion (∗)n suivante : pour tout t ∈ J,
Z t
kϕn (t) − y0 k = f (s, ϕn−1 (s)) ds ≤ M |t − t0 | ≤ M T ≤ r
t0
|t − t0 |2
kϕ2 (t) − ϕ1 (t)k ≤ kM .
2
En utilisant cette majoration dans (?)3 , on voit qu’il est raisonnable d’espé-
rer prouver par récurrence que, pour tout t ∈ J et tout entier n,
|t − t0 |n
kϕn (t) − ϕn−1 (t)k ≤ k n−1 M .
n!
Cette formule est vraie pour n = 1 et, en la supposant vraie au rang n − 1,
on déduit de (?)n :
Z t
|s − t0 |n−1 |t − t0 |n
kϕn (t) − ϕn−1 (t)k ≤ k k n−2 M ds = k n−1 M
t0 (n − 1)! n!
9
En faisant tendre n vers l’infini dans (∗)n , on voit que, pour tout t ∈ J,
kϕ(t) − y0 k ≤ r, ce qui montre que ϕ est à valeurs dans Bf (y0 , r). On peut
alors écrire, pour tout t ∈ J,
Cette formule montre, d’une part, que ϕ(t0 ) = y0 et, d’autre part, puis-
qu’une primitive de fonction continue est dérivable, que ϕ est dérivable dans
J et que ϕ0 (t) = f (t, ϕ(t)).
10
3 Théorie globale
3.1 Unicité globale
Proposition 3.1 Soit f : U → Rn continue et localement lipschitzienne par
rapport à y. Si ϕ1 et ϕ2 sont deux solutions de (E) sur un même intervalle
J et s’il existe t0 ∈ J en lequel ϕ1 (t0 ) = ϕ2 (t0 ) alors ϕ1 = ϕ2 .
11
Preuve Le théorème 2.5 s’applique en (β, `) et fournit T > 0 et une unique
solution ϕ0 sur [ β − T, β + T ] telle que ϕ0 (β) = `. Si β ∈ J, par continuité,
on a ϕ(β) = ` donc ϕ0 et ϕ, qui coı̈ncident en β, coı̈ncident par 3.1 sur
ϕ(t) si t ∈ J
J ∩ [ β − T, β ] et en posant ϕ̃(t) = on
ϕ0 (t) si t ∈ [ β − T, β + T ]
définit le prolongement cherché.
Si β 6∈ J, montrons que l’hypothèse permet de prolonger ϕ en une so-
lution définie
sur J ∪ {β}. On est alors ramené au cas précédent. On pose
ϕ(t) si t ∈ J
ϕ̄(t) = et il faut montrer que ϕ̄ est dérivable à gauche
` si t = β
en β et que cette dérivée (à gauche) est f (β, `). Or, par continuité de f et
de ϕ,
f (β, `) = lim f (t, ϕ(t)) = lim ϕ0 (t) = lim ϕ̄0 (t)
t→β − t→β − t→β −
où Z t0
ψ(t) = lim [ϕ̄0 (s) − f (β, `)] ds.
t0 →β − t
Mais Z t0
[ϕ̄0 (s) − f (β, `)] ds ≤ ε(t0 − t) ≤ ε(β − t)
t
et donc kψ(t)k ≤ ε(β − t). En divisant par β − t (qui est positif) (∗) s’écrit,
pour β − η < t < β,
ϕ̄(t) − `
− f (β, `) ≤ ε
t−β
et cela montre que ϕ̄ admet en β une dérivée à gauche égale à f (β, `).
Théorème 3.4 (Cauchy – Lipschitz global) Soit U un ouvert de R ×
Rn et f : U → Rn une application continue et localement lipschitzienne par
rapport à y. Pour tout (t0 , y0 ) ∈ U , il existe une unique solution maximale
ϕ telle que ϕ(t0 ) = y0 . Cette solution est définie sur un intervalle ouvert.
12
Preuve Soit J = {(J, ϕ)} où J est un intervalle contenant t0 et ϕ : J → Rn
une solution telle que ϕ(t0 ) = y0 . Le théorème 2.5 montre que J 6= ∅. Posons
[
Jmax = J
(J,ϕ)∈J
C’est une réunion de connexes (de R) dont l’intersection est non vide (elle
contient t0 ). C’est donc un connexe de R, c’est-à-dire un intervalle.
Définissons ϕmax : Jmax → Rn de la façon suivante. Si t ∈ Jmax , il existe par
définition un couple (J, ϕ) tel que J 3 t et ϕ est une solution de (E) sur J.
On pose ϕmax (t) = ϕ(t). Bien sûr, il n’y a pas unicité du couple (J, ϕ) mais le
théorème d’unicité assure que tout choix conduit au même résultat et permet
donc de définir la solution maximale passant par (t0 , y0 ). Pour montrer que
Jmax est ouvert, supposons que β = sup Jmax ∈ Jmax . Par construction
de Jmax et définition d’une solution cela implique que (β, ϕmax (β)) ∈ U ,
mais alors le critère de prolongement 3.3 contredit la maximalité de Jmax .
Le même argument s’applique à la borne inférieure et montre donc que
l’intervalle Jmax est ouvert.
13
Cela veut dire que ` = lim ϕ(t) existe et appartient à K. Donc (β, `) ∈ U
t→β −
et on peut appliquer le critère 3.3 pour conclure.
Lorsque V = Rn , voici un critère bien utile pour affirmer que les solutions
maximales sont globales.
14
Preuve Remarquons d’abord que l’hypothèse faite sur f entraı̂ne qu’elle est
localement lipschitzienne en y. En effet si (t0 , y0 ) est un point de U et si
α > 0 est tel que [ t0 − α, t0 + α ] ⊂ I, en posant λ = max k(t), on a,
t∈[ t0 −α,t0 +α ]
pour y, y 0 ∈ Rn et t ∈ [ t0 − α, t0 + α ],
Z t Z t
0
kϕ(t) − ϕ(t0 )k = ϕ (s) ds = f (s, ϕ(s)) ds .
t0 t0
4 Un théorème de régularité
Voici, sans preuve (pour le moment ?) un théorème décrivant la dépen-
dance de la solution par rapport aux conditions initiales où à d’éventuels
paramètres.
15
par rapport à y si k = 0. Pour tout (t0 , y0 , λ0 ) ∈ W , on note ϕ(t, y0 , λ0 )
l’unique solution maximale de l’équation
y 0 = f (t, y, λ0 )
telle que ϕ(t0 , y0 , λ0 ) = y0 . On note J(y0 ,λ0 ) l’intervalle ouvert sur lequel
cette solution est définie. On pose
Alors
1. Ω est un ouvert de R × Rn × Rp ,
2. l’application ϕ : Ω → Rn donnée par (t, y0 , λ0 ) 7→ ϕ(t, y0 , λ0 ) est de
classe C k , et de classe C k+1 par rapport à t.
16
C’est le nom donné traditionnellement aux équations différentielles défi-
nies par une fonction f (t, y) qui dépend de façon affine de y. En identifiant,
comme d’habitude, une application linéaire à sa matrice dans la base cano-
nique, on adopte dans ce chapitre les notations suivantes. On note M(n, R)
l’espace vectoriel des matrices n × n à coefficients réels. Si on a fixé une
norme sur Rn , on munit M(n, R) de la norme d’application linéaire corres-
pondante.
Si I est un intervalle ouvert de R et si A : I → M(n, R) et b : I → Rn sont
deux applications continues, on considère l’équation différentielle
Proposition 1.1 Par tout point (t0 , y0 ) ∈ I × Rn passe une unique solution
globale.
1
valeur y. Autrement dit, pour y ∈ Rn , Ft0 (y) est une fonction dérivable sur
I vérifiant Ft0 (y)(t0 ) = y et, pour tout t ∈ I, (Ft0 (y))0 (t) = A(t)Ft0 (y)(t) +
b(t).
2
On en déduit
Rt
kA(s)k ds
kFt0 (y0 )(t)k = g(t) ≤ G(t) ≤ ky0 ke t0
Remarques
1. Pour toute ϕ ∈ S, si ϕ n’est pas la fonction nulle, alors, pour tout
t ∈ I, ϕ(t) 6= 0.
2. Si (v1 , · · · , vn ) est une base de Rn et t0 ∈ I, (Ft0 (v1 ), · · · , Ft0 (vn )) est
une base de S. On parle plutôt de système fondamental de solutions
de (E).
3
Théorème 1.7 (Théorème de Liouville) Soit X(t) une matrice de so-
lutions de (E) et W (t) son wronskien. Alors
1. W (t) vérifie l’équation différentielle scalaire du premier ordre
W 0 (t) = tr A(t)W (t)
où tr A(t) désigne la trace de la matrice A(t).
2. Pour t, t0 ∈ I, Rt
tr A(s) ds
W (t) = W (t0 )e t0 .
Si chaque Cj (t) est une solution ϕj (t) de (E), U (t) est le wronskien et la
formule s’écrit
n
X
W 0 (t) = det(ϕ1 (t), · · · , ϕj−1 (t), A(t)ϕj (t), ϕj+1 (t), · · · , ϕn (t))
j=1
4
On reprend les notations introduites ci-dessus et on note Xt0 (t) la matrice
de solutions dont la jème colonne est Ft0 (ej ) où (e1 , · · · , en ) est la base
canonique de Rn . C’est un système fondamental de solutions de (E). On
peut aussi voir Xt0 comme la solution de (E) e vérifiant la condition initiale
Xt0 (t0 ) = In (matrice identité de dimension n).
Preuve Si on pose ϕ(t) = Xt0 (t)y, on a ϕ0 (t) = Xt00 (t)y = A(t)Xt0 (t)y =
A(t)ϕ(t). Ceci montre que ϕ ∈ S. D’autre part ϕ(t0 ) = In y = y, donc ϕ est
la solution de (E) de condition initiale (t0 , y), c’est donc Ft0 (y).
5
Preuve
1. Par définition, si (e1 , · · · , en ) est la base canonique de Rn , εt ◦ Fs (ej )
est la valeur en t de la solution de (E) qui prend en s la valeur ej , mais
cette solution constitue, toujours par définition, la j-ième colonne de
Xs (t). Donc Xs (t) est la matrice de εt ◦ Fs dans la base canonique.
Mais Xs (t) = Xs (t)Xs (s)−1 = R(t, s).
2. Les diverses affirmations se déduisent immédiatement des définitions.
3. La première affirmation se déduit de R(t, s) = Xs (t) et la deuxième
s’obtient en appliquant le théorème de Liouville avec t0 = s en remar-
quant que le wronskien de Xs (t) vaut 1 en t = s.
6
soit la solution de (E) de condition initiale (t0 , y0 ). Ce dernier point demande
ψ(t0 ) = y0 . Pour satisfaire la première exigence on dérive :
ϕ0 (t) = A(t)R(t, t0 )ψ(t) + R(t, t0 )ψ 0 (t) = A(t)ϕ(t) + R(t, t0 )ψ 0 (t).
On voit alors que ϕ est solution de (E) si et seulement si R(t, t0 )ψ 0 (t) = b(t)
ou encore ψ 0 (t) = R(t, t0 )−1 b(t) = R(t0 , t)b(t). On en déduit
Z t Z t
ψ(t) = y0 + ψ 0 (s) ds = y0 + R(t0 , s)b(s) ds
t0 t0
puis
Ft0 (y0 )(t) = R(t, t0 )ψ(t)
Z t
= R(t, t0 )y0 + R(t, t0 ) R(t0 , s)b(s) ds
t0
Z t
= R(t, t0 )y0 + R(t, s)b(s) ds
t0
2 Équations autonomes
On rappelle maintenant comment résoudre explicitement une équation
à coefficients constants y 0 = Ay où A ∈ M(n, R). On peut alors expliciter
la résolvante d’un tel système et, en appliquant le théorème 1.14, résoudre
explicitement toute équation y 0 = Ay + b(t) si A ∈ M(n, R) et b ∈ C 0 (I, Rn ).
Preuve L’espace M(n, R) est complet (il est de dimension finie) et la majo-
kAp k kAkp
ration ≤ , due au choix de la norme indiqué en début de chapitre,
p! p!
montre que la série considérée est normalement convergente. Elle est donc
convergente. L’inégalité s’obtient par passage à la limite dans l’inégalité cor-
respondante pour les sommes partielles.
7
Proposition 2.2 1. Si A, B ∈ M(n, R) commutent, alors
eA+B = eA eB .
8
0 −θ 0 −1
D’autre part A + B = = θJ2 où J2 = . On établit,
θ 0 1 0
par récurrence, que (A + B)2n = (−1)n θ2n I2 et (A + B)2n+1 = (−1)n θ2n+1 J2
et on en déduit que
cos θ − sin θ
eA+B =
sin θ cos θ
qui est manifestement distinct de eA eB . L’explication est :
0 0 −θ2 0
AB = 6 BA =
=
0 −θ2 0 0
U (t0 + h) − U (t0 )
− et0 A A ≤ kAk2 e(|t0 |+1)kAk |h|
h
quantité qui tend vers 0 avec h. Ceci montre que U (t) est dérivable en t0 et
que U 0 (t0 ) = et0 A A = Aet0 A puisque A et t0 A commutent. La valeur obtenue
pour U 0 (t) montre que c’est une fonction dérivable et, par récurrence, on voit
que U est C ∞ et aussi que U (p) (t) = Ap etA .
9
2.2 Calcul d’une base de V
Proposition 2.5 1. Pour t0 ∈ R et y0 ∈ Rn , la solution de y 0 = Ay de
condition initiale (t0 , y0 ) est
ϕ(t, y0 ) = e(t−t0 )A y0 .
2. Si (v1 , · · · , vn ) est une base de Rn , alors (etA v1 , · · · , etA vn ) est une base
de V , ou encore un système fondamental de solutions de (E).
3. La résolvante de (E) est
R(t, t0 ) = e(t−t0 )A .
10
p−1 k k
X
tN t N
Or e = puisqu’à partir de p les puissances de N sont
k!
k=0
nulles. On obtient finalement
p−1 k k
X
t(λIn +N ) λt t N
e =e
k!
k=0
11
(<ϕC )0 (t). Le même discours étant valable pour la partie imaginaire, on voit
que la connaissance d’une solution à valeurs complexes fournit, en prenant
la partie réelle et la partie imaginaire, deux solutions réelles.
En recopiant les points correspondants de l’étude précédente, on montre
que VC = {ϕ : R → Cn | ϕ0 (t) = Aϕ(t)} est un C-espace vectoriel de
dimension n et que si (v1 , · · · , vn ) est une base de Cn , alors (etA v1 , · · · , etA vn )
est une base de VC . Mais cette fois l’algèbre linéaire nous dit que, si le
Ys
P
polynôme caractéristique de A est P (λ) = (λ − λj )rj (et donc sj=1 rj =
L j=1
n), on a Cn = sj=1 ker(A − λj In )rj . Il est donc possible de déterminer une
base de Cn formée de vecteurs auxquels on peut appliquer le lemme 2.6. On
obtient de cette façon une base de VC constituée de fonctions de la forme
eλj t p(t) où λj est une valeur propre de A et p un polynôme à coefficients
dans Cn de degré ≤ rj − 1. Chaque fois que λj est réel p l’est aussi et la
solution correspondante appartient à V . Si λj = αj + iβj (avec βj 6= 0),
la partie réelle et la partie imaginaire sont des éléments de V de la forme
eαj t [q(t) cos βj t + q̃(t) sin βj t] où q et q̃ sont des polynômes de degré ≤ rj − 1.
Bien sûr λ̄j (qui est aussi valeur propres de A) fournit les mêmes éléments
de V .
12
2.3 Cas d’une équation scalaire d’ordre n
Il s’agit dans ce paragraphe d’étudier une équation scalaire d’ordre n de
la forme
(e) an y (n) + an−1 y (n−1) + · · · + a0 y = f (t)
où les ai ∈ R, avec an 6= 0, et f : I → R est une fonction continue. On
sait transformer cette équationen le système d’ordre 1 et de dimension
0 1 ··· 0
0 0 1 ···
aj−1
0 ..
n, Y = AY + b(t) où A = . avec cj = − et
an
0 0 ··· 1
c1 c2 · · · cn
0
..
.
b(t) = . La matrice A est appelée « matrice compagnon », pour
0
1
an f (t)
indiquer son origine et sa forme particulière.
Il est cependant possible et instructif d’étudier directement les solutions
(à valeurs complexes d’abord) de l’équation sans passer par le système as-
socié. Pour cela, on introduit l’opérateur différentiel :
X dj n
d
P( ) = aj j .
dt dt
j=1
13
A l’aide de la formule de Leibnitz, on en déduit
Xq
d q λt q
P ( )(t e ) = P (k) (λ)tq−k eλt .
dt k
k=0
14
Cette condition demande aux µ0j d’être solutions d’un système linéaire dont
le déterminant est W (t), donc non nul. On peut alors déterminer de façon
unique les µ0j , puis (par intégation) les µj et obtenir une solution particulière
de (e) donnée par la formule
n
X
(p) ϕ(t) = µj (t)ϕj (t).
j=1
15
On se propose d’étudier la régularité de ϕ, en particulier sa dépendance
pa rapport à y. Pour ce dernier point, remarquons, que, en supposant que
cela a un sens, on obtient en dérivant (1) par rapport à y,
∂ϕ
D2 (t, y) = D2 f (t, ϕ(t, y)) ◦ D2 ϕ(t, y).
∂t
En utilisant le théorème de Schwarz ceci s’écrit aussi, pour tout y ∈ V ,
∂
(2) (D2 ϕ(t, y)) = D2 f (t, ϕ(t, y)).D2 ϕ(t, y)
∂t
que l’on peut encore interprêter de la façon suivante. Définissons les fonctions
Jy → M(n, R) par X(t) = D2 ϕ(t, y) et A(t) = D2 f (t, ϕ(t, y)). Puisque,
pour tout y ∈ V , ϕ(t0 , y) = y, on a D2 ϕ(t0 , y) = IdRn et donc X(t0 ) = In .
Jointe à la formule (2) cette propriété traduit le fait que X(t) est sur Jy la
résolvante R(t, t0 ) de l’équation linéaire X 0 = A(t)X. Cette équation gère
« la variation » de la fonction ϕ dans la direction y en fonction de celle de f
dans la direction y mais « le long de la solution ϕ(t, y) ». Elle porte le nom
d’équation aux variations (ou parfois variationnelle) le long de la solution
ϕ(t, y).
16
En particulier, pour tout (t, y) ∈ I0 × Bf (y0 , δ), on a kf (t, y)k ≤ εky − y0 k.
Posons E = C 0 (I0 , Bf (y0 , δ)) muni de la distance d∞ . C’est un espace
métrique (mais pas vectoriel !) complet.
Pour y ∈ Bf (y0 , 2δ ), définissons une application Φy sur E en posant pour
g ∈ E, Z t
Φy (g)(t) = y + f (s, g(s)) ds.
t0
La fonction Φy (g) est clairement définie sur I0 et, puisque kf (s, g(s))k ≤
εkg(s) − y0 k ≤ ε 2δ , elle vérifie, pour tout t ∈ I0 ,
Z t
δ δ
kΦy (g)(t) − y0 k ≤ ky − y0 k + k f (s, g(s)) dsk ≤ + ε`
t0 2 2
et donc
d∞ (Φy (g1 ), Φy (g2 )) ≤ ε`d∞ (g1 , g2 ).
Comme `ε < 1, cela montre que Φy est contractante et a donc un unique
point fixe g̃y ∈ E. La fonction continue g̃y vérifie donc, pour tout t ∈ I0 ,
Z t
g̃y (t) = y + f (s, g̃y (s)) ds
t0
ce qui montre d’une part que g̃y (t0 ) = y et d’autre part que g̃y est dérivable
dans I0 , sa dérivée vérfiant dans I0 , g̃y0 (t) = f (t, g̃y (t)).
Le théorème de Cauchy-Lipschitz et la définition de ϕ imposent alors Jy ⊃ I0
et g̃y (t) = ϕ(t, y)|I0 . Puisque y est arbitraire dans Bf (y0 , 2δ ), la définition
17
gn = Φy (gn−1 ), alors pour tout n ≥ 1,
(ε`)n
(?)n d∞ (g̃y , gn ) ≤ d∞ (g1 , g0 ).
1 − ε`
Z t
On a g1 (t) = y + f (s, y0 ) ds = y (ne pas oublier les hypothèses de ce cas
t0
particulier...) et g1 est donc aussi une fonction constante. La relation (?)1
s’écrit alors
ε`
d∞ (g̃y , g1 ) = sup kϕ(t, y) − yk ≤ ky − y0 k
t∈I0 1 − ε`
kϕ(t, y) − ϕ(t, y0 ) − (y − y0 )k
→0
ky − y0 k
D’autre part f (t, ϕ(t)) = f (t, ϕ(t, y0 ) + R(t, t0 ).ψ(t)) et donc ϕ est solution
de (E) si et seulement si
ψ 0 (t) = R(t0 , t).[f (t, ϕ(t, y0 )+R(t, t0 ).ψ(t))−f (t, ϕ(t, y0 ))−A(t)R(t, t0 )ψ(t)]
18
c’est-à-dire si ψ est solution de l’équation (Ẽ) associée à la fonction f˜ donnée
par :
f˜(t, z) = R(t0 , t).[f (t, ϕ(t, y0 ) + R(t, t0 ).z) − f (t, ϕ(t, y0 )) − A(t)R(t, t0 )z)]
19