PFE2025
PFE2025
Département de Mathématiques
Sous l’encadrement :
Pr. Ahmed SANI
Réalisé par :
Membres de jury :
— Elhame BOUNNITE
— Marwa MIMOUNE Pr.
Pr.
— Hasnae ERRAHMANI
2
3.4 Opérateurs bornés : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.1 Topologies sur les opérateurs bornés : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.2 Spectre d’un opérateur : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.3 Adjoints : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5 Propriétés des opérateurs : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5.1 Opérateurs auto-adjoints : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5.2 Opérateurs compacts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.6 La convergence de la série dans L(X) : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.7 Opérateurs non bornés : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.7.1 Opérateurs fermés : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.8 Opérateurs dissipatifs : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.1 Introduction :
Ce chapitre présente des notions qui seront utilisées dans cette recherche. Il étudie la structure des matrices
carrées.
Définition 1.1.1
On appelle :
— Une matrice carrée d’ordre n : toute matrice (m, n) avec m = n.
— Une matrice triangulaire supérieure (respectivement inférieure) : toute matrice carrée
(aij )1≤i,j≤n telle que : ∀i, j ∈ {1, . . . , n}, i > j ⇒ aij = 0 (matrice triangulaire supérieure) ou
— Une matrice diagonale : toute matrice carrée (aij )1≤i,j≤n telle que :
Remarque 1.1.1: L’ensemble des matrices carrées d’ordre n est noté : Mn (k).
4
1.1.2 Opérateurs sur les matrices :
Définition 1.1.2
Soit K un corps commutatif. Soient A = (aij ) et B = (bij ) deux matrices de Mm,n (K)
— Addition :
(A + B)ij = aij + bij .
— Multiplication scalaire : Soit K un corps commutatif. Soit A = (aij ) une matrice de Mm,n (K)
et λ un élément de K.
(λA)ij = λaij .
— Multiplication matricielle :
n
X
(AB)ij = aik bkj .
k=1
— Transposée :
(AT )ij = aji .
— Inverse : Une matrice A est inversible si et seulement si det A ̸= 0, et dans ce cas :
(A + B) · C = A · C + B · C.
A · (B · C) = (A · B) · C.
Démonstration. Il suffit de vérifier que la multiplication est associative. Pour cela, soient A, B et C trois
éléments de Mn (K). On pose :
A = (aij )1≤i,j≤n , B = (bij )1≤i,j≤n , C = (cij )1≤i,j≤n .
On pose également :
AB = (pij )1≤i,j≤n , BA = (qij )1≤i,j≤n ,
On constate donc que ∀(i, j) ∈ {1, . . . , n}2 , xij = yij . Ainsi, la multiplication est associative. L’élément neutre
est la matrice identité In .
Exemple 1.2: 1. Soient (L, +, ×) un corps commutatif et K un sous-corps de L, alors L peut-être considéré
comme un K-espace vectoriel pour la loi externe définie comme suit,
K ×L→L
(λ, x) 7→ λ · x = λ × x
Par exemple, L = C et K = R, L = R et K = Q ou L = C et K = Q.
En particulier, tout corps K peut-être considéré comme un espace vectoriel sur lui-même.
2. Soit K un corps commutatif, alors pour tout entier n > 1, K n est un K-espace vectoriel pour la loi externe,
K × Kn → Kn
K × K[X] → K[X]
m
X
(λ, P ) 7→ λ · P = (λai )X i
i=1
Pm i
où P = i=1 ai X .
Définition 1.2.1
L’ensemble des éléments inversibles de l’anneau Mn (K), muni du produit matriciel, est un groupe appelé
groupe linéaire d’indice n et noté GLn (K).
Proposition 1.2.1: GLn (K), muni du produit matriciel, est un groupe. Plus précisément :
1. Si A est inversible, alors A−1 est inversible et l’inverse de A−1 est A :
(A−1 )−1 = A.
(A · B)−1 = B −1 · A−1 .
Soit A une matrice appartenant à Mp,q (K). On appelle rang de A le rang de ses vecteurs colonnes
dans K p . On le note rg(A).
Remarque 1.3.1: 1. Deux matrices A et B appartenant à Mp,q (K) sont équivalentes si et seulement si
rg(A) = rg(B).
2. Si A ∈ Mp,q (K), alors rg(A) ≤ min(p, q).
3. Si A ∈ Mn (K), alors A est inversible si et seulement si rg(A) = n.
Théorème 1.3.1
det(A) = (1 × 4) − (2 × 3) = 4 − 6 = −2 ̸= 0
Puisque det(A) ̸= 0, la matrice A est inversible.
2. Calcul du rang
Les vecteurs colonnes de A sont :
1 2
c1 = , c2 =
3 4
Ils sont linéairement indépendants (non colinéaires), donc :
rang(A) = 2
Conclusion
La matrice A est inversible et son rang vaut 2, ce qui correspond bien à sa taille. Cas général
Pour une matrice carrée A de taille n × n :
— Si rang(A) = n, alors A est inversible.
— Si rang(A) < n, alors A n’est pas inversible (det(A) = 0).
Soit K un corps commutatif. Deux matrices A et B de Mm,n (K) sont dites équivalentes s’il existe deux
matrices inversibles P ∈ Mn (K) et Q ∈ Mm (K), telles que :
B = QAP.
Théorème 1.4.1
Théorème important :
Toute matrice A de rang r est équivalente à la matrice canonique :
Ir 0
Jr =
0 0
À la limite k → +∞ :
1 0
A= , rang(A) = 1.
0 0
Le rang chute car Fr = {A | rang(A) ≤ r} est fermé.
2. Ouverture du Rang Soit B singulière et Bϵ sa perturbation :
1 1 1 1
B= , Bϵ = , rang(Bϵ ) = 2.
1 1 1 1+ϵ
— rang(B) = 1.
— rang(Bϵ ) = 2 pour ϵ ̸= 0.
On appelle trace d’une matrice carrée A = (aij ) de Mn (K) l’élément de K, noté tr(A), défini par :
n
X
tr(A) = aii .
i=1
Démonstration. i) Linéarité de la trace (additivité) On sait que A+B = (cij )1≤i,j≤n , où pour tout (i, j) ∈ (1, n2 ),
on a cij = aij + bij . Donc on a
n
X n
X n
X n
X
tr(A + B) = cii = (aii + bii ) = aii + bii = tr(A) + tr(B)
i=1 i=1 i=1 i=1
ii) Linéarité de la trace (homogénéité) On sait aussi que λA = (λaij )1≤i,j≤n , donc on aura :
n
X n
X
tr(λA) = λaii = λ aii = λ tr(A)
i=1 i=1
Donc on aura :
n n n
!
X X X
tr(AB) = cii = aik bki
i=1 i=1 k=1
n n
! n
X X X
= bki aik = dkk = tr(BA)
k=1 i=1 k=1
Donc,
Trace(A) = 4 - 3 + 6 = 7
Exemple :
Pour n = 2, considérons les matrices :
1 0 0 0
A= et B = .
0 0 0 1
On a :
0 0 0 0
AB = et BA = .
1 0 0 0
Ainsi, AB ̸= BA.
Le centre d’une algèbre A, noté Z(A), est l’ensemble des éléments de A qui commutent avec tous les
autres éléments de A. Formellement :
Z(A) = {z ∈ A | ∀a ∈ A, z · a = a · z}.
(z1 + z2 ) · a = z1 · a + z2 · a = a · z1 + a · z2 = a · (z1 + z2 ).
Donc z1 + z2 ∈ Z(A).
2. Stabilité par multiplication : Si z1 , z2 ∈ Z(A), alors pour tout a ∈ A, on a :
Donc z1 · z2 ∈ Z(A).
3. Stabilité par scalaire : Si z ∈ Z(A) et λ est un scalaire, alors pour tout a ∈ A, on a :
(λ · z) · a = λ · (z · a) = λ · (a · z) = a · (λ · z).
Donc λ · z ∈ Z(A).
Ainsi, Z(A) est une sous-algèbre de A.
Soit A une matrice n × n à coefficients dans un corps K. Le commutant de A, noté C(A), est l’ensemble
des matrices B de même taille qui commutent avec A, c’est-à-dire :
Soit A ∈ Mn (R). On dit que la matrice A est inversible lorsqu’il existe une matrice B ∈ Mn (R) telle
que :
A · B = B · A = In .
Dans ce cas, une telle matrice B est unique. On l’appelle l’inverse de A et on la note B = A−1 .
Or la matrice nulle n’est pas inversible, il y a donc une contradiction et A n’est pas inversible.
Démontrer que In + A est inversible.
Il suffit de remarquer (c’est simplement une extension de l’identité remarquable (1 + x)(1 − x) = 1 − x2 ) que
(In + A)(In − A) = In − A + A − A2 = In .
Formule de calcul :
La formule de calcul du déterminant d’une matrice carrée de taille n × n est la suivante :
n
X
det(A) = (−1)i+j · aij · Mij ,
j=1
où :
Théorème 1.8.1
Soit K un corps commutatif, A et B deux matrices carrées d’ordre n à coefficients dans K, et In la
matrice identité. Alors :
1/ det(In ) = 1
2/ det(A × B) = det(A) · det(B)
3/ A est inversible si et seulement si det A ̸= 0
3 1
Exemple 1.9: 1. Matrice 2 × 2 Soit A = . Son déterminant est :
4 2
det(A) = 3 × 2 − 1 × 4 = 2.
1 0 2
2. Matrice 3 × 3 Soit B = −1 3 1. Par la règle de Sarrus :
2 1 0
L3 ← L3 + 2L2
On obtient :
1 2 1 | 1 0 0
5 1
0 1 8 | 2 − 18 0
5
0 0 4 | −1 − 14 1
Conclusion :
La matrice inverse de A est donc :
3 1
− 52
5 5
A−1 = 1
2 − 81 0
− 45 − 51 4
5
est
a−λ b
= (a − λ)(d − λ) − bc = λ2 − (a + d)λ + (ad − bc).
c d−λ
notion :
Soit f : E → E un endomorphisme d’un K-espace vectoriel E. On dit que λ est une valeur propre de f
s’il existe u ∈ E, u =
̸ 0 tel que
f (u) = λ · u.
On dit que u est un vecteur propre de valeur propre λ.
Soit
Eλ = {vecteurs propres de valeur propre λ} ∪ {0}.
Si u est un vecteur propre de f , alors le sous-espace vectoriel Vect(u) est stable par f . Autrement dit,
f (Vect(u)) = Vect(u).
Proposition 1.12.1: Soit f : E → E une application linéaire avec valeur propre λ. Alors Eλ est un
sous-espace vectoriel de E, et dim(Eλ ) ≥ 1.
Donc au ∈ Eλ .
On a donc montré que Eλ est un sous-espace vectoriel. En plus, par définition, comme λ est une valeur
propre de f , il existe un vecteur propre de valeur propre λ. Autrement dit, Eλ contient un élément non nul.
Ceci implique que dim(Eλ ) ≥ 1.
Autrement dit, λ est valeur propre de la matrice A de vecteur propre X si et seulement si AX = λX.
Définition 1.12.2
On appelle valeur propre de A, tout élément λ de K tel qu’il existe un vecteur x ̸= 0 vérifiant :
Ax = λx.
det(A − λI) = 0,
Théorème 1.12.1
es valeurs propres de A sont les racines du polynôme caractéristique, et les vecteurs propres correspon-
dants sont les solutions non triviales de :
(A − λI)x = 0.
1−λ −2
det(A − λI) = = λ2 + 7λ,
4 −8 − λ
qui a pour racines 0 et −7. Les valeurs propres sont donc 0 et −7. Pour déterminer les vecteurs propres
correspondants, remplaçons λ par 0 et −7 dans (A − λI)x = 0, on obtient :
Pour λ = 0 :
1 −2 x1 0
= ,
4 −8 x2 0
Théorème 1.13.1
Le polynôme caractéristique pA (λ) de la matrice A est invariant lorsque l’on remplace A par une matrice
semblable (c.-à-d. pA (λ) = pB (λ) pour B = P −1 AP et P inversible). En effet, B = P −1 AP entraîne :
B − λI = P −1 AP − λI = P −1 (A − λI)P,
d’où
pB (λ) = det(B − λI) = det(P −1 ) · det(A − λI) · det(P ).
Or, det(P −1 ) · det(P ) = det(P −1 P ) = det(I) = 1, donc :
pf (λ) = pM (f ) (λ)
et ce dernier ne dépend pas de la base choisie puisque deux matrices associées à un endomorphisme sont
semblables.
2. Deux matrices semblables ont les mêmes valeurs propres.
2 1
Exemple 1.15: Soit la matrice A = .
−1 0
Son polynôme caractéristique est :
2−X 1
PA (X) = det
−1 −X
= (2 − X)(−X) − (1)(−1)
= X 2 − 2X + 1
= (X − 1)2
Théorème de Cayley-Hamilton :
Théorème 1.15.1
pf (f ) = 0 et pA (A) = 0.
Démonstration. On a
adj(A − λI)
(A − λI) = I.
det(A − λI)
Les éléments de adj(A − λI) sont des déterminants d’ordre n − 1. Une fois développés, ils donnent des polynômes
en λ de degré au plus (n − 1). Donc adj(A − λI) peut être écrit comme une matrice polynomiale :
On écrit (1.4) :
(Bn−1 λn−1 + · · · + B1 λ + B0 )(A − λI) = [(−1)n λn + · · · + c1 λ + c0 ] I.
En égalant les coefficients de λ et en les multipliant respectivement par An , An−1 , ..., A, I, on obtient :
−Bn−1 = (−1)n I · An
Bn−1 A − Bn−2 = cn−1 I · An−1
Bn−2 A − Bn−3 = cn−2 I · An−2
..
.
B1 A − B0 = c1 I · A
B0 A = c0 I · I
Application :
2 1
Utiliser le théorème de Cayley-Hamilton pour déterminer A−1 , lorsque A = .
1 2
B0 = I
B1 = A + c1 I
B2 = A2 + c1 A + c2 I
..
.
Br−1 = Ar−1 + c1 Ar−2 + · · · + cr−1 I.
Alors,
B0 = I
B1 − AB0 = c1 I
B2 − AB1 = c2 I
..
.
Br−1 − ABr−2 = cr−1 I
−ABr−1 = cr I − (Ar + c1 Ar−1 + · · · + cr−1 A + cr I)
= cr I − mA (A)
= cr I.
Le déterminant (noté ici | · |) des deux côtés donne |xI − A||B(x)| = |mA (x)I| = mA (x)n , comme |B(x)| est un
polynôme, |xI − A| divise mA (x)n .
2−x 1
pA (x) = det(A − xI) = = (2 − x)2 − 1 = (1 − x)(3 − x) = x2 − 4x + 3.
1 2−x
A2 − 4A + 3I = 0.
On en déduit :
A(A − 4I) = −3I.
En multipliant des deux côtés par − 31 , on obtient :
1
A − (A − 4I) = I.
3
Ainsi, l’inverse de A
Théorème 1.17.1
Le polynôme minimal mA (x) de A divise tout polynôme qui a pour racine A. En particulier, mA (x)
divise pA (x).
Démonstration. Soit p un polynôme annulé par A, montrons que mA (x) divise p(x).
On utilise la division euclidienne de p(x) par mA (x). On a alors :
pA (x)
mA (x)
Théorème 1.17.2
Les polynômes caractéristique et minimal ont les mêmes facteurs irréductibles. En d’autres termes, si
alors
mA (x) = (x − λ1 )l1 · · · (x − λr )lr
avec 1 ≤ li ≤ ki
Exemple 1.18: Supposons que f (x) soit un polynôme irréductible. Si f (x) | mA (x), alors f (x) | pA (x) car
mA (x) | pA (x). D’autre part, si f (x) | pA (x), alors f (x) | mA (x).
Les théorèmes (1.9) et (1.10) permettent de déterminer de manière effective le polynôme minimal d’une
matrice.
Exemple 1.19: Soit
3 −2 0
A = −2 3 0 .
0 0 5
Théorème 1.19.1
Soient E un K-espace vectoriel et u un endomorphisme de E. On suppose qu’il existe deux polynômes
P1 et P2 , tels que :
i) P1 et P2 sont premiers entre eux, (P1 ∧ P2 = 1).
ii) (P1 P2 )(u) = 0.
Alors E = ker(P1 (u)) ⊕ ker(P2 (u)).
Démonstration. On sait que P1 et P2 sont premiers entre eux, donc d’après le théorème de Bézout, il existe
deux polynômes A et B de K[X], tels que AP1 + BP2 = 1.
Théorème 1.19.2
Soient E un K-espace vectoriel et u un endomorphisme de E. On suppose qu’il existe des polynômes
P1 , P2 , . . . , Pm de K[X], (m ≥ 2), tels que :
i) Les polynômes P1 , P2 , . . . , Pm sont deux à deux premiers entre eux.
ii) (P1 P2 · · · Pm )(u) = 0.
Alors
m
M
E = ker(P1 (u)) ⊕ ker(P2 (u)) ⊕ · · · ⊕ ker(Pm (u)) = ker(Pi (u))
i=1
Corollaire 1.19.1
Soient E un K-espace vectoriel et u un endomorphisme de E. On suppose qu’il existe des polynômes
P1 , P2 , . . . , Pm de K[X], (m ≥ 2), tels que :
1. Les polynômes P1 , P2 , . . . , Pm sont deux à deux premiers entre eux.
2. (P1 P2 · · · Pm )(u) = 0.
Alors
m
M
E = ker(P1 (u)) ⊕ ker(P2 (u)) ⊕ · · · ⊕ ker(Pm (u)) = ker(Pi (u))
i=1
Lemme 1.19.1
Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E. On suppose qu’il existe
deux polynômes P1 et P2 , tels que :
1. P1 et P2 sont premiers entre eux, (P1 ∧ P2 = 1).
2. (P1 P2 )(u) = 0.
Alors
E = ker(P1 (u)) ⊕ Im(P1 (u)) = ker(P2 (u)) ⊕ Im(P2 (u)).
Démonstration.
(P1 P2 )(u) = 0 ⇐⇒ P2 (u) ◦ P1 (u) = 0
⇐⇒ ∀x ∈ E, P2 (u) P1 (u)(x) = 0
⇐⇒ ∀x ∈ E, P1 (u)(x) ∈ ker(P2 (u))
⇐⇒ Im(P1 (u)) ⊆ ker(P2 (u)). □
donc
Comme
alors
Le théorème suivant donne la forme de Jordan d’une matrice dont le polynôme caractéristique est scindé.
λ1 = 2 λ2 = 3
m1 = 2 m2 = 2
n1 = 4 n2 = 3
C’est-à-dire :
— J12 = [2] et J13 = [2] correspondant au 1er cas
2 1
— J12 = correspondant au 2nd cas.
0 2
3 1
On détermine maintenant les J2j correspondants à λ2 = 3. On a J21 = , comme 2 +1 =
0 3 ordre de J21
3 = n2 , on a une seule possibilité J22 = [3].
On en déduit que dimC E2 = 3 = Nombre des J1j d’après le 3) du théorème 1.11 et que dimC E3 = 2 =
Nombre des J2j .
Proposition 1.20.1:1) A est semblable à sa réduite de Jordan J(A) (c.-à-d. P −1 AP = J(A) pour une
certaine matrice inversible P ).
2) A est diagonalisable si et seulement si les racines de son polynôme minimal sont simples.
p(x) = (x − λ1 ) · · · (x − λr )
p(A) = (A − λ1 I) · · · (A − λr I)
Il est à noter que les opérateurs (A − λi I) et (A − λj I) commutent. Montrons alors que l’opérateur p(A) = 0
et ce en vérifiant que p(A)x = 0 pour tout x de E. Comme A est diagonalisable, P E admet une base formée de
vecteurs propres associés aux valeurs propres λi , disons e1 , · · · , en ; donc x = αi ei , il suffit alors de vérifier
que p(A)ei = 0 ∀i = 1, · · · , n.
Prenons ei , et soit λj la valeur propre qui lui est associée. On a alors
1.21 Exercices :
On considère la matrice
1 2 3 14
0 1 5 7
A=
0
.
0 2 7
0 0 0 2
1) A est-elle diagonalisable ?
Le polynôme caractéristique de A est :
1−x 2 3 14
0 1−x 5 7
pA (x) = = (1 − x)2 (2 − x)2 .
0 0 2−x 7
0 0 0 2−x
• E1
On résout le système :
0 2 3 14 x 0
0 0 5 7 y 0
=
0 0 1 7 z 0
0 0 0 1 t 0
alors
y=0
z=0
t=0
x 1
y 0
= x
z 0
t 0
, d’où E1 est engendré par
1
0
0
0
et est de dimension 1, strictement inférieure à la multiplicité algébrique de la vp 1, c’est à dire A n’est pas
diagonalisable.
E2
On est amené à résoudre le système
−x + 2y + 3z + 14t = 0
−y + 5z + 7t = 0
7t = 0
Le 1er cas est à exclure car A n’est pas diagonalisable. mA (x) = (1 − x)2 (x − 2) entraînerait deux blocs
J21 = [2] et J22 = [2] pour la valeur propre 2, ce qui contredirait le 3) du théorème 1.11, qui affirme que le
nombre des J2j est égal à la multiplicité géométrique de 2 c’est à dire dim E2 = 1.
On pouvait aboutir au même résultat en s’assurant que (A − I)2 (A − 2I) est différente de la matrice nulle.
Le 3ème cas est similaire au 2ème cas, c’est à dire mA (x) = (x − 1)(x − 2)2 entraînerait deux blocs J11 = [1]
et J12 = [1] pour la valeur propre 1 ce qui est contradictoire
avec dim E1 = 1. Finalement ce qui reste c’est
2 2 1 1
mA (x) = p(x) = (1 − x) (2 − x) . Donc on a J11 = et
0 1
2 1
0 2
On en déduit que
(A − I)e1 = 0 et (A − I)e2 = e1
alors
(A − I)2 e2 = (A − I)e1 = 0
c’est à dire e2 ∈ ker(A − I)2 et e2 ∈
/ ker(A − I). Déterminons alors ker(A − I)2 on a
0 0 13 49
0 0 5 42
(A − I)2 = 0 0 1 14
0 0 0 1
On résout alors
x 0
2 y
0
(A − I) =
z 0
t 0
, on obtient :
13z + 49t = 0
5z + 42t = 0
z + 14t = 0
t=0
0
On a
(A − 2I)e3 = 0 et (A − 2I)e4 = e3
alors (A − 2I)2 e4 = (A − 2I)e3 = 0 d’où e4 ∈ ker(A − 2I)2 et e4 ∈
/ ker(A − 2I).
Détermination de (A − 2I)2
x 0 1 −4 7 21 x 0
y 0 0 1 −5 28 y 0
(A − 2I)2
z = 0 ⇒ 0 0
=
0 0 z 0
t 0 0 0 0 0 t 0
( ( (
x − 4y + 7z + 21t = 0 x = 4y − 7z − 21t x = 13z − 133t
⇒ ⇒
y − 5z + 28t = 0 y = 5z − 28t y = 5z − 28t
On en déduit que
x 13 −133
= z 5 + t −28
y
z 1 0
t 0 1
Comme ker(A − 2I) est engendré par
13
5
1
0
, le vecteur
−133
−28
0
1
91
35
est un bon candidat pour e4 , on tire alors e3 = (A − 2I)e4 =
7 .
0
Donc "la" matrice de passage recherchée est
2 0 91 −133
0 1 35 −28
P = 0 0 7
0
0 0 0 1
et on a P −1 AP = J(A).
On dit qu’un endomorphisme f (resp. une matrice A) est nilpotent (resp. nilpotente) s’il existe k ∈ N∗
tel que f k = 0 (resp. Ak = 0).
Nous allons démontrer que les endomorphismes nilpotents et les endomorphismes diagonalisables permettent
de décrire tous les endomorphismes dont le polynôme caractéristique est scindé sur K (c’est-à-dire ceux trigo-
nalisables)
Théorème 1.22.1
Soit f un endomorphisme de E tel que χf soit scindé sur K. Alors il existe un unique couple (n, d)
d’endomorphismes tel que :
i) n est nilpotent et d est diagonalisable,
ii) f = n + d,
iii) n ◦ d = d ◦ n.
De plus, on pourrait montrer que d et n sont des polynômes en f . En particulier, si K = C, cette
décomposition existe toujours.
Théorème 1.22.2
Pour toute matrice A ∈ Mn (K) ayant un polynôme caractéristique scindé sur K, il existe une unique
matrice N nilpotente et une unique matrice ∆ diagonalisable telles que
A=N +∆ et N ∆ = ∆N.
Remarque 1.22.1 (Important): Attention ! ∆ est une matrice diagonalisable, pas nécessairement une matrice
diagonale.
Comme ∆ est diagonalisable, alors il existe une matrice inversible P et une matrice diagonale D telles que
D = P −1 ∆P . Si on note N ′ = P −1 N P alors N ′ est encore nilpotente et N ′ D = DN ′ . Une autre façon d’écrire
la décomposition de Dunford est alors P −1 AP = D + N ′ . C’est dire que A est semblable à la somme d’une
matrice diagonale avec une matrice nilpotente.
Corollaire 1.22.1
oit f un endomorphisme avec une décomposition de Dunford f = d+n, avec d diagonalisable, n nilpotent
et d ◦ n = n ◦ d. Alors :
— f diagonalisable ⇐⇒ f = d ⇐⇒ n = 0 ;
— f nilpotent ⇐⇒ f = n ⇐⇒ d = 0.
Lemmes
Lemme 1.22.1
i f est nilpotent, alors 0 est son unique valeur propre et on a
χf (X) = (−1)n X n .
Démonstration. — Notons A la matrice de f dans une base. Comme f est nilpotent, il existe k > 1 tel que
Ak = 0. Cela implique det(Ak ) = 0, donc det(A) = 0. La matrice A n’est donc pas inversible : cela entraîne
que f n’est pas bijectif, et comme f est un endomorphisme, f n’est pas non plus injectif (la dimension de
l’espace de départ égale la dimension de l’espace d’arrivée). Ainsi, ker f ̸= {0}, ce qui est exactement dire
que 0 est une valeur propre de f .
— Supposons que λ soit une valeur propre de f : il existe alors x ̸= 0 tel que f (x) = λx. Par récurrence sur
n, f n (x) = λn x. Or, f est supposé nilpotent, il existe donc k ∈ N∗ tel que f k = 0. D’où λk x = 0, ce qui
implique λk = 0 (car x ̸= 0), donc λ = 0.
Lemme 1.22.2
oit f un endomorphisme de E diagonalisable. On note λ1 , . . . , λr ses valeurs propres et Eλ1 , . . . , Eλr les
sous-espaces propres correspondants. Si F est un sous-espace de E stable par f , alors on a
F = (F ∩ Eλ1 ) ⊕ · · · ⊕ (F ∩ Eλr ).
Démonstration. Soit x ∈ F . Comme x ∈ E = Eλ1 ⊕ · · · ⊕ Eλr , il existe x1 , . . . , xr uniques, avec xi ∈ Eλi pour
1 ≤ i ≤ r, tels que x = x1 + · · · + xr .
Le sous-espace F est stable par f , donc également par P (f ) pour tout polynôme P ∈ K[X]. On rappelle
que comme xi ∈ Eλi alors f (xi ) = λi xi et plus généralement P (f )(xi ) = P (λi )xi . Pour 1 ≤ i ≤ r, on définit
r
Y
Pi (X) = (X − λk ).
k=1
k̸=i
Or Pi (f )(x) ∈ F par stabilité de f , donc xi ∈ F . Ainsi, pour tout 1 ≤ i ≤ r, xi ∈ F ∩ Eλi , d’où le résultat.
Lemme 1.22.3
Si f est diagonalisable et F est un sous-espace vectoriel de E, stable par f , alors la restriction de f à F
est aussi diagonalisable.
Pour une autre preuve, voir la fin du chapitre « Polynômes d’endomorphismes ».
Démonstration. Notons g la restriction de f au sous-espace F : g = f|F qui est bien définie car F est stable par
f . Soient λ1 , . . . , λr les valeurs propres de f . L’endomorphisme f étant supposé diagonalisable, on a
E = Eλ1 ⊕ · · · ⊕ Eλr ,
où les Eλi sont les sous-espaces propres de f . On obtient grâce au lemme 3 que
F = (F ∩ Eλ1 ) ⊕ · · · ⊕ (F ∩ Eλr ).
Or, quel que soit µ ∈ K, ker(g − µidF ) = F ∩ ker(f − µidE ), donc les valeurs propres de g, notées µ1 , . . . , µs ,
appartiennent à l’ensemble {λ1 , . . . , λr }. Ces µi forment exactement l’ensemble des valeurs de {λ1 , . . . , λr } pour
lesquelles F ∩ Eλi ̸= {0}. On a donc
Lemme 1.22.4
oient f et g deux endomorphismes diagonalisables. On suppose que f ◦ g = g ◦ f . Alors il existe une base
commune de vecteurs propres de f et de g.
Autrement dit, si A, B ∈ Mn (K) sont diagonalisables et commutent, alors on peut les diagonaliser dans
une base commune, c’est-à-dire qu’il existe une matrice P ∈ Mn (K) inversible telle que P −1 AP et
P −1 BP soient toutes les deux diagonales.
La base B = B1 ∪ · · · ∪ Br est donc une base de E formée de vecteurs qui sont des vecteurs propres à la fois
pour f et pour g.
Construction :
— Soit χf le polynôme caractéristique de f qui, par hypothèse, est scindé sur K. Notons λi une valeur propre
de f , et mi sa multiplicité en tant que racine du polynôme caractéristique :
r
Y
χf (X) = ± (X − λi )mi .
i=1
— Nous allons définir l’endomorphisme d sur chaque Nλi de la manière suivante : pour tout x ∈ Nλi , on pose
d(x) = λi x.
L’espace vectoriel E étant somme directe des Nλi , d est défini sur E tout entier. En effet, si x ∈ E est
décomposé en x = x1 + · · · + xr avec xi ∈ Nλi (pour 1 ≤ i ≤ r), alors
d(x) = d(x1 + · · · + xr ) = d(x1 ) + · · · + d(xr ) = λ1 x1 + · · · + λr xr .
Pour 1 ≤ i ≤ r, on a di = d|Nλi = λi idNλi .
Exemple :
1/Soient
1 3 1 0 0 3
A= , D̃ = , Ñ = .
0 2 0 2 0 0
Alors on a bien A = D̃ + Ñ , D̃ est diagonale, Ñ est nilpotente (Ñ 2 = 0). Pourtant, ce n’est pas la
décomposition de Dunford car les matrices ne commutent pas : D̃Ñ ̸= Ñ D̃.
La décomposition de Dunford est tout simplement D = A, et N est la matrice nulle. D est bien diagonalisable
(son polynôme caractéristique est scindé à racines simples) mais n’est pas diagonale ; N est nilpotente et DN =
N D.
2/ Calculons la décomposition de Dunford de la matrice :
1 1 1
A = 0 1 1 ∈ M3 (R).
0 0 2
D̃ est diagonale (donc diagonalisable) et Ñ est nilpotente, mais on peut vérifier que les matrices ne commutent
pas : D̃Ñ ̸= Ñ D̃.
2.1 Introduction :
L’exponentielle d’une matrice carrée est une notion importante en mathématiques, notamment en théorie
des systèmes différentiels linéaires et en algèbre linéaire.
Soit A ∈ Mn (C) une matrice carrée complexe d’ordre n. On définit l’exponentielle de A par la série :
∞
X Ak A2 A3
eA = exp(A) = = In + A + + + ···
k! 2! 3!
k=0
0
où In est la matrice identité d’ordre n et A = In par convention.
Théorème 2.1.1
Ak
P∞
Pour toute matrice A ∈ Mn (K), la série k=0 k! est normalement convergente.
On note :
∞
X Ak
exp(A) =
k!
k=0
e 0n = I n
eA = diag(eλ1 , . . . , eλn )
eA = P eB P −1
eA+B = eA eB
33
5. Dérivée de l’exponentielle :
d tA
e = AetA
dt
(utile pour les équations différentielles linéaires).
Exemple 2.2: 1/ Matrice diagonale : Si A est diagonale, eA se calcule directement en exponentiant chaque
terme diagonal.
2 0
Soit A = . Alors :
0 3 2
A e 0
e = .
0 e3
—
−1 A D −1 1 2
2/ Matrice diagonalisable : Si A est diagonalisable (A = P DP ), alors e = P e P . Soit A = .
0 3
1 1 1 0
- Diagonalisation : Valeurs propres λ1 = 1, λ2 = 3. Matrices P = ,D= . - Calcul de eA :
0 1 0 3
1
e e3 − e
A D −1 1 1 e 0 1 −1
e = Pe P = = .
0 1 0 e3 0 1 0 e3
—
3/ Matrice
nilpotente
: Si A est nilpotente (Ak = 0 pour un certain k), la série de l’exponentielle se tronque.
0 1
Soit A = . Comme A2 = 0,
0 0
A 1 1
e =I +A= .
0 1
—
4/ Matrice avec bloc de Jordan : Pour une matrice non diagonalisable, on utilise la décomposition de
Jordan.
2 1 0 1
Soit A = (bloc de Jordan). - Écrire A = 2I + N où N = (nilpotente). - Comme 2I et N
0 2 0 0
commutent :
A 2I N 2 2 1 1
e = e e = e (I + N ) = e .
0 1
Théorème 2.2.1
i deux matrices carrées A et B commutent, c’est-à-dire que :
AB = BA
alors
exp(A + B) = exp(A) exp(B).
où
∞
X Mn
exp(M ) = .
n=0
n!
Finalement :
∞
X Ak
eB = eA eB .
k!
k=0
t t
n
et(A+B) ≈ e n A e n B
M2 M3
exp(M ) = I + M + + + ···
2! 3!
Pour exp(A + B) :
(A + B)2
exp(A + B) = I + (A + B) + + ···
2!
Mais (A + B)2 = A2 + AB + BA + B 2 , et si AB ̸= BA, les termes ne s’annulent pas.
Pour exp(A) exp(B) :
A2 B2
exp(A) exp(B) = I +A+ + ··· I +B+ + ···
2! 2!
Donc en général, exp(A + B) ̸= exp(A) exp(B).
Théorème 2.3.1
onsidérons deux opérateurs A et B, générateurs infinitésimaux de semi-groupes fortement continus sur
un espace de Banach. Sous des hypothèses appropriées (notamment concernant la compatibilité de leurs
domaines), on obtient la convergence remarquable suivante :
t t
n
lim e n A e n B = et(A+B)
n→∞
Cette convergence est dite forte, ce qui signifie qu’elle est valable pour chaque vecteur appartenant au
domaine de l’opérateur somme.
3. Contrôle de l’erreur : Des estimations précises et des inégalités spécifiques (dites de Trotter) permettent
de montrer que l’erreur commise tend vers zéro lorsque n augmente.
Théorème 2.5.1
Si A et B sont des générateurs infinitésimaux de semi-groupes fortement continus et si A+B est également
un générateur infinitésimal (avec un domaine dense), alors pour tout x ∈ X :
n
t t
T S x → et(A+B) x quand n → ∞
n n
Cette formule a des applications importantes en théorie des semi-groupes, en théorie de l’approximation et
en physique mathématique.
Théorème 2.6.1
Sous les hypothèses ci-dessus, pour toute paire de fonctions f, g : R+ → [0, 1] continues, avec f (0) =
g(0) = 1, on a : n
tA tB
lim f g = e−tC
n→∞ n n
au sens fort, où C est l’opérateur associé à la forme quadratique a + b.
T. Kato, Trotter’s product formula for an arbitrary pair of self-adjoint contraction semigroups, Topics in
functional analysis, 185-195, Adv. Math. Suppl. Stud., 3, Academic Press, 1978
T (t) = etA
où etA est l’exponentielle matricielle définie par :
∞
X (tA)n
etA =
n=0
n!
A1/2 = eM/2
car : 2
eM/2 = eM/2 · eM/2 = eM = A
Cas général :
Pour une matrice A diagonalisable (A = P DP −1 ),
on peut calculer :
- La racine carrée : A1/2 = P D1/2 P −1 (si D a des éléments diagonaux positifs).
- L’exponentielle : eA = P eD P −1 , où eD est obtenue en exponentiant chaque valeur propre.
2 0
Exemple 2.7: Soit A = .
0 2
√
2 √0
Alors : - A1/2 = .
0 2
- Si M = ln(2)I (où I est la matrice identité),
ln(2) √
alors :eM = A, et A1/2 = eM/2 = e 2 I = 2I.
Attention :
- Toutes les matrices n’ont pas de racine carrée (par exemple, les matrices nilpotentes non triviales).
- L’exponentielle d’une matrice est toujours inversible, mais une matrice peut avoir une racine carrée sans être
l’exponentielle d’une autre matrice.
Introduction :
Ce chapitre établit les fondements essentiels pour appréhender l’importance des semi-groupes dans l’analyse
des problèmes d’évolution en espace de dimension infinie
Dans ce chapitre, nous introduisons quelques notions et définitions que nous allons utiliser au cours de ce
travail.
Définition 3.1.1
Définition 3.1.2
oit X un espace vectoriel normé. X est de Banach s’il est complet.
Proposition 3.1.1
39
3.1.2 Espace de Hilbert :
Définition 3.1.3
Soit E un K-espace vectoriel (K = R ou C). On appelle produit scalaire sur E une application f :
E × E −→ K possédant les propriétés suivantes :
1. f (x + x′ , y) = f (x, y) + f (x′ , y)
2. f (λx, y) = λf (x, y)
3. f (y, x) = f (x, y)
4. f (x, x) ≥ 0
5. f (x, x) = 0 ⇔ x = 0
∀x, x′ , y ∈ E, λ ∈ K
Définition 3.1.4
e produit scalaire défini sur un espace vectoriel E induit une norme sur E : x 7→ ⟨x, x⟩1/2 = ∥x∥. Dans
ce cas l’espace est dit préhilbertien.
Définition 3.1.5
n espace de Hilbert H est un espace préhilbertien complet
Définition 3.2.1
oit X un espace de Banach (ou de Hilbert), on appelle semi-groupe fortement continu (ou semi-groupe
C0 ) une famille d’opérateurs linéaires (T (t))t≥0 sur X vérifiant :
1. T (0) = I (l’opérateur identité sur X),
2. T (t + s) = T (t)T (s) pour tous t, s ≥ 0 (propriété de semi-groupe),
3. Pour chaque x ∈ X, la fonction t 7→ T (t)x est continue sur [0, ∞[.
C’est une généralisation du concept de semi-groupe de matrices à un cadre infinidimensionnel (comme
des espaces de fonctions).
Exemple 3.3: Soit X = L2 (R), l’espace des fonctions carrées intégrables sur R. On peut définir un semi-groupe
(T (t)) par :
(T (t)f )(x) = f (x + t)
C’est une translation de la fonction vers la gauche. Cette famille d’opérateurs forme un semi-groupe fortement
continu.
Remarque 3.3.1: Les semi-groupes en dimension infinie apparaissent souvent comme solution d’équations
différentielles ou d’évolution dans les espaces de Banach :
d
u(t) = Au(t), u(0) = x
dt
où A est le générateur infinitésimal du semi-groupe.
Proposition 3.3.1: Soit X un espace de Banach et (T (t))t≥0 un semi-groupe fortement continu d’opéra-
teurs linéaires sur X.
t 7→ T (t)x
∥T (t)∥ ≤ M eωt , ∀t ≥ 0
T (t)x − x
Ax = lim+
t→0 t
pour x ∈ D(A), le domaine de définition de A. C’est un opérateur non borné en général.
Lien semi-groupe/générateur : Le semi-groupe T (t) est solution de l’équation différentielle :
d
T (t) = AT (t)
dt
avec condition initiale T (0) = I.
La connaissance de A (le générateur) permet de reconstruire le semi-groupe T (t), et donc la solution
de l’équation différentielle associée :
d
u(t) = Au(t), u(0) = x
dt
⇒ u(t) = T (t)x
Unicité du semi-groupe : Si A est le générateur d’un semi-groupe fortement continu, alors ce semi-groupe
est unique.
résumé 3.3.1: Les semi-groupes en dimension infinie ont des propriétés très similaires aux exponentielles de
matrices, mais adaptés aux opérateurs dans des espaces fonctionnels. Ils sont très utilisés dans la résolution
des :
— équations aux dérivées partielles
— systèmes dynamiques
— équations d’évolution
Dans la suite nous présentons un résultat important concernant les semi-groupes de classe C0 . Il s’agit du
théorème de Hille-Yosida qui donne une caractérisation pour les opérateurs qui soient générateurs de C0 -semi-
groupes.
Définition 3.3.1
L’opérateur
Rλ : X → X
Z +∞
Rλ x = e−λt T (t)x dt
0
Théorème 3.3.1
Soient {T (t)}t≥0 un C0 -semi-groupe et A son générateur infinitésimal. Pour tout λ ∈ C avec Re λ > ω,
on a :
M
∥R(λ, A)n ∥ ≤ , n ∈ N∗ .
(Re λ − ω)n
∥T (t)∥ ≤ M eωt ∀t ≥ 0.
De plus :
M
∥R(λ, A)x∥ ≤ ∥x∥.
Re λ − ω
Il est clair que : Z +∞
d
R(λ, A)x = − te−λt T (t)x dt, ∀x ∈ X
dλ 0
et par récurrence on montre que :
+∞
dn
Z
R(λ, A)x = (−1)n tn e−λt T (t)x dt, ∀x ∈ X et n ∈ N∗ .
dλn 0
De plus, on a l’estimation :
+∞
M ∥x∥
Z
∥R(λ, A)n x∥ ≤ tn−1 e−(Re λ−ω)t dt.
(n − 1)! 0
M
∥R(λ, A)n ∥ ≤ , n ∈ N∗ .
(Re λ − ω)n
Lemme 3.3.1
M
∥R(λ, A)n ∥ ≤ , n ∈ N∗ .
(Re λ − ω)n
De plus :
λAR(λ, A) ∈ B(X) et lim λAR(λ, A)x = Ax, ∀x ∈ D(A).
Re λ→+∞
Démonstration. Soient x ∈ D(A) et λ ∈ C tel que Re λ > ω. Alors R(λ, A)(λI − A)x = x. Si Re λ → +∞ nous
avons :
M
∥λR(λ, A)x − x∥ = ∥R(λ, A)Ax∥ ≤ ∥R(λ, A)∥∥Ax∥ ≤ ∥Ax∥ → 0.
Re λ − ω
D’où il résulte que :
lim λR(λ, A)x = x, ∀x ∈ D(A).
Re λ→+∞
Soit x ∈ X. Puisque D(A) = X, il existe une suite (xn )n∈N ⊂ D(A) telle que xn → x quand n → +∞. Nous
avons :
Re λ − ω
∥xnε − x∥ < ε .
|λ|M + Re λ − ω
Par conséquent :
M
∥λR(λ, A)x − x∥ ≤ ε + ∥Axnε ∥.
Re λ − ω
D’où :
lim sup ∥λR(λ, A)x − x∥ ≤ ε ∀x ∈ X.
Re λ→+∞
Autrement dit :
lim λR(λ, A)x = x, ∀x ∈ X.
Re λ→+∞
Remarque 3.3.2: On peut dire que les opérateurs bornés λAR(λ, A) sont des approximations pour l’opérateur
non borné A.
Définition 3.3.2
a famille {Aλ }λ∈Cω , où Aλ = λAR(λ, A), s’appelle l’approximation généralisée de Yosida de l’opérateur
A.
où les fi (t) sont des fonctions de t et les aij sont des constantes. Si nous imposons aux xi (t) de satisfaire le
système en plus des conditions initiales
(3.1) et (3.2) est appelé problème aux conditions initiales. On peut le formuler sous la forme :
où
Récrivons (3.3) :
dy1
= λ1 y1 + g1 (t); y1 (t0 ) = d1 ,
dt
..
.
dyn = λ y + g (t); y (t ) = d
dt n n n n 0 n
Si les fi (t) sont continues sur un intervalle I contenant t0 , alors chaque problème aux conditions initiales a
une solution unique sur I nommément :
λ (t−t0 )
Rt
y1 (t) = d1 e 1
+ t0 eλ1 (t−τ ) g1 (τ )dτ
..
.
y (t) = d eλn (t−t0 ) + R t eλn (t−τ ) g (τ )dτ
n n t0 n
où λ1 t
e 0 ··· 0
0 eλ 2 t ··· 0
eDt = .
.. .. ..
..
. . .
0 ··· ··· eλ n t
Finalement, on retourne à X(t) :
Z t
X(t) = P eD(t−t0 ) P −1 c + P eD(t−τ ) P −1 f (τ )dτ (3.6)
t0
Exemple 3.2.1
dx1
dt = x2 ; x1 (0) = 6,
dx2
dt = 6x1 − x2 − 7 + 6t;
x2 (0) = 4
′ 0 1 0 6
X (t) = AX(t) + f (t), A = , f (t) = , c=
6 −1 −7 + 6t 4
−x 1
pA (x) = = x2 + x − 6 = (x + 3)(x − 2), λ1 = 2, λ2 = −3
6 −1 − x
−2 1 x 0 1 2 0
= ⇒ y = 2x, V p1 = , D=
6 −3 y 0 2 0 −3
3 1 x 0 1 1 1 3/5 1/5
= ⇒ 3x = −y, V p2 = , P = , P −1 =
6 2 y 0 −3 2 −3 2/5 −1/5
(3.5) donne :
2t Z t 2(t−τ )
1 1 e 0 3/5 1/5 6 1 1 e 0 3/5 1/5 0
X(t) = + dτ
2 −3 0 e−3t 2/5 −1/5 4 0 2 −3 0 e−3(t−τ ) 2/5 −1/5 −7 + 6τ
4e2t + e−3t − t + 1
X(t) =
8e2t − 3e−3t − 1
Théorème 3.3.2
M
∥R(λ, A)n ∥ ≤ , n ∈ N∗
(Re λ − ω)n
Pour λ ∈ Λω , soit {Tλ (t)}t≥0 = {etAλ }t≥0 le semi-groupe uniformément continu engendré par Aλ . Avec le
lemme 2.2 on a :
Considérons l’espace de Banach (D(A), ∥ · ∥D(A) ) et B(D(A), X) l’espace des opérateurs linéaires bornés
sur D(A) à valeurs dans X, muni de la topologie forte. Notons C([0, +∞[, B(D(A), X)) l’espace des fonctions
continues sur [0, +∞[ à valeurs dans B(D(A), X), muni de la topologie de la convergence uniforme sur les
compacts.
Théorème 3.3.3
n opérateur linéaire A est le générateur infinitésimal d’un C0 -semi-groupe de contractions {T (t)}t>0 sur
X si et seulement si :
1. D(A) = X et A est un opérateur fermé,
2. ]0, +∞[⊂ ρ(A) et pour tout λ > 0 on a ∥R(λ, A)∥ ≤ λ1 .
Théorème 3.4.1
Soit T un opérateur sur un Banach X, on a :
1. Pour λ et µ dans une même composante connexe de ρ(T ), Rλ (T ) − Rµ (T ) = (λ − µ)Rλ (T )Rµ (T ).
De plus sur cette composante connexe, les résolvantes commutent.
2. λ → Rλ (T ) est analytique sur ρ(T ).
∞
!
X
n
R(z) = Rλ (T ) I + (λ − z) Rλn (T )
i=1
qui converge en norme si |z − λ| < ∥Rλ (T )∥−1 et vérifie R(z)(zI − T ) = (zI − T )R(z) = I d’où R(z) = Rz (T ).
L’égalité de (1) et la commutativité sont immédiates.
3.4.3 Adjoints :
Si X est un espace de Hilbert, on rappelle que si T ∈ L(X) alors ∃!V ∈ L(X) tel que (T (x), y) = (x, V (y)).
On note alors V = T ∗ , c’est l’adjoint de T .
Définition 3.4.2
Théorème 3.5.1
Si T est auto-adjoint alors :
1. σ(T ) est inclus dans R
2. Les sous-espaces propres de T sont orthogonaux
armi les opérateurs bornés, on distingue les opérateurs compacts, et on note leur espace vectoriel K(X).
Ce sont les opérateurs qui envoient les parties bornées de X sur des parties relativement compactes de
Y.
Exemple : Les opérateurs de rang fini sont compacts par le théorème de Riesz.
Proposition 3.5.1
Si (xn ) (suite à valeurs dans un Hilbert H) converge faiblement vers x, et si T est compact, alors T (xn )
converge vers T x au sens de la norme.
Démonstration. La suite ∥xn ∥ est bornée par le théorème de Banach-Steinhaus. On raisonne ensuite par l’ab-
surde.
Proposition 3.5.1 (Stabilité des compacts): — Si (Tn ) est une suite d’opérateurs compacts qui converge
vers T pour la norme d’opérateur, alors T est compact.
— Si T ou S est compact, alors T S est compact.
Proposition 3.5.2 (Caractérisation en dimension separable): Sur un Hilbert séparable, T est compact si
et seulement si il est la limite (au sens de la norme d’opérateur) d’une suite d’opérateurs de rang fini.ub
P∞ k
- La série réelle k=0 ∥A∥ k! converge (vers e∥A∥ ), donc son terme reste est une suite de Cauchy. Ainsi, pour
ϵ > 0, il existe N tel que pour m > n ≥ N ,
m
X ∥A∥k
< ϵ.
k!
k=n+1
- Par conséquent, ∥Sm − Sn ∥ < ϵ, ce qui montre que {Sn } est une suite de Cauchy dans L(X). - Comme L(X)
est complet, {Sn } converge vers un opérateur noté eA .
Continuité Uniforme de eA - L’opérateur eA est une limite d’opérateurs bornés Sn dans L(X), et L(X) est
fermé pour la norme opérateur. Ainsi, eA est également un opérateur borné. - Tout opérateur linéaire borné sur
un espace de Banach est uniformément continu (car ∥eA x − eA y∥ ≤ ∥eA ∥ · ∥x − y∥).
P∞ k
Conclusion - La série k=0 Ak! converge dans L(X) vers eA . - eA est un opérateur linéaire borné, donc
uniformément continu.
Réponse Finale
∞
X Ak
converge toujours vers un opérateur uniformément continu eA ∈ L(X).
k!
k=0
- Opérateur non borné : Un opérateur linéaire T entre espaces de Banach X et Y est dit *non borné*
s’il n’est pas continu, c’est-à-dire s’il n’existe pas de constante C ≥ 0 telle que :
Domaine : Contrairement aux opérateurs bornés, T n’est défini que sur un sous-espace Dom(T ) ⊂ X
(souvent dense).
d
Exemple classique : L’opérateur de dérivation D = dx sur L2 (R), avec Dom(D) = H 1 (R) (les fonctions
2
de carré intégrable dont la dérivée est aussi dans L ).
—
Graphe et fermeture : - Graphe : Le graphe Γ(T ) de T est l’ensemble {(x, T x) | x ∈ Dom(T )} ⊂ X ×Y . -
Opérateur fermé : T est *fermé* si son graphe est fermé dans X ×Y . - Opérateur fermable : Si l’adhérence
de Γ(T ) est le graphe d’un opérateur, ce dernier est appelé *fermeture* de T .
Théorème du graphe fermé : Si T est fermé et Dom(T ) est fermé dans X, alors T est borné (d’où
l’importance des domaines non fermés pour les opérateurs non bornés).
—
Adjoint et symétrie : - Adjoint T ∗ : Pour T dense dans un espace de Hilbert H, l’adjoint est défini par :
Remarque 3.7.1: En effet, les opérateurs non bornés ne peuvent pas engendrer des semi-groupes uniformément
continus sur un espace de Banach X. Cette limitation est liée à la théorie des semi-groupes d’opérateurs et aux
propriétés fondamentales des générateurs infinitésimaux. Voici une explication détaillée :
—
1. Semi-groupes uniformément continus et leur générateur Un semi-groupe {T (t)}t≥0 d’opérateurs linéaires
sur X est dit uniformément continu si :
lim ∥T (t) − I∥ = 0,
t→0+
∞
X (tA)n
T (t) = etA = .
n=0
n!
—
2. Pourquoi les opérateurs non bornés ne peuvent pas engendrer de semi-groupes uniformément continus ?
P∞ n
- Argument clé : Si A est non borné, la série n=0 (tA) n! ne converge pas en norme opérateur, car ∥An ∥ peut
n
croître trop vite (par exemple, ∥A ∥ ∼ n! dans certains cas).
- Conséquence : La condition limt→0+ ∥T (t) − I∥ = 0 échoue. En effet, pour A non borné, ∥T (t) − I∥ peut
même être infini pour tout t > 0.
—
3. Cas des semi-groupes fortement continus (de classe C0 ) Pour les opérateurs non bornés, on se tourne vers
des notions plus faibles de continuité : - Semi-groupe fortement continu : {T (t)} vérifie :
lim ∥T (t)x − x∥ = 0 ∀x ∈ X.
t→0+
Exemple : Le semi-groupe de la chaleur et∆ (où ∆ est le Laplacien) est fortement continu mais pas unifor-
mément continu.
Si l’opérateur est fermé, on garde les mêmes définitions de spectre et résolvante. De plus si l’opérateur est
défini sur un domaine dense, on conserve l’identité de la résolvante. On traitera maintenant avec des opérateurs
fermés dont le domaine de définition est dense.
Définition 3.8.1
Soit T ∈ L(H), T est dissipatif si et seulement si ∀x ∈ H, Im(T x, x) ≤ 0. De plus T est maximal s’il
n’admet pas d’extensions dissipatives non triviales.
Proposition 3.8.1
Soit H un espace de Hilbert et T un opérateur dissipatif sur H. Les propositions suivantes sont équiva-
lentes :
1. ∀z ∈ C+ , z ∈
/ σ(T )
2. ∃z ∈ C+ , z ∈
/ σ(T )
3. T est maximal