0% ont trouvé ce document utile (0 vote)
35 vues51 pages

PFE2025

Le document présente un projet de fin d'études sur l'exponentielle des matrices carrées et sa relation avec la théorie des semi-groupes. Il est structuré en plusieurs sections, incluant des concepts fondamentaux de l'algèbre des matrices, l'exponentielle de matrices et les semi-groupes en dimension infinie. Le projet est réalisé sous l'encadrement du Pr. Ahmed Sani et implique plusieurs membres du jury.

Transféré par

madridiyalatifa
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
35 vues51 pages

PFE2025

Le document présente un projet de fin d'études sur l'exponentielle des matrices carrées et sa relation avec la théorie des semi-groupes. Il est structuré en plusieurs sections, incluant des concepts fondamentaux de l'algèbre des matrices, l'exponentielle de matrices et les semi-groupes en dimension infinie. Le projet est réalisé sous l'encadrement du Pr. Ahmed Sani et implique plusieurs membres du jury.

Transféré par

madridiyalatifa
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université Ibn Zohr

Faculté des Sciences - Agadir

Département de Mathématiques

Projet de Fin d’Études

L’exponentielle des matrices


carrées à la théorie des semi groupes

Sous l’encadrement :
Pr. Ahmed SANI

Réalisé par :
Membres de jury :
— Elhame BOUNNITE
— Marwa MIMOUNE Pr.
Pr.
— Hasnae ERRAHMANI

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


TABLE DES MATIÈRES

1 L’algébre des matrices carrées 4


1.1 Introduction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Structure algébrique : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2 Opérateurs sur les matrices : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Structure de Mm,n (K) : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Groupes des matrices inversibles : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Rang d’une matrice : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.1 Rang et matrices équivalentes : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.1 Topologie : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.2 Fermeture et ouverture : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6.1 Trace d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7.1 Algèbre des matrices carrées : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.7.2 Structure d’algèbre non commutative des matrices carrées : . . . . . . . . . . . . . . . . . 11
1.7.3 Centre d’une Algèbre : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.7.4 Commutant de matrice : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.8.1 Problème d’inversibilité : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.8.2 Le déterminant d’une matrice : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.9.1 Théorème de Gauss : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.10 Calcul de l’inverse de la matrice A : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.11 Polynôme caractéristique : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.14 Propriétés du polynôme caractéristique : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.16 Polynôme minimal : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.21 Exercices : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.22 Décomposition de Dunford : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2 Exponentielle de matrice carrée : 33


2.1 Introduction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4 Application aux matrices : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5 Les résultats de Trotter : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.6 Résultat de Kato sur les semi-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.6.1 Le théorème de Kato : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.6.2 Résultat : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.6.3 Lien entre la racine carrée et l’exponentielle d’une matrice : . . . . . . . . . . . . . . . . . 38

3 Les Semi Groupes En Dimension Infinie : 39


3.1 Rappel sur les espaces de Banach et de Hilbert : . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.1 Espace de Banach : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.2 Espace de Hilbert : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Semi-groupes en dimension infinie : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3.1 Exemples concrets : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3.2 Cas particuliers importants : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3.3 Systèmes d’équations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

2
3.4 Opérateurs bornés : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.4.1 Topologies sur les opérateurs bornés : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.2 Spectre d’un opérateur : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4.3 Adjoints : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5 Propriétés des opérateurs : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5.1 Opérateurs auto-adjoints : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.5.2 Opérateurs compacts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.6 La convergence de la série dans L(X) : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.7 Opérateurs non bornés : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.7.1 Opérateurs fermés : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.8 Opérateurs dissipatifs : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


CHAPITRE 1

L’ALGÉBRE DES MATRICES CARRÉES

1.1 Introduction :

Ce chapitre présente des notions qui seront utilisées dans cette recherche. Il étudie la structure des matrices
carrées.

1.1.1 Structure algébrique :

Définition 1.1.1
On appelle :
— Une matrice carrée d’ordre n : toute matrice (m, n) avec m = n.
— Une matrice triangulaire supérieure (respectivement inférieure) : toute matrice carrée
(aij )1≤i,j≤n telle que : ∀i, j ∈ {1, . . . , n}, i > j ⇒ aij = 0 (matrice triangulaire supérieure) ou

∀i, j ∈ {1, . . . , n}, i < j =⇒ aij = 0 (pour une triangulaire inférieure).

— Une matrice diagonale : toute matrice carrée (aij )1≤i,j≤n telle que :

∀i, j ∈ {1, . . . , n}, i ̸= j =⇒ aij = 0.

Remarque 1.1.1: L’ensemble des matrices carrées d’ordre n est noté : Mn (k).

4
1.1.2 Opérateurs sur les matrices :
Définition 1.1.2

Soit K un corps commutatif. Soient A = (aij ) et B = (bij ) deux matrices de Mm,n (K)
— Addition :
(A + B)ij = aij + bij .
— Multiplication scalaire : Soit K un corps commutatif. Soit A = (aij ) une matrice de Mm,n (K)
et λ un élément de K.
(λA)ij = λaij .
— Multiplication matricielle :
n
X
(AB)ij = aik bkj .
k=1

— Transposée :
(AT )ij = aji .
— Inverse : Une matrice A est inversible si et seulement si det A ̸= 0, et dans ce cas :

AA−1 = A−1 A = Id.

1.1.3 Structure de Mm,n (K) :


Théorème 1.1.1

(Mm,n (K), +, ·) est un espace vectoriel sur K de dimension mn.


Les matrices Mij = (mij ), dont tous les termes sont nuls excepté le terme mij qui égale à 1, forment
une base de Mm,n (K), appelée base canonique.

Proposition 1.1.1: Soit A ∈ Mn,p (K). Alors :


1. Pour λ ∈ K et B ∈ Mn,p (K) :

(λ · A)B = A(λ · B) = λ(A · B).

2. Pour B ∈ Mn,p (K) et C ∈ Mp,r (K) :

(A + B) · C = A · C + B · C.

3. Pour B ∈ Mp,r (K) et C ∈ Mr,s (K) :

A · (B · C) = (A · B) · C.

4. On,p · A = On,r et A · Op,r = On,r .

Proposition 1.1.2: Soit K un corps commutatif quelconque et n un entier quelconque. Alors :


(Mn (K), +, ×, ·) est une K-algèbre

Démonstration. Il suffit de vérifier que la multiplication est associative. Pour cela, soient A, B et C trois
éléments de Mn (K). On pose :
A = (aij )1≤i,j≤n , B = (bij )1≤i,j≤n , C = (cij )1≤i,j≤n .
On pose également :
AB = (pij )1≤i,j≤n , BA = (qij )1≤i,j≤n ,

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


A(BC) = (xij )1≤i,j≤n , (AB)C = (yij )1≤i,j≤n .
Alors : !
n
X n
X n
X n X
X n
xij = aik qkj = aik bkl clj = aik bkl clj ,
k=1 k=1 l=1 k=1 l=1
n n n
! n X
n
X X X X
yij = pil clj = aik bkl clj = aik bkl clj .
l=1 l=1 k=1 k=1 l=1

On constate donc que ∀(i, j) ∈ {1, . . . , n}2 , xij = yij . Ainsi, la multiplication est associative. L’élément neutre
est la matrice identité In .
Exemple 1.2: 1. Soient (L, +, ×) un corps commutatif et K un sous-corps de L, alors L peut-être considéré
comme un K-espace vectoriel pour la loi externe définie comme suit,

K ×L→L

(λ, x) 7→ λ · x = λ × x
Par exemple, L = C et K = R, L = R et K = Q ou L = C et K = Q.
En particulier, tout corps K peut-être considéré comme un espace vectoriel sur lui-même.
2. Soit K un corps commutatif, alors pour tout entier n > 1, K n est un K-espace vectoriel pour la loi externe,

K × Kn → Kn

(λ, x) 7→ λ · x = (λx1 , λx2 , . . . , λxn )


où x = (x1 , x2 , . . . , xn ).
3. Soient K un corps commutatif et K[X] l’anneau des polynômes à coefficients dans K. Alors K[X] est un
K-espace vectoriel pour la loi externe,

K × K[X] → K[X]
m
X
(λ, P ) 7→ λ · P = (λai )X i
i=1
Pm i
où P = i=1 ai X .

1.2.1 Groupes des matrices inversibles :


Soit n ∈ N∗ . L’espace vectoriel Mn (K) = Mn,n (K), muni de la loi produit sur les matrices, est un anneau
unitaire. Cet anneau est non commutatif et non intègre dès que n ≥ 2.

Définition 1.2.1

L’ensemble des éléments inversibles de l’anneau Mn (K), muni du produit matriciel, est un groupe appelé
groupe linéaire d’indice n et noté GLn (K).

Proposition 1.2.1: GLn (K), muni du produit matriciel, est un groupe. Plus précisément :
1. Si A est inversible, alors A−1 est inversible et l’inverse de A−1 est A :

(A−1 )−1 = A.

2. Si A et B sont inversibles, alors AB est inversible et son inverse est B −1 · A−1 :

(A · B)−1 = B −1 · A−1 .

3. Si A est inversible, alors la transposée de A est inversible et :

(At )−1 = (A−1 )t .

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Exemple 1.3: 1. Matrice de rotation :
 
cos θ − sin θ
Rθ = , det(Rθ ) = cos2 θ + sin2 θ = 1 ̸= 0.
sin θ cos θ

- Inverse : Rθ−1 = R−θ .


2. Matrice de dilatation :  
2 0
D= , det(D) = 6 ̸= 0.
0 3
1 
−1 2 0
- Inverse : D = .
0 31
3. Matrice non inversible* (hors de GL2 (R)) :
 
1 2
N= , det(N ) = 0.
2 4

1.3.1 Rang d’une matrice :


Définition 1.3.1

Soit A une matrice appartenant à Mp,q (K). On appelle rang de A le rang de ses vecteurs colonnes
dans K p . On le note rg(A).

Remarque 1.3.1: 1. Deux matrices A et B appartenant à Mp,q (K) sont équivalentes si et seulement si
rg(A) = rg(B).
2. Si A ∈ Mp,q (K), alors rg(A) ≤ min(p, q).
3. Si A ∈ Mn (K), alors A est inversible si et seulement si rg(A) = n.

Théorème 1.3.1

Une matrice carrée A de Mn (K) est inversible si et seulement si rg(A) = n.

Exemple 1.4: Soit la matrice A définie par :


 
1 2
A=
3 4
1. Vérification de l’inversibilité
Calculons son déterminant :

det(A) = (1 × 4) − (2 × 3) = 4 − 6 = −2 ̸= 0
Puisque det(A) ̸= 0, la matrice A est inversible.
2. Calcul du rang
Les vecteurs colonnes de A sont :
   
1 2
c1 = , c2 =
3 4
Ils sont linéairement indépendants (non colinéaires), donc :

rang(A) = 2
Conclusion
La matrice A est inversible et son rang vaut 2, ce qui correspond bien à sa taille. Cas général
Pour une matrice carrée A de taille n × n :
— Si rang(A) = n, alors A est inversible.
— Si rang(A) < n, alors A n’est pas inversible (det(A) = 0).

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Contre-exemple (matrice non inversible)
Soit la matrice B :
 
1 2
B=
2 4
— det(B) = (1 × 4) − (2 × 2) = 0 : B n’est pas inversible.
— rang(B) = 1 (les colonnes sont colinéaires).

1.4.1 Rang et matrices équivalentes :


Définition 1.4.1

Soit K un corps commutatif. Deux matrices A et B de Mm,n (K) sont dites équivalentes s’il existe deux
matrices inversibles P ∈ Mn (K) et Q ∈ Mm (K), telles que :

B = QAP.

La relation R définie sur Mm,n (K) par :

ARB ⇐⇒ A est équivalente à B

est une relation d’équivalence sur Mm,n (K).

Théorème 1.4.1

Soient K un corps commutatif, A et B deux matrices de Mm,n (K). Alors :

rg(A) = rg(B) ⇐⇒ A et B sont équivalentes.

Exemple 1.5: Soient les matrices :    


1 2 1 0
A= , B=
3 6 0 0
1. Calcul du rang
— Pour A :    
1 2
— Les colonnes et sont colinéaires (la seconde est le double de la première).
3 6
— Donc rang(A) = 1.
— Pour B :    
1 0
— Les colonnes et donnent rang(B) = 1.
0 0
2. Équivalence des matrices
Puisque rang(A) = rang(B) = 1, les matrices sont équivalentes. On peut trouver P et Q inversibles telles
que B = P AQ.
Construction explicite :    
1 0 1 −2
P = , Q=
−3 1 0 1
Vérification :
         
1 0 1 2 1 2 1 2 1 −2 1 0
PA = = , P AQ = = =B
−3 1 3 6 0 0 0 0 0 1 0 0

Théorème important :
Toute matrice A de rang r est équivalente à la matrice canonique :
 
Ir 0
Jr =
0 0

où Ir est la matrice identité de taille r.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


1.5.1 Topologie :
Soit K = R ou C. Soit n ≥ 0 et r ∈ {1, . . . , n}. Soit Jr l’ensemble des matrices de Mn (K) de rang r.
— Pour r = n, Jr = GLn (K), qui est ouvert et dense dans Mn (K). GLn (C) est connexe par arcs, tandis que
GLn (R) a deux composantes connexes.
— Pour r < n, Jr est d’intérieur vide, est connexe par arcs, et vérifie :
r
[
Jr = Jk .
k=0

Ainsi, pour 0 < r < n, Jr n’est ni ouvert ni fermé.

1.5.2 Fermeture et ouverture :


— La fermeture : {A ∈ Mn (R) | rg(A) = r}.
— L’ouverture : {A ∈ Mn (R) | rg(A) ≤ r}.
Démonstration. 1. Fermeture du Rang Soit (Ak )k∈N∗ définie par :
 
1 0
Ak = , rang(Ak ) = 2.
0 k1

À la limite k → +∞ :  
1 0
A= , rang(A) = 1.
0 0
Le rang chute car Fr = {A | rang(A) ≤ r} est fermé.
2. Ouverture du Rang Soit B singulière et Bϵ sa perturbation :
   
1 1 1 1
B= , Bϵ = , rang(Bϵ ) = 2.
1 1 1 1+ϵ

L’ensemble Or = {A | rang(A) ≥ r} est ouvert.


Exemple 1.6: Soit la suite de matrices (An ) définie par :
 
1 0
An = , n ∈ N∗
0 n1

— Pour tout n ≥ 1, rang(An ) = 2 (plein rang).


 
1 0
— Mais limn→∞ An = , de rang 1.
0 0
Le rang "se ferme" à la limite.
Ouverture du rang : Approximation par des matrices de plein rang
Toute matrice singulière B peut être approchée par des matrices inversibles. Par exemple :
   
1 1 1 1
B= , Bϵ = , ϵ→0
1 1 1 1+ϵ

— rang(B) = 1.
— rang(Bϵ ) = 2 pour ϵ ̸= 0.

1.6.1 Trace d’une matrice


Définition 1.6.1

On appelle trace d’une matrice carrée A = (aij ) de Mn (K) l’élément de K, noté tr(A), défini par :
n
X
tr(A) = aii .
i=1

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Proposition 1.6.1: Si A ∈ Mn (R), alors tr(A) = tr(At ).
Si A et B ∈ Mn (R) sont semblables, alors tr(A) = tr(B).
Si A et B ∈ Mn (R), alors tr(AB) = tr(BA).
Si A et B ∈ Mn (R) et λ est un scalaire :
— tr(λ · B) = λ · tr(B).

— tr(A + B) = tr(A) + tr(B).


La trace est invariante par similitude :

tr(P −1 AP ) = tr(P −1 P A) = tr(IA) = tr(A).

Démonstration. i) Linéarité de la trace (additivité) On sait que A+B = (cij )1≤i,j≤n , où pour tout (i, j) ∈ (1, n2 ),
on a cij = aij + bij . Donc on a
n
X n
X n
X n
X
tr(A + B) = cii = (aii + bii ) = aii + bii = tr(A) + tr(B)
i=1 i=1 i=1 i=1

ii) Linéarité de la trace (homogénéité) On sait aussi que λA = (λaij )1≤i,j≤n , donc on aura :
n
X n
X
tr(λA) = λaii = λ aii = λ tr(A)
i=1 i=1

iii) Invariance cyclique de la trace On pose :

A = (aij )1≤i,j≤n , B = (bij )1≤i,j≤n


AB = (cij )1≤i,j≤n , BA = (dij )1≤i,j≤n

Alors on sait que :


n
X n
X
cij = aik bkj et dij = bik akj
k=1 k=1

Donc on aura :

n n n
!
X X X
tr(AB) = cii = aik bki
i=1 i=1 k=1
n n
! n
X X X
= bki aik = dkk = tr(BA)
k=1 i=1 k=1

Exemple 1.7: Considérons la matrice suivante A de taille 3 × 3 :


 
4 2 1
A = 0 −3 5
7 0 6

Pour calculer la trace de A, nous additionnons les éléments de la diagonale principale :

Trace(A) = a11 + a22 + a33 = 4 + (−3) + 6

Donc,
Trace(A) = 4 - 3 + 6 = 7

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


1.7.1 Algèbre des matrices carrées :
L’algèbre des matrices carrées est l’ensemble des matrices de taille n × n à coefficients dans un corps K,
muni de trois opérations principales :
1. Addition des matrices.
2. Multiplication des matrices.
3. Multiplication par un scalaire.

1.7.2 Structure d’algèbre non commutative des matrices carrées :


Espace vectoriel : Mn (K) est un espace vectoriel de dimension n × n sur K. Une base canonique est donnée
par les matrices élémentaires Eij .
Addition des matrices : L’addition est définie composante par composante : si A = (aij ) et B = (bij ), alors
A + B = (aij + bij ). L’addition est commutative et associative.
Multiplication par un scalaire : Si λ ∈ K et A = (aij ), alors λA = (λaij ). Cette opération est distributive
par rapport à l’addition des matrices.
Multiplication des matrices : La multiplication est définie par : si A = (ail ) et B = (bkj ), alors A · B =
(cij ), où :
X n
cij = aik · bkj .
k=1
La multiplication est associative mais non commutative, sauf si n = 1.
Anneau non commutatif : Mn (K) forme un anneau non commutatif pour n ≥ 2.

Exemple :
Pour n = 2, considérons les matrices :
   
1 0 0 0
A= et B = .
0 0 0 1
On a :    
0 0 0 0
AB = et BA = .
1 0 0 0
Ainsi, AB ̸= BA.

1.7.3 Centre d’une Algèbre :


Définition 1.7.1

Le centre d’une algèbre A, noté Z(A), est l’ensemble des éléments de A qui commutent avec tous les
autres éléments de A. Formellement :

Z(A) = {z ∈ A | ∀a ∈ A, z · a = a · z}.

Démonstration. 1. Stabilité par addition : Si z1 , z2 ∈ Z(A), alors pour tout a ∈ A, on a :

(z1 + z2 ) · a = z1 · a + z2 · a = a · z1 + a · z2 = a · (z1 + z2 ).

Donc z1 + z2 ∈ Z(A).
2. Stabilité par multiplication : Si z1 , z2 ∈ Z(A), alors pour tout a ∈ A, on a :

(z1 · z2 ) · a = z1 · (z2 · a) = z1 · (a · z2 ) = (z1 · a) · z2 = (a · z1 ) · z2 = a · (z1 · z2 ).

Donc z1 · z2 ∈ Z(A).
3. Stabilité par scalaire : Si z ∈ Z(A) et λ est un scalaire, alors pour tout a ∈ A, on a :

(λ · z) · a = λ · (z · a) = λ · (a · z) = a · (λ · z).

Donc λ · z ∈ Z(A).
Ainsi, Z(A) est une sous-algèbre de A.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


1.7.4 Commutant de matrice :
Définition 1.7.2

Soit A une matrice n × n à coefficients dans un corps K. Le commutant de A, noté C(A), est l’ensemble
des matrices B de même taille qui commutent avec A, c’est-à-dire :

C(A) = {B ∈ Mn (K) | A · B = B · A}.

Exemple 1.8: Exemples concrets :


— Matrice diagonale : Soit A une matrice diagonale. Le commutant C(A) est l’ensemble des matrices
diagonales par blocs, où chaque bloc correspond à une valeur propre distincte de A. Si toutes les valeurs
propres λi sont distinctes, alors C(A) est l’ensemble des matrices diagonales.
Matrice quelconque : Soit A une matrice quelconque. Le commutant C(A) dépend de la structure de A. Par
exemple :
— Si A est une matrice scalaire, alors C(A) = Mn (K).
— Si A est une matrice cyclique (c’est-à-dire que son polynôme minimal est égal à son polynôme caractéris-
tique), alors C(A) est l’algèbre engendrée par A.
Conclusion : L’algèbre non commutative des matrices carrées est une structure riche et essentielle en
mathématiques et en sciences appliquées. Elle combine des propriétés algébriques, géométriques et analytiques,
et est utilisée pour modéliser et résoudre des problèmes dans de nombreux domaines. Sa non-commutativité en
fait un objet d’étude particulièrement intéressant et complexe.

1.8.1 Problème d’inversibilité :


Définition 1.8.1

Soit A ∈ Mn (R). On dit que la matrice A est inversible lorsqu’il existe une matrice B ∈ Mn (R) telle
que :
A · B = B · A = In .
Dans ce cas, une telle matrice B est unique. On l’appelle l’inverse de A et on la note B = A−1 .

Démonstration. Soit n ≥ 1 et A ∈ Mn (R) tel que A2 = 0.


Démontrer que A n’est pas inversible.
On va faire un raisonnement par l’absurde. Supposons que A est inversible. Alors on a

A2 = 0 =⇒ A−1 A2 = A−1 0 =⇒ (A−1 A)A = 0 =⇒ A = 0.

Or la matrice nulle n’est pas inversible, il y a donc une contradiction et A n’est pas inversible.
Démontrer que In + A est inversible.
Il suffit de remarquer (c’est simplement une extension de l’identité remarquable (1 + x)(1 − x) = 1 − x2 ) que

(In + A)(In − A) = In − A + A − A2 = In .

Ainsi, In + A est inversible, et son inverse est In − A.

1.8.2 Le déterminant d’une matrice :


Le déterminant d’une matrice est un scalaire qui peut être calculé à partir des éléments de la matrice.

Formule de calcul :
La formule de calcul du déterminant d’une matrice carrée de taille n × n est la suivante :
n
X
det(A) = (−1)i+j · aij · Mij ,
j=1

où :

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


— det(A) est le déterminant de la matrice A.
— aij est l’élément de la matrice A à la ligne i et à la colonne j.
— Mij est le mineur de la matrice A, obtenu en supprimant la ligne i et la colonne j.
— (−1)i+j est un facteur de signe qui dépend de la position de l’élément dans la matrice.

Théorème 1.8.1
Soit K un corps commutatif, A et B deux matrices carrées d’ordre n à coefficients dans K, et In la
matrice identité. Alors :

1/ det(In ) = 1
2/ det(A × B) = det(A) · det(B)
3/ A est inversible si et seulement si det A ̸= 0
 
3 1
Exemple 1.9: 1. Matrice 2 × 2 Soit A = . Son déterminant est :
4 2

det(A) = 3 × 2 − 1 × 4 = 2.
 
1 0 2
2. Matrice 3 × 3 Soit B = −1 3 1. Par la règle de Sarrus :
2 1 0

det(B) = 1 · (0 − 1) − 0 · (0 − 2) + 2 · (−1 − 6) = −15.

1.9.1 Théorème de Gauss :


Définition 1.9.1
a méthode pour inverser une matrice A consiste à faire des opérations élémentaires sur les lignes de la
matrice A jusqu’à la transformer en la matrice identité I. On fait simultanément les mêmes opérations
élémentaires en partant de la matrice I. On aboutit alors à une matrice qui est A−1 .
En pratique, on fait les deux opérations en même temps en adoptant la disposition suivante : à côté de
la matrice A que l’on veut inverser, on rajoute la matrice identité pour former un tableau (A | I). Sur
les lignes de cette matrice augmentée, on effectue des opérations élémentaires jusqu’à obtenir le tableau
(I | B), et alors B = A−1 .

Opérations élémentaires sur les lignes :


Les opérations élémentaires sur les lignes sont :
1. Li =⇒ λLi avec λ ̸= 0 :
On peut multiplier une ligne par un réel non nul (ou un élément de K \ {0}).
2. Li =⇒ Li + λLj avec λ ∈ K et j ̸= i :
On peut ajouter à la ligne Li un multiple d’une autre ligne Lj .
3. Li ⇐⇒ Lj :
On peut échanger deux lignes.

1.10 Calcul de l’inverse de la matrice A :


Soit la matrice A définie par :  
1 2 1
A = 4 0 −2
2 2 2
On commence par écrire la matrice augmentée (A|I) :
 
1 2 1 | 1 0 0
4 0 −2 | 0 1 0
2 2 2 | 0 0 1

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Étape 1 : Appliquer la méthode de Gauss :
On applique la méthode de Gauss pour faire apparaître des zéros sous la première colonne.
— Opération sur la 2e ligne : L2 ← L2 − 4L1
— Opération sur la 3e ligne : L3 ← L3 − 2L1
On obtient :  
1 2 1 | 1 0 0
0 −8 −5 | −4 1 0
0 −2 0 | −2 0 1

Étape 2 : Normaliser la 2e ligne


On fait apparaître un 1 en début de 2e ligne en divisant la ligne par −8 :
1
L2 ← L2
−8
On obtient :  
1 2 1 | 1
0 0
5 1 1
0 1 8 | 2 − 8 0
0 −2 0 | −2 0 1

Étape 3 : Éliminer les éléments sous le pivot de la 2e ligne


On élimine l’élément −2 dans la 3e ligne sous le pivot de la 2e ligne :

L3 ← L3 + 2L2

On obtient :  
1 2 1 | 1 0 0
5 1
0 1 8 | 2 − 18 0
5
0 0 4 | −1 − 14 1

Étape 4 : Normaliser la 3e ligne


5
On normalise la 3e ligne en divisant par 4 :
4
L3 ← L3
5
On obtient :  
1 2 1 | 1 0 0
5 1
0 1
8 | 2 − 18 0
0 0 1 | − 45 − 15 4
5

Étape 5 : Éliminer les éléments au-dessus des pivots


On élimine les éléments au-dessus des pivots pour obtenir la matrice identité à gauche.
— Opération sur la 1re ligne : L1 ← L1 − 2L2
— Opération sur la 2e ligne : L2 ← L2 − 58 L3
On obtient finalement :
3 1
− 25
 
1 0 0 | 5 5
1
0 1 0 | 2 − 18 0 
0 0 1 | − 45 − 15 4
5

Conclusion :
La matrice inverse de A est donc :
3 1
− 52
 
5 5
A−1 =  1
2 − 81 0 
− 45 − 51 4
5

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


1.11 Polynôme caractéristique :
Définition 1.11.1

Le polynôme caractéristique d’une matrice carrée A ∈ Mn (K) est défini par :

PA (λ) = det(A − λIn )

où In est la matrice identité de taille n × n et λ est une variable scalaire.


Ce polynôme joue un rôle central en algèbre linéaire, notamment pour étudier les valeurs propres et la
diagonalisation de A.

Exemple 1.12: Le polynôme caractéristique de


 
a b
c d

est
a−λ b
= (a − λ)(d − λ) − bc = λ2 − (a + d)λ + (ad − bc).
c d−λ

notion :
Soit f : E → E un endomorphisme d’un K-espace vectoriel E. On dit que λ est une valeur propre de f
s’il existe u ∈ E, u =
̸ 0 tel que
f (u) = λ · u.
On dit que u est un vecteur propre de valeur propre λ.
Soit
Eλ = {vecteurs propres de valeur propre λ} ∪ {0}.
Si u est un vecteur propre de f , alors le sous-espace vectoriel Vect(u) est stable par f . Autrement dit,

f (Vect(u)) = Vect(u).

La direction de u est préservée par f .

Proposition 1.12.1: Soit f : E → E une application linéaire avec valeur propre λ. Alors Eλ est un
sous-espace vectoriel de E, et dim(Eλ ) ≥ 1.

Démonstration. On montre que :


— Eλ contient le vecteur 0 ;
— Si u1 , u2 ∈ Eλ , alors u1 + u2 ∈ Eλ ;
— Si u ∈ Eλ , et si a ∈ K, alors au ∈ Eλ .
Par définition, Eλ contient 0. Si u1 et u2 ∈ Eλ , alors

f (u1 + u2 ) = f (u1 ) + f (u2 ) = λu1 + λu2 = λ(u1 + u2 ).

Donc u1 + u2 ∈ Eλ . En plus, si u ∈ Eλ et a ∈ K, alors

f (au) = af (u) = a(λu) = λ(au).

Donc au ∈ Eλ .
On a donc montré que Eλ est un sous-espace vectoriel. En plus, par définition, comme λ est une valeur
propre de f , il existe un vecteur propre de valeur propre λ. Autrement dit, Eλ contient un élément non nul.
Ceci implique que dim(Eλ ) ≥ 1.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Définition 1.12.1
Soit f un endomorphisme d’un espace vectoriel E sur un corps K. On définit le spectre de f par :

Spec(f ) = {λ ∈ K | λ est une valeur propre de f }.

(Spec(f ) est le spectre de f ).


On va définir maintenant les valeurs propres et vecteurs propres des matrices.
Soit B une base de E, et A = Mat(f ; B). On dit que λ est une valeur propre de A si λ est une valeur
propre de f .
Soit u ∈ E, et X = Mat(u; B). On dit que X est un vecteur propre de valeur propre λ de A si u est un
vecteur propre de valeur propre λ de f .

Autrement dit, λ est valeur propre de la matrice A de vecteur propre X si et seulement si AX = λX.

Définition 1.12.2
On appelle valeur propre de A, tout élément λ de K tel qu’il existe un vecteur x ̸= 0 vérifiant :

Ax = λx.

L’équation Ax = λx est équivalente à :


(A − λI)x = 0.
On sait que (A − λI)x = 0 n’a pas de solution triviale si et seulement si :

det(A − λI) = 0,

où det désigne le déterminant. Si l’on développe le déterminant, on trouve un polynôme de degré n en


λ, appelé le polynôme caractéristique de A et noté pA (λ) ; c’est-à-dire :

pA (λ) = det(A − λI).

Théorème 1.12.1
es valeurs propres de A sont les racines du polynôme caractéristique, et les vecteurs propres correspon-
dants sont les solutions non triviales de :

(A − λI)x = 0.

Exemple 1.13: Trouver les valeurs et vecteurs propres de la matrice


 
1 −2
A= .
4 −8

Le polynôme caractéristique est

1−λ −2
det(A − λI) = = λ2 + 7λ,
4 −8 − λ

qui a pour racines 0 et −7. Les valeurs propres sont donc 0 et −7. Pour déterminer les vecteurs propres
correspondants, remplaçons λ par 0 et −7 dans (A − λI)x = 0, on obtient :

Pour λ = 0 :     
1 −2 x1 0
= ,
4 −8 x2 0

c’est-à-dire x1 = 2x2 , donc


   
x1 2
= x2 .
x2 1

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Pour λ = −7 :    
x1 1
= x1 .
x2 4

Théorème 1.13.1

Si A ∈ Mn (K) et λ ∈ K, alors on a les équivalences :


1. λ est une valeur propre de A.
2. (A − λI) n’est pas inversible.
3. det(A − λI) = 0.

1) ⇒ 2) λ est une valeur propre de A ⇒ ∃x ̸= 0E tel que Ax = λx, c’est-à-dire Ax − λx = 0E


Démonstration.
d’où (A − λI)x = 0E , (∗) ce qui entraîne que (A − λI) n’est pas inversible, car si (A − λI) était inversible,
en multipliant (∗) par (A − λI)−1 on aurait x = 0E .
2) ⇒ 3) Trivial.

1.14 Propriétés du polynôme caractéristique :


Théorème 1.14.1

Le polynôme caractéristique pA (λ) de la matrice A est invariant lorsque l’on remplace A par une matrice
semblable (c.-à-d. pA (λ) = pB (λ) pour B = P −1 AP et P inversible). En effet, B = P −1 AP entraîne :

B − λI = P −1 AP − λI = P −1 (A − λI)P,

d’où
pB (λ) = det(B − λI) = det(P −1 ) · det(A − λI) · det(P ).
Or, det(P −1 ) · det(P ) = det(P −1 P ) = det(I) = 1, donc :

pB (λ) = det(A − λI) = pA (λ).

Remarque 1.14.1: 1. Si f est un endomorphisme de E et M (f ) la matrice associée à f , lorsque E est muni


d’une base, on peut définir le polynôme caractéristique de f par

pf (λ) = pM (f ) (λ)

et ce dernier ne dépend pas de la base choisie puisque deux matrices associées à un endomorphisme sont
semblables.
2. Deux matrices semblables ont les mêmes valeurs propres.
 
2 1
Exemple 1.15: Soit la matrice A = .
−1 0
Son polynôme caractéristique est :
 
2−X 1
PA (X) = det
−1 −X
= (2 − X)(−X) − (1)(−1)
= X 2 − 2X + 1
= (X − 1)2

Application à notre exemple :


A2 − 2A + I2 = 0
Vérification :        
3 2 2 1 1 0 0 0
−2 + =
−2 −1 −1 0 0 1 0 0

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


 
1 2 0
Soit B = 0 3 0.
2 −4 2
 
1−X 2 0
PB (X) = det  0 3−X 0 
2 −4 2−X
   
3−X 0 0 0
= (1 − X) det − 2 det +0
−4 2−X 2 2−X
= (1 − X)(3 − X)(2 − X)
= −X 3 + 6X 2 − 11X + 6

Théorème de Cayley-Hamilton :

Théorème 1.15.1

Pour tout endomorphisme f de E (dimK E = n) et toute matrice A de Mn (K), on a

pf (f ) = 0 et pA (A) = 0.

Démonstration. On a
adj(A − λI)
(A − λI) = I.
det(A − λI)

Comme det(A − λI) = pA (λ), on a


adj(A − λI)(A − λI) = pA (λ)I (1.4)

Les éléments de adj(A − λI) sont des déterminants d’ordre n − 1. Une fois développés, ils donnent des polynômes
en λ de degré au plus (n − 1). Donc adj(A − λI) peut être écrit comme une matrice polynomiale :

adj(A − λI) = Bn−1 λn−1 + Bn−2 λn−2 + · · · + B1 λ + B0 .

On écrit (1.4) :
(Bn−1 λn−1 + · · · + B1 λ + B0 )(A − λI) = [(−1)n λn + · · · + c1 λ + c0 ] I.

En égalant les coefficients de λ et en les multipliant respectivement par An , An−1 , ..., A, I, on obtient :

−Bn−1 = (−1)n I · An
Bn−1 A − Bn−2 = cn−1 I · An−1
Bn−2 A − Bn−3 = cn−2 I · An−2
..
.
B1 A − B0 = c1 I · A
B0 A = c0 I · I

Puis, en sommant toutes ces égalités :

0 = (−1)n An + cn−1 An−1 + · · · + c1 A + c0 I = pA (A).

Application :  
2 1
Utiliser le théorème de Cayley-Hamilton pour déterminer A−1 , lorsque A = .
1 2

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


2−x 1
pA (x) = det
1 2−x
= (2 − x)2 − 1 = (1 − x)(3 − x) = x2 − 4x + 3
pA (A) = A2 − 4A + 3I = 0 ; on en déduit A(A − 4I) = −3I
 
1
c’est à dire A − (A − 4I) = I
3
 
−1 4 1 2/3 −1/3
d’où A = I − A = .
3 3 −1/3 2/3

1.16 Polynôme minimal :


D’après le théorème de Cayley-Hamilton, pA (A) = 0. Nous considérons les polynômes p qui satisfont p(A) =
0. Parmi ces polynômes, on choisit ceux dont le degré est le plus petit, et nous prenons celui dont le coefficient
dominant est 1 (c’est-à-dire, si p(x) = an xn + · · · + a0 avec an ̸= 0, an est appelé coefficient dominant). Ce
polynôme est appelé le polynôme minimal de A, et on le note mA (x)
Démonstration. mA (x) = xr + c1 xr−1 + · · · + cr−1 x + cr .
Considérons :

B0 = I
B1 = A + c1 I
B2 = A2 + c1 A + c2 I
..
.
Br−1 = Ar−1 + c1 Ar−2 + · · · + cr−1 I.

Alors,

B0 = I
B1 − AB0 = c1 I
B2 − AB1 = c2 I
..
.
Br−1 − ABr−2 = cr−1 I
−ABr−1 = cr I − (Ar + c1 Ar−1 + · · · + cr−1 A + cr I)
= cr I − mA (A)
= cr I.

Posons B(x) = xr−1 B0 + xr−2 B1 + · · · + xBr−2 + Br−1 . Alors

(xI − A)B(x) = (xr B0 + xr−1 B1 + · · · + xBr−1 )


− (xr−1 AB0 + xr−2 AB1 + · · · + ABr−1 )
= xr B0 + xr−1 (B1 − AB0 ) + · · · + x(Br−1 − ABr−2 ) − ABr−1
= xr I + c1 xr−1 I + c2 xr−2 I + · · · + cr−1 xI + cr I
= mA (x)I.

Le déterminant (noté ici | · |) des deux côtés donne |xI − A||B(x)| = |mA (x)I| = mA (x)n , comme |B(x)| est un
polynôme, |xI − A| divise mA (x)n .

Exemple 1.17: 1) Soit  


3 −2 0
A = −2 3 0
0 0 5

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


On sait d’après l’exemple 1) du paragraphe 1.4 que pA (x) = (5 − x)2 (1 − x).
Recherche du polynôme minimal.
D’après le théorème 1.9, mA (x) divise pA (x) et d’après le théorème 1.10, mA (x) et pA (x) ont les mêmes
facteurs irréductibles, c’est à dire (x − 5) et (x − 1), d’où les possibilités pour mA (x) sont : (x − 5)(x − 1) ou
(x − 5)2 (x − 1) ; il suffit maintenant de vérifier si (A − 5I3 )(A − I3 ) = 0.
    
−2 −2 0 2 −2 0 0 0 0
(A − 5I3 )(A − I3 ) = −2 −2 0 −2 2 0 = 0 0 0
0 0 0 0 0 4 0 0 0
On en déduit que mA (x) = (x − 5)(x − 1).
2) Soit A une matrice ayant pour polynôme caractéristique pA (x) = (2−x)3 (5−x). Déterminer les polynômes
minimaux possibles pour A.
On applique les théorèmes 1.9 et 1.10 et on obtient :



 (x − 2)(x − 5)

ou


mA (x) = (x − 2)2 (x − 5)

ou




(x − 2)3 (x − 5)

Application : Calcul de A−1 avec le théorème de Cayley-Hamilton


Soit la matrice  
2 1
A= .
1 2
Le polynôme caractéristique de A est donné par :

2−x 1
pA (x) = det(A − xI) = = (2 − x)2 − 1 = (1 − x)(3 − x) = x2 − 4x + 3.
1 2−x

D’après le théorème de Cayley-Hamilton, pA (A) = 0, c’est-à-dire :

A2 − 4A + 3I = 0.

On en déduit :
A(A − 4I) = −3I.
En multipliant des deux côtés par − 31 , on obtient :
 
1
A − (A − 4I) = I.
3

Ainsi, l’inverse de A

Théorème 1.17.1

Le polynôme minimal mA (x) de A divise tout polynôme qui a pour racine A. En particulier, mA (x)
divise pA (x).

Démonstration. Soit p un polynôme annulé par A, montrons que mA (x) divise p(x).
On utilise la division euclidienne de p(x) par mA (x). On a alors :

p(x) = q(x)mA (x) + r(x)

avec deg(r(x)) < deg(mA (x)).


En évaluant en A, on obtient :
p(A) = q(A)mA (A) + r(A)
Comme mA (A) = 0, il s’ensuit que r(A) = 0, c’est-à-dire que r est un polynôme annulé par A et de degré
strictement inférieur à celui de mA (x).

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Par minimalité du polynôme minimal mA (x), on a nécessairement r(x) = 0, ce qui signifie que mA (x) divise
p(x).

pA (x)
mA (x)

Théorème 1.17.2
Les polynômes caractéristique et minimal ont les mêmes facteurs irréductibles. En d’autres termes, si

pA (x) = (λ1 − x)k1 · · · (λr − x)kr ,

alors
mA (x) = (x − λ1 )l1 · · · (x − λr )lr
avec 1 ≤ li ≤ ki

Exemple 1.18: Supposons que f (x) soit un polynôme irréductible. Si f (x) | mA (x), alors f (x) | pA (x) car
mA (x) | pA (x). D’autre part, si f (x) | pA (x), alors f (x) | mA (x).
Les théorèmes (1.9) et (1.10) permettent de déterminer de manière effective le polynôme minimal d’une
matrice.
Exemple 1.19: Soit  
3 −2 0
A = −2 3 0 .
0 0 5

On sait d’après l’exemple 1) du paragraphe 1.4 que pA (x) = (5 − x)2 (1 − x).

Recherche du polynôme minimal :


D’après le théorème 1.9, mA (x) divise pA (x) et d’après le théorème 1.10, mA (x) et pA (x) ont les mêmes
facteurs irréductibles, c’est-à-dire (x − 5) et (x − 1). D’où les possibilités pour mA (x) sont :

(x − 5)(x − 1) ou (x − 5)2 (x − 1).

Il suffit maintenant de vérifier si (A − 5I3 )(A − I3 ) = 0.


Calculons :    
−2 −2 0 2 −2 0
A − 5I3 = −2 −2 0 , A − I3 = −2 2 0 .
0 0 0 0 0 4
En multipliant :     
−2 −2 0 2 −2 0 0 0 0
(A − 5I3 )(A − I3 ) = −2 −2 0 −2 2 0 = 0 0 0 .
0 0 0 0 0 4 0 0 0
On en déduit que mA (x) = (x − 5)(x − 1).

Théorème 1.19.1
Soient E un K-espace vectoriel et u un endomorphisme de E. On suppose qu’il existe deux polynômes
P1 et P2 , tels que :
i) P1 et P2 sont premiers entre eux, (P1 ∧ P2 = 1).
ii) (P1 P2 )(u) = 0.
Alors E = ker(P1 (u)) ⊕ ker(P2 (u)).

Démonstration. On sait que P1 et P2 sont premiers entre eux, donc d’après le théorème de Bézout, il existe
deux polynômes A et B de K[X], tels que AP1 + BP2 = 1.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


AP1 + BP2 = 1 =⇒ (AP1 + BP2 )(u) = Id(u)
=⇒ A(u) ◦ P1 (u) + B(u) ◦ P2 (u) = IdE
=⇒ ∀x ∈ E, x = (A(u) ◦ P1 (u))(x) + (B(u) ◦ P2 (u))(x)

Si pour tout x ∈ E, on pose x1 = (B(u) ◦ P2 (u))(x) et x2 = (A(u) ◦ P1 (u))(x), alors on a x = x1 + x2 , avec


x1 ∈ ker(P1 (u)) et x2 ∈ ker(P2 (u)).
Donc E = ker(P1 (u)) + ker(P2 (u)).
Montrons maintenant que ker(P1 (u)) ∩ ker(P2 (u)) = {0}.
Soit x ∈ ker(P1 (u)) ∩ ker(P2 (u)), alors on a :

x = (A(u) ◦ P1 (u))(x) + (B(u) ◦ P2 (u))(x)


= A(u)(P1 (u)(x)) + B(u)(P2 (u)(x))
=0

car P1 (u)(x) = P2 (u)(x) = 0.


Donc x = 0, ce qui prouve que la somme est directe : E = ker(P1 (u)) ⊕ ker(P2 (u)).

Théorème 1.19.2
Soient E un K-espace vectoriel et u un endomorphisme de E. On suppose qu’il existe des polynômes
P1 , P2 , . . . , Pm de K[X], (m ≥ 2), tels que :
i) Les polynômes P1 , P2 , . . . , Pm sont deux à deux premiers entre eux.
ii) (P1 P2 · · · Pm )(u) = 0.
Alors
m
M
E = ker(P1 (u)) ⊕ ker(P2 (u)) ⊕ · · · ⊕ ker(Pm (u)) = ker(Pi (u))
i=1

Corollaire 1.19.1
Soient E un K-espace vectoriel et u un endomorphisme de E. On suppose qu’il existe des polynômes
P1 , P2 , . . . , Pm de K[X], (m ≥ 2), tels que :
1. Les polynômes P1 , P2 , . . . , Pm sont deux à deux premiers entre eux.
2. (P1 P2 · · · Pm )(u) = 0.
Alors
m
M
E = ker(P1 (u)) ⊕ ker(P2 (u)) ⊕ · · · ⊕ ker(Pm (u)) = ker(Pi (u))
i=1

Lemme 1.19.1
Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E. On suppose qu’il existe
deux polynômes P1 et P2 , tels que :
1. P1 et P2 sont premiers entre eux, (P1 ∧ P2 = 1).
2. (P1 P2 )(u) = 0.
Alors
E = ker(P1 (u)) ⊕ Im(P1 (u)) = ker(P2 (u)) ⊕ Im(P2 (u)).

Démonstration.
(P1 P2 )(u) = 0 ⇐⇒ P2 (u) ◦ P1 (u) = 0

⇐⇒ ∀x ∈ E, P2 (u) P1 (u)(x) = 0
⇐⇒ ∀x ∈ E, P1 (u)(x) ∈ ker(P2 (u))
⇐⇒ Im(P1 (u)) ⊆ ker(P2 (u)). □

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


D’autre part, d’après le théorème de décomposition,

E = ker(P1 (u)) ⊕ ker(P2 (u)),

donc

dim(E) = dim(ker(P1 (u))) + dim(ker(P2 (u))).

Et d’après le théorème du rang, on a

dim(E) = dim(ker(P1 (u))) + dim(Im(P1 (u))).

Donc, on voit que

dim(ker(P2 (u))) = dim(Im(P1 (u))).

Comme

Im(P1 (u)) ⊆ ker(P2 (u)),

alors

Im(P1 (u)) = ker(P2 (u)).

2.3 Réduction de Jordan :

Le théorème suivant donne la forme de Jordan d’une matrice dont le polynôme caractéristique est scindé.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Théorème 1.19.3

Soit A ∈ Mn (K), et supposons que le polynôme caractéristique pA est scindé, c’est-à-dire

pA (x) = (λ1 − x)n1 · · · (λr − x)nr ,

et que le polynôme minimal de A est

mA (x) = (x − λ1 )m1 · · · (x − λr )mr , avec 1 ≤ mi ≤ ni .

Alors, A est semblable à une matrice diagonale par blocs de la forme :


 
J(λ1 ) 0 ··· 0
 0
 J(λ2 ) · · · 0  
 .. .. . . .. 
 . . . . 
0 0 · · · J(λr )

où, pour chaque λi , on a :  


Ji1 ··· 0
 .. .. ..  ,
J(λi ) =  . . . 
0 ··· Jis
et chaque bloc Jij est une matrice de Jordan de la forme :
 
λi 1 0 ··· 0
 0 λi 1 ··· 0
.. 
 
 .. ..
0 0
 . . ..
. .. .. ..
 ..

. . . 1
0 0 ··· 0 λi

Les blocs Jij correspondant à chaque λi vérifient les propriétés suivantes :


1. Il existe au moins un bloc Jij d’ordre mi ; les autres blocs ont un ordre inférieur ou égal à mi .
2. La somme des ordres des blocs Jij est égale à ni .
3. Le nombre de blocs Jij est égal à dim Eλi , où Eλi est le sous-espace propre généralisé associé à λi .
La matrice obtenue à partir du théorème 1.11 est appelée matrice de Jordan de A. Chaque bloc diagonal
Jij est appelé un bloc de Jordan correspondant à la valeur propre λi .

Exemple 1.20: 1/ Soit  


5 0 0
A = 1 5 0
0 1 5
On a :
pA (x) = (5 − x)3 ,
mA (x) = (x − 5)3 car
 
0 0 0
A − 5I = 1 0 0 ̸= 0 et
0 1 0
 
0 0 0
(A − 5I)2 = 0 0 0 ̸= 0
1 0 0
Ainsi, λ1 = 5, m1 = 3 et n1 = 3.
La forme de Jordan correspondante est :
 
5 1 0
J11 = 0 5 1
0 0 5

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


2) Soit A une matrice ayant pour polynôme caractéristique pA (x) = (2 − x)4 (3 − x)3 et mA (x) = (x − 2)2 (x −
3)2 .
Déterminer toutes les réduites de Jordan possibles de A.
L’ordre de la matrice étant égal au degré de pA (x), on en déduit que A ∈ M7 (C). On a deux valeurs
propres λ1 = 2 et λ2 = 3.

λ1 = 2 λ2 = 3
m1 = 2 m2 = 2
n1 = 4 n2 = 3

On détermine les J1j correspondants à λ1 = 2.


 
2 1
D’après le 1) du théorème 1.11, il y a au moins un J1j d’ordre m1 = 2, disons J11 = , les autres
0 2
J1j ont un ordre ≤ 2. Comme la somme des ordres des J1j est égal à 4 d’après le 2) du théorème 1.11 on
a les possibilités suivantes :
— 2 + 1 + 1 = 4 = n1
ordre de J11
— 2 + 2 = 4 = n1
ordre de J11

C’est-à-dire :
— J12 = [2] et J13 = [2] correspondant au 1er cas
 
2 1
— J12 = correspondant au 2nd cas.
0 2
 
3 1
On détermine maintenant les J2j correspondants à λ2 = 3. On a J21 = , comme 2 +1 =
0 3 ordre de J21
3 = n2 , on a une seule possibilité J22 = [3].

1ère possibilité pour la réduite de Jordan J(A) de A


 
J11 0 0 0 0
 0
 J12 0 0 0 
 0
J(A) =  0 J13 0 0 
 0 0 0 J21 0 
0 0 0 0 J22
avec    
2 1 3 1
J11 = , J12 = J13 = [2], J21 = et J22 = [3].
0 2 0 3

On en déduit que dimC E2 = 3 = Nombre des J1j d’après le 3) du théorème 1.11 et que dimC E3 = 2 =
Nombre des J2j .

2ème possibilité pour la réduite de Jordan J(A) de A


 
J11 0 0 0
 0 J12 0 0 
J(A) =  
 0 0 J21 0 
0 0 0 J22
avec      
2 1 2 1 3 1
J11 = , J12 = , J21 = et J22 = [3].
0 2 0 2 0 3

On en déduit que dimC E2 = 2 et que dimC E3 = 2.

Proposition 1.20.1:1) A est semblable à sa réduite de Jordan J(A) (c.-à-d. P −1 AP = J(A) pour une
certaine matrice inversible P ).
2) A est diagonalisable si et seulement si les racines de son polynôme minimal sont simples.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Démonstration. ⇐) Supposons que mA (x) = (x − λ1 ) · · · (x − λr ) où les λi sont distincts deux à deux, il s’ensuit
que tous les blocs Jij ont pour ordre 1. C’est à dire A est semblable à
 
λ1 1 0 ··· 0
0
 λ1 1 ··· 0 
0 0 λ2 1 · · ·
J(A) =  0
 
 0 0 λ2 · · ·

 .. .. .. .. .. 
. . . . .
0 0 0 0 λr

qui est diagonale. On en déduit que A est diagonalisable.


⇒) Supposons A diagonalisable et soit λ1 , · · · , λr les valeurs propres distinctes deux à deux de A. Considérons
le polynôme

p(x) = (x − λ1 ) · · · (x − λr )

p(A) = (A − λ1 I) · · · (A − λr I)

Il est à noter que les opérateurs (A − λi I) et (A − λj I) commutent. Montrons alors que l’opérateur p(A) = 0
et ce en vérifiant que p(A)x = 0 pour tout x de E. Comme A est diagonalisable, P E admet une base formée de
vecteurs propres associés aux valeurs propres λi , disons e1 , · · · , en ; donc x = αi ei , il suffit alors de vérifier
que p(A)ei = 0 ∀i = 1, · · · , n.
Prenons ei , et soit λj la valeur propre qui lui est associée. On a alors

p(A)ei = (A − λ1 I) · · · (A − λr I)ei = (A − λ1 I) · · · (A − λr I)(A − λj I)ei

Puisque les opérateurs (A − λk I), (A − λl I) commutent, on peut déplacer (A − λj I) et le mettre en tête, ce


qui donne (A − λj I)ei = 0, d’où p(A)ei = 0 et donc p(A)x = 0 pour tout x, d’où p(A) = 0, ce qui entraîne que
mA (x) divise p(x), donc mA (x) est un produit de facteurs irréductibles.

1.21 Exercices :
On considère la matrice  
1 2 3 14
0 1 5 7
A=
0
.
0 2 7
0 0 0 2

1) A est-elle diagonalisable ?
Le polynôme caractéristique de A est :

1−x 2 3 14
0 1−x 5 7
pA (x) = = (1 − x)2 (2 − x)2 .
0 0 2−x 7
0 0 0 2−x

On a deux valeurs propres λ1 = 1 et λ2 = 2.


Déterminons les sous-espaces propres E1 et E2 .

• E1
On résout le système :
    
0 2 3 14 x 0
0 0 5 7 y  0
   =  
0 0 1 7   z  0
0 0 0 1 t 0

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


c’est-à-dire 

 2y + 3z + 14t =0
5z + 7t =0


 z + 7t =0
t =0

alors 
 y=0
z=0
t=0

   
x 1
y  0
  = x 
z  0
t 0
, d’où E1 est engendré par  
1
0
 
0
0
et est de dimension 1, strictement inférieure à la multiplicité algébrique de la vp 1, c’est à dire A n’est pas
diagonalisable.

E2
On est amené à résoudre le système

−x + 2y + 3z + 14t = 0

−y + 5z + 7t = 0

7t = 0

On en déduit que t = 0, y = 5z et x = 13z,    


x 13
y  5
  = z 
z  1
t 0
, d’où dim E2 = 1.

2) Déterminer la réduite de Jordan J(A) de A :


Les possibilités pour

(1 − x)(2 − x)

(1 − x)2 (x − 2)

mA (x) =
(x − 1)(x − 2)2


pA (x)

Le 1er cas est à exclure car A n’est pas diagonalisable. mA (x) = (1 − x)2 (x − 2) entraînerait deux blocs
J21 = [2] et J22 = [2] pour la valeur propre 2, ce qui contredirait le 3) du théorème 1.11, qui affirme que le
nombre des J2j est égal à la multiplicité géométrique de 2 c’est à dire dim E2 = 1.
On pouvait aboutir au même résultat en s’assurant que (A − I)2 (A − 2I) est différente de la matrice nulle.
Le 3ème cas est similaire au 2ème cas, c’est à dire mA (x) = (x − 1)(x − 2)2 entraînerait deux blocs J11 = [1]
et J12 = [1] pour la valeur propre 1 ce qui est contradictoire
  avec dim E1 = 1. Finalement ce qui reste c’est
2 2 1 1
mA (x) = p(x) = (1 − x) (2 − x) . Donc on a J11 = et
0 1
 
2 1
0 2

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


d’où  
1 1 0 0
0 1 0 0
J(A) = 
0

0 2 1
0 0 0 2

3) Déterminer une matrice de passage de A vers J(A) :


Pour déterminer une matrice de passage de A à J(A), on cherchera des vecteurs linéairement indépendants
e1 , e2 , e3 , e4 , tels que la matrice formée par les Aei relative à la base (ei ) soit égale à J(A). C’est à dire

Ae1


= e1
Ae = e1 + e2
2
Ae3
 = 2e3

Ae4 = e3 + 2e4

On en déduit que
(A − I)e1 = 0 et (A − I)e2 = e1
alors
(A − I)2 e2 = (A − I)e1 = 0
c’est à dire e2 ∈ ker(A − I)2 et e2 ∈
/ ker(A − I). Déterminons alors ker(A − I)2 on a
 
0 0 13 49
0 0 5 42
(A − I)2 = 0 0 1 14

0 0 0 1

On résout alors    
x 0
2 y 
  0
(A − I)   =  
z 0
t 0
, on obtient :


 13z + 49t = 0

5z + 42t = 0


 z + 14t = 0
t=0

donc t = 0 et z = 0 ; on en déduit que


       
x x 1 0
y  y  0 1
  =   = x  + y 
z  0 0 0
t 0 0 0
pour que  
x
y 
 
z 
t
n’appartienne pas à ker(A − I) = E1 il suffit que y ̸= 0 ; car E1 est engendré par
 
1
0
 
0
0

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


; on prend alors pour e2 le vecteur  
0
1
 
0
0
 
2
0
, on en déduit e1 = (A − I)e2 = 
0.

0
On a
(A − 2I)e3 = 0 et (A − 2I)e4 = e3
alors (A − 2I)2 e4 = (A − 2I)e3 = 0 d’où e4 ∈ ker(A − 2I)2 et e4 ∈
/ ker(A − 2I).
Détermination de (A − 2I)2
        
x 0 1 −4 7 21 x 0
y 0 0 1 −5 28 y  0
(A − 2I)2 
    
 z  = 0 ⇒ 0 0
     =  
0 0   z  0
t 0 0 0 0 0 t 0
( ( (
x − 4y + 7z + 21t = 0 x = 4y − 7z − 21t x = 13z − 133t
⇒ ⇒
y − 5z + 28t = 0 y = 5z − 28t y = 5z − 28t

On en déduit que      
x 13 −133
  = z  5  + t  −28 
y     
z  1  0 
t 0 1
Comme ker(A − 2I) est engendré par  
13
5
 
1
0
, le vecteur  
−133
 −28 
 
 0 
1
 
91
35
est un bon candidat pour e4 , on tire alors e3 = (A − 2I)e4 = 
 7 .

0
Donc "la" matrice de passage recherchée est
 
2 0 91 −133
0 1 35 −28 
P = 0 0 7

0 
0 0 0 1

et on a P −1 AP = J(A).

1.22 Décomposition de Dunford :


Nous allons montrer que toute matrice, dont le polynôme caractéristique est scindé, peut s’écrire comme
somme d’une matrice diagonalisable et d’une matrice nilpotente. Autrement dit, cette matrice est semblable à
la somme d’une matrice diagonale et d’une matrice nilpotente.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Définition 1.22.1

On dit qu’un endomorphisme f (resp. une matrice A) est nilpotent (resp. nilpotente) s’il existe k ∈ N∗
tel que f k = 0 (resp. Ak = 0).

Nous allons démontrer que les endomorphismes nilpotents et les endomorphismes diagonalisables permettent
de décrire tous les endomorphismes dont le polynôme caractéristique est scindé sur K (c’est-à-dire ceux trigo-
nalisables)

Théorème 1.22.1

Soit f un endomorphisme de E tel que χf soit scindé sur K. Alors il existe un unique couple (n, d)
d’endomorphismes tel que :
i) n est nilpotent et d est diagonalisable,
ii) f = n + d,
iii) n ◦ d = d ◦ n.
De plus, on pourrait montrer que d et n sont des polynômes en f . En particulier, si K = C, cette
décomposition existe toujours.

Théorème 1.22.2

Pour toute matrice A ∈ Mn (K) ayant un polynôme caractéristique scindé sur K, il existe une unique
matrice N nilpotente et une unique matrice ∆ diagonalisable telles que

A=N +∆ et N ∆ = ∆N.

Remarque 1.22.1 (Important): Attention ! ∆ est une matrice diagonalisable, pas nécessairement une matrice
diagonale.
Comme ∆ est diagonalisable, alors il existe une matrice inversible P et une matrice diagonale D telles que
D = P −1 ∆P . Si on note N ′ = P −1 N P alors N ′ est encore nilpotente et N ′ D = DN ′ . Une autre façon d’écrire
la décomposition de Dunford est alors P −1 AP = D + N ′ . C’est dire que A est semblable à la somme d’une
matrice diagonale avec une matrice nilpotente.

Corollaire 1.22.1
oit f un endomorphisme avec une décomposition de Dunford f = d+n, avec d diagonalisable, n nilpotent
et d ◦ n = n ◦ d. Alors :
— f diagonalisable ⇐⇒ f = d ⇐⇒ n = 0 ;
— f nilpotent ⇐⇒ f = n ⇐⇒ d = 0.

Lemmes
Lemme 1.22.1
i f est nilpotent, alors 0 est son unique valeur propre et on a

χf (X) = (−1)n X n .

Démonstration. — Notons A la matrice de f dans une base. Comme f est nilpotent, il existe k > 1 tel que
Ak = 0. Cela implique det(Ak ) = 0, donc det(A) = 0. La matrice A n’est donc pas inversible : cela entraîne
que f n’est pas bijectif, et comme f est un endomorphisme, f n’est pas non plus injectif (la dimension de
l’espace de départ égale la dimension de l’espace d’arrivée). Ainsi, ker f ̸= {0}, ce qui est exactement dire
que 0 est une valeur propre de f .
— Supposons que λ soit une valeur propre de f : il existe alors x ̸= 0 tel que f (x) = λx. Par récurrence sur
n, f n (x) = λn x. Or, f est supposé nilpotent, il existe donc k ∈ N∗ tel que f k = 0. D’où λk x = 0, ce qui
implique λk = 0 (car x ̸= 0), donc λ = 0.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


— Ainsi, 0 est la seule valeur propre de f , donc la seule racine de son polynôme caractéristique.
— Si K = R, on considère l’endomorphisme comme aussi défini sur C. En termes de matrice, cela revient à
dire que la matrice à coefficients réels A peut être vue aussi comme à coefficients complexes. Or, sur C, un
polynôme dont la seule racine est 0 est de la forme αX n , donc χf (X) = (−1)n X n puisque le coefficient
dominant d’un polynôme caractéristique est (−1)n .

Lemme 1.22.2
oit f un endomorphisme de E diagonalisable. On note λ1 , . . . , λr ses valeurs propres et Eλ1 , . . . , Eλr les
sous-espaces propres correspondants. Si F est un sous-espace de E stable par f , alors on a

F = (F ∩ Eλ1 ) ⊕ · · · ⊕ (F ∩ Eλr ).

Démonstration. Soit x ∈ F . Comme x ∈ E = Eλ1 ⊕ · · · ⊕ Eλr , il existe x1 , . . . , xr uniques, avec xi ∈ Eλi pour
1 ≤ i ≤ r, tels que x = x1 + · · · + xr .
Le sous-espace F est stable par f , donc également par P (f ) pour tout polynôme P ∈ K[X]. On rappelle
que comme xi ∈ Eλi alors f (xi ) = λi xi et plus généralement P (f )(xi ) = P (λi )xi . Pour 1 ≤ i ≤ r, on définit
r
Y
Pi (X) = (X − λk ).
k=1
k̸=i

On a ainsi Pi (λj ) = 0 si i ̸= j, et Pi (λi ) ̸= 0.


On peut alors écrire

Pi (f )(x) = Pi (f )(x1 + · · · + xr ) = Pi (λ1 )x1 + · · · + Pi (λr )xr = Pi (λi )xi .

Or Pi (f )(x) ∈ F par stabilité de f , donc xi ∈ F . Ainsi, pour tout 1 ≤ i ≤ r, xi ∈ F ∩ Eλi , d’où le résultat.

Lemme 1.22.3
Si f est diagonalisable et F est un sous-espace vectoriel de E, stable par f , alors la restriction de f à F
est aussi diagonalisable.
Pour une autre preuve, voir la fin du chapitre « Polynômes d’endomorphismes ».

Démonstration. Notons g la restriction de f au sous-espace F : g = f|F qui est bien définie car F est stable par
f . Soient λ1 , . . . , λr les valeurs propres de f . L’endomorphisme f étant supposé diagonalisable, on a

E = Eλ1 ⊕ · · · ⊕ Eλr ,

où les Eλi sont les sous-espaces propres de f . On obtient grâce au lemme 3 que

F = (F ∩ Eλ1 ) ⊕ · · · ⊕ (F ∩ Eλr ).

Or, quel que soit µ ∈ K, ker(g − µidF ) = F ∩ ker(f − µidE ), donc les valeurs propres de g, notées µ1 , . . . , µs ,
appartiennent à l’ensemble {λ1 , . . . , λr }. Ces µi forment exactement l’ensemble des valeurs de {λ1 , . . . , λr } pour
lesquelles F ∩ Eλi ̸= {0}. On a donc

F = ker(g − µ1 idF ) ⊕ · · · ⊕ ker(g − µs idF ),

ce qui prouve que g est diagonalisable.

Lemme 1.22.4
oient f et g deux endomorphismes diagonalisables. On suppose que f ◦ g = g ◦ f . Alors il existe une base
commune de vecteurs propres de f et de g.
Autrement dit, si A, B ∈ Mn (K) sont diagonalisables et commutent, alors on peut les diagonaliser dans
une base commune, c’est-à-dire qu’il existe une matrice P ∈ Mn (K) inversible telle que P −1 AP et
P −1 BP soient toutes les deux diagonales.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Démonstration. Soient λ1 , . . . , λr les valeurs propres de f . Notons Eλi = {x ∈ E | f (x) = λi x}. On a alors,
pour x ∈ Eλi ,
f (g(x)) = g(f (x)) = g(λi x) = λi g(x),
donc g(x) ∈ Eλi , ce qui prouve que Eλi est stable par g. D’après le lemme 4, la restriction de g à Eλi est
donc diagonalisable. On considère, dans Eλi , une base Bi de vecteurs propres de g. Noter que ce sont aussi des
vecteurs propres de f (car ils sont dans Eλi ). Comme f est diagonalisable, on a
E = Eλ1 ⊕ · · · ⊕ Eλr .
|{z} |{z}
B1 Br

La base B = B1 ∪ · · · ∪ Br est donc une base de E formée de vecteurs qui sont des vecteurs propres à la fois
pour f et pour g.

Construction :
— Soit χf le polynôme caractéristique de f qui, par hypothèse, est scindé sur K. Notons λi une valeur propre
de f , et mi sa multiplicité en tant que racine du polynôme caractéristique :
r
Y
χf (X) = ± (X − λi )mi .
i=1

— Soient Nλ1 , . . . , Nλr les sous-espaces caractéristiques de f . Pour 1 ≤ i ≤ r, on a


Nλi = ker(f − λi idE )mi et E = Nλ1 ⊕ · · · ⊕ Nλr .

— Nous allons définir l’endomorphisme d sur chaque Nλi de la manière suivante : pour tout x ∈ Nλi , on pose
d(x) = λi x.
L’espace vectoriel E étant somme directe des Nλi , d est défini sur E tout entier. En effet, si x ∈ E est
décomposé en x = x1 + · · · + xr avec xi ∈ Nλi (pour 1 ≤ i ≤ r), alors
d(x) = d(x1 + · · · + xr ) = d(x1 ) + · · · + d(xr ) = λ1 x1 + · · · + λr xr .
Pour 1 ≤ i ≤ r, on a di = d|Nλi = λi idNλi .

Exemple :
1/Soient      
1 3 1 0 0 3
A= , D̃ = , Ñ = .
0 2 0 2 0 0
Alors on a bien A = D̃ + Ñ , D̃ est diagonale, Ñ est nilpotente (Ñ 2 = 0). Pourtant, ce n’est pas la
décomposition de Dunford car les matrices ne commutent pas : D̃Ñ ̸= Ñ D̃.
La décomposition de Dunford est tout simplement D = A, et N est la matrice nulle. D est bien diagonalisable
(son polynôme caractéristique est scindé à racines simples) mais n’est pas diagonale ; N est nilpotente et DN =
N D.
2/ Calculons la décomposition de Dunford de la matrice :
 
1 1 1
A = 0 1 1 ∈ M3 (R).
0 0 2

Évitons le piège d’écrire :    


1 0 0 0 1 1
A = 0 1 0 + 0 0 1
0 0 2 0 0 0
| {z } | {z }
D̃ Ñ

D̃ est diagonale (donc diagonalisable) et Ñ est nilpotente, mais on peut vérifier que les matrices ne commutent
pas : D̃Ñ ̸= Ñ D̃.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


CHAPITRE 2
EXPONENTIELLE DE MATRICE CARRÉE :

2.1 Introduction :
L’exponentielle d’une matrice carrée est une notion importante en mathématiques, notamment en théorie
des systèmes différentiels linéaires et en algèbre linéaire.
Soit A ∈ Mn (C) une matrice carrée complexe d’ordre n. On définit l’exponentielle de A par la série :

X Ak A2 A3
eA = exp(A) = = In + A + + + ···
k! 2! 3!
k=0
0
où In est la matrice identité d’ordre n et A = In par convention.

Théorème 2.1.1
Ak
P∞
Pour toute matrice A ∈ Mn (K), la série k=0 k! est normalement convergente.
On note :

X Ak
exp(A) =
k!
k=0

La forme polynomiale de etA est donc :


n−1
X
etA = ck (t)Ak ,
k=0

où les coefficients ck (t) dépendent des valeurs propres de A

Proposition 2.1.1: 1. Exponentielle de la matrice nulle :

e 0n = I n

2. Exponentielle d’une matrice diagonale : Si A = diag(λ1 , . . . , λn ), alors :

eA = diag(eλ1 , . . . , eλn )

3. Relation pour les matrices semblables : Si A = P BP −1 , alors :

eA = P eB P −1

4. Exponentielle d’une somme (si les matrices commutent) : Si AB = BA, alors :

eA+B = eA eB

33
5. Dérivée de l’exponentielle :
d tA
e = AetA
dt
(utile pour les équations différentielles linéaires).

Exemple 2.2: 1/ Matrice diagonale : Si A est diagonale, eA se calcule directement en exponentiant chaque
terme diagonal.
 
2 0
Soit A = . Alors :
0 3  2 
A e 0
e = .
0 e3
—  
−1 A D −1 1 2
2/ Matrice diagonalisable : Si A est diagonalisable (A = P DP ), alors e = P e P . Soit A = .
0 3
   
1 1 1 0
- Diagonalisation : Valeurs propres λ1 = 1, λ2 = 3. Matrices P = ,D= . - Calcul de eA :
0 1 0 3
 1
e e3 − e
    
A D −1 1 1 e 0 1 −1
e = Pe P = = .
0 1 0 e3 0 1 0 e3

3/ Matrice
 nilpotente
 : Si A est nilpotente (Ak = 0 pour un certain k), la série de l’exponentielle se tronque.
0 1
Soit A = . Comme A2 = 0,
0 0  
A 1 1
e =I +A= .
0 1

4/ Matrice avec bloc de Jordan : Pour une matrice non diagonalisable, on utilise la décomposition de
Jordan.    
2 1 0 1
Soit A = (bloc de Jordan). - Écrire A = 2I + N où N = (nilpotente). - Comme 2I et N
0 2 0 0
commutent :  
A 2I N 2 2 1 1
e = e e = e (I + N ) = e .
0 1
Théorème 2.2.1
i deux matrices carrées A et B commutent, c’est-à-dire que :

AB = BA

alors
exp(A + B) = exp(A) exp(B).


X Mn
exp(M ) = .
n=0
n!

Démonstration. Partons de la définition de l’exponentielle matricielle :



X (A + B)n
exp(A + B) = .
n=0
n!

Nous voulons montrer que :


∞ ∞ ∞
! !
X (A + B)n X Ak X Bm
= .
n=0
n! k! m=0
m!
k=0

Développons (A + B)n grâce au binôme de Newton (valable car A et B commutent) :


n  
X n k n−k
(A + B)n = A B .
k
k=0

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Ainsi :
∞ n  
X 1 X n k n−k
A B .
n=0
n! k
k=0

Changeons l’ordre de sommation :


∞ X
∞  
X 1 n k n−k
A B .
n! k
k=0 n=k

Calculons la somme intérieure pour m = n − k :


∞ ∞
1 X Bm
 
X 1 n 1
B n−k = = eB .
n! k k! m=0 m! k!
n=k

Finalement :

X Ak
eB = eA eB .
k!
k=0

Nous avons donc bien :


exp(A + B) = exp(A) exp(B).

 t t
n
et(A+B) ≈ e n A e n B

Que se passe-t-il quand deux matrices ne commutent pas ? :


Pourquoi est-ce que ça ne marche plus ? :
L’exponentielle d’une matrice M est définie par :

M2 M3
exp(M ) = I + M + + + ···
2! 3!
Pour exp(A + B) :

(A + B)2
exp(A + B) = I + (A + B) + + ···
2!
Mais (A + B)2 = A2 + AB + BA + B 2 , et si AB ̸= BA, les termes ne s’annulent pas.
Pour exp(A) exp(B) :

A2 B2
  
exp(A) exp(B) = I +A+ + ··· I +B+ + ···
2! 2!
Donc en général, exp(A + B) ̸= exp(A) exp(B).

Formule de Baker-Campbell-Hausdorff (BCH) :


Quand A et B ne commutent pas :
 
1 1 1
exp(A) exp(B) = exp A + B + [A, B] + [A, [A, B]] − [B, [A, B]] + · · ·
2 12 12
où [A, B] = AB − BA.
— Si [A, B] = 0, on a exp(A + B) = exp(A) exp(B)
— Sinon, des termes correctifs sont nécessaires

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Exemple 2.3: Prenons :    
0 1 0 0
A= , B=
0 0 1 0
Calculons :    
1 0 0 0
AB = ̸= BA =
0 0 0 1
 
cosh(1) sinh(1)
exp(A + B) =
sinh(1) cosh(1)
 
2 1
exp(A) exp(B) =
1 1
On voit bien que exp(A + B) ̸= exp(A) exp(B).
Cas particuliers :
L’égalité peut quand même être vraie si :
— A + B est nilpotente
— Les commutateurs emboîtés s’annulent
conclusion :
— Si A et B commutent, exp(A + B) = exp(A) exp(B)
— Sinon, utiliser la formule BCH
La formule de Trotter-Kato constitue un outil fondamental en analyse fonctionnelle, permettant de relier
de manière profonde la théorie des semi-groupes d’opérateurs aux exponentielles matricielles. Ce résultat offre
non seulement une compréhension théorique précieuse, mais aussi des méthodes pratiques pour approximer des
évolutions complexes.

Théorème 2.3.1
onsidérons deux opérateurs A et B, générateurs infinitésimaux de semi-groupes fortement continus sur
un espace de Banach. Sous des hypothèses appropriées (notamment concernant la compatibilité de leurs
domaines), on obtient la convergence remarquable suivante :
 t t
n
lim e n A e n B = et(A+B)
n→∞

Cette convergence est dite forte, ce qui signifie qu’elle est valable pour chaque vecteur appartenant au
domaine de l’opérateur somme.

Démonstration. La preuve repose sur trois étapes fondamentales :


1. Développement en série : On part de la représentation classique de l’exponentielle comme série infinie :
P∞ k k
et(A+B) = k=0 t (A+B)
k!
2. Stratégie d’approximation : L’astuce consiste à découper l’évolution en n petits pas temporels où A
 t t
n
t(A+B)
et B agissent alternativement : e ≈ e e B
n A n

3. Contrôle de l’erreur : Des estimations précises et des inégalités spécifiques (dites de Trotter) permettent
de montrer que l’erreur commise tend vers zéro lorsque n augmente.

2.4 Application aux matrices :


Dans le cadre matriciel (dimension finie), la formule prend une forme particulièrement concrète. Même
lorsque A et B ne commutent pas ([A, B] ̸= 0), l’approximation reste valable, bien qu’apparaissent alors des
termes correctifs d’ordre supérieur liés au commutateur.
Son extension aux problèmes non linéaires et aux espaces de dimension infinie continue d’être un domaine
de recherche actif en analyse mathématique contemporaine

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


2.5 Les résultats de Trotter :
En 1959, Trotter [trotter1959] démontra une formule analogue pour des semi-groupes contractants, dans
la topologie forte. Étant donné qu’il s’agit de semi-groupes fortement continus, il est naturel d’obtenir une
convergence dans la même topologie forte, contrairement à la formule de Lie, où il s’agit de groupes continus en
norme d’opérateur. Cependant, il faut aussi une condition qui garantisse que la somme des générateurs A + B
est bien définie et engendre un semi-groupe.
Plus précisément, soit {T (t)}t≥0 et {S(t)}t≥0 deux semi-groupes fortement continus sur un espace de Banach
X, avec générateurs infinitésimaux A et B respectivement. Sous certaines conditions, on a la formule de Trotter :

Théorème 2.5.1
Si A et B sont des générateurs infinitésimaux de semi-groupes fortement continus et si A+B est également
un générateur infinitésimal (avec un domaine dense), alors pour tout x ∈ X :
    n
t t
T S x → et(A+B) x quand n → ∞
n n

avec convergence forte uniforme en t sur tout intervalle compact.

Cette formule a des applications importantes en théorie des semi-groupes, en théorie de l’approximation et
en physique mathématique.

2.6 Résultat de Kato sur les semi-groupes


2.6.1 Le théorème de Kato :
En 1978, Kato démontra [kato1978] une formulation particulièrement achevée du résultat de Trotter, dans
un espace de Hilbert. En effet, dans ce cas, il n’y a pas de condition supplémentaire sur les générateurs A et
B. Pour définir la somme, on utilise la théorie des formes quadratiques (cf. Ch. 1.2.2). Par ailleurs, Kato a
introduit deux fonctions qui ne sont pas nécessairement sous forme exponentielle, les opérateurs f (tA) et g(tB)
sont alors définis grâce à la représentation spectrale des opérateurs auto-adjoints.
Plus précisément, soit H un espace de Hilbert et soient A, B deux opérateurs auto-adjoints positifs. On
considère les formes quadratiques associées :

a(u, v) = ⟨A1/2 u, A1/2 v⟩, b(u, v) = ⟨B 1/2 u, B 1/2 v⟩

pour u, v ∈ dom(A1/2 ) ∩ dom(B 1/2 ).

Théorème 2.6.1

Sous les hypothèses ci-dessus, pour toute paire de fonctions f, g : R+ → [0, 1] continues, avec f (0) =
g(0) = 1, on a :     n
tA tB
lim f g = e−tC
n→∞ n n
au sens fort, où C est l’opérateur associé à la forme quadratique a + b.

Idée de la preuve. La démonstration utilise :


— La théorie des formes quadratiques fermables
— Le calcul fonctionnel pour opérateurs auto-adjoints
— Une généralisation astucieuse du produit de Lie-Trotter

T. Kato, Trotter’s product formula for an arbitrary pair of self-adjoint contraction semigroups, Topics in
functional analysis, 185-195, Adv. Math. Suppl. Stud., 3, Academic Press, 1978

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


2.6.2 Résultat :
En dimension finie, tout semi-groupe d’opérateurs linéaires {T (t)}t≥0 est **continu en norme** (et même
différentiable) et est généré par un unique opérateur linéaire A ∈ L(E) tel que :

T (t) = etA
où etA est l’exponentielle matricielle définie par :

X (tA)n
etA =
n=0
n!

2.6.3 Lien entre la racine carrée et l’exponentielle d’une matrice :


Lien entre eM et A1/2 . Si A est symétrique définie positive, alors sa racine carrée peut s’exprimer via l’ex-
ponentielle d’une autre matrice.
En effet, si A = eM où M est une matrice (par exemple, M symétrique), alors :

A1/2 = eM/2
car :  2
eM/2 = eM/2 · eM/2 = eM = A

Cas général :
Pour une matrice A diagonalisable (A = P DP −1 ),
on peut calculer :
- La racine carrée : A1/2 = P D1/2 P −1 (si D a des éléments diagonaux positifs).
- L’exponentielle : eA = P eD P −1 , où eD est obtenue en exponentiant chaque valeur propre.
 
2 0
Exemple 2.7: Soit A = .
0 2
√ 
2 √0
Alors : - A1/2 = .
0 2
- Si M = ln(2)I (où I est la matrice identité),
ln(2) √
alors :eM = A, et A1/2 = eM/2 = e 2 I = 2I.
Attention :
- Toutes les matrices n’ont pas de racine carrée (par exemple, les matrices nilpotentes non triviales).
- L’exponentielle d’une matrice est toujours inversible, mais une matrice peut avoir une racine carrée sans être
l’exponentielle d’une autre matrice.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


CHAPITRE 3
LES SEMI GROUPES EN DIMENSION INFINIE :

Introduction :

Ce chapitre établit les fondements essentiels pour appréhender l’importance des semi-groupes dans l’analyse
des problèmes d’évolution en espace de dimension infinie

3.1 Rappel sur les espaces de Banach et de Hilbert :

Dans ce chapitre, nous introduisons quelques notions et définitions que nous allons utiliser au cours de ce
travail.

3.1.1 Espace de Banach :

Définition 3.1.1

n appelle norme une application ∥ · ∥ : x ∈ E 7→ ∥x∥ ∈ R+ qui vérifie :


1. ∥x∥ = 0 si et seulement si x = 0
2. ∀λ ∈ K et ∀x ∈ E on a : ∥λx∥ = |λ| · ∥x∥
3. ∀x, y ∈ E on a : ∥x + y∥ ≤ ∥x∥ + ∥y∥

Définition 3.1.2
oit X un espace vectoriel normé. X est de Banach s’il est complet.

Proposition 3.1.1

es espaces vectoriels normés de dimension finie sur K = R ou C sont des Banach.

39
3.1.2 Espace de Hilbert :
Définition 3.1.3

Soit E un K-espace vectoriel (K = R ou C). On appelle produit scalaire sur E une application f :
E × E −→ K possédant les propriétés suivantes :
1. f (x + x′ , y) = f (x, y) + f (x′ , y)
2. f (λx, y) = λf (x, y)
3. f (y, x) = f (x, y)
4. f (x, x) ≥ 0
5. f (x, x) = 0 ⇔ x = 0
∀x, x′ , y ∈ E, λ ∈ K

Définition 3.1.4

e produit scalaire défini sur un espace vectoriel E induit une norme sur E : x 7→ ⟨x, x⟩1/2 = ∥x∥. Dans
ce cas l’espace est dit préhilbertien.

Définition 3.1.5
n espace de Hilbert H est un espace préhilbertien complet

3.2 Semi-groupes en dimension infinie :


Un semi-groupe en dimension infinie est un concept fondamental en analyse fonctionnelle, particulièrement
dans l’étude des équations différentielles dans les espaces de Banach ou de Hilbert.

Définition 3.2.1

oit X un espace de Banach (ou de Hilbert), on appelle semi-groupe fortement continu (ou semi-groupe
C0 ) une famille d’opérateurs linéaires (T (t))t≥0 sur X vérifiant :
1. T (0) = I (l’opérateur identité sur X),
2. T (t + s) = T (t)T (s) pour tous t, s ≥ 0 (propriété de semi-groupe),
3. Pour chaque x ∈ X, la fonction t 7→ T (t)x est continue sur [0, ∞[.
C’est une généralisation du concept de semi-groupe de matrices à un cadre infinidimensionnel (comme
des espaces de fonctions).

Exemple 3.3: Soit X = L2 (R), l’espace des fonctions carrées intégrables sur R. On peut définir un semi-groupe
(T (t)) par :

(T (t)f )(x) = f (x + t)
C’est une translation de la fonction vers la gauche. Cette famille d’opérateurs forme un semi-groupe fortement
continu.
Remarque 3.3.1: Les semi-groupes en dimension infinie apparaissent souvent comme solution d’équations
différentielles ou d’évolution dans les espaces de Banach :
d
u(t) = Au(t), u(0) = x
dt
où A est le générateur infinitésimal du semi-groupe.

Proposition 3.3.1: Soit X un espace de Banach et (T (t))t≥0 un semi-groupe fortement continu d’opéra-
teurs linéaires sur X.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Identité à l’origine :
T (0) = I
où I est l’opérateur identité sur X.
Propriété de semi-groupe :
T (t + s) = T (t)T (s), ∀t, s ≥ 0
Cette propriété signifie que l’évolution du système peut être décomposée dans le temps.
Continuité forte : Pour tout x ∈ X, l’application

t 7→ T (t)x

est continue sur [0, ∞[. C’est la propriété de continuité forte.


Croissance exponentielle : Il existe des constantes M ≥ 1 et ω ∈ R telles que :

∥T (t)∥ ≤ M eωt , ∀t ≥ 0

Cette condition est appelée condition de croissance exponentielle.


Générateur infinitésimal : Le générateur A du semi-groupe est défini par :

T (t)x − x
Ax = lim+
t→0 t
pour x ∈ D(A), le domaine de définition de A. C’est un opérateur non borné en général.
Lien semi-groupe/générateur : Le semi-groupe T (t) est solution de l’équation différentielle :

d
T (t) = AT (t)
dt
avec condition initiale T (0) = I.
La connaissance de A (le générateur) permet de reconstruire le semi-groupe T (t), et donc la solution
de l’équation différentielle associée :
d
u(t) = Au(t), u(0) = x
dt
⇒ u(t) = T (t)x

Unicité du semi-groupe : Si A est le générateur d’un semi-groupe fortement continu, alors ce semi-groupe
est unique.

résumé 3.3.1: Les semi-groupes en dimension infinie ont des propriétés très similaires aux exponentielles de
matrices, mais adaptés aux opérateurs dans des espaces fonctionnels. Ils sont très utilisés dans la résolution
des :
— équations aux dérivées partielles
— systèmes dynamiques
— équations d’évolution

3.3.1 Exemples concrets :


— Semi-groupe de la chaleur : T (t) = et∆
— Semi-groupe de translation : (T (t)f )(x) = f (x + t)
— Semi-groupe d’évolution quantique : T (t) = e−itH

3.3.2 Cas particuliers importants :


— Semi-groupe de contractions : Si chaque T (t) est une contraction (i.e., ∥T (t)∥ ≤ 1 dans un espace de
Banach).
— Semi-groupe fortement continu (ou C0 -semi-groupe) : Le cas le plus étudié en analyse fonctionnelle,
où t 7→ T (t)x est continue pour tout x ∈ X.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


— Semi-groupe analytique : Où T (t) admet un prolongement analytique dans un secteur du plan com-
plexe.

Dans la suite nous présentons un résultat important concernant les semi-groupes de classe C0 . Il s’agit du
théorème de Hille-Yosida qui donne une caractérisation pour les opérateurs qui soient générateurs de C0 -semi-
groupes.

Définition 3.3.1
L’opérateur
Rλ : X → X
Z +∞
Rλ x = e−λt T (t)x dt
0

s’appelle la transformée de Laplace du semi-groupe {T (t)}t≥0 ∈ SG(M, ω).

Théorème 3.3.1

Soient {T (t)}t≥0 un C0 -semi-groupe et A son générateur infinitésimal. Pour tout λ ∈ C avec Re λ > ω,
on a :
M
∥R(λ, A)n ∥ ≤ , n ∈ N∗ .
(Re λ − ω)n

Démonstration. Soit {T (t)}t≥0 un C0 -semi-groupe, alors :

∥T (t)∥ ≤ M eωt ∀t ≥ 0.

D’après le théorème (2.1), si Re λ > ω, nous avons λ ∈ ρ(A) et :


Z +∞
R(λ, A)x = e−λt T (t)x dt, ∀x ∈ X.
0

De plus :
M
∥R(λ, A)x∥ ≤ ∥x∥.
Re λ − ω
Il est clair que : Z +∞
d
R(λ, A)x = − te−λt T (t)x dt, ∀x ∈ X
dλ 0
et par récurrence on montre que :
+∞
dn
Z
R(λ, A)x = (−1)n tn e−λt T (t)x dt, ∀x ∈ X et n ∈ N∗ .
dλn 0

D’autre part, nous avons :


dn
R(λ, A)x = (−1)n n!R(λ, A)n+1 x, ∀x ∈ X et n ∈ N∗ .
dλn
Par suite, on obtient :
Z +∞
n
(−1) n!R(λ, A) n+1
x = (−1) n
tn e−λt T (t)x dt, ∀x ∈ X et n ∈ N∗ .
0

De plus, on a l’estimation :
+∞
M ∥x∥
Z
∥R(λ, A)n x∥ ≤ tn−1 e−(Re λ−ω)t dt.
(n − 1)! 0

En intégrant par parties répétées, on obtient :


M ∥x∥(n − 1)! M ∥x∥
∥R(λ, A)n x∥ ≤ n
= .
(n − 1)!(Re λ − ω) (Re λ − ω)n

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Ceci étant valable pour tout x ∈ X et tout n ∈ N∗ , on en déduit :

M
∥R(λ, A)n ∥ ≤ , n ∈ N∗ .
(Re λ − ω)n

Lemme 3.3.1

Soit A : D(A) ⊂ X → X un opérateur linéaire vérifiant les propriétés suivantes :


(i) A est un opérateur fermé et D(A) = X
(ii) Il existe ω ≥ 0 et M ≥ 0 tel que {λ ∈ C | Re λ > ω} ⊂ ρ(A) et pour tout λ avec Re λ > ω on a :

M
∥R(λ, A)n ∥ ≤ , n ∈ N∗ .
(Re λ − ω)n

Alors pour tout λ avec Re λ > ω nous avons :

lim λR(λ, A)x = x, ∀x ∈ X.


Re λ→+∞

De plus :
λAR(λ, A) ∈ B(X) et lim λAR(λ, A)x = Ax, ∀x ∈ D(A).
Re λ→+∞

Démonstration. Soient x ∈ D(A) et λ ∈ C tel que Re λ > ω. Alors R(λ, A)(λI − A)x = x. Si Re λ → +∞ nous
avons :
M
∥λR(λ, A)x − x∥ = ∥R(λ, A)Ax∥ ≤ ∥R(λ, A)∥∥Ax∥ ≤ ∥Ax∥ → 0.
Re λ − ω
D’où il résulte que :
lim λR(λ, A)x = x, ∀x ∈ D(A).
Re λ→+∞

Soit x ∈ X. Puisque D(A) = X, il existe une suite (xn )n∈N ⊂ D(A) telle que xn → x quand n → +∞. Nous
avons :

∥λR(λ, A)x − x∥ ≤ ∥λR(λ, A)x − λR(λ, A)xn ∥ + ∥λR(λ, A)xn − xn ∥ + ∥xn − x∥


≤ ∥λR(λ, A)∥∥xn − x∥ + ∥λR(λ, A)xn − xn ∥ + ∥xn − x∥
|λ|M M
≤ ∥xn − x∥ + ∥Axn ∥ + ∥xn − x∥
Re λ − ω Re λ − ω
 
|λ|M + Re λ − ω M
= ∥xn − x∥ + ∥Axn ∥
Re λ − ω Re λ − ω

Comme xn → x quand n → ∞, pour tout ε > 0, il existe nε ∈ N tel que :

Re λ − ω
∥xnε − x∥ < ε .
|λ|M + Re λ − ω

Par conséquent :
M
∥λR(λ, A)x − x∥ ≤ ε + ∥Axnε ∥.
Re λ − ω
D’où :
lim sup ∥λR(λ, A)x − x∥ ≤ ε ∀x ∈ X.
Re λ→+∞

Autrement dit :
lim λR(λ, A)x = x, ∀x ∈ X.
Re λ→+∞

De plus, nous avons l’identité :

λAR(λ, A) = λ[λI − (λI − A)]R(λ, A) = λ[λR(λ, A) − I] = λ2 R(λ, A) − λI.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Par suite, on obtient :

∥λAR(λ, A)x∥ = ∥λ[λR(λ, A) − I]x∥


≤ |λ|∥λR(λ, A)x − x∥
≤ |λ| (∥λR(λ, A)x∥ + ∥x∥)
 
|λ|M
≤ |λ| + 1 ∥x∥, ∀x ∈ X
Re λ − ω

ce qui montre que λAR(λ, A) ∈ B(X).


Si x ∈ D(A), alors nous avons :

λR(λ, A)Ax = [λ2 R(λ, A) − λI]x = λAR(λ, A)x.

D’où il résulte que :

lim λAR(λ, A)x = lim λR(λ, A)Ax = Ax, ∀x ∈ D(A).


Re λ→+∞ Re λ→+∞

Remarque 3.3.2: On peut dire que les opérateurs bornés λAR(λ, A) sont des approximations pour l’opérateur
non borné A.

Définition 3.3.2

a famille {Aλ }λ∈Cω , où Aλ = λAR(λ, A), s’appelle l’approximation généralisée de Yosida de l’opérateur
A.

3.3.3 Systèmes d’équations différentielles


Un système d’équations différentielles du 1er ordre à coefficients constants est du type :
 dx
 dt = a11 x1 + a12 x2 + · · · + a1n xn + f1 (t),
1

dx

 2 = a21 x1 + a22 x2 + · · · + a2n xn + f2 (t),

dt
..


 .

 dxn
dt = an1 x1 + an2 x2 + · · · + ann xn + fn (t)

où les fi (t) sont des fonctions de t et les aij sont des constantes. Si nous imposons aux xi (t) de satisfaire le
système en plus des conditions initiales

x1 (t0 ) = c1 , x2 (t0 ) = c2 , . . . , xn (t0 ) = cn (3.2)

(3.1) et (3.2) est appelé problème aux conditions initiales. On peut le formuler sous la forme :

X ′ (t) = AX(t) + f (t); X(t0 ) = c (3.3)

X(t) = (x1 (t), . . . , xn (t))⊤ ,


f (t) = (f1 (t), . . . , fn (t))⊤ ,
c = (c1 , . . . , cn )⊤ ,
A = (aij )1≤i,j≤n

et désigne la transposée.
 Notre but est de résoudre (3.1) en utilisant la diagonalisation et la Jordanisation. ∃P, P −1 AP = D =
λ1 · · · 0
 .. .. ..  , A = P DP −1
. . . 
0 ··· λn
X ′ (t) = P DP −1 X(t) + f (t); X(t0 ) = c

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


P −1 X ′ (t) = DP −1 X(t) + P −1 f (t); P −1 X(t0 ) = P −1 c
Posons P −1 X(t) = Y (t). Comme P est constante d
dt (P
−1
X(t)) = P −1 X ′ (t), nous avons :

Y ′ (t) = DY (t) + g(t) avec P −1 f (t) = g(t) et d = P −1 c (3.4)

Récrivons (3.3) : 
dy1
= λ1 y1 + g1 (t); y1 (t0 ) = d1 ,
 dt


..
 .
 dyn = λ y + g (t); y (t ) = d

dt n n n n 0 n

Si les fi (t) sont continues sur un intervalle I contenant t0 , alors chaque problème aux conditions initiales a
une solution unique sur I nommément :

λ (t−t0 )
Rt
y1 (t) = d1 e 1
 + t0 eλ1 (t−τ ) g1 (τ )dτ
..

 .
y (t) = d eλn (t−t0 ) + R t eλn (t−τ ) g (τ )dτ

n n t0 n

ou sous forme matricielle : Z t


D(t−t0 )
Y (t) = e d+ eD(t−τ ) g(τ )dτ (3.5)
t0

où  λ1 t 
e 0 ··· 0
 0 eλ 2 t ··· 0 
eDt = .
 
.. .. ..
 ..

. . . 
0 ··· ··· eλ n t
Finalement, on retourne à X(t) :
Z t
X(t) = P eD(t−t0 ) P −1 c + P eD(t−τ ) P −1 f (τ )dτ (3.6)
t0

Exemple 3.2.1

dx1
 dt = x2 ; x1 (0) = 6,

dx2
 dt = 6x1 − x2 − 7 + 6t;
x2 (0) = 4

     
′ 0 1 0 6
X (t) = AX(t) + f (t), A = , f (t) = , c=
6 −1 −7 + 6t 4

−x 1
pA (x) = = x2 + x − 6 = (x + 3)(x − 2), λ1 = 2, λ2 = −3
6 −1 − x
        
−2 1 x 0 1 2 0
= ⇒ y = 2x, V p1 = , D=
6 −3 y 0 2 0 −3
          
3 1 x 0 1 1 1 3/5 1/5
= ⇒ 3x = −y, V p2 = , P = , P −1 =
6 2 y 0 −3 2 −3 2/5 −1/5
(3.5) donne :
   2t    Z t   2(t−τ )   
1 1 e 0 3/5 1/5 6 1 1 e 0 3/5 1/5 0
X(t) = + dτ
2 −3 0 e−3t 2/5 −1/5 4 0 2 −3 0 e−3(t−τ ) 2/5 −1/5 −7 + 6τ

4e2t + e−3t − t + 1
 
X(t) =
8e2t − 3e−3t − 1

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Retournons à (3.6) :
 
−1 1 2 2
Pe Dt
P = P I + Dt + D t + · · · P −1
2!
1
= I + P DP t + P D2 P −1 t2 + · · ·
−1
2!
1
= I + P DP −1 t + P DP −1 P DP −1 t2 + · · ·
2!
1
= I + At + A2 t2 + · · · = eAt
2!

De manière identique, P eD(t−τ ) P −1 = eA(t−τ ) , donc (3.6) s’exprime :


Z t
A(t−t0 )
X(t) = e c+ eA(t−τ ) f (τ )dτ
t0

2ème cas : A n’est pas diagonalisable


On a aussi eAt = P eJt P −1 et eA(t−τ ) = P eJ(t−τ ) P −1 où P −1 AP = J :
1 2 2
eAt = I + At + A t + ···
2!
1
= I + P JP −1 t + P JP −1 P JP −1 t2 + · · ·
2!
1
= I + P JP −1 t + P J 2 P −1 t2 + · · ·
 2! 
1 2 2
= P I + Jt + J t + · · · P −1 = P eJt P −1
2!
Z t
−1
X(t) = P e J(t−t0 )
P c+ P eJ(t−τ ) P −1 f (τ )dτ
t0

Théorème 3.3.2

Un opérateur linéaire A : D(A) ⊂ X → X est le générateur infinitésimal d’un semi-groupe {T (t)}t≥0 ∈


SG(M, ω) si et seulement si :
(i) A est un opérateur fermé et D(A) = X
(ii) Il existe ω ≥ 0 et M ≥ 1 tel que Cω ⊂ ρ(A) et pour λ ∈ Cω on a :

M
∥R(λ, A)n ∥ ≤ , n ∈ N∗
(Re λ − ω)n

Démonstration. Implication directe : Si {T (t)}t≥0 ∈ SG(M, ω) et A son générateur infinitésimal, alors


d’après le théorème 1.6 on obtient (i) et d’après le théorème 2.2 on obtient (ii).
Réciproque : Supposons que A possède les propriétés (i) et (ii). Soit {Aλ }λ∈Λω l’approximation généralisée
de Yosida de A. D’après le lemme 2.1, il résulte que :

Aλ ∈ B(X) et lim Aλ x = Ax, ∀x ∈ D(A)


Re λ→+∞

Pour λ ∈ Λω , soit {Tλ (t)}t≥0 = {etAλ }t≥0 le semi-groupe uniformément continu engendré par Aλ . Avec le
lemme 2.2 on a :

∥Tα (t)x − Tβ (t)x∥ ≤ M 2 teωt ∥Aα x − Aβ x∥ ∀α, β ∈ Λω , x ∈ D(A), t ≥ 0

Considérons l’espace de Banach (D(A), ∥ · ∥D(A) ) et B(D(A), X) l’espace des opérateurs linéaires bornés
sur D(A) à valeurs dans X, muni de la topologie forte. Notons C([0, +∞[, B(D(A), X)) l’espace des fonctions
continues sur [0, +∞[ à valeurs dans B(D(A), X), muni de la topologie de la convergence uniforme sur les
compacts.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Pour tout [a, b] ⊂ [0, +∞[ et x ∈ D(A) :
sup ∥Tα (t)x − Tβ (t)x∥ ≤ M 2 beωb (∥Aα x − Ax∥ + ∥Aβ x − Ax∥)
t∈[a,b]

et (∥Aα x − Ax∥ + ∥Aβ x − Ax∥) → 0 quand Re α, Re β → +∞.


Ainsi {Tλ (t)}λ∈Λ est une suite de Cauchy dans C([0, +∞[, B(D(A), X)), donc il existe un unique T0 ∈
C([0, +∞[, B(D(A), X)) tel que :
C.U
Tλ (t)x −−→ T0 (t)x quand Re λ → +∞, ∀x ∈ D(A)
Comme ∥Tλ (t)∥ ≤ M eωt pour tout t ≥ 0, on a :
∥Tλ (t)x∥ ≤ M eωt ∥x∥, ∀t ≥ 0, x ∈ D(A)
Définissons l’application linéaire :
ψ0 : D(A) → C([a, b], X), ψ0 x = T0 (·)x
qui est continue car :
∥ψ0 x∥C([a,b],X) ≤ M eωb ∥x∥D(A) , ∀x ∈ D(A)
Par densité de D(A), ψ0 se prolonge de façon unique en une application linéaire continue ψ : X → C([a, b], X).
Ainsi, il existe un unique opérateur T ∈ C([a, b], B(X)) tel que :
ψx = T (·)x, ∀x ∈ X
On obtient donc pour tout x ∈ X :
Tλ (t)x → T (t)x quand Re λ → +∞
uniformément sur les compacts de [0, +∞[, avec ∥T (t)∥ ≤ M eωt .
De plus :
T (0)x = lim Tλ (0)x = x et lim T (t)x = x, ∀x ∈ X
Re λ→+∞ t→0
Pour t, s ≥ 0 et x ∈ X, on vérifie la propriété de semi-groupe :
T (t + s)x = T (t)T (s)x
Identification du générateur : Montrons que A est le générateur infinitésimal de {T (t)}t≥0 . Pour x ∈
D(A) :
Z t
T (t)x − x = T (s)Ax ds
0
donc :
T (t)x − x
lim = Ax
t→0 t
Soit B le générateur de {T (t)}t≥0 . On a D(A) ⊂ D(B) et B|D(A) = A. Pour λ ∈ Λω , λ ∈ ρ(A) ∩ ρ(B).
Pour x ∈ D(B), il existe x′ ∈ D(A) tel que (λI −A)x′ = (λI −B)x, d’où x = x′ ∈ D(A). Ainsi D(B) = D(A)
et A = B.

Théorème 3.3.3

n opérateur linéaire A est le générateur infinitésimal d’un C0 -semi-groupe de contractions {T (t)}t>0 sur
X si et seulement si :
1. D(A) = X et A est un opérateur fermé,
2. ]0, +∞[⊂ ρ(A) et pour tout λ > 0 on a ∥R(λ, A)∥ ≤ λ1 .

3.4 Opérateurs bornés :


Définition 3.4.1
Un opérateur T sur un espace de Banach X est une application linéaire de X dans lui-même.
Un opérateur continu ou borné est un opérateur tel que sup∥x∥=1 ∥T x∥ < +∞. On note L(X) l’espace
vectoriel des opérateurs bornés sur X. [Bir]

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


3.4.1 Topologies sur les opérateurs bornés :
On peut définir plusieurs topologies sur l’espace des opérateurs, on en utilisera principalement deux :

— La topologie en norme d’opérateur


— La topologie faible qui est la plus petite topologie rendant continues les applications αx,l définies sur L(X)
par αx,l (T ) = l(T (x)) pour x ∈ X, l ∈ X ∗ .

3.4.2 Spectre d’un opérateur :


L’ensemble résolvante d’un opérateur T est l’ensemble ρ(T ) = {λ ∈ C, λI − T ∈ GL(X)}. L’ensemble
résolvante est un ouvert de C. On définit le spectre σ(T ) = C \ ρ(T ).
On définit alors la résolvante de T comme Rλ (T ) = (λI − T )−1 .

Théorème 3.4.1
Soit T un opérateur sur un Banach X, on a :
1. Pour λ et µ dans une même composante connexe de ρ(T ), Rλ (T ) − Rµ (T ) = (λ − µ)Rλ (T )Rµ (T ).
De plus sur cette composante connexe, les résolvantes commutent.
2. λ → Rλ (T ) est analytique sur ρ(T ).

Démonstration. Soit λ ∈ ρ(T ), on définit la série


!
X
n
R(z) = Rλ (T ) I + (λ − z) Rλn (T )
i=1

qui converge en norme si |z − λ| < ∥Rλ (T )∥−1 et vérifie R(z)(zI − T ) = (zI − T )R(z) = I d’où R(z) = Rz (T ).
L’égalité de (1) et la commutativité sont immédiates.

3.4.3 Adjoints :
Si X est un espace de Hilbert, on rappelle que si T ∈ L(X) alors ∃!V ∈ L(X) tel que (T (x), y) = (x, V (y)).
On note alors V = T ∗ , c’est l’adjoint de T .

Définition 3.4.2

Opérateur autoadjoint, normal, unitaire). On rappelle les définitions suivantes :


— T est dit autoadjoint lorsque T ∗ = T
— T est dit normal lorsque T T ∗ = T ∗ T
— T est dit unitaire lorsque T T ∗ = I (opérateur identité)

3.5 Propriétés des opérateurs :


3.5.1 Opérateurs auto-adjoints :

Théorème 3.5.1
Si T est auto-adjoint alors :
1. σ(T ) est inclus dans R
2. Les sous-espaces propres de T sont orthogonaux

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


3.5.2 Opérateurs compacts
Définition 3.5.1

armi les opérateurs bornés, on distingue les opérateurs compacts, et on note leur espace vectoriel K(X).
Ce sont les opérateurs qui envoient les parties bornées de X sur des parties relativement compactes de
Y.

Exemple : Les opérateurs de rang fini sont compacts par le théorème de Riesz.

Proposition 3.5.1

Si (xn ) (suite à valeurs dans un Hilbert H) converge faiblement vers x, et si T est compact, alors T (xn )
converge vers T x au sens de la norme.

Démonstration. La suite ∥xn ∥ est bornée par le théorème de Banach-Steinhaus. On raisonne ensuite par l’ab-
surde.

Proposition 3.5.1 (Stabilité des compacts): — Si (Tn ) est une suite d’opérateurs compacts qui converge
vers T pour la norme d’opérateur, alors T est compact.
— Si T ou S est compact, alors T S est compact.

Démonstration. (1) Par extraction diagonale. (2) Immédiat.

Proposition 3.5.2 (Caractérisation en dimension separable): Sur un Hilbert séparable, T est compact si
et seulement si il est la limite (au sens de la norme d’opérateur) d’une suite d’opérateurs de rang fini.ub

3.6 La convergence de la série dans L(X) :


P∞ k
Montrons que la série k=0 Ak! converge dans l’espace de Banach L(X). - Considérons la somme partielle
Pn k
Sn = k=0 Ak! . - Pour m > n, estimons la norme de la différence :
m m
X Ak X ∥A∥k
∥Sm − Sn ∥ = ≤ .
k! k!
k=n+1 k=n+1

P∞ k
- La série réelle k=0 ∥A∥ k! converge (vers e∥A∥ ), donc son terme reste est une suite de Cauchy. Ainsi, pour
ϵ > 0, il existe N tel que pour m > n ≥ N ,
m
X ∥A∥k
< ϵ.
k!
k=n+1

- Par conséquent, ∥Sm − Sn ∥ < ϵ, ce qui montre que {Sn } est une suite de Cauchy dans L(X). - Comme L(X)
est complet, {Sn } converge vers un opérateur noté eA .
Continuité Uniforme de eA - L’opérateur eA est une limite d’opérateurs bornés Sn dans L(X), et L(X) est
fermé pour la norme opérateur. Ainsi, eA est également un opérateur borné. - Tout opérateur linéaire borné sur
un espace de Banach est uniformément continu (car ∥eA x − eA y∥ ≤ ∥eA ∥ · ∥x − y∥).
P∞ k
Conclusion - La série k=0 Ak! converge dans L(X) vers eA . - eA est un opérateur linéaire borné, donc
uniformément continu.
Réponse Finale


X Ak
converge toujours vers un opérateur uniformément continu eA ∈ L(X).
k!
k=0

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


3.7 Opérateurs non bornés :
Définition 3.7.1

- Opérateur non borné : Un opérateur linéaire T entre espaces de Banach X et Y est dit *non borné*
s’il n’est pas continu, c’est-à-dire s’il n’existe pas de constante C ≥ 0 telle que :

∥T x∥Y ≤ C∥x∥X ∀x ∈ Dom(T ).

Domaine : Contrairement aux opérateurs bornés, T n’est défini que sur un sous-espace Dom(T ) ⊂ X
(souvent dense).
d
Exemple classique : L’opérateur de dérivation D = dx sur L2 (R), avec Dom(D) = H 1 (R) (les fonctions
2
de carré intégrable dont la dérivée est aussi dans L ).

Graphe et fermeture : - Graphe : Le graphe Γ(T ) de T est l’ensemble {(x, T x) | x ∈ Dom(T )} ⊂ X ×Y . -
Opérateur fermé : T est *fermé* si son graphe est fermé dans X ×Y . - Opérateur fermable : Si l’adhérence
de Γ(T ) est le graphe d’un opérateur, ce dernier est appelé *fermeture* de T .
Théorème du graphe fermé : Si T est fermé et Dom(T ) est fermé dans X, alors T est borné (d’où
l’importance des domaines non fermés pour les opérateurs non bornés).

Adjoint et symétrie : - Adjoint T ∗ : Pour T dense dans un espace de Hilbert H, l’adjoint est défini par :

Dom(T ∗ ) = {y ∈ H | ∃z ∈ H, ⟨T x, y⟩ = ⟨x, z⟩ ∀x ∈ Dom(T )}, T ∗ y = z.

Auto-adjoint : T = T ∗ (avec Dom(T ) = Dom(T ∗ )). Exemple : l’opérateur −i dx


d
en mécanique quantique.
Symétrique : ⟨T x, y⟩ = ⟨x, T y⟩ pour tout x, y ∈ Dom(T ).

Remarque 3.7.1: En effet, les opérateurs non bornés ne peuvent pas engendrer des semi-groupes uniformément
continus sur un espace de Banach X. Cette limitation est liée à la théorie des semi-groupes d’opérateurs et aux
propriétés fondamentales des générateurs infinitésimaux. Voici une explication détaillée :

1. Semi-groupes uniformément continus et leur générateur Un semi-groupe {T (t)}t≥0 d’opérateurs linéaires
sur X est dit uniformément continu si :
lim ∥T (t) − I∥ = 0,
t→0+

où I est l’identité et ∥ · ∥ est la norme opérateur.


- Théorème fondamental : Un semi-groupe {T (t)} est uniformément continu si et seulement si son générateur
infinitésimal A est un opérateur borné sur X. Dans ce cas, le semi-groupe s’exprime comme une exponentielle :


X (tA)n
T (t) = etA = .
n=0
n!


2. Pourquoi les opérateurs non bornés ne peuvent pas engendrer de semi-groupes uniformément continus ?
P∞ n
- Argument clé : Si A est non borné, la série n=0 (tA) n! ne converge pas en norme opérateur, car ∥An ∥ peut
n
croître trop vite (par exemple, ∥A ∥ ∼ n! dans certains cas).
- Conséquence : La condition limt→0+ ∥T (t) − I∥ = 0 échoue. En effet, pour A non borné, ∥T (t) − I∥ peut
même être infini pour tout t > 0.

3. Cas des semi-groupes fortement continus (de classe C0 ) Pour les opérateurs non bornés, on se tourne vers
des notions plus faibles de continuité : - Semi-groupe fortement continu : {T (t)} vérifie :

lim ∥T (t)x − x∥ = 0 ∀x ∈ X.
t→0+

Exemple : Le semi-groupe de la chaleur et∆ (où ∆ est le Laplacien) est fortement continu mais pas unifor-
mément continu.

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025


Théorème 3.7.1
Théorème de Hille-Yosida :
Pour qu’un opérateur A engendre un semi-groupe fortement continu {T (t)}t≥0 , il faut et suffit que :
1. A soit fermé et à domaine dense,
2. Il existe ω ∈ R tel que (ω, +∞) ⊂ ρ(A) (résolvante non vide),
3. ∥(λI − A)−n ∥ ≤ (λ−ω)
M
n pour λ > ω.

3.7.1 Opérateurs fermés :


Définition 3.7.2
T est fermé si et seulement si son graphe est fermé.

Si l’opérateur est fermé, on garde les mêmes définitions de spectre et résolvante. De plus si l’opérateur est
défini sur un domaine dense, on conserve l’identité de la résolvante. On traitera maintenant avec des opérateurs
fermés dont le domaine de définition est dense.

3.8 Opérateurs dissipatifs :


On trouve beaucoup de définitions différentes pour les opérateurs dissipatifs mais on peut en choisir une
sans changer la nature des résultats. On prend donc celle de la référence [Roy10].

Définition 3.8.1

Soit T ∈ L(H), T est dissipatif si et seulement si ∀x ∈ H, Im(T x, x) ≤ 0. De plus T est maximal s’il
n’admet pas d’extensions dissipatives non triviales.

Proposition 3.8.1

Soit H un espace de Hilbert et T un opérateur dissipatif sur H. Les propositions suivantes sont équiva-
lentes :
1. ∀z ∈ C+ , z ∈
/ σ(T )
2. ∃z ∈ C+ , z ∈
/ σ(T )
3. T est maximal

C’est surtout l’équivalence entre (1) et (2) qui est intéressante.

Exemple Dans Cn , si T est diagonalisable, on a équivalence entre :


— T est dissipatif
— Toutes les valeurs propres de T sont dans le demi-plan inférieur {z ∈ C | Im(z) ≤ 0}

Univérsité Ibn Zohr Année Universitaire 2024–2025 2024/2025

Vous aimerez peut-être aussi