Matrices et algèbre linéaire
Matrices et algèbre linéaire
30 août 2023
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
Dans tout ce chapitre et sauf mention expresse — d’autre part que toute combinaison linéaire des (Eij )
du contraire, n, m, p, q, r et t désignent des entiers est égale à une matrice dont les coefficients sont
ceux de la combinaison linéaire, P qu’en conséquence
naturels non nuls, et K désigne R ou C.
toute combinaison linéaire λ E
(i,j)∈[[1,n]]×[[1,p]] ij ij
de valeur nulle est aussi égale à la matrice des
(λij )(i,j)∈[[1,n]]×[[1,p]] qui ne peut donc avoir que des
1. Structure de Mn,p (K). coefficients tous nuls et que la famille des (Eij ) est
donc libre.
On reviendra avec profit sur le cours sur les
matrices du premier semestre.
1.2. Remarques sur le produit.
1.1. Structure d’espace vectoriel. a. Colonnes d’un produit.
4. Le produit externe est distributif à gauche par rapport Or Cα est la αe colonne de B, donc pour tout k ∈ [[1, p]]ck =
à l’addition. bkα .
5. On a la propriété d’associativité mixte. ACα a donc même coefficients que la αe colonne de AB,
elle lui est donc égale.
Il reste à montrer que la famille des (Ei,j )(i,j)∈[[1,n]]×[[1,p]]
en est une base.
Pour cela, il suffit de remarquer que pour toute matrice b. Application canoniquement associée.
M , de coefficients (mij )(i,j)∈[[1,n]]×[[1,p]] , on a
M=
X
mij Eij .
Définition 1.2.2.
(i,j)∈[[1,n]]×[[1,p]]
Soit M ∈ Mn,p (K). On appelle application li-
néaire canoniquement associée à M l’application
On en déduit donc :
— d’une part que toute matrice M s’écrit d’au moins
(
Mp,1 (K) −→ Mn,1 (K)
une façon comme combinaison linéaire des Eij pour u:
(i, j) ∈ [[1, n]] × [[1, p]] et que la famille (Eij ) est X 7−→ M X
génératrice ;
2
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
Proposition 1.2.3.
Remarque 1.2.7.
Cette application est bien une application linéaire.
Dessiner les matrices pour voir de quoi il retourne.
La démonstration suivante n’est que la description
Démonstration. du dessin.
Pour tout (X, Y ) ∈ Mp,1 (K) et tout λ ∈ K, on a
Démonstration.
u(λX + Y ) = M (λX + Y ) ′
Soit α ∈ [[1, q]]. La αe colonne de Eij × Ekh est Eij Cα où
e ′
= λ(M X) + M Y Cα est la α colonne de Ekh . Si α ̸= h, Cα = 0p1 , donc
′
toutes les colonnes de Eij × Ekh sont nulles sauf peut-être
= λu(X) + u(Y ). e
la h .
Cette he colonne de Ekh est égale à Eij Ch . Ch étant
le ke vecteur de la base canonique de Mp,1 (K), Eij Ch est
la ke colonne de Eij . Celle-ci est nulle si j ̸= k. Sinon, il
Définition 1.2.4. s’agit du ie vecteur de la base canonique de Mn,1 (K).
On appelle noyau (resp. image) de M et on note On en déduit le résultat.
On peut également adopter une démonstration purement
Ker M (resp. Im M ) le noyau (resp. l’image) de calculatoire. Notons (mab )(a,b)∈[[1,n]]×∈[[1,q]] les coefficients
l’application linéaire canoniquement associée à du produit Eij Ekh ′
. Alors, soit (a, b) ∈ [[1, n]] × [[1, q]]. On a
M. p
X
mab = (δai δcj )(δck δbh )
Remarque 1.2.5. c=1
Si M ∈ Mn,p (K), le noyau de M est l’ensemble des = (δai δjj (δjk δbh )
solutions du système linéaire homogène M X = 0. = δjk (δai δbh )
3
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
Définition 2.2.1.
Exemple 2.1.2. 1. Dans R2 , notons B la base
Soient E un K-ev de dimension finie p et F un K-
canonique et B ′ la base ((0, 1); (1, 1)). Avec
ev de dimension finie n. Soient B = (e1 , . . . , ep ) et
F = ((1, 2); (0, 3); (−1, 1)), on a
C = (f1 , . . . , fn ) des bases de E et F respective-
ment. Soit u ∈ L (E, F ). On appelle matrice de u
!
1 0 −1
MatB (F ) = , relativement à B et C , notée MatB,C (u) (parfois
2 3 1
! MB,C (u)), la matrice MatC (u(e1 ), . . . , u(ep )) ∈
1 3 2 Mn,p (K).
MatB′ (F ) = .
1 0 −1 Autrement dit, cette matrice contient les coordon-
nées des images des vecteurs de la base de départ
2. Dans R3 [X] muni de la base canonique B, décomposés dans la base d’arrivée.
avec la famille F = (1 + X 2 ; 1 + X + X 2 +
X 3 ; X 3 − 2), on a
Remarque 2.2.2.
1 1 −2 Si B = C , on note MatB (u) = MatB,B (u).
0 1 0
MatB (F ) = .
1 1 0 Remarque 2.2.3.
0 1 1 On pourra représenter f et sa matrice dans un
schéma comme représenté dans la figure 1.
3. Matrice d’une famille de vecteurs de Kn dans
la base canonique. f
E, B F, C
4. La matrice d’une famille de vecteurs colonnes MatB,C (f )
C1 , . . ., Cp éléments de Mn,1 (K) dans la base
canonique est la matrice dont les colonnes
sont C1 , . . ., Cp . Figure 1 – Représentation schématique de la
matrice d’une application linéaire.
Théorème 2.1.3.
Soit B = (e1 , . . . , en ) une base d’un K-ev E de Exemple 2.2.4.
dimension finie n. Alors l’application Soit u : R2 → R2 , (x, y) 7→ (x − y, 3x + 2y), B =
( (e1 , e2 ) la base canonique B de R2 On a u(e1 ) =
(E, +, .) → (Mn,1 (K), +, .) (1, 3) = e1 + 3e2 et u(e2 ) = (−1, 2) = −e1 + 2e2 .
φ :
x 7→ MatB (x) Ainsi, la matrice associée à u relativement à B
est !
est un isomorphisme d’espaces vectoriels. 1 −1
MatB (u) = .
3 2
Démonstration. ! !!
n n
1 0
Avec C la base (f1 , f2 ) =
X X
Soient x, y ∈ E tels que x = xk ek et y = yk ek . Soit ; , on a
k=1 k=1
1 −1
4
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
retrouver l’expression de φ.
5. Donner la matrice de R3 [X] → R3 [X] Proposition 2.2.9.
P 7→ P ′ Soit M ∈ Mn,p (K). La matrice de l’application li-
dans les bases canoniques. néaire canoniquement associée à M dans les bases
6. Donner la matrice de R3 [X] → R canoniques de Mn,1 (K) et Mp,1 (K) est M .
P 7→ P (π)
dans les bases canoniques.
Démonstration.
Exercice 2.2.6. Notons u l’application canoniquement associée à M .
Soit a, b ∈ R. Dans R-ev C, exprimer la matrice D’après la remarque ? ?, pour tout k ∈ [[1, p]], l’image
de z 7→ (a + ib)z dans la base canonique (1, i). par u du ke vecteur de la base canonique est la ke colonne
de M . Donc la matrice de u est la matrice des vecteurs
colonnes de M dans la base canonique : c’est donc M .
Théorème 2.2.7.
Soient E un K-ev de dimension finie p et F un K-
ev de dimension finie n. Soient B = (e1 , . . . , ep ) et Théorème 2.2.10.
C = (f1 , . . . , fn ) des bases de E et F respective- On garde les mêmes notations. On considère l’ap-
ment. Soit M ∈ Mn,p (K). Il existe une unique ap- plication
plication u ∈ L (E, F ) telle que M = MatB,C (u) : (
c’est l’unique application linéaire associant, pour (L (E, F ), +, .) −→ (Mn,p (K), +, .)
tout j ∈ [[1, p]], au j e vecteur de la base B le φ: .
u 7−→ MatB,C (u)
vecteur dont la colonne des coordonnées dans la
base C est la j e colonne de M . Alors, φ est un isomorphisme d’espaces vectoriels.
5
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
Proposition 2.2.12.
Avec les mêmes notations qu’en 2.2.1, on a Corollaire 2.2.15.
Avec les mêmes notations, soit F une famille de
∀x ∈ E MatC (u(x)) = MatB,C (u) × MatB (x). vecteurs de E, alors
Alors on a x =
X
xj ej , donc u(x) =
X
xj u(ej ).
f ∈ L (F, G), g ∈ L (E, F ). Alors
j=1 j=1
n
X MatB,D (f ◦ g) = MatC ,D (f ) × MatB,C (g).
Par ailleurs, pour tout j ∈ [[1, p]], u(ej ) = mij fi .
i=1
On a donc
p
X n
X Démonstration.
u(x) = xj mij fi En utilisant le corollaire 2.2.15 :
j=1 i=1
n p MatB,D (f ◦ g) = MatD (f ◦ g(B))
X X
= xj mij fi = MatD (f (g(B)))
i=1 j=1 = MatC ,D (f ) × MatC (g(B))
n
X = MatC ,D (f ) × MatB,C (g).
= yi fi .
i=1
6
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
Remarque 2.2.17.
Ce résultat peut être vu comme LA raison pour la- Définition 2.2.20.
quelle le produit matriciel est associatif. On peut Soient (A1 , +, ×) et (A2 , +, ×) deux anneaux, et
en effet en tirer une démonstration non calcula- φ : A1 → A2 . On dit que φ est un morphisme
toire de l’associativité du produit matriciel : étant d’anneaux si c’est un morphisme de groupes pour
donné trois matrices A, B, C telles que le produit la loi + et φ(1A1 ) = 1A2 et ∀x, y ∈ A1 φ(x×y) =
A(BC) soit bien défini, il suffit de choisir quatre φ(x) × φ(y)
espaces vectoriels, des bases de ces espaces vecto-
riels et trois applications f , g et h telles que les
Remarque 2.2.21.
matrices A, B et C soient respectivement celles de
Ne pas oublier la condition φ(1A1 ) = 1A2 . L’ap-
f , g et h. Alors A(BC) est la matrice de f ◦ (g ◦ h)
plication suivante, qui vérifie toutes les autres
et (AB)C est celle de (f ◦ g) ◦ h. Or la composi-
conditions, n’est en effet pas un morphisme d’an-
tion d’application est associative donc ces deux
neau :
applications sont égales, donc A(BC) = (AB)C.
Z/2Z → Z/6Z
On laisse au lecteur le soin de vérifier que la 0 7→ 0
propriété d’associativité du produit matriciel n’a 1 7→ 3
pas été utilisée dans la démonstration ci-dessus
ni dans les résultats ou définitions qu’elle utilise.
N M
g Démonstration.
f
Le théorème 2.2.10 assure que c’est un isomorphisme de
f ◦g groupes pour la loi +, le théorème 2.2.16 montre que
E, B G, D l’image du produit est le produit des images et l’image du
MN neutre de L (E) pour la composition (qui est l’application
identité sur E) est le neutre de Mn (K) pour le produit
(qui est In ).
Figure 3 – Diagramme de composition d’appli-
cations linéaires et de leurs représen-
tations matricielles. 2.3. Inversibilité.
7
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
Démonstration.
Soit E et F deux espaces vectoriels de dimension finies Corollaire 2.3.4.
respectives p et n. Soit B une base de E et C une base de F . Soit A et B deux matrices carrées de taille n.
Soit u ∈ L (E, F ) et v ∈ L (F, E). Posons A = MatB,C (u)
Alors AB = In si et seulement si A et B sont
et B = MatC ,B (v).
On a :
inversibles et sont inverses l’une de l’autre.
Il est donc équivalent pour une matrice (carrée)
u ◦ v = IdF ⇐⇒ MatC ,C (u ◦ v) = In d’être :
⇐⇒ MatB,C (u) × MatC ,B (v) = In
1. inversible ;
⇐⇒ AB = In
2. inversible à gauche ;
De même 3. inversible à droite.
v ◦ u = IdE ⇐⇒ BA = Ip
En particulier, si u est un isomorphisme, d’isomorphisme
réciproque v, alors AB = In et BA = Ip . De plus, on a Démonstration.
alors dim E = dim F , donc n = p. Donc A est une matrice Pour montrer cette équivalence, il suffit de montrer le
carrée et B est son inverse. sens direct, l’autre découlant directement de la définition
Réciproquement, si u ∈ L (E, F ) possède une matrice d’inverse.
inversible A, alors en notant v l’unique application linéaire Supposons donc AB = In .
telle que A−1 = MatC ,B (v), on a u ◦ v = IdF et v ◦ u = Notons u et v les applications linéaires canoniquement
IdE . associées respectivement à A et B relativement à la base
canonique.
Remarque 2.3.2. En reprenant la démonstration précédente, on peut re-
Soit M une matrice carrée, u l’endomorphisme marquer que u ◦ v = IdF , donc v est un endomorphisme
injectif et u un endomorphisme surjectif.
qui lui est canoniquement associé. On peut utiliser
La dimension de Kn étant finie, on u et v sont donc des
la proposition précédente pour montrer que M automorphismes et on a v = u−1 ◦ u ◦ v = u−1 ◦ IdF = u−1 .
est inversible et déterminer, le cas échéant, son Donc d’après la proposition précédente A et B sont
inverse. inversibles et sont inverses l’une de l’autre.
— On commence par prendre X, Y deux vec-
teurs colonne ayant autant de lignes que
M. Corollaire 2.3.5.
— On résout en X le système M X = Y . Dans un espace vectoriel E de dimension finie n,
— S’il y a toujours existence et unicité de la la matrice d’une famille de vecteurs est inversible
solution, on lit X = M −1 Y . si et seulement si cette famille de vecteurs est une
Cela correspond bien à ce qui était fait auparavant, base.
la proposition précédente justifie bien que l’on
puisse conclure à l’inversibilité de M directement, Démonstration.
et obtenir son inverse. Pour que la matrice soit inversible, il est nécessaire qu’elle
soit carrée. Pour que la famille de vecteur soit une base, il
Exemple 2.3.3. est nécessaire qu’elle possède exactement n vecteurs. On
Montrer que la matrice peut donc se restreindre au cas d’une famille de n vecteurs
v1 , . . ., vn et de la matrice M associée relativement à une
base B de E. Notons (e1 , . . . , en ) les vecteurs de B.
4 2 −1 Notons u l’unique endomorphisme de E tel que
M = 1 0 1
MatB (u) = M .
3 −1 2 M est inversible si et seulement si u est un auto-
morphisme. E étant de dimension finie, cela est équi-
valent à u surjective, c’est-à-dire à rg u = n. Or rg u =
est inversible et déterminer son inverse. rg(u(e1 ), . . . , u(en )) = rg(v1 , . . . , vn ). Donc M est inver-
sible si et seulement si (v1 , . . . , vn ) est génératrice. Or
dim E = n donc cela est équivalent à (v1 , . . . , vn ) est une
base.
8
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
Remarque 2.3.7.
Ainsi, s’il y a une relation de dépendance entre
les colonnes de M , M n’est pas inversible. Remarque 2.4.4.
On pourra représenter schématiquement le point 1
Exemple
2.3.8.
comme dans la figure 4. Ce schéma sera le bloc
1 0 1
0 1 1 n’est pas inversible.
IdE
−1 1 0 E, B E, B ′
B′
PB
Remarque 2.3.9. !
a b
Retour sur , qui est inversible si et seule-
c d Figure 4 – Application linéaire représentée par
ment si ad − ! bc ̸= 0,
! i.e. si et seulement si les une matrice de passage.
a c
colonnes et sont linéairement indépen-
b d fondamental de tous les schémas que nous écrirons
dantes. lors de changements de base : retenez-le bien !
9
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
x x
IdE
E, B E, B ′
B
PB
′
Figure 6 – Composition de changements de X X′
base.
10
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
11
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
Démonstration.
Nous donnons la démonstration pour les matrices trian-
Théorème 3.1.4.
gulaires supérieures. Pour les matrices triangulaires infé-
Une matrice triangulaire est inversible si et seule- rieures, on peut exploiter la remarque ci-dessus ou utiliser
ment si elle n’a aucun zéro sur sa diagonale. les résultats sur la transposée en remarquant que la trans-
posée d’une matrice triangulaire supérieure est triangulaire
inférieure et vice-versa.
Démonstration. Soit M ∈ τn+ (K) ∩ G L n (K).
Soit A triangulaire sup. d’ordre n. On note (v1 , . . . , vn ) la On choisit E un espace vectoriel de dimension n, B =
famille de vecteurs telle que A = MatB (v1 , . . . , vn ), avec (e1 , . . . , en ) une base de E et on note u l’endomorphisme
B base canonique de Kn . de E de matrice M relativement à B.
• Si pas de zéro sur la diag. : on montre que (v1 , . . . , vn ) M étant inversible, u est bijective.
est libre, avec λ1 v1 + . . . + λn vn = 0, on pose le système,
D’après le lemme, tous les Ek sont stables par u. En
on résout : même pas besoin de faire de pivot de Gauss.
appliquant le lemme, il suffit de montrer qu’ils sont stables
Donc c’est une base, donc c’est inversible.
par u−1 pour montrer que MatB (u−1 ) = M −1 est trian-
• S’il y a un zéro à la ke position, alors (v1 , . . . , vk ) ont
gulaire supérieure.
tous des zéros après leur (k − 1)e coordonnées, donc sont
Soit k ∈ [[1, n]]. On a u(Ek ) ⊂ Ek , donc Ek ⊂ u−1 (Ek ).
dans Vect(e1 , . . . , ek−1 ), ils sont donc liés.
Or dim u−1 (Ek ) = dim Ek (image d’un sous-espace vecto-
riel par un morphisme bijectif), donc u−1 (Ek ) = Ek . On
a donc l’inclusion souhaitée : u−1 est donc triangulaire
Lemme 3.1.5. supérieure.
Soit E un espace vectoriel de dimension n et
B = (e1 , . . . , en ) une base de E. Pour k ∈ [[1, n]],
3.2. Matrices diagonales.
on pose Ek = Vect(e1 , . . . , ek ). Soit u ∈ L (E) et
M = MatB (u).
Alors M est triangulaire supérieure si et seule- Définition 3.2.1.
ment si pour tout k ∈ [[1, n]], Ek est stable par u. On appelle matrice diagonale toute matrice carrée
(aij )1⩽i,j⩽n telle que pour tous i, j ∈ J1, nK, i ̸=
Démonstration.
j ⇒ ai,j = 0.
Soit k ∈ [[1, n]]. Pour que Ek soit stable par u, il faut que On note Dn (K) l’ensemble des matrices diagonales
u(ek ) ∈ Ek , c’est-à-dire que seuls les k premières lignes de d’ordre n.
la matrice colonne des coordonnées de u(ek ) dans B soient
non nulles.
Or la matrice M de u est la matrice formée de ces Remarque 3.2.2.
colonnes. Pour que tous les Ek , pour k ∈ [[1, n]] soient • On note diag(λ1 , . . . , λn ) la matrice diagonale
stables par u, il est donc nécessaire qu’elle soit triangulaire
supérieure. dont les termes diagonaux sont (λ1 , . . . , λn ).
Réciproquement, supposons que cette matrice soit tri- • Dn (K) = τn+ (K) ∩ τn− (K).
angulaire supérieure. Alors pour tout k ∈ [[1, n]] et tout
i ∈ [[1, k]], on a u(ei ) ∈ Ei ⊂ Ek . Donc pour tout k ∈ [[1, k]],
u(Ek ) ⊂ Vect u(e1 ), . . . , u(ek ) ⊂ Ek .
Définition 3.2.3.
Remarque 3.1.6. On appelle matrice scalaire toute matrice dia-
Ce résultat s’adapte aux matrices triangulaires gonale dont les coeffs de la diagonale sont tous
inférieures, en posant E1 = Vect(ek ), E2 = égaux, i.e. de la forme λIn .
Vect(ek−1 , ek ), . . ..
12
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
13
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
14
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
15
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
matrice de la forme
Théorème 4.2.3 (Invariance par transposition).
1 ∗ Si A ∈ Mn,p (K), rg(A) = rg(A⊤ ).
∗
!
J ..
avec J = . .
0n−r,r 0n−r,p−r
0 1 Démonstration.
C’est un corollaire du théorème de réduction : si A =
Remarquons qu’hormis ces échanges de colonnes, BJn,p,r C, t A =t C t Jn,p,r
t
B =t CJp,n,r
t
B, qui est de rang
t t
r, car B et C sont inversibles et Jp,n,r est de rang r.
nous n’avons effectué que des opérations sur les
lignes. Après la phase de remontée (opérations
sur les lignes, toujours), on obtient que A est Corollaire 4.2.4.
équivalente à une matrice de la forme Les résultats sur le rang applicables aux colonnes
des matrices vus précédemment s’appliquent aussi
∗
!
Ir aux lignes. Plus précisément :
.
0n−r,r 0n−r,p−r 1. Le rang d’une matrice est le rang de ses vec-
teurs lignes.
Il suffit donc d’effectuer quelques opérations élé-
mentaires sur les colonnes de A pour obtenir que 2. Le rang d’une famille de lignes d’une matrice
A est équivalente à Jn,p,r . est inférieur ou égal à celui de la matrice.
On remarquera donc que, en écrivant A = 3. Pour tout matrice de rang r, il existe une fa-
P Jn,p,r Q, avec P ∈ GLn (R) et Q ∈ GLp (R), on mille de r lignes de cette matrice constituant
lit dans P les opérations effectuées sur les lignes une famille libre.
de A pendant l’algorithme du pivot de Gauss et
dans Q celles effectuées sur les colonnes de A. Exemple 4.2.5.
1 2 3 0 0 0
4.2. Opérations laissant le rang invariant. 0 2 1 0 −1 0
rg 0 0 −1 0 1 2 se calcule plus vite en
0 0 0 0 0 0
Théorème 4.2.1. 0 0 0 0 0 0
Multiplier une matrice par une matrice inversible passant à la transposée, i.e. en raisonnant sur les
(à droite ou à gauche) ne change pas son rang. lignes au lieu des colonnes. On peut aussi faire un
mix.
Démonstration.
Ce n’est que le point de vue matriciel du résultat analogue Théorème 4.2.6.
sur les applications linéaires.
Les opérations élémentaires sur les lignes et co-
Tous les théorèmes suivants utiliseront ce résul- lonnes préservent le rang.
tat.
Démonstration.
Facile car ces opérations reviennent à multiplier par des
Théorème 4.2.2. matrices inversibles.
Deux matrices A et B sont équivalentes si et
seulement si elles sont de même taille et de même Théorème 4.2.7.
rang. Supprimer une ligne ou une colonne de zéros dans
une matrice ne change pas son rang.
Démonstration.
Dans un sens, utiliser le résultat précédent. Dans l’autre,
Démonstration.
utiliser le théorème de réduction.
Pour les colonnes : analogue du résultat sur les vecteurs.
Pour les lignes : passer à la transposée.
16
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
17
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
18
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
19
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
Proposition 6.2.4.
Définition 6.2.1. Soit (A, B) ∈ Mn (K)2 , alors,
Soit A une matrice carrée de taille n. Alors la
trace de A, notée tr (A) (ou Tr(A)), est la somme tr (AB) = tr (BA).
des éléments diagonaux de A.
En notant (aij )(i,j)∈[[1,n]]×[[1,n]] les coefficients de
A : n
X
tr (A) = aii . tr (A × B) ̸= tr A × tr B ; par exemple,
i=1 dans M2 (K), 0 = tr (E11 × E22 ) ̸= 1 =
tr (E11 ) × tr (E22 ).
montrons tr (λA+B) = λtr (A)+tr (B). Notons (aij ), (bij ) tr (D) = aki bik .
et cij les coefficients respectivement de A, de B et de C. i=1 k=1
20
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
Ainsi,
X Ce résultat n’est pas valable pour des
tr (C) = aαβ bβα ,
1⩽α,β⩽n
matrices équivalentes. Par exemple I2 et 21I2 sont
X équivalentes, mais n’ont pas la même trace.
tr (D) = aαβ bβα ,
1⩽α,β⩽n
e. Trace d’un endomorphisme en dimension
d’où l’égalité recherchée.
finie.
Remarque 6.2.5. 1. On peut déduire de cette
égalité que la trace d’un produit de matrices
est invariant par permutations circulaires : Définition 6.2.8.
pour toutes matrices A1 , . . ., Ak de taille n, Soit E un espace vectoriel de dimension finie et
on a u ∈ L (E). La trace de l’endomorphisme u et on
note tr (u) (ou Tr(u)) est le scalaire défini par
tr (A1 A2 . . . Ak−1 Ak ) = tr (A2 . . . Ak A1 )
tr (u) = tr (MatB (u)),
= tr (A3 . . . Ak A1 A2 )
... où B est une base quelconque de E. Cette valeur
ne dépend pas du choix de la base B.
2. En revanche, la trace d’un produit de ma-
trice n’est pas invariant par n’importe quelle
Démonstration.
permutation. Par exemple, dans M2 (K), en On a vu d’une part que deux matrices d’un même endo-
notant (Eij ) les matrices de la base cano- morphisme sont nécessairement semblables et d’autre part
nique : que la trace de matrices est un invariant de similitude. La
valeur de tr (u) ne dépend donc pas du choix de la base
tr (E21 E11 E12 ) = 1 ̸= 0 = tr (E11 E21 E12 ). B.
Exemple 6.2.9.
d. Invariance par similitude. L’endomorphisme IdE a pour trace dim(E).
Exercice 6.2.10.
Proposition 6.2.6. Déterminer la trace de l’endomorphisme de déri-
Deux matrices semblables ont même trace (on dit vation dans Kn [X].
que la trace est un invariant de similitude) : soit
A, B ∈ Mn (K), deux matrices semblables. Alors f. Propriétés.
tr (A) = tr (B).
Démonstration.
Proposition 6.2.11.
Il existe P ∈ GLn (K) vérifiant A = P −1 BP . Alors on a Soit E un espace vectoriel de dimension finie. La
trace est une forme linéaire sur L (E).
tr (A) = tr P −1 (BP )
= tr (BP )P −1
Démonstration.
= tr (B). Il suffit de choisir une base de B de E et constater que
pour tous endomorphismes u et v, de matrices respectives
A et B, et pour tout scalaire λ, on a
Remarque 6.2.7.
tr (λu + v) = tr (λA + B)
La réciproque de ce résultat est
! fausse. Par = λtr (A) + tr (B)
2 0
exemple, montrez que A = et I2 ne sont = λtr (u) + tr (v).
0 0
pas semblables.
21
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
22
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
Exemple 7.0.2.
En posant de la façon suivante. Considérons la matrice n × p
donnée dans la définition précédente :
1 2 3 4 5 6
M11 M12 · · · M1r
7 8 9 10 11 12 M21 M22 · · · M2r
13 14 15 16 17 18 M =
.. .. ,
..
A= ,
19 20 21 22 23 24 . . .
25 26 27 28 29 30
Mq1 Mq2 · · · Mqr
31 32 33 34 35 36 où pour tout (i, j) ∈ [[1, q]]×[[1, r]], Mij est de taille
ni × pj . Soit E et F des espaces vectoriels respec-
A peut se décomposer par bloc en tivement de dimension p et n, B = (e1 , . . . , ep )
une base de E, C = (f1 , . . . , fn ) une base de F
B C D et u ∈ L (E, F ) vérifiant MatB,C (u).
E F G , On note B1 la famille des p1 premiers vecteurs
H I J de B, B2 celle des p2 suivants, . . ., Br celle des pr
derniers et E1 = Vect(B1 ), . . ., Er = Vect(Br ).
où Pour tout j ∈ [[1, r]], Bj est une base de Ej .
! ! On note C1 la famille des n1 premiers vecteurs
1 2 3
B= , C= , de C , C2 celle des n2 suivants, . . ., Cr celle des
7 8 9
! nr derniers et F1 = Vect(C1 ), . . ., Fq = Vect(Cq ).
4 5 6 Pour tout i ∈ [[1, q]], Ci est une base de Fi .
D= , E = 13 14 ,
10 11 12 Alors
F = 15 , G = 16 17 18 , E = E1 ⊕ . . . ⊕ Er ,
19 20
21 F = F1 ⊕ . . . ⊕ Fq .
H = 25 26 , I = 27 ,
31 32 33 Tout y ∈ F s’écrit de façon unique π1′ (y) +
. . . + πq′ (y), où πi′ (y) ∈ Fi pour tout i ∈ [[1, q]] (πi′
22 23 24
J = 28 29 30 .
est alors la projection sur Fi parallèlement à la
34 35 36 somme des Fk pour k ̸= i).
De même notons, pour tout j ∈ [[1, r]], πj la
Remarque 7.0.3. projection sur Ej parallèlement à la somme des
Ek pour k ̸= j.
Lorsqu’on parle de décomposition trian- Alors, pour tout (i, j) ∈ [[1, q]] × [[1, r]], on note
gulaire supérieure (resp. triangulaire inférieure,
(
Ej −→ Fi
diagonale) par bloc, c’est bien la décomposition uij : .
x 7−→ πi′ (u(x))
qui est triangulaire supérieure (resp. triangulaire
inférieure, diagonale). Toute matrice carrée admet Ainsi, uij est obtenu en restreignant u au départ
en effet une décomposition (triviale) triangulaire à Ej et, comme il n’est pas a priori possible de
supérieure (resp. triangulaire inférieure, diago- le restreindre à l’arrivée à Fi en le composant à
nale) par bloc. gauche par la projection sur Fi (par rapport à la
somme des Fk pour k ̸= i) : uij = πi′ ◦ u|Ej .
On a alors, pour tout x ∈ E :
X
Proposition 7.0.4 (Interprétation géométrique). u(x) = uij (πj (x)).
On peut interpréter la décomposition par blocs (i,j)∈[[1,q]]×[[1,r]]
23
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
De plus, pour tout (i, j) ∈ [[1, q]] × [[1, r]], Proposition 7.0.5 (Addition par blocs).
Soit (A, B) ∈ Mn,p (K)2 , admettant des décompo-
MatBj ,Ci (uij ) = Mij . sitions par blocs
A11 A12 · · · A1r
A21 A22 · · · A2r
Démonstration. A=
.. .. ,
..
Remarquons tout d’abord que pour tout x ∈ E, on a . . .
! Aq1 Aq2 · · · Aqr
r
B11 B12 · · ·
X
u(x) = u πj (x) B1r
B21 B22 · · · B2r
j=1
r B=
.. .. ,
..
. . .
X
= u(πj (x))
j=1 Bq1 Bq2 · · · Bqr
r q
XX
= πi′ (u(πj (x))) où pour tout (i, j) ∈ [[1, q]] × [[1, r]], Aij et Bij sont
j=1 i=1
X de même taille.
= uij (πj (x)). Alors A + B vaut
(i,j)∈[[1,q]]×[[1,r]]
A11 + B11 A12 + B12 · · · A1r + B1r
Soit (i, j) ∈ [[1, q]] × [[1, r]]. On a A21 + B21 A22 + B22 · · ·
A2r + B2r
.. .. .. .
Ci = (fs+1 , fs+2 , . . . , fs+ni ), . . .
Bj = (et+1 , et+2 , . . . , et+pj ), Aq1 + Bq1 Aq2 + Bq2 · · · Aqr + Bqr
où
s = n1 + . . . + ni−1 , Démonstration.
t = p1 + . . . + pj−1 . Notons, pour tout i ∈ [[1, q]] (resp. pour tout j ∈ [[1, r]]),
ni (resp. pj ) le nombre de lignes (resp. de colonnes) des
Soit k ∈ [[1, pj ]]. En notant (mij )(i,j)∈[[1,n]]×[[1,q]] les coef- matrices de la ligne i (resp. de la colonne j) de ces décom-
ficients de M , on a positions par bloc.
Posons C = A + B et pour tout (i, j) ∈ [[1, q]] × [[1, r]],
uij (ek ) = πi′ (u(et+k )) Cij = Aij + Bij .
n
! Notons aij pour (i, j) ∈ [[1, n]] × [[1, p]] les coefficients
X de la matrice A, bij ceux de B, cij ceux de C et pour
= πi′ mh(t+k) fh
tout (i, j) ∈ [[1, q]] × [[1, r]] et tout (k, h) ∈ [[1, ni ]] × [[1, pj ]],
h=1
aij ij ij
hk (resp. bhk , resp. chk ) ceux de Aij (resp. Bij , resp.
s+ni
X Cij ). On a alors, en posant s = n1 + . . . + ni−1 + h et
= mh(t+k) fh
t = p1 + . . . + pj−1 + k.
h=s+1
ni
X cst = ast + bst = aij ij ij
hk + bhk = chk
= m(s+h)(t+k) fs+h .
h=1 On a donc
C11 C12 ··· C1r
C21 C22 ··· C2r
On en déduit que la matrice de uij est la matrice des C=
m(s+h),(t+k) (h,k)∈[[1,n ]]×[[1,p ]] qui est exactement la ma- ... ..
.
..
.
i j
trice Mij . On a donc MatBj ,Ci (uij ) = Mij . Cq1 Cq2 ··· Cqr
D’où le résultat.
24
XXVI - MATRICES ET ALGÈBRE LINÉAIRE
25