0% ont trouvé ce document utile (0 vote)
23 vues25 pages

Matrices et algèbre linéaire

Transféré par

haibsoh2
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
23 vues25 pages

Matrices et algèbre linéaire

Transféré par

haibsoh2
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

XXVI Matrices et algèbre linéaire

30 août 2023
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

Dans tout ce chapitre et sauf mention expresse — d’autre part que toute combinaison linéaire des (Eij )
du contraire, n, m, p, q, r et t désignent des entiers est égale à une matrice dont les coefficients sont
ceux de la combinaison linéaire, P qu’en conséquence
naturels non nuls, et K désigne R ou C.
toute combinaison linéaire λ E
(i,j)∈[[1,n]]×[[1,p]] ij ij
de valeur nulle est aussi égale à la matrice des
(λij )(i,j)∈[[1,n]]×[[1,p]] qui ne peut donc avoir que des
1. Structure de Mn,p (K). coefficients tous nuls et que la famille des (Eij ) est
donc libre.
On reviendra avec profit sur le cours sur les
matrices du premier semestre.
1.2. Remarques sur le produit.
1.1. Structure d’espace vectoriel. a. Colonnes d’un produit.

Théorème 1.1.1. Proposition 1.2.1.


(Mn,p (K), +, .) est un K-espace vectoriel de base Soient A ∈ Mn,p (K) et B ∈ Mp,q (K). Soit α ∈
(Ei,j )(i,j)∈[[1,n]]×[[1,p]] , avec Ei,j = (δki ×δℓj )(k,ℓ) . En [[1, q]]. Notons Cα la αe colonne de B. Alors la αe
particulier colonne de AB est la matrice ACα .

dimK Mn,p (K) = np. Démonstration.


Le produit AB est la matrice de coefficients
La base (Ei,j )(i,j)∈[[1,n]]×[[1,p]] est la base canonique p
!
de Mn,p (K).
X
aik bkj ,
k=1 (i,j)∈[[1,n]]×[[1,q]]

qui possède q colonnes, comme B. La αe colonne de cette


Démonstration.
matrice existe donc et a pour coefficients
On a déjà vu qu’il s’agissait d’un K-ev puisque :
p
!
1. (Mn,p (K), +) est un groupe abélien (+ est une loi X
de composition interne, associative, commutative, ad- aik bkα .
k=1 i∈[[1,n]]
mettant un élément neutre — la matrice nulle — et
pour laquelle tout élément admet un opposé — la Notons c1 , . . . , cp les coefficients de Cα . La matrice ACα
matrice de coefficients opposés). est la matrice colonne de coefficients
2. Pour toute M ∈ Mn,p (K), 1 · M = M . p
X
!
3. Le produit externe est distributif à droite par rapport aik ck .
à l’addition. k=1 i∈[[1,n]]

4. Le produit externe est distributif à gauche par rapport Or Cα est la αe colonne de B, donc pour tout k ∈ [[1, p]]ck =
à l’addition. bkα .
5. On a la propriété d’associativité mixte. ACα a donc même coefficients que la αe colonne de AB,
elle lui est donc égale.
Il reste à montrer que la famille des (Ei,j )(i,j)∈[[1,n]]×[[1,p]]
en est une base.
Pour cela, il suffit de remarquer que pour toute matrice b. Application canoniquement associée.
M , de coefficients (mij )(i,j)∈[[1,n]]×[[1,p]] , on a

M=
X
mij Eij .
Définition 1.2.2.
(i,j)∈[[1,n]]×[[1,p]]
Soit M ∈ Mn,p (K). On appelle application li-
néaire canoniquement associée à M l’application
On en déduit donc :
— d’une part que toute matrice M s’écrit d’au moins
(
Mp,1 (K) −→ Mn,1 (K)
une façon comme combinaison linéaire des Eij pour u:
(i, j) ∈ [[1, n]] × [[1, p]] et que la famille (Eij ) est X 7−→ M X
génératrice ;

2
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

ou, en identifiant Kp avec Mp,1 (K) et Kn avec Soit


Mn,1 (K) : — (i, j) ∈ [[1, n]] × [[1, p]] ;
 — (k, h) ∈ [[1, p]] × [[1, q]].

 Kp −→ Kn Alors

x1

  
u:  ..  ′
Eij × Ekh ′′
= δjk Eih



(x1 , . . . , xp ) 7−→ M  .  .
(
 ′′
Eih si j = k,
 xp
=
0nq sinon.

Proposition 1.2.3.
Remarque 1.2.7.
Cette application est bien une application linéaire.
Dessiner les matrices pour voir de quoi il retourne.
La démonstration suivante n’est que la description
Démonstration. du dessin.
Pour tout (X, Y ) ∈ Mp,1 (K) et tout λ ∈ K, on a
Démonstration.
u(λX + Y ) = M (λX + Y ) ′
Soit α ∈ [[1, q]]. La αe colonne de Eij × Ekh est Eij Cα où
e ′
= λ(M X) + M Y Cα est la α colonne de Ekh . Si α ̸= h, Cα = 0p1 , donc

toutes les colonnes de Eij × Ekh sont nulles sauf peut-être
= λu(X) + u(Y ). e
la h .
Cette he colonne de Ekh est égale à Eij Ch . Ch étant
le ke vecteur de la base canonique de Mp,1 (K), Eij Ch est
la ke colonne de Eij . Celle-ci est nulle si j ̸= k. Sinon, il
Définition 1.2.4. s’agit du ie vecteur de la base canonique de Mn,1 (K).
On appelle noyau (resp. image) de M et on note On en déduit le résultat.
On peut également adopter une démonstration purement
Ker M (resp. Im M ) le noyau (resp. l’image) de calculatoire. Notons (mab )(a,b)∈[[1,n]]×∈[[1,q]] les coefficients
l’application linéaire canoniquement associée à du produit Eij Ekh ′
. Alors, soit (a, b) ∈ [[1, n]] × [[1, q]]. On a
M. p
X
mab = (δai δcj )(δck δbh )
Remarque 1.2.5. c=1

Si M ∈ Mn,p (K), le noyau de M est l’ensemble des = (δai δjj (δjk δbh )
solutions du système linéaire homogène M X = 0. = δjk (δai δbh )

mab est donc le coefficient de la ligne a, colonne b de


′′
c. Produit d’éléments des bases canoniques. δjk Eih .

On étend les résultats vus au premier semestre


au cas des matrices non carrées. 2. Matrices, familles de vecteurs et
applications linéaires.
Proposition 1.2.6.
Notons 2.1. Matrice d’une famille de vecteurs
— (Eij )(i,j)∈[[1,n]]×[[1,p]] la base canonique de relativement à une base.
M
 n,p(K) ;
— Eij ′ celle de Mp,q (K). Définition 2.1.1.
 (i,j)∈[[1,p]]×[[1,q]] Soit B = (e1 , . . . , en ) une base d’un K-ev E de
— ′′
Eij celle de Mn,q (K).
(i,j)∈[[1,n]]×[[1,q]] dimension finie n. Soient v1 , . . . , vp p vecteurs de

3
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

λ ∈ K. Alors φ(x + λy) = (xi + λyi )1⩽i⩽n = (xi )1⩽i⩽n +


E. On note aij la ie coordonnées de vj dans B, λ(yi )1⩽i⩽n = φ(x) + λφ(y). D’où la linéarité de φ.
n
X De plus, soit M = (mi )1⩽i⩽n ∈ Mn,1 (K). Alors φ(x) = M
i.e. vj = aij ei . si et seulement si pour tout i, mi = xi , d’où la bijectivité
i=1 de φ.
Alors, la matrice A = (aij ) ∈ Mn,p (K) est appelée
matrice de la famille (v1 , . . . , vp ) dans la base B
2.2. Matrice associée à une application
(ou relativement à la base B) , et elle est notée
linéaire relativement à deux bases.
MatB (v1 , . . . , vp ) (parfois MB (v1 , . . . , vp )).

Définition 2.2.1.
Exemple 2.1.2. 1. Dans R2 , notons B la base
Soient E un K-ev de dimension finie p et F un K-
canonique et B ′ la base ((0, 1); (1, 1)). Avec
ev de dimension finie n. Soient B = (e1 , . . . , ep ) et
F = ((1, 2); (0, 3); (−1, 1)), on a
C = (f1 , . . . , fn ) des bases de E et F respective-
ment. Soit u ∈ L (E, F ). On appelle matrice de u
!
1 0 −1
MatB (F ) = , relativement à B et C , notée MatB,C (u) (parfois
2 3 1
! MB,C (u)), la matrice MatC (u(e1 ), . . . , u(ep )) ∈
1 3 2 Mn,p (K).
MatB′ (F ) = .
1 0 −1 Autrement dit, cette matrice contient les coordon-
nées des images des vecteurs de la base de départ
2. Dans R3 [X] muni de la base canonique B, décomposés dans la base d’arrivée.
avec la famille F = (1 + X 2 ; 1 + X + X 2 +
X 3 ; X 3 − 2), on a
  Remarque 2.2.2.
1 1 −2 Si B = C , on note MatB (u) = MatB,B (u).
0 1 0
MatB (F ) =  .
 
1 1 0 Remarque 2.2.3.
0 1 1 On pourra représenter f et sa matrice dans un
schéma comme représenté dans la figure 1.
3. Matrice d’une famille de vecteurs de Kn dans
la base canonique. f
E, B F, C
4. La matrice d’une famille de vecteurs colonnes MatB,C (f )
C1 , . . ., Cp éléments de Mn,1 (K) dans la base
canonique est la matrice dont les colonnes
sont C1 , . . ., Cp . Figure 1 – Représentation schématique de la
matrice d’une application linéaire.
Théorème 2.1.3.
Soit B = (e1 , . . . , en ) une base d’un K-ev E de Exemple 2.2.4.
dimension finie n. Alors l’application Soit u : R2 → R2 , (x, y) 7→ (x − y, 3x + 2y), B =
( (e1 , e2 ) la base canonique B de R2 On a u(e1 ) =
(E, +, .) → (Mn,1 (K), +, .) (1, 3) = e1 + 3e2 et u(e2 ) = (−1, 2) = −e1 + 2e2 .
φ :
x 7→ MatB (x) Ainsi, la matrice associée à u relativement à B
est !
est un isomorphisme d’espaces vectoriels. 1 −1
MatB (u) = .
3 2
Démonstration. ! !!
n n
1 0
Avec C la base (f1 , f2 ) =
X X
Soient x, y ∈ E tels que x = xk ek et y = yk ek . Soit ; , on a
k=1 k=1
1 −1

4
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

u(e1 ) = f1 − 2f2 et u(e2 ) = −f1 − 3f2 . Ainsi, Démonstration.


! Notons (mij )(i,j)∈[[1,n]]×[[1,p]] les coefficients de M et C1 , . . .,
1 −1 Cp les colonnes de M . Pour j ∈ [[1, p]], on note vj l’unique
MatB,C (u) = . vecteur de E tel que MatC (vj ) = Cj (il s’agit du vecteur
−2 −3
m1j f1 + . . . mnj fn ).
Exercice 2.2.5. 1. Avec les mêmes u, B et C , Soit alors u ∈ L (E, F ). On a M = MatB,C (u) si et
seulement si
calculer MatC ,B (u).
2. Réciproquement, trouver l’application li- MatC (v1 , . . . , vp ) = MatC (u(e1 ), . . . , u(ep )),
!
0 3 c’est-à-dire si et seulement si ∀i ∈ [[1, p]]vi = u(ei ), or on
néaire associée à M = relativement
−1 2 sait qu’il existe une unique application linéaire u vérifiant
aux bases canoniques de R2 . cette dernière condition.
Il existe donc une unique application linéaire u vérifiant
3. Notons φ : R3 [X] → R4 [X], P 7→ M = MatB,C (u).
P ′ + 3XP , B = (1, X, X 2 , X 3 ) et C =
(X 3 , X, X 2 , 1, X 4 ) Trouver la matrice de φ Remarque 2.2.8.
relativement aux bases B et C . Dans le cas où les espaces vectoriels de départ et
d’arrivée sont le même, la matrice de l’identité
4. Réciproquement, avec les mêmes bases, no-
est In si on considère la même base au départ
tons φ l’unique application linéaire telle que
et à l’arrivée.
 
0 0 3 0
3
 0 2 0
 dans des bases différentes, la matrice
MatB,C (φ) = 0

3 0 3
 de l’identité n’est pas l’identité ! Exemple : cal-

0 1 0

0 culer MatB,C (IdR2 ) où C = (→ −ı , →
−ȷ ) est la base
0 0 0 3 canonique de R2 et B = ( ı + ȷ , →

− →
− −ı − →−ȷ ).

retrouver l’expression de φ.
5. Donner la matrice de R3 [X] → R3 [X] Proposition 2.2.9.
P 7→ P ′ Soit M ∈ Mn,p (K). La matrice de l’application li-
dans les bases canoniques. néaire canoniquement associée à M dans les bases
6. Donner la matrice de R3 [X] → R canoniques de Mn,1 (K) et Mp,1 (K) est M .
P 7→ P (π)
dans les bases canoniques.
Démonstration.
Exercice 2.2.6. Notons u l’application canoniquement associée à M .
Soit a, b ∈ R. Dans R-ev C, exprimer la matrice D’après la remarque ? ?, pour tout k ∈ [[1, p]], l’image
de z 7→ (a + ib)z dans la base canonique (1, i). par u du ke vecteur de la base canonique est la ke colonne
de M . Donc la matrice de u est la matrice des vecteurs
colonnes de M dans la base canonique : c’est donc M .
Théorème 2.2.7.
Soient E un K-ev de dimension finie p et F un K-
ev de dimension finie n. Soient B = (e1 , . . . , ep ) et Théorème 2.2.10.
C = (f1 , . . . , fn ) des bases de E et F respective- On garde les mêmes notations. On considère l’ap-
ment. Soit M ∈ Mn,p (K). Il existe une unique ap- plication
plication u ∈ L (E, F ) telle que M = MatB,C (u) : (
c’est l’unique application linéaire associant, pour (L (E, F ), +, .) −→ (Mn,p (K), +, .)
tout j ∈ [[1, p]], au j e vecteur de la base B le φ: .
u 7−→ MatB,C (u)
vecteur dont la colonne des coordonnées dans la
base C est la j e colonne de M . Alors, φ est un isomorphisme d’espaces vectoriels.

5
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

Démonstration. Ainsi, MatC (u(x)) a pour coefficients la famille (yi )i∈[[1,n]] .


On a déjà vu que cette application était bijective. Voir
pourquoi elle est linéaire est laissé en exercice au lecteur.
Remarquons que, puisqu’on sait que les deux espaces Exemple 2.2.13.
vectoriels considérés sont de dimension finie et de même Reprendre les deux premiers exemple de la série
dimension, on aurait pu se dispenser de montrer précé- d’exemples précédente avec le vecteur (17, 42).
demment qu’elle était injective ou se dispenser de montrer
qu’elle était surjective. Remarque 2.2.14.
Remarque 2.2.11. 1. Ceci justifie l’identifica- On pourra représenter schématiquement ce résul-
tion forme linéaire sur Kp / matrice ligne à tat comme dans la figure 2 : avec M = MatB,C (u)
p colonnes. Exemple. et MatB (x), on a MatC (u(x)) = M X.

2. Ce résultat permet au passage de dire que si x u(x)


M ∈ Mp,n (K) et ∀X ∈ Mn,1 (K), M X = 0, E, B
u
F, C
alors M = 0. En effet, les applications X 7→ M
X MX
M X et X 7→ 0n X sont alors égales, donc les
matrices M et 0n le sont.
Le résultat suivant est le résultat fondamental Figure 2 – Matrice de l’image d’un vecteur par
liant l’algèbre linéaire au calcul matriciel. une application linéaire.

Proposition 2.2.12.
Avec les mêmes notations qu’en 2.2.1, on a Corollaire 2.2.15.
Avec les mêmes notations, soit F une famille de
∀x ∈ E MatC (u(x)) = MatB,C (u) × MatB (x). vecteurs de E, alors

MatC (u(F )) = MatB,C (u) × MatB (F ).


Démonstration.
Soit x ∈ E. Posons M = MatB,C (u) et X = MatB (x). No-
tons (mij )(i,j)∈[[1,n]]×[[1,p]] les coefficients de M , (xj )j∈[[1,p]]
ceux de X, (yi )i∈[[1,n]] ceux de M X, (ej )j∈[[1,p]] les vecteurs Démonstration.
de la base B et (fi )i∈[[1,n]] ceux de C . Il suffit d’appliquer la proposition 2.2.12 colonne par co-
Alors, par définition du produit matriciel, on a lonne.
p
X
∀i ∈ [[1, n]] yi = mij xj .
Théorème 2.2.16.
j=1
Soient E, F, G trois K-ev de bases B, C , D. Soient
p p

Alors on a x =
X
xj ej , donc u(x) =
X
xj u(ej ).
f ∈ L (F, G), g ∈ L (E, F ). Alors
j=1 j=1
n
X MatB,D (f ◦ g) = MatC ,D (f ) × MatB,C (g).
Par ailleurs, pour tout j ∈ [[1, p]], u(ej ) = mij fi .
i=1
On a donc
p
X n
X Démonstration.
u(x) = xj mij fi En utilisant le corollaire 2.2.15 :
j=1 i=1
n p MatB,D (f ◦ g) = MatD (f ◦ g(B))
X X
= xj mij fi = MatD (f (g(B)))
i=1 j=1 = MatC ,D (f ) × MatC (g(B))
n
X = MatC ,D (f ) × MatB,C (g).
= yi fi .
i=1

6
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

Remarque 2.2.17.
Ce résultat peut être vu comme LA raison pour la- Définition 2.2.20.
quelle le produit matriciel est associatif. On peut Soient (A1 , +, ×) et (A2 , +, ×) deux anneaux, et
en effet en tirer une démonstration non calcula- φ : A1 → A2 . On dit que φ est un morphisme
toire de l’associativité du produit matriciel : étant d’anneaux si c’est un morphisme de groupes pour
donné trois matrices A, B, C telles que le produit la loi + et φ(1A1 ) = 1A2 et ∀x, y ∈ A1 φ(x×y) =
A(BC) soit bien défini, il suffit de choisir quatre φ(x) × φ(y)
espaces vectoriels, des bases de ces espaces vecto-
riels et trois applications f , g et h telles que les
Remarque 2.2.21.
matrices A, B et C soient respectivement celles de
Ne pas oublier la condition φ(1A1 ) = 1A2 . L’ap-
f , g et h. Alors A(BC) est la matrice de f ◦ (g ◦ h)
plication suivante, qui vérifie toutes les autres
et (AB)C est celle de (f ◦ g) ◦ h. Or la composi-
conditions, n’est en effet pas un morphisme d’an-
tion d’application est associative donc ces deux
neau :
applications sont égales, donc A(BC) = (AB)C.
Z/2Z → Z/6Z
On laisse au lecteur le soin de vérifier que la 0 7→ 0
propriété d’associativité du produit matriciel n’a 1 7→ 3
pas été utilisée dans la démonstration ci-dessus
ni dans les résultats ou définitions qu’elle utilise.

Remarque 2.2.18. Corollaire 2.2.22.


On pourra représenter schématiquement ce résul- Soit E un K-ev de dim n, et B une base de E.
tat comme dans la figure 3 : avec M = MatC ,D (f ) Alors, l’application
et N = MatB,C (g), on a MatB,D (f ◦ g) = M N . (
On réalise alors ce que l’on peut appeler un dia- (L (E), +, ◦) → (Mn (K), +, ×)
φ :
u 7→ MatB (u)
F, C est un isomorphisme d’anneaux.

N M
g Démonstration.
f
Le théorème 2.2.10 assure que c’est un isomorphisme de
f ◦g groupes pour la loi +, le théorème 2.2.16 montre que
E, B G, D l’image du produit est le produit des images et l’image du
MN neutre de L (E) pour la composition (qui est l’application
identité sur E) est le neutre de Mn (K) pour le produit
(qui est In ).
Figure 3 – Diagramme de composition d’appli-
cations linéaires et de leurs représen-
tations matricielles. 2.3. Inversibilité.

gramme de composition commutatif : les appli-


cations obtenues en composant plusieurs flèches
Proposition 2.3.1.
ayant même départ et même origine sont iden-
La matrice d’une application linéaire est inversible
tiques.
si et seulement si cette application linéaire est
Exemple 2.2.19. un isomorphisme. Dans ce cas, l’inverse de la
Choisir deux applications f : R3 → R3 et g : matrice considérée est la matrice de l’application
R2 → R3 , faire les calculs. réciproque de l’isomorphisme considéré.

7
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

Démonstration.
Soit E et F deux espaces vectoriels de dimension finies Corollaire 2.3.4.
respectives p et n. Soit B une base de E et C une base de F . Soit A et B deux matrices carrées de taille n.
Soit u ∈ L (E, F ) et v ∈ L (F, E). Posons A = MatB,C (u)
Alors AB = In si et seulement si A et B sont
et B = MatC ,B (v).
On a :
inversibles et sont inverses l’une de l’autre.
Il est donc équivalent pour une matrice (carrée)
u ◦ v = IdF ⇐⇒ MatC ,C (u ◦ v) = In d’être :
⇐⇒ MatB,C (u) × MatC ,B (v) = In
1. inversible ;
⇐⇒ AB = In
2. inversible à gauche ;
De même 3. inversible à droite.
v ◦ u = IdE ⇐⇒ BA = Ip
En particulier, si u est un isomorphisme, d’isomorphisme
réciproque v, alors AB = In et BA = Ip . De plus, on a Démonstration.
alors dim E = dim F , donc n = p. Donc A est une matrice Pour montrer cette équivalence, il suffit de montrer le
carrée et B est son inverse. sens direct, l’autre découlant directement de la définition
Réciproquement, si u ∈ L (E, F ) possède une matrice d’inverse.
inversible A, alors en notant v l’unique application linéaire Supposons donc AB = In .
telle que A−1 = MatC ,B (v), on a u ◦ v = IdF et v ◦ u = Notons u et v les applications linéaires canoniquement
IdE . associées respectivement à A et B relativement à la base
canonique.
Remarque 2.3.2. En reprenant la démonstration précédente, on peut re-
Soit M une matrice carrée, u l’endomorphisme marquer que u ◦ v = IdF , donc v est un endomorphisme
injectif et u un endomorphisme surjectif.
qui lui est canoniquement associé. On peut utiliser
La dimension de Kn étant finie, on u et v sont donc des
la proposition précédente pour montrer que M automorphismes et on a v = u−1 ◦ u ◦ v = u−1 ◦ IdF = u−1 .
est inversible et déterminer, le cas échéant, son Donc d’après la proposition précédente A et B sont
inverse. inversibles et sont inverses l’une de l’autre.
— On commence par prendre X, Y deux vec-
teurs colonne ayant autant de lignes que
M. Corollaire 2.3.5.
— On résout en X le système M X = Y . Dans un espace vectoriel E de dimension finie n,
— S’il y a toujours existence et unicité de la la matrice d’une famille de vecteurs est inversible
solution, on lit X = M −1 Y . si et seulement si cette famille de vecteurs est une
Cela correspond bien à ce qui était fait auparavant, base.
la proposition précédente justifie bien que l’on
puisse conclure à l’inversibilité de M directement, Démonstration.
et obtenir son inverse. Pour que la matrice soit inversible, il est nécessaire qu’elle
soit carrée. Pour que la famille de vecteur soit une base, il
Exemple 2.3.3. est nécessaire qu’elle possède exactement n vecteurs. On
Montrer que la matrice peut donc se restreindre au cas d’une famille de n vecteurs
v1 , . . ., vn et de la matrice M associée relativement à une
  base B de E. Notons (e1 , . . . , en ) les vecteurs de B.
4 2 −1 Notons u l’unique endomorphisme de E tel que
M = 1 0 1
 
MatB (u) = M .
3 −1 2 M est inversible si et seulement si u est un auto-
morphisme. E étant de dimension finie, cela est équi-
valent à u surjective, c’est-à-dire à rg u = n. Or rg u =
est inversible et déterminer son inverse. rg(u(e1 ), . . . , u(en )) = rg(v1 , . . . , vn ). Donc M est inver-
sible si et seulement si (v1 , . . . , vn ) est génératrice. Or
dim E = n donc cela est équivalent à (v1 , . . . , vn ) est une
base.

8
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

Corollaire 2.3.6. Théorème 2.4.3.


Une matrice M ∈ Mn (K) est inversible si et seule- On note P = MatB (B ′ ) et P ′ = MatB′ (B ′′ ).
ment si ses colonnes forment une base de Mn,1 (K) 1. P = MatB′ ,B (IdE ).
et si et seulement si ses lignes forment une base
2. P est inversible est son inverse est MatB′ (B)
de M1,n (K).
(matrice de passage de B ′ dans B).
3. La matrice de passage de B dans B ′′
Démonstration.
Considérer la famille des colonnes de M et la base cano-
est MatB (B ′′ ) = P P ′ = MatB (B ′ ) ×
nique de Kn , puis transposer. MatB′ (B ′′ ) (« transitivité »).

Remarque 2.3.7.
Ainsi, s’il y a une relation de dépendance entre
les colonnes de M , M n’est pas inversible. Remarque 2.4.4.
On pourra représenter schématiquement le point 1
Exemple
 2.3.8.
 comme dans la figure 4. Ce schéma sera le bloc
1 0 1
 0 1 1 n’est pas inversible.
 
IdE
−1 1 0 E, B E, B ′
B′
PB
Remarque 2.3.9. !
a b
Retour sur , qui est inversible si et seule-
c d Figure 4 – Application linéaire représentée par
ment si ad − ! bc ̸= 0,
! i.e. si et seulement si les une matrice de passage.
a c
colonnes et sont linéairement indépen-
b d fondamental de tous les schémas que nous écrirons
dantes. lors de changements de base : retenez-le bien !

2.4. Matrices de passage. Remarque 2.4.5.


On pourra représenter schématiquement le point 2
Dans cette section E est un K-ev de dimension comme dans la figure 5.
finie n, et B, B ′ , B ′′ sont des bases de E.
Une question se pose maintenant naturelle- E, B ′
ment : peut-on relier les matrices d’un vecteur
ou d’une application linéaire exprimées dans des B
PB B
PB


bases différentes ?
IdE IdE
IdE
Définition 2.4.1. E, B E, B
In
On appelle matrice de passage de B dans B ′ la
B′ .
matrice MatB (B ′ ). On la note parfois PB
Figure 5 – Inverse d’une matrice de passage.
Exemple 2.4.2.
E = R2 : B = ((0, 1), (1, 1)) = (f1 , f2 ), B ′ =
((1, −1), (0, 1)) = (g1 , g2 ). Remarque 2.4.6.
g1 = f2!− 2f1 et g2 = f1 , donc MatB (B ′ ) = On pourra représenter schématiquement le point 3
−2 1 comme dans la figure 6.
.
1 0 Démonstration. 1. Notons B = (e1 , . . . , en ) et B ′ =

9
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

E, B ′ (c’est une source d’erreur fréquente). Au moindre


doute, n’hésitez pas à tracer le schéma correspon-
B
PB
′′
B ′
′ PB dant.
IdE IdE Remarque 2.4.8.
IdE Le premier point correspond au schéma de la
E, B ′′ E, B figure 7.
B
PB
′′

x x
IdE
E, B E, B ′
B
PB

Figure 6 – Composition de changements de X X′
base.

Figure 7 – Illustration de la relation de change-


(f1 , . . . , fn ). On a
ment de bases pour un vecteur.
MatB′ ,B (IdE ) = MatB (IdE (f1 ), . . . , IdE (fn ))
= MatB (f1 , . . . , fn )
= MatB (B ′ ) Remarque 2.4.9.
Le second point correspond au schéma de la fi-
2. P = MatB′ ,B (IdE ), or
gure 8.
MatB′ ,B (IdE ).MatB,B′ (IdE ) = MatB,B (IdE ◦
IdE ) = MatB,B (IdE ) = In , donc P est inversible et
P −1 = MatB,B′ (IdE ) d’après le corollaire 2.3.4, et MatB,C (f )
donc P −1 = MatB′ (B) d’après le premier point. E, B F, C
f
3. On utilise à nouveau (i) :
MatB (B ′ ).MatB′ (B ′′ ) =
MatB′ ,B (IdE ).MatB′′ ,B′ (IdE ) = MatB′′ ,B (IdE ◦
IdE ) = MatB′′ ,B (IdE ) = MatB (B ′′ ). B ′
h i−1
PCC = PCC′

PB IdE IdF

Le théorème suivant motive l’utilisation des


matrices de passage.
f
E, B ′ F, C ′
Théorème 2.4.7 (Changement de base). MatB′ ,C ′ (f )
Les matrices de passages permettent de relier
les matrices d’un même vecteur ou d’une même
application relativement à des bases différentes : Figure 8 – Illustration de la relation de change-
ment de bases pour une application
Pour un vecteur Soit x ∈ E. On note X =
linéaire.
MatB (x) et X ′ = MatB′ (x), et P =
MatB (B ′ ). Alors X = P X ′ .
Dé[Link] un vecteur il suffit de traduire
Pour une application linéaire Avec les mêmes l’égalité x = IdE (x) dans les bonnes bases : x
notations et en notant de plus F un K-ev dans la base B = Id(x dans la base B ′ ), soit :
de dimension finie, C et C ′ deux bases de F , X = MatB′ ,B (IdE )X ′ = P X ′ .
u ∈ L (E, F ), et enfin Q = MatC (C ′ ). Alors Pour une application linéaire On traduit à nouveau
MatB′ ,C ′ (u) = Q−1 MatB,C (u)P . u(x) = u(x) dans les bonnes bases :
MatB′ ,C ′ (u) = MatB′ ,C ′ (IdF ◦ u ◦ IdE )
= MatC ,C ′ (IdF )MatB,C (u)MatB′ ,B (IdE )

La formule de changement de base pour = Q−1 MatB,C (u)P


un vecteur s’écrit X = P X ′ , et non X ′ = P X

10
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

Remarque 2.4.10. Remarque 2.4.13.


Avec B et B ′ deux bases de E et f ∈ L (E), Ceci permet de voir que pour inverser une ma-
h i−1
on a MatB′ (f ) = PB B ′
× MatB (f ) × PB B . On ′ trice, il suffit d’inverser la matrice de passage sous-
essaiera, pour chaque changement de base, de jacente, et donc d’inverser un système linéaire.
reproduire le schéma de la figure 9 pour se rappeler Exemple  2.4.14. 
de cette formule. 1 0 1
Inverser 0 1 0 en passant par des matrices
 
MatB (f ) 2 −1 1
B B
f de passage.
Remarque 2.4.15.
On appelle P = MatB (B ′ ) « matrice de passage
i−1
B de B dans B ′ » car elle permet de transformer une

h
PB B
PB
′ B
= PB
Id Id ′
équation exprimée dans B en équation exprimée
dans B ′ . En effet, avec φ une forme linéaire et
L = MatB,1 (φ), l’équation cartésienne de Ker φ
f (c’est un hyperplan) s’écrit, dans la base B, LX =
B′ B′
MatB′ (f ) 0. Dans la base B ′ , cela s’écrit alors LP X ′ = 0.
La ligne donnant l’équation dans la base B ′ est
donc LP .
Figure 9 – Illustration de la relation de chan-
gement de bases pour un endomor-
phisme. 3. Matrices remarquables.
3.1. Matrices triangulaires.
Exemple 2.4.11.
Mêmes choses que dans l’exemple 2.4.2. F =
Définition 3.1.1.
R3 , C = (e1 , e2 , e3 ) (base canonique), C ′ =
Soit A ∈ Mn (K). On dit que A est triangulaire
(h1 , h2 , h3 ) avec h1 = e1 , h2 = (1, 1, 0) = e1 + e2 ,
supérieure (resp. inférieure) si ∀i, j ∈ J1, nK tels
h3 = (−1, 0, 1) = −e1 + e3 .
que i > j (resp. i < j), aij = 0.
On considère
On note τn+ (K) (resp. τn− (K)) l’ensemble des ma-
trices triangulaires supérieures (resp. inférieures)
(
R2 −→ R3
u: d’ordre n.
(x, y) 7−→ (x − y, x, 2x + y).

1. Déterminer MatB,C (u).


Théorème 3.1.2.
2. Déterminer P et Q−1 , en déduire
(τn± (K), +, ×) est un anneau et (τn± (K), +, .) est
MatB′ ,C ′ (u).
n(n + 1)
3. Vérifier en exprimant u(gi ) en fonction des un K-ev de dimension .
2
hj .
Exemple 2.4.12. Démonstration.
On donne C = base canonique de R3 et B ′ = • K-ev : élémentaire.
• Anneau : soient A, B ∈ τn+ (K). On note AB = (γij ). On
((1, 0, −1), (1, 0, 2), (0, 1, −1)) = (v1 , v2 , v3 ), et i−1 n
x = 2v1 + 2v2 − v3 . Exprimer x en fonction de
X X
suppose i > j, alors γij = aik bkj + aik bkj , et tous
e1 , e2 , e3 . k=1 k=i
les termes sont nuls.

11
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

• Dimension : les Eij avec i ⩽ j est une famille libre (déjà


vu) et génératrice. Elle comporte
n(n + 1)
vecteurs.
Théorème 3.1.7.
2 L’inverse d’une matrice triangulaire supérieure
Remarque 3.1.3. (resp. inférieure) inversible est également triangu-
Avec cette démonstration on voit que γii = aii bii . laire supérieure (resp. inférieure).

Démonstration.
Nous donnons la démonstration pour les matrices trian-
Théorème 3.1.4.
gulaires supérieures. Pour les matrices triangulaires infé-
Une matrice triangulaire est inversible si et seule- rieures, on peut exploiter la remarque ci-dessus ou utiliser
ment si elle n’a aucun zéro sur sa diagonale. les résultats sur la transposée en remarquant que la trans-
posée d’une matrice triangulaire supérieure est triangulaire
inférieure et vice-versa.
Démonstration. Soit M ∈ τn+ (K) ∩ G L n (K).
Soit A triangulaire sup. d’ordre n. On note (v1 , . . . , vn ) la On choisit E un espace vectoriel de dimension n, B =
famille de vecteurs telle que A = MatB (v1 , . . . , vn ), avec (e1 , . . . , en ) une base de E et on note u l’endomorphisme
B base canonique de Kn . de E de matrice M relativement à B.
• Si pas de zéro sur la diag. : on montre que (v1 , . . . , vn ) M étant inversible, u est bijective.
est libre, avec λ1 v1 + . . . + λn vn = 0, on pose le système,
D’après le lemme, tous les Ek sont stables par u. En
on résout : même pas besoin de faire de pivot de Gauss.
appliquant le lemme, il suffit de montrer qu’ils sont stables
Donc c’est une base, donc c’est inversible.
par u−1 pour montrer que MatB (u−1 ) = M −1 est trian-
• S’il y a un zéro à la ke position, alors (v1 , . . . , vk ) ont
gulaire supérieure.
tous des zéros après leur (k − 1)e coordonnées, donc sont
Soit k ∈ [[1, n]]. On a u(Ek ) ⊂ Ek , donc Ek ⊂ u−1 (Ek ).
dans Vect(e1 , . . . , ek−1 ), ils sont donc liés.
Or dim u−1 (Ek ) = dim Ek (image d’un sous-espace vecto-
riel par un morphisme bijectif), donc u−1 (Ek ) = Ek . On
a donc l’inclusion souhaitée : u−1 est donc triangulaire
Lemme 3.1.5. supérieure.
Soit E un espace vectoriel de dimension n et
B = (e1 , . . . , en ) une base de E. Pour k ∈ [[1, n]],
3.2. Matrices diagonales.
on pose Ek = Vect(e1 , . . . , ek ). Soit u ∈ L (E) et
M = MatB (u).
Alors M est triangulaire supérieure si et seule- Définition 3.2.1.
ment si pour tout k ∈ [[1, n]], Ek est stable par u. On appelle matrice diagonale toute matrice carrée
(aij )1⩽i,j⩽n telle que pour tous i, j ∈ J1, nK, i ̸=
Démonstration.
j ⇒ ai,j = 0.
Soit k ∈ [[1, n]]. Pour que Ek soit stable par u, il faut que On note Dn (K) l’ensemble des matrices diagonales
u(ek ) ∈ Ek , c’est-à-dire que seuls les k premières lignes de d’ordre n.
la matrice colonne des coordonnées de u(ek ) dans B soient
non nulles.
Or la matrice M de u est la matrice formée de ces Remarque 3.2.2.
colonnes. Pour que tous les Ek , pour k ∈ [[1, n]] soient • On note diag(λ1 , . . . , λn ) la matrice diagonale
stables par u, il est donc nécessaire qu’elle soit triangulaire
supérieure. dont les termes diagonaux sont (λ1 , . . . , λn ).
Réciproquement, supposons que cette matrice soit tri- • Dn (K) = τn+ (K) ∩ τn− (K).
angulaire supérieure. Alors pour tout k ∈ [[1, n]] et tout
i ∈ [[1, k]], on a u(ei ) ∈ Ei ⊂ Ek . Donc pour tout k ∈ [[1, k]],
u(Ek ) ⊂ Vect u(e1 ), . . . , u(ek ) ⊂ Ek .
Définition 3.2.3.
Remarque 3.1.6. On appelle matrice scalaire toute matrice dia-
Ce résultat s’adapte aux matrices triangulaires gonale dont les coeffs de la diagonale sont tous
inférieures, en posant E1 = Vect(ek ), E2 = égaux, i.e. de la forme λIn .
Vect(ek−1 , ek ), . . ..

12
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

Ainsi, la famille (Ei,i )1⩽i⩽n ⊎ (Ei,j + Ej,i )1⩽i<j⩽n engendre


Théorème 3.2.4. Sn (K). On vérifie aisément que cette famille est libre : c’est
(Dn (K), +, ×) est un anneau et (Dn (K), +, .) est donc une base de Sn (K), et elle contient bien n(n + 1)/2
vecteurs.
un K-ev de dimension n.
De même, si M = (mi,j ) ∈ Mn (K), on a M ∈ An (K)
si et seulement si pour tout i, j, mi,j = −mj,i . La famille
Démonstration. (Ei,j − Ej,i )1⩽i<j⩽n alors An (K) et est libre, c’est donc une
Anneau et ev : immédiat avec Dn (K) = τn+ (K) ∩ τn− (K). base de An (K), et elle contient bien n(n − 1)/2 vecteurs.
Dimension : (Eii )1⩽i⩽n en forme une base. Enfin, si M ∈ An (K) ∩ Sn (K), on a M = t M = −t M ,
donc M = 0. An (K) et Sn (K) sont donc en somme directe,
Remarque 3.2.5. la somme de leurs dimensions vaut n2 , d’où le résultat.
Une matrice diagonale est inversible si et seule- On pouvait aussi observer que s : A 7→ t A est une
symétrie vectorielle de Mn (K), donc que An (K) = Ker(s −
ment si tous ses coefficients diagonaux sont
−1 = Id) et Sn (K) = Ker(s + Id) sont supplémentaires.
non nuls. Et dans  ce cas diag(λ1 , . . . , λn )
1 1
diag ,..., .
λ1 λn Ce ne sont pas des sous-anneaux de
De plus, pour tout p ∈ N, (diag(λ1 , . . . , λn ))p = Mn (K) !
diag(λp1 , . . . , λpn ). Et si aucun coefficient diagonal
n’est nul, cette relation est aussi valable pour
p ∈ Z. Exemple
! 3.3.3.
! !
0 1 1 0 0 2
= .
1 0 0 2 1 0
3.3. Matrices symétriques et ! ! !
antisymétriques. 0 1 0 1 −1 0
= .
−1 0 −1 0 0 −1
Rappel 3.3.1. Exercice 3.3.4.
A ∈ Mn (K) est dite symétrique (resp. antisymé- Montrer, sans utiliser leurs dimensions, que Sn (K)
trique) si A = A⊤ (resp. A = −A⊤ ). et An (K) sont supplémentaires dans Mn (K).
On note souvent Sn (K) l’ensemble des matrices
symétriques de dimension n à coefficients dans K,
et An (K) celui des matrices antisymétriques. 4. Rang d’une matrice.

Théorème 3.3.2. 4.1. Définitions.


L’ensemble des matrices symétriques (resp. an-
tisymétriques) muni de + et · est un K-ev de Remarque 4.1.1. 1. Soit E et F deux K-
n(n + 1) n(n − 1) espaces vectoriels et φ : E → F un isomor-
dimension (resp. ). phisme de E sur F .
2 2
De plus, Sn (K) et An (K) sont supplémentaires Soit p ∈ N et (xi )i∈[[1,p]] une famille d’élé-
dans Mn (K). ments de E.
Alors φ réalise une bijection de
Démonstration. Vect (x1 , . . . , xp ) sur Vect (φ(x1 , . . . , xp )),
Ce sont respectivement les noyaux de A 7→ A⊤ − A et donc les familles (xi )i∈[[1,p]] et (φ(xi ))i∈[[1,p]]
A 7→ A⊤ + A, donc ce sont des sous-espaces vectoriels de ont même rang.
Mn (K).
Soit M = (mi,j ) ∈ Mn (K). On a M ∈ Sn (K) si et 2. En particulier, soit n un entier et soit F un
seulement si pour tout i, j, mi,j = mj,i . Si M ∈ Sn (K), espace vectoriel de dimension finie n, muni
on a donc d’une base B. L’application
n
φ : F → Mn,1 (K)
X X
M= mi,i Ei,i + mi,j (Ei,j + Ej,i ).
i=1 1⩽i<j⩽n x 7→ MatB (x)

13
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

est une bijection, donc pour toute famille Démonstration.


(xi )i∈[[1,p]] d’éléments de F , (MatB (xi ))i∈[[1,p]] En notant A la matrice MatB,C , C1 , . . ., Cp ses colonnes
et e1 , . . ., ep les vecteurs de B, on a
est une famille de même rang.
rg(A) = rg(C1 , . . . , Cp ) = rg (u(e1 ), . . . , u(ep )) = rg(u).
3. Par ailleurs, soit E et F deux espaces vec-
toriels de dimensions finies respectives p et
n et (e1 , . . . , ep ) une base de E. Alors pour
toute application linéaire u de E dans F , on
Théorème 4.1.5.
a
Soit F un K-espace vectoriel de dimension finie
de base C , (v1 , . . . , vp ) une famille de vecteurs de
Im(u) = u(Vect(e1 , . . . , ep ))
F . Alors rg (MatC (v1 , . . . , vp )) = rg (v1 , . . . , vp ).
= Vect (u(e1 ), . . . , u(ep ))

donc rg(u) = rg (u(e1 ), . . . , u(ep )). Démonstration.


En notant A la matrice MatC (v1 , . . . , vp ), et C1 , . . ., Cp
ses colonnes, on a

rg(A) = rg(C1 , . . . , Cp ) = rg (v1 , . . . , vp ).


Définition 4.1.2.
Soit A ∈ Mn,p (K). Notons C1 , . . . , Cp les colonnes
de A. Alors on appelle rang de A et on note rg(A)
l’entier rg (C1 , . . . , Cp ). Théorème 4.1.6.
A ∈ Mn (K) est inversible si et seulement si rg A =
n.
Remarque 4.1.3.
Soit A ∈ Mn,p (K). Alors
Démonstration.
1. Pour tout r ∈ [[0, p]] et tout choix de Soient B = (e1 , . . . , en ) la base canonique de Kn , et
r colonnes C1 , . . ., Cr de A, la famille (v1 , . . . , vn ) une famille de vecteurs de E telle que A =
MatB (v1 , . . . , vn ). Alors A inversible si et seulement si
(C1 , . . . , Cr ) est de rang inférieur ou égal à
(v1 , . . . , vn ) base si et seulement si rg(v1 , . . . , vn ) = n si et
rg A. C’est une conséquence du fait que l’es- seulement si rg A = n.
pace engendré par C1 ,. . ., Cr est inclus dans
Im A. Exercice 4.1.7.
Calculer les rangs
! suivants.
2. Il existe un choix de rg(A) colonnes de A,C1 , 1 1
. . ., Crg(A) tel que Vect C1 , . . . , Crg(A) = • rg ;
2 2
Im(A). En effet, la famille des colonnes de A • rg(diag(λ 1 , . . . , λn )) ;
est une famille génératrice d’un sous-espace
 
1 2 3 0 0 0
vectoriel de Kn de dimension rg(A), on peut 0 2 1 0 −1
 0

donc en extraire une base, qui comporte né- • rg 0 0 −1 0 1

2.

cessairement rg(A) vecteurs colonnes.
 
0 0 0 0 0 0
0 0 0 0 0 0

Théorème 4.1.4. Définition 4.1.8.


Soit E et F deux espaces vectoriels de dimen- Soit n et p deux entiers. On dit qu’une matrice A
sions finies respectives p et n, de bases respec- de Mn,p (K) est équivalente à une autre matrice B
tives B et C , et u ∈ L (E, F ). Alors rg(u) = de Mn,p (K) s’il existe deux matrices P ∈ Mn (K)
rg MatB,C (u) . et Q ∈ Mp (K) inversibles telles que A = P BQ.

14
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

Proposition 4.1.9. Théorème 4.1.11 (Théorème de réduction).


La relation « être équivalente à » sur l’ensemble Soit A ∈ Mn,p (K) une matrice de rang r.
des matrices de Mn,p (K) est une relation d’équi- 1. Alors, r ⩽ min(n, p).
valence.
2. A est équivalente à la matrice Jn,p,r définie
Démonstration. par
Cette relation est
1 0 ··· 0 0 ··· 0
 
Réflexive car pour toute A ∈ Mn,p (K), A = In AIp et In
et Ip sont inversibles ;
 . .. .. .. .. .. 
0 . . . .
Symétrique car pour tout (A, B) ∈ (Mn,p (K))2 tel que
 
. . .. . .. 
A et B sont équivalentes, il existe deux matrices
 .. .. . 0 .. .
 
P ∈ Mn (K) et Q ∈ Mp (K) inversibles telles que Jn,p,r = 0 · · ·

0 1 0 ··· 0

A = P BQ, et on a alors B = P −1 AQ−1 et P −1 et 0 · · ·

··· 0 0 ··· 0

Q−1 sont inversibles ;  .. .. .. .. 
 
Transitive car pour tout (A, B, C) ∈ (Mn,p (K))3 tel que . . . .
A et B sont équivalentes et B et C sont équivalentes. 0 ··· ··· 0 0 ··· 0
Alors il existe P ∈ Mn (K), Q ∈ Mp (K), R ∈ Mn (K) !
et S ∈ Mp (K) inversibles, telles que A = P BQ et Ir 0r,p−r
B = RCS, donc A = (P R)C(SQ) et P R et SQ sont
= .
0n−r,r 0n−r,p−r
inversibles.
Il s’agit donc bien d’une relation d’équivalence.

Proposition 4.1.10. 1. Soit E et F deux es- Démonstration. 1. On note V1 , . . . , Vp les colonnes


paces vectoriels de dimensions finies et u ∈ de A. Il s’agit de p vecteurs de Mn,1 (K), donc
L (E, F ). Soit B et B ′ deux bases de E et C rg(V1 , . . . , Vp ) ⩽ p et de plus rg(V1 , . . . , Vp ) ⩽
dim Mn,1 (K) = n.
et C ′ deux bases de F . Alors MatB,C (u) et
MatB′ ,C ′ (u) sont des matrices équivalentes. 2. Considérons u : L (Kp , Kn ) canoniquement associée
à la matrice A. u est de même rang que A.
2. Soit E et F deux espaces vectoriels de dimen-
On sait qu’on peut trouver un supplémentaire S de
sions finies, munies de bases respectives B Ker u tel que u réalise un isomorphisme de S sur Im u.
et C . Soit u ∈ L (E, F ). Soit A une matrice De plus dim S = rg(u) = r et dim Ker u = p − r. Soit
équivalente à MatB,C (u). Alors il existe une (e1 , . . . , er ) une base de S, (er+1 , . . . , ep ) une base de
Ker u. Posons B = (e1 , . . . , ep ). B est une base de Kp .
base B ′ de E et une base C ′ de F telles que
Posons fi = u(ei ) pour i ∈ [[1, r]]. Alors (f1 , . . . , fr )
MatB′ ,C ′ (u) = A. est une base de Im u, qu’on peut compléter en une
base C de Kn .
Démonstration. 1. D’après le théorème de changement Alors MatB,C (u) = Jn,p,r . Or u a pour matrice A
de base, on a dans les bases canoniques, donc A et Jn,p,r sont équi-
valentes.
MatB′ ,C ′ (u) = MatC (C ′ )−1 MatB,C (u)MatB (B ′ )
et les matrices de changement de base sont inversibles,
donc MatB′ ,C ′ (u) et MatB,C (u) sont équivalentes. Remarque 4.1.12.
2. Posons M = MatB,C (u). A est équivalente à M , Nous venons de voir une interprétation géomé-
donc on peut trouver P ∈ Mn (K) et Q ∈ Mp (K)
trique de ce résultat. On peut aussi en donner
inversibles telles que A = P M Q. Soit f ∈ L (F ) et
g ∈ L (E) les applications vérifiant P −1 = MatC (f ) une interprétation matricielle.
et Q = MatB (g). P et Q étant inversibles, f et g On applique l’algorithme du pivot de Gauss
sont des automorphismes. Notons B ′ et C ′ les images au système AX = B, avec B ∈ Mn,1 (K) et X ∈
respectives de B de C par g et f . Alors MatB (B ′ ) =
Q et MatC (C ′ ) = P −1 . Donc d’après le théorème de
Mp,1 (K). Après une phase de descente, on arrive à
changement de base MatB′ ,C ′ (u) = P MatB,C (u)Q. un système échelonné en lignes. Quitte à échanger
quelques colonnes, A est donc équivalente à une

15
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

matrice de la forme
Théorème 4.2.3 (Invariance par transposition).

1 ∗ Si A ∈ Mn,p (K), rg(A) = rg(A⊤ ).

!
J  ..
avec J =  . .
0n−r,r 0n−r,p−r  
0 1 Démonstration.
C’est un corollaire du théorème de réduction : si A =
Remarquons qu’hormis ces échanges de colonnes, BJn,p,r C, t A =t C t Jn,p,r
t
B =t CJp,n,r
t
B, qui est de rang
t t
r, car B et C sont inversibles et Jp,n,r est de rang r.
nous n’avons effectué que des opérations sur les
lignes. Après la phase de remontée (opérations
sur les lignes, toujours), on obtient que A est Corollaire 4.2.4.
équivalente à une matrice de la forme Les résultats sur le rang applicables aux colonnes
des matrices vus précédemment s’appliquent aussi

!
Ir aux lignes. Plus précisément :
.
0n−r,r 0n−r,p−r 1. Le rang d’une matrice est le rang de ses vec-
teurs lignes.
Il suffit donc d’effectuer quelques opérations élé-
mentaires sur les colonnes de A pour obtenir que 2. Le rang d’une famille de lignes d’une matrice
A est équivalente à Jn,p,r . est inférieur ou égal à celui de la matrice.
On remarquera donc que, en écrivant A = 3. Pour tout matrice de rang r, il existe une fa-
P Jn,p,r Q, avec P ∈ GLn (R) et Q ∈ GLp (R), on mille de r lignes de cette matrice constituant
lit dans P les opérations effectuées sur les lignes une famille libre.
de A pendant l’algorithme du pivot de Gauss et
dans Q celles effectuées sur les colonnes de A. Exemple 4.2.5.
 
1 2 3 0 0 0
4.2. Opérations laissant le rang invariant. 0 2 1 0 −1 0
 
rg 0 0 −1 0 1 2 se calcule plus vite en
 
 
0 0 0 0 0 0
Théorème 4.2.1. 0 0 0 0 0 0
Multiplier une matrice par une matrice inversible passant à la transposée, i.e. en raisonnant sur les
(à droite ou à gauche) ne change pas son rang. lignes au lieu des colonnes. On peut aussi faire un
mix.
Démonstration.
Ce n’est que le point de vue matriciel du résultat analogue Théorème 4.2.6.
sur les applications linéaires.
Les opérations élémentaires sur les lignes et co-
Tous les théorèmes suivants utiliseront ce résul- lonnes préservent le rang.
tat.
Démonstration.
Facile car ces opérations reviennent à multiplier par des
Théorème 4.2.2. matrices inversibles.
Deux matrices A et B sont équivalentes si et
seulement si elles sont de même taille et de même Théorème 4.2.7.
rang. Supprimer une ligne ou une colonne de zéros dans
une matrice ne change pas son rang.
Démonstration.
Dans un sens, utiliser le résultat précédent. Dans l’autre,
Démonstration.
utiliser le théorème de réduction.
Pour les colonnes : analogue du résultat sur les vecteurs.
Pour les lignes : passer à la transposée.

16
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

4.3. Calculs pratiques.


Proposition 4.4.2.
Remarque 4.3.1. Soit M ∈ Mn,p (K) et A une matrice extraite de
Calcul du rang et de l’inverse d’une matrice grâce M . Alors rg(A) ⩽ rg(M ).
au pivot de Gauss.
Démonstration.
Pour le rang On peut appliquer la méthode du
Posons r = rg(A). Alors on peut trouver r colonnes C1 ,
pivot à une matrice M ∈ Mn,p (K) non néces- . . ., Cr de A linéairement indépendantes. Notons C1′ , . . .,
sairement carrée. Cr′ les r colonnes de M correspondantes. Pour tout i ∈
On peut mélanger les opérations sur les lignes [[1, r]], Ci est obtenue en supprimant certaines lignes de Ci′ .
Soit (λ1 , . . . , λP r ) r scalaires. Considérons les combinaisons
et les colonnes. r Pr
linéaires S ′ = i=1 λi Ci′ et S = i=1 λi Ci . S est obtenue
On arrive au final à une matrice contenant en rayant certaines lignes de S ′ , donc si S ′ est nulle, S l’est
des lignes non nulles L1 , . . . , Lk , dont le pre- également et tous les λi , sont alors nuls.
mier élément est situé colonne c1 , . . ., ck C1′ , . . ., Cr′ sont donc linéairement indépendantes, donc
rg(M ) ⩾ r.
avec c1 < . . . < ck , puis n − k lignes nulles.
Alors rg M = rg(Vect(L1 , . . . , Lk )) = k car
les lignes L1 , . . ., Lk forment une famille libre. Proposition 4.4.3.
Soit M ∈ Mn,p (K). Posons r = rg(M ). Alors il
Pour le calcul du noyau d’une matrice non né-
existe une matrice A extraite de M , carrée, de
cessairement carrée, on peut remarquer que
taille r et inversible (donc de rang r).
les opérations sur les lignes le laissent inva-
riant car multiplier à gauche une matrice
Démonstration.
par une matrice inversible ne change pas son On peut trouver des colonnes C1 , . . ., Cr de M telles
noyau. que rg(C1 , . . . , Cr ) = r. Ces colonnes permettent donc de
Pour le calcul de l’image d’une matrice non né- former une matrice B de taille n × r de rang r. B possède
n lignes. Comme elle est de rang r, il existe une r lignes
cessairement carrée, on peut remarquer que L1 , . . ., Lr de B telles que rg(B) = rg(L1 , . . . , Lr ).
les opérations sur les colonnes la laissent in- Or ces lignes L1 , . . ., Lr permettent de former une
variante car multiplier à droite une matrice matrice A, extraite de M . Cette matrice A est de taille
par une matrice inversible ne change pas son r × r (donc carrée) et de rang r, donc inversible.
image.
Pour le calcul de l’inverse d’une matrice carrée 5. Systèmes d’équations linéaires.
on peut travailler sur les lignes ou sur les
colonnes mais surtout pas sur les deux.
En effet, l’algorithme du calcul de l’inverse 5.1. Généralités.
consiste à multiplier la matrice A par des ma-
trices élémentaires jusqu’à obtenir l’identité,
et à multiplier en parallèle la matrice identité Définition 5.1.1.
par les mêmes matrices. On appelle système linéaire à n équations et p
inconnues tout système de la forme :
4.4. Matrices extraites. 
 a11 x1
 + . . . + a1p xp = b1
.. .. .. ..
Définition 4.4.1.  . . . .
an1 x1 + . . . + anp xp = bn

Soit M ∈ Mn,p (K). On appelle matrice extraite
de M toute matrice obtenue en supprimant h des où les aij et les bi sont dans K, et les xi sont les in-
lignes de M et k de ses colonnes avec h ∈ [[0, n−1]] connues. Le système homogène associé correspond
et k ∈ [[0, p − 1]]. au cas où b1 = · · · = bn = 0.

17
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

On dit que le système est compatible s’il admet Définition 5.2.1.


une solution. Soit (S) un système linéaire écrit sous forme ma-
tricielle AX = B. On appelle rang du système le
rang de la matrice A. On le note rg(S).
Interprétation matricielle En écrivant le sys-
tème AX = B, on voit que (S) est compatible
si et seulement si B ∈ Im A.
Théorème 5.2.2.
Interprétation linéaire En choisissant un espace
Soit (S) un système linéaire de matrice associée
vectoriel E de dimension p et F de dimen-
A ∈ Mn,p (K).
sion n munis respectivement d’une base B
et d’une base C et en notant u l’application 1. L’ensemble des solutions du système homo-
linéaire de E dans F et b le vecteur de F gène associé à (S) est un K-ev de dimension
tels que A = MatC (u) et B = MatC (b), on p − rg(S) (p est le nombre d’inconnues).
voit que (S) est compatible si et seulement 2. L’ensemble des solutions de (S) est soit vide,
si b ∈ Im u. soit un sous-espace affine de direction l’en-
semble des solutions du système homogène
Interprétation vectorielle En notant Cj les co-
associé à (S).
lonnes de A, on note que (S) est compatible
si et seulement si B ∈ Vect(C1 , . . . , Cp ).
Interprétation duale En notant Li les lignes de Démonstration. 1. Cet ensemble S0 de solutions est
A, et ui les formes linéaires sur F telles que tout simplement Ker A, et on utilise le théorème du
rang.
Li = MatC ,K (ui ), on note que (S) est compa-
2. On note S cet ensemble de solutions. Si (S) est
tible si et seulement si les u−1
i ({ bi }), pour compatible, soit X0 ∈ S une solution. Soit X une
i ∈ [[1, p]], contiennent au moins un vecteur autre solution. On montre alors facilement que X−X0
en commun. est solution du système homogène, donc X ∈ S0 +X0 ,
et S ⊂ S0 + X0 .
Interprétation géométrique Soit i ∈ [[1, n]]. En Réciproquement, soit X ∈ S0 + X0 . Il est facile de
supposant que u−1 i ({ bi }) est non vide, alors voir que X ∈ S .
il s’agit d’un hyperplan affine (i.e. il est de la
forme X0 + H où H = Ker ui est un hyper-
plan) si ui n’est pas la forme linéaire nulle et
il s’agit de F sinon. Donc l’ensemble des so-
Définition 5.2.3.
lutions est ou bien vide ou bien l’intersection
Soit (S) un système linéaire écrit sous forme ma-
d’un certain nombre d’hyperplans (autant
tricielle AX = B. Si A est inversible, on dit que
que de lignes non nulles).
(S) est un système de Cramer.
Exemple 5.1.2.  
2 −1
Écrire ces différents points de vue avec 1 2 .
 
Théorème 5.2.4.
3 −1
Tout système de Cramer a une unique solution,
qui est A−1 B.
5.2. Solutions.
Démonstration.
Il est facile de voir que A−1 B est une solution. C’est la
seule car S est un sea dont la direction est de dimension
n − n = 0.

18
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

6. Matrices semblables et trace. Remarque 6.1.4.


Deux matrices semblables sont nécessairement
Dans toute cette partie, on ne considère que équivalentes mais la réciproque n’est pas vraie.
des matrices carrées. Par exemple, dans R2 , I2 et 17I2 ont même rang
(2) donc sont équivalentes mais ne sont pas sem-
6.1. Matrices semblables. blables car pour tout matrice carrée P de taille 2
inversible, P −1 (I2 )P = I2 ̸= 17I2 .
a. Changement de base pour un
endomorphisme.
Proposition 6.1.5.
Soit A et B deux matrices carrées de taille n. A
Proposition 6.1.1.
et B sont semblables si et seulement si ce sont les
Soit E un K-ev de dimension finie, B et B ′ deux
matrices d’un même endomorphisme u exprimées
bases de E et u ∈ L (E). Alors,
dans deux bases différentes.
MatB′ (u) = MatB (B ′ )−1 MatB (u)MatB (B ′ ). Plus exactement, A et B sont semblables si
et seulement s’il existe un espace vectoriel E de
dimension n, deux bases B et B ′ et un endomor-
phisme u tel que MatB (u) = A et MatB′ (u) = B.
Démonstration.
C’est une conséquence immédiate de la formule de change-
ment de base dans le cas où F = E, C = B et C ′ = B ′ Démonstration.
(théorème 2.4.7). Le sens indirect est une conséquence de la formule de
changement de base pour un endomorphisme (proposi-
tion 6.1.1).
Montrons le sens direct. Supposons que A et B sont
Définition 6.1.2.
semblables, c’est-à-dire qu’il existe P tel que A = P −1 BP .
Soit A et B deux matrices carrées de taille n. Choisissons un espace vectoriel E de dimension n et une
Deux matrices A et B sont dites semblables si base B = (e1 , . . . , en ) de cet espace (on peut par exemple
et seulement s’il existe P ∈ GLn (K) vérifiant prendre E = Kn et B la base canonique de Kn ). Notons
e′1 , . . ., e′n les vecteurs de E dont les coordonnées dans la
A = P −1 BP .
base B sont les colonnes de P . Alors P = MatB (B ′ ).
La relation « A est semblable à B » est appelée Notons enfin u l’endomorphisme de E vérifiant
relation de similitude. MatB (u) = B.
Alors,

MatB′ (u) = MatB (B ′ )−1 MatB (u)MatB (B ′ )


Proposition 6.1.3. = P −1 BP
La relation de similitude est une relation d’équi- = A,
valence sur Mn (K).
donc A et B sont les deux matrices d’un même endomor-
phisme relativement aux bases respectives B ′ et B.
Démonstration.
Cette relation est
Réflexive car pour tout A ∈ Mn (K), on a A = I−1
n AIn . Proposition 6.1.6.
Symétrique car pour tout (A, B) ∈ Mn (K) et tout P ∈
2 Considérons deux matrices A et B semblables de
GLn (K) vérifiant A = P −1 BP , alors P −1 ∈ GLn (K)
−1 −1 taille n. Alors pour tout k ∈ N, Ak et B k sont des
et B = P −1 AP . matrices semblables.
Transitive car pour tout (A, B, C) ∈ Mn (K)3 et tout
(P, Q) ∈ GLn (K)2 vérifiant A = P −1 BP et B = Démonstration.
Q−1 CQ, on a A = P −1 Q−1 CQP = (QP )−1 C(QP ). Ce résultat peut être démontré au moins des deux manières
suivantes :

19
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

Par le calcul On montre par récurrence sur k que pour Alors, on a


tout k, on a Ak = P −1 B k P . Pour montrer que ce n
X
prédicat est héréditaire, il suffit de constater que tr (C) = cii
pour tout k ∈ N tel que le prédicat est vérifié, on a i=1
également Ak+1 = Ak A = P −1 B k P P −1 BP . Xn

Géométriquement A et B sont deux matrices d’un même = (λaii + bii )


endomorphisme u, donc Ak et B k sont deux matrices i=1
n n
de uk . X X
=λ aii + bii
i=1 i=1

= λtr (A) + tr (B).

6.2. Trace d’une matrice carrée.


a. Définition. c. Propriété fondamentale de la trace.

Proposition 6.2.4.
Définition 6.2.1. Soit (A, B) ∈ Mn (K)2 , alors,
Soit A une matrice carrée de taille n. Alors la
trace de A, notée tr (A) (ou Tr(A)), est la somme tr (AB) = tr (BA).
des éléments diagonaux de A.
En notant (aij )(i,j)∈[[1,n]]×[[1,n]] les coefficients de
A : n
X
tr (A) = aii . tr (A × B) ̸= tr A × tr B ; par exemple,
i=1 dans M2 (K), 0 = tr (E11 × E22 ) ̸= 1 =
tr (E11 ) × tr (E22 ).

Remarque 6.2.2. Démonstration.


Pour tout A ∈ Mn (K), on a Posons C = AB et D = BA. Notons (aij ), (bij ), (cij ) et
(dij ) les coefficients respectifs de A, B, C et D.
  On a, pour tout (i, j) ∈ [[1, n]]2 :
tr A⊤ = tr (A). n
X
cij = aik bkj ,
k=1
Démonstration. n
Les matrices A⊤ et A ont les mêmes éléments diagonaux.
X
dij = bik akj .
k=1

D’où, pour tout i ∈ [[1, n]] :


n
b. Linéarité. X
cii = aik bki ,
k=1
n
Proposition 6.2.3.
X
dii = bik aki .
Pour tout n ∈ N∗ , l’application trace est une k=1

forme linéaire sur Mn (K). D’où :


n n
X X
tr (C) = aik bki ,
Démonstration. i=1 k=1
Soit (A, B) ∈ Mn (K)2 et λ ∈ K. Posons C = λA + B et n
XX n

montrons tr (λA+B) = λtr (A)+tr (B). Notons (aij ), (bij ) tr (D) = aki bik .
et cij les coefficients respectivement de A, de B et de C. i=1 k=1

20
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

Ainsi,
X Ce résultat n’est pas valable pour des
tr (C) = aαβ bβα ,
1⩽α,β⩽n
matrices équivalentes. Par exemple I2 et 21I2 sont
X équivalentes, mais n’ont pas la même trace.
tr (D) = aαβ bβα ,
1⩽α,β⩽n
e. Trace d’un endomorphisme en dimension
d’où l’égalité recherchée.
finie.
Remarque 6.2.5. 1. On peut déduire de cette
égalité que la trace d’un produit de matrices
est invariant par permutations circulaires : Définition 6.2.8.
pour toutes matrices A1 , . . ., Ak de taille n, Soit E un espace vectoriel de dimension finie et
on a u ∈ L (E). La trace de l’endomorphisme u et on
note tr (u) (ou Tr(u)) est le scalaire défini par
tr (A1 A2 . . . Ak−1 Ak ) = tr (A2 . . . Ak A1 )
tr (u) = tr (MatB (u)),
= tr (A3 . . . Ak A1 A2 )
... où B est une base quelconque de E. Cette valeur
ne dépend pas du choix de la base B.
2. En revanche, la trace d’un produit de ma-
trice n’est pas invariant par n’importe quelle
Démonstration.
permutation. Par exemple, dans M2 (K), en On a vu d’une part que deux matrices d’un même endo-
notant (Eij ) les matrices de la base cano- morphisme sont nécessairement semblables et d’autre part
nique : que la trace de matrices est un invariant de similitude. La
valeur de tr (u) ne dépend donc pas du choix de la base
tr (E21 E11 E12 ) = 1 ̸= 0 = tr (E11 E21 E12 ). B.

Exemple 6.2.9.
d. Invariance par similitude. L’endomorphisme IdE a pour trace dim(E).
Exercice 6.2.10.
Proposition 6.2.6. Déterminer la trace de l’endomorphisme de déri-
Deux matrices semblables ont même trace (on dit vation dans Kn [X].
que la trace est un invariant de similitude) : soit
A, B ∈ Mn (K), deux matrices semblables. Alors f. Propriétés.
tr (A) = tr (B).

Démonstration.
Proposition 6.2.11.
Il existe P ∈ GLn (K) vérifiant A = P −1 BP . Alors on a Soit E un espace vectoriel de dimension finie. La
trace est une forme linéaire sur L (E).
tr (A) = tr P −1 (BP )


= tr (BP )P −1

Démonstration.
= tr (B). Il suffit de choisir une base de B de E et constater que
pour tous endomorphismes u et v, de matrices respectives
A et B, et pour tout scalaire λ, on a
Remarque 6.2.7.
tr (λu + v) = tr (λA + B)
La réciproque de ce résultat est
! fausse. Par = λtr (A) + tr (B)
2 0
exemple, montrez que A = et I2 ne sont = λtr (u) + tr (v).
0 0
pas semblables.

21
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

Proposition 6.2.12. la forme


Soit E un espace vectoriel de dimension finie et v
 
m11 m12 ··· m1p
et u deux endomorphismes de E. Alors,  m21

m22 ··· m2p 

M =
 .. .. .
.. 
tr (v ◦ u) = tr (u ◦ v).  . . . 
mn1 mn2 · · · mnp
En traçant q − 1 lignes horizontales distinctes et
Démonstration. r − 1 lignes verticales distinctes dans le tableau
Il suffit de choisir une base B de E. En notant A et B représentant M , on peut décomposer M en q × r
les matrices respectives de u et v, la matrice de v ◦ u est matrices extraites Mij pour (i, j) ∈ [[1, q]] × [[1, r]] :
BA, celle de u ◦ v est AB et on sait que tr (AB) = tr (BA),  
d’où le résultat. M11 M12 · · · M1r
M21 M22 · · · M2r 

Exemple 6.2.13. M =

 .. .. .
.. 
Vérifier ce résultat sur deux endomorphismes de  . . . 
R3 . Mq1 Mq2 · · · Mqr
Cette décomposition est appelée décomposition
g. Trace d’un projecteur. par blocs de M en q × r blocs.
Formellement, une décomposition par bloc de
M est la donnée de q×r matrices Mij pour (i, j) ∈
Proposition 6.2.14. [[1, q]] × [[1, r]] telles que
Soit E un espace vectoriel de dimension finie et p
1. Pour tout i ∈ [[1, q]], les matrices Mi1 , . . ., Mir
un projecteur. Alors, la trace de p est la dimension
ont un même nombre de lignes ni (toutes les
de Im p :
matrices d’une même ligne ont même nombre
tr (p) = rg p.
de lignes).
2. Pour tout j ∈ [[1, r]], les matrices M1j , . . .,
Démonstration.
Mqj ont un même nombre de colonnes pj
Notons n la dimension de E, q celle de Im p. p étant un (toutes les matrices d’une même colonne ont
projecteur, on a E = Im p⊕Ker p. Soit (e1 , . . . , eq ) une base même nombre de colonnes).
de Im p. On a dim Ker p = n − q, donc on peut trouver
3. En notant aij hk le coefficient de la ligne h,
une base (eq+1 , . . . , en ) de Ker p. La famille (e1 , . . . , en )
est alors une base B de E et relativement à cette base, la colonne k de la matrice Mij pour (i, j) ∈
matrice de p est une matrice diagonale dont les q premiers [[1, q]] × [[1, r]] et (h, k) ∈ [[1, ni ]] × [[1, pj ]], on a
coefficients valent 1 et tous les autres sont nuls. Sa trace aij
hk = m(s+h)(t+k) où s = n1 + . . . + ni−1 et
est donc q.
t = p1 + . . . + pj−1 .
Remarque 6.2.15. On dira que la décomposition précédente est
Ce résultat est faux pour d’autres endomor- triangulaire supérieure par blocs si n = p et que :
phismes que les projecteurs. Considérer par 1. pour tout i ∈ [[1, q]], Mii est carrée ;
exemple un endomorphisme de matrice E12 .
2. pour tout (i, j) ∈ [[1, q]]2 avec i > j, Mij est
nulle.
7. Matrices par blocs (HP). On définit de même les décompositions triangu-
laires inférieures par blocs.
Enfin, les décompositions diagonales par blocs
Définition 7.0.1. sont celles dont tous les blocs Mij tels i ̸= j sont
Soit M ∈ Mn,p (K). On peut écrire la matrice sous nuls et tous les blocs Mii sont carrés.

22
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

Exemple 7.0.2.
En posant de la façon suivante. Considérons la matrice n × p
donnée dans la définition précédente :
 
1 2 3 4 5 6
 
M11 M12 · · · M1r
7 8 9 10 11 12 M21 M22 · · · M2r 
  

13 14 15 16 17 18 M =
 .. .. ,
.. 
A= ,
 
19 20 21 22 23 24  . . . 

25 26 27 28 29 30
 Mq1 Mq2 · · · Mqr
31 32 33 34 35 36 où pour tout (i, j) ∈ [[1, q]]×[[1, r]], Mij est de taille
ni × pj . Soit E et F des espaces vectoriels respec-
A peut se décomposer par bloc en tivement de dimension p et n, B = (e1 , . . . , ep )
  une base de E, C = (f1 , . . . , fn ) une base de F
B C D et u ∈ L (E, F ) vérifiant MatB,C (u).
 E F G , On note B1 la famille des p1 premiers vecteurs
 
H I J de B, B2 celle des p2 suivants, . . ., Br celle des pr
derniers et E1 = Vect(B1 ), . . ., Er = Vect(Br ).
où Pour tout j ∈ [[1, r]], Bj est une base de Ej .
! ! On note C1 la famille des n1 premiers vecteurs
1 2 3
B= , C= , de C , C2 celle des n2 suivants, . . ., Cr celle des
7 8 9
! nr derniers et F1 = Vect(C1 ), . . ., Fq = Vect(Cq ).
4 5 6 Pour tout i ∈ [[1, q]], Ci est une base de Fi .
 
D= , E = 13 14 ,
10 11 12 Alors
   
F = 15 , G = 16 17 18 , E = E1 ⊕ . . . ⊕ Er ,

19 20
  
21 F = F1 ⊕ . . . ⊕ Fq .
H = 25 26 , I = 27 ,
   
31 32 33 Tout y ∈ F s’écrit de façon unique π1′ (y) +
. . . + πq′ (y), où πi′ (y) ∈ Fi pour tout i ∈ [[1, q]] (πi′
 
22 23 24
J = 28 29 30 .
  est alors la projection sur Fi parallèlement à la
34 35 36 somme des Fk pour k ̸= i).
De même notons, pour tout j ∈ [[1, r]], πj la
Remarque 7.0.3. projection sur Ej parallèlement à la somme des
Ek pour k ̸= j.
Lorsqu’on parle de décomposition trian- Alors, pour tout (i, j) ∈ [[1, q]] × [[1, r]], on note
gulaire supérieure (resp. triangulaire inférieure,
(
Ej −→ Fi
diagonale) par bloc, c’est bien la décomposition uij : .
x 7−→ πi′ (u(x))
qui est triangulaire supérieure (resp. triangulaire
inférieure, diagonale). Toute matrice carrée admet Ainsi, uij est obtenu en restreignant u au départ
en effet une décomposition (triviale) triangulaire à Ej et, comme il n’est pas a priori possible de
supérieure (resp. triangulaire inférieure, diago- le restreindre à l’arrivée à Fi en le composant à
nale) par bloc. gauche par la projection sur Fi (par rapport à la
somme des Fk pour k ̸= i) : uij = πi′ ◦ u|Ej .
On a alors, pour tout x ∈ E :
X
Proposition 7.0.4 (Interprétation géométrique). u(x) = uij (πj (x)).
On peut interpréter la décomposition par blocs (i,j)∈[[1,q]]×[[1,r]]

23
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

De plus, pour tout (i, j) ∈ [[1, q]] × [[1, r]], Proposition 7.0.5 (Addition par blocs).
Soit (A, B) ∈ Mn,p (K)2 , admettant des décompo-
MatBj ,Ci (uij ) = Mij . sitions par blocs
 
A11 A12 · · · A1r
A21 A22 · · · A2r 


Démonstration. A=
 .. .. ,
.. 
Remarquons tout d’abord que pour tout x ∈ E, on a  . . . 
! Aq1 Aq2 · · · Aqr
r  
B11 B12 · · ·
X
u(x) = u πj (x) B1r
B21 B22 · · · B2r 

j=1 
r B=
 .. .. ,
.. 
 . . . 
X
= u(πj (x))
j=1 Bq1 Bq2 · · · Bqr
r q
XX
= πi′ (u(πj (x))) où pour tout (i, j) ∈ [[1, q]] × [[1, r]], Aij et Bij sont
j=1 i=1
X de même taille.
= uij (πj (x)). Alors A + B vaut
(i,j)∈[[1,q]]×[[1,r]]  
A11 + B11 A12 + B12 · · · A1r + B1r
Soit (i, j) ∈ [[1, q]] × [[1, r]]. On a A21 + B21 A22 + B22 · · ·

A2r + B2r 

 .. .. .. .
Ci = (fs+1 , fs+2 , . . . , fs+ni ), . . .
 
 
Bj = (et+1 , et+2 , . . . , et+pj ), Aq1 + Bq1 Aq2 + Bq2 · · · Aqr + Bqr

s = n1 + . . . + ni−1 , Démonstration.
t = p1 + . . . + pj−1 . Notons, pour tout i ∈ [[1, q]] (resp. pour tout j ∈ [[1, r]]),
ni (resp. pj ) le nombre de lignes (resp. de colonnes) des
Soit k ∈ [[1, pj ]]. En notant (mij )(i,j)∈[[1,n]]×[[1,q]] les coef- matrices de la ligne i (resp. de la colonne j) de ces décom-
ficients de M , on a positions par bloc.
Posons C = A + B et pour tout (i, j) ∈ [[1, q]] × [[1, r]],
uij (ek ) = πi′ (u(et+k )) Cij = Aij + Bij .
n
! Notons aij pour (i, j) ∈ [[1, n]] × [[1, p]] les coefficients
X de la matrice A, bij ceux de B, cij ceux de C et pour
= πi′ mh(t+k) fh
tout (i, j) ∈ [[1, q]] × [[1, r]] et tout (k, h) ∈ [[1, ni ]] × [[1, pj ]],
h=1
aij ij ij
hk (resp. bhk , resp. chk ) ceux de Aij (resp. Bij , resp.
s+ni
X Cij ). On a alors, en posant s = n1 + . . . + ni−1 + h et
= mh(t+k) fh
t = p1 + . . . + pj−1 + k.
h=s+1
ni
X cst = ast + bst = aij ij ij
hk + bhk = chk
= m(s+h)(t+k) fs+h .
h=1 On a donc
C11 C12 ··· C1r
 
C21 C22 ··· C2r 
On en déduit que la matrice de uij est la matrice des C=
m(s+h),(t+k) (h,k)∈[[1,n ]]×[[1,p ]] qui est exactement la ma-  ... ..
.
.. 
.

i j
trice Mij . On a donc MatBj ,Ci (uij ) = Mij . Cq1 Cq2 ··· Cqr

D’où le résultat.

24
XXVI - MATRICES ET ALGÈBRE LINÉAIRE

On fait de même pour décomposer F en F1 ⊕ . . . ⊕ Fs


Proposition 7.0.6 (Multiplication par blocs). et construire les projections π1′ , . . ., πs′ associées et pour
Soit A ∈ Mn,p (K) et B ∈ Mp,q (K). décomposer G en G1 ⊕. . .⊕Gr et construire les projections
π1′′ , . . ., πr′′ associées.
On considère des décompositions de A en r × s
Posons w = v ◦ u.
blocs et de B en s × t blocs, On peut construire comme précédemment des uij ∈
  L (Ej , Fi ) pour (i, j) ∈ [[1, s]] × [[1, t]] pour décomposer
A11 A12 · · · A1s u, des vij ∈ L (Fj , Gi ) pour (i, j) ∈ [[1, r]] × [[1, s]] pour
A21 A22 · · ·

A2s 
 décomposer v et des wij ∈ L (Ej , Gi ) pour (i, j) ∈ [[1, r]] ×
A=
 .. .. ,
..  [[1, t]] pour décomposer w.
 . . .  En posant Cij = MatB,D (wij ) pour (i, j) ∈ [[1, r]] ×
Ar1 Ar2 · · · Ars [[1, t]], on obtient une décomposition par bloc de la matrice
  MatB,D (w) qui n’est autre que A × B.
B11 B12 · · · B1t Soit alors (i, j) ∈ [[1, r]] × [[1, s]] et x ∈ Ej . On a
B21 B22 · · · B2t 

wij = πi′′ ◦ w|Ej

B=
 .. .. ,
.. 
 . . .  = πi′′ ◦ v ◦ u|Ej
Bs1 Bs2 · · · Bst s
!
X
= πi′′ ◦v◦ πk′ ◦ u|Ej
telles que pour tout pour tout (i, k, j) ∈ [[1, r]] × k=1
[[1, s]] × [[1, t]], les matrices Aik et Bkj aient des n
X
tailles compatibles par la multiplication. = πi′′ ◦ v ◦ πk′ ◦ u|Ej
k=1
Alors le produit A × B s’écrit par blocs : n
X
  = πi′′ ◦ v|Fk ◦ πk′ ◦ u|Ej
C11 C12 · · · C1t k=1
C21 C22 · · · C2t 
 n
 X
C=
 .. .. ,
..  = vik ◦ ukj .
 . . .  k=1
Cr1 Cr2 · · · Crt
On en déduit
n
où pour tout (i, j) ∈ [[1, r]] × [[1, t]], on a X
Cij = MatB,D ( vik ◦ ukj )
s k=1
X n
Cij = Aik × Bkj X
= MatC ,D (vik ) × MatB,C (ukj )
k=1
k=1
n
X
= Aik × Bkj .
k=1
Démonstration.
Nous donnons ici les grandes lignes de la démonstration,
que nous traitons de façon géométrique.
Choisissons E, F , G trois espaces vectoriels de dimen- Exercice 7.0.7.
sions respectives q, p, n et trois bases respectives B, C et Calculer A2 , avec
D de ces espaces.  
Notons u ∈ L (E, F ) et v ∈ L (F, G) les applications 1 0 0 1
linéaires vérifiant Mat(B,C ) (u) = B et Mat(C ,D) (v) = A. 0 1 0 0
A= .
 
Comme précédemment, on peut, à partir de la base
0 0 −1 0 
B, décomposer E en une somme directe E1 ⊕ . . . ⊕ Et et
construire des projections π1 , . . ., πt sur ces sous-espaces 1 0 0 −1
respectifs, parallèlement à la somme des autres.

25

Vous aimerez peut-être aussi