Matrices et applications linéaires
Matrices et applications linéaires
Matrices
Table des mati`eres
1 Presentation de M
n,p
(K) 2
1.1 Espace des matrices (n, p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Lien avec les applications lineaires . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Lalg`ebre M
n
(K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Representation des applications lineaires 7
2.1 Matrices coordonnees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Matrice de passage entre deux bases . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Formule de changement de base pour une application lineaire . . . . . . . . . 9
2.4 Complements sur M
n
(K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3 Theorie du rang 11
3.1 Operations elementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Rang dune matrice, pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . 11
3.3 Inversion des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4 Annexe : puissances dune matrice 17
4.1 Pourquoi et comment ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.2 Utilisation dun polynome annulateur . . . . . . . . . . . . . . . . . . . . . . 18
4.3 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.4 Pour terminer... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1
Dans tout ce chapitre, K designe un corps : R ou C. Tous les espaces vectoriels en jeu sont
de dimension nie.
1 Presentation de M
n,p
(K)
1.1 Espace des matrices (n, p)
D
efinition 1
Soient n, p N
efinition 2
On xe n et p des entiers > 0. Les matrices elementaires de type (n, p) sont les matrices
E
k,l
, pour (k, l) [[1, n]] [[1, p]], avec E
k,l
de terme general (E
k,l
)
i,j
=
i,k
j,l
(on rappelle
la signication du symbole de Kronecker :
,
= 1 si = , et 0 sinon). En termes clairs,
E
k,l
est constituee uniquement de 0, sauf en position (k, l) o` u on trouve 1.
Exemple 2 Si n = 3 et p = 2, on a E
2,2
=
_
_
0 0
0 1
0 0
_
_
Proposition 1 La famille des E
k,l
, pour (k, l) [[1, n]] [[1, p]], constitue une base de
M
n,p
(K).
Preuve : On commence par observer que le coecient (k, l) de la combinaison lineaire
i,j
i,j
E
i,j
est
k,l
. Or deux matrices sont egales si et seulement si tous leurs coecients
sont egaux. On a donc M =
i,j
i,j
E
i,j
si et seulement si pour tout (k, l) [[1, n]] [[1, p]],
k,l
= m
k,l
: on obtient ainsi existence et unicite de la decomposition de M selon les E
i,j
.
Corollaire 1 M
n,p
(K) est de dimension np
Remarque 1 Tiens, comme L(E, F) lorsque dim E = p et dim F = n. . .
1
on dit parfois entrees, ce qui est un anglicisme notoire : les anglo-saxons (et Maple) designent les
coecients dune matrice par entries
2
1.2 Lien avec les applications lineaires
D
efinition 3
Soient u L(E, F), E = (e
1
, . . . , e
p
) une base de E et F = (f
1
, . . . , f
n
) une base de
F. Chaque u(e
j
) est combinaison lineaire des f
i
. Si on note m
i,j
les coecients tels que
u(e
j
) =
n
i=1
m
i,j
f
i
, alors la matrice M de terme general m
i,j
sappelle la matrice representant
u entre les bases E et F.
Cette matrice est notee Mat
E,F
u. Lorsque F = E et F = E, on note Mat
E
u plutot que Mat
E,E
u.
Exemple 3 La matrice representant (x, y) (x+2y, y, 3xy) entre les bases canoniques
respectives (e
1
, e
2
) et (f
1
, f
2
, f
3
) de R
2
et R
3
est
_
_
1 2
0 1
3 1
_
_
. Par contre, si on prend comme
base au depart la famille (e
1
+ e
2
, e
2
) (en conservant la meme base `a larivee), la matrice
representant u entre ces deux base est :
_
_
3 2
1 1
2 1
_
_
(sur la premi`ere colonne, on ecrit les
coecients dans la decomposition de u(e
1
+e
2
) selon les f
i
. . .).
Proposition 2 On suppose E de dimension p et F de dimension n. Si on xe une base
E de E et une base F de F, alors lapplication
L(E, F) M
n,p
(K)
u Mat
E,F
u
est un isomorphisme.
Preuve : On commencera par montrer soigneusement la linearite. Ensuite, vu legalite
des dimensions, il sut de montrer linjectivite. Supposons donc (u) = 0 : on a alors pour
tout j [[1, p]] u(e
j
) = 0. u est donc nulle sur une base, donc est nulle.
Sans largument de dimension, on pourra prouver la surjectivite en xant M M
n,p
(K), et
en etablissant lexistence de u L(E, F) telle que M = Mat
E,F
u. On utilisera un fait prouve
dans le chapitre precedent (pour determiner la dimension de L(E, F), justement ; ce nest
pas un hasard...) : si on se xe p vecteurs v
1
, . . . , v
p
de F, on peut trouver une (unique)
application u qui envoie chaque e
j
sur v
j
.
Remarque 2 BIEN ENTENDU, on aura note les dimensions de E et F, qui sont
respectivement p et n, et pas le contraire. . .
Exercice 1 (IMPORTANT)
Soient u, v L(R
2
) et E la base canonique de R
2
. Determiner Mat
E
(u v) en fonction de
A = Mat
E
u et B = Mat
E
v.
Solution : On trouvera :
_
a
1,1
b
1,1
+a
1,2
b
2,1
a
1,1
b
1,2
+a
1,2
b
2,2
a
2,1
b
1,1
+a
2,2
b
2,1
a
2,1
b
1,2
+a
2,2
b
2,2
_
En fait, on va denir la multiplication des matrices `a laide de la composee des applications
lineaires. Un point de vue adopte parfois consiste `a denir la multiplication `a laide
de formules magiques, et de constater, miracle, que cela correspond `a la composition
dapplications lineaires.
D
efinition 4
Soit A M
n,p
(K). Dapr`es la proposition 2, il existe une unique application lineaire
u L(K
p
, K
n
) telle que A soit sa matrice entre les bases canoniques de K
p
et K
n
: cette
application lineaire est dite canoniquement associee `a A, et on note souvent cela : Au.
3
Exemple 4 Lapplication canoniquement associee `a I
n
est la fonction identite de K
n
.
Exemple 5 Lapplication canoniquement associee `a A =
_
1 0 2
2 1 3
_
est :
u : R
3
R
2
(x, y, z) (x 2z, 2x +y 3z)
D
efinition 5
Soient A M
n,p
(K) et B M
p,q
(K). Notons u L(K
p
, K
n
) et v L(K
q
, K
p
) leurs
applications lineaires canoniquement associees. On denit alors la matrice AB comme la
matrice representant u v (qui va de K
q
dans K
n
) entre les bases canoniques de K
q
et K
n
.
Remarque 3 Avec les notations precedentes, on a alors AB M
n,q
(K) : noter comment
les dimensions sarrangent `a la Chasles.
Proposition 3
Le produit matriciel (A, B) AB est bilineaire (i.e. : lineaire par rapport `a A et `a B).
Le produit matriciel est associatif : si les dimensions sont compatibles
2
, on a : A(BC) =
(AB)C.
Le terme (i, j) du produit AB vaut :
(AB)
i,j
=
p
k=1
a
i,k
b
k,j
. (P)
Preuve :
Considerer les applications lineaires canoniquement associees (entre les K
r
adequats. . .),
et utiliser la linearite de lisomorphisme u Mat
E,G
u. . .
Meme principe.
Soient u L(K
p
, K
n
) et v L(K
q
, K
p
) canoniquement associees `a A et B.
v u
K
q
K
p
K
n
Si on note E, F et G les bases respectives de K
q
, K
p
et K
n
, on a par denition
AB = Mat
E,G
(u v), de sorte que si j [[1, q]] et C = AB, on a :
(u v)(e
j
) =
n
i=1
c
i,j
g
i
.
Or :
(u v)(e
j
) = u
_
p
k=1
b
k,j
f
j
_
=
p
k=1
b
k,j
u(f
k
) =
p
k=1
_
b
k,j
n
i=1
a
i,k
g
i
_
=
n
i=1
_
k
k=1
a
i,k
b
k,j
_
g
i
,
et on conclut par liberte des g
i
.
Remarque 4 La formule (P) du produit incite `a presenter le calcul de C = AB sous
la forme
(B)
(A)(C)
: on calcule ainsi c
i,j
en prenant le produit scalaire de la ligne de A
2
Si elles le sont dans un membre, elles le sont dans lautre : le verier. . .
4
et de la colonne de B dont c
i,j
est lintersection. Cela donne, pour A =
_
_
1 0 1
0 1 0
1 0 1
_
_
et
B =
_
_
1 1
0 1
1 0
_
_
:
_
_
1 1
0 1
1 0
_
_
_
_
1 0 1
0 1 0
1 0 1
_
_
_
_
2 1
0 1
2 1
_
_
1.3 Lalg`ebre M
n
(K)
On rappelle que pour n > 0, M
n
(K) designe lespace M
n,n
(K) des matrices (n, n) (de meme
que L(E) est un raccourci pour L(E, E) ).
Proposition 4 M
n
(K) (muni des lois auxquelles on pense) est une K-alg`ebre non
commutative (sauf pour n = 1. . .), de neutre (pour la multiplication) :
I
n
=
_
_
_
1 (0)
.
.
.
(0) 1
_
_
_.
Preuve : On commence par verier (soit par le calcul, soit en revenant `a la denition du
produit matriciel) : MI
n
= I
n
M = M. Ensuite, pour montrer que M
n
(K) nest JAMAIS
commutative lorsque n 2 (ce qui ne signie pas que deux matrices ne commutent jamais) :
on peut prendre par exemple A = E
1,2
et B = E
2,1
: AB = E
1,1
alors que BA = E
2,2
(justier).
Certaines matrices ont une structure remarquable :
D
efinition 6
Une matrice A M
n
(K) est dite
triangulaire superieur (resp. inferieur) lorsque a
i,j
= 0 pour tout couple (i, j) tel que i > j
(resp. i < j) ;
diagonale lorsque a
i,j
= 0 pour tout couple (i, j) tel que i = j (ce qui revient `a dire que
A est triangulaire inferieur et superieur).
Il est parfois utile de savoir multiplier formellement (i.e. sans reechir) les matrices
elementaires. On peut alors retenir le resultat suivant :
Proposition 5 E
i,j
E
k,l
est nul lorsque j = k, et vaut E
i,l
lorsque j = k. En dautres
termes :
E
i,j
E
k,l
=
j,k
E
i,l
.
Preuve : On peut le faire de facon calculatoire (avec les formules de produits), ou
bien en considerant les applications lineaires canoniquement associees, sachant que celle
canoniquement associee `a E
i,j
envoie e
j
sur e
i
, et les e
( = j) sur 0.
D
efinition 7
Le produit matriciel est une LCI associative sur M
n
(K), qui poss`ede un neutre, `a savoir I
n
.
Lensemble des elements inversibles est note GL
n
(K). Muni du produit matriciel, il constitue
un groupe : groupe lineaire des matrices carrees dordre n.
5
Exemple 6 La matrice A =
_
0 1
1 0
_
est inversible, dinverse A. En revanche, la
matrice B =
_
_
0 1 1
0 2 1
0 1 2
_
_
nest pas inversible : pourquoi ?
Remarque 5 M
n
(K) nest pas int`egre (AB = 0 nimplique pas : A ou B est nulle). On
fournira un contre-exemple.
Exercice 2 Soit A M
2
(K). Montrer quil existe deux scalaires et tels que
A
2
= A+I
2
.
Exercice 3 Montrer que le produit de deux matrices triangulaires superieur (resp.
diagonales) est une matrice triangulaire superieur (resp. diagonale) dont on donnera les
elements diagonaux.
1.4 Transposition
D
efinition 8
Pour A M
n,p
(K), la matrice transposee de M, notee
t
M ou M
T
, designe la matrice
N M
p,n
(K) telle que :
(i, j) [[1, p]] [[1, n]], N
i,j
= M
j,i
.
Exemple 7
t
_
1 1 2
0 2 3
_
=
_
_
1 0
1 2
2 3
_
_
. De meme,
t
E
i,j
= E
j,i
.
On montrera sans mal (par exemple en decomposant les matrices avec les E
i,j
) les resultats
suivants :
Proposition 6
M
t
M realise un isomorphisme de M
n,p
(K) sur M
p,n
(K).
Si A M
n,p
(K) et B M
p,q
(K), alors
t
(AB) =
t
B
t
A.
Si M M
n,p
(K), alors
t
(
t
M) = M.
D
efinition 9
Une matrice A M
n
(K) est dite symetrique (resp. antisymetrique) lorsque A
i,j
= A
j,i
(resp. A
i,j
= A
j,i
) pour tout i, j.
Lensemble des matrices symetriques (resp. antisymetriques) est note S
n
(K) (resp. A
n
(K) ).
Proposition 7 S
n
(K) et A
n
(K) sont deux sous-espaces supplementaires de M
n
(K).
Preuve : On pourra montrer que toute matrice se decompose de facon unique comme
somme dune matrice symetrique, et dune matrice antisymetrique. Pour cela, chercher la
forme necessaire de la decomposition, puis verier quelle convient.
Un autre point de vue consiste `a partir du fait que la transposition T est une
involution lineaire de M
n
(K), donc une symetrie. Ker (T Id) et Ker (T + Id) sont donc
supplementaires.
Exercice 4 Montrer que les dimensions de S
n
(K) et A
n
(K) sont respectivement
n(n + 1)
2
et
n(n 1)
2
On exhibera des bases simples de ces deux espaces.
6
2 Representation des applications lineaires
Dans cette partie, on va voir que la matrice dune application lineaire permet de calculer
au sens litteral les images. Appliquer ou composer des applications lineaires reviendra
maintenant `a multiplier des matrices.
Comme les applications lineaires sont parfois denies de facon naturelle dans des bases non
adaptees aux probl`emes, il faudra egalement etre capable de changer de base, cest-`a-dire
calculer des matrices entre deux nouvelles bases, `a partir de la matrice dans deux anciennes
bases, ainsi que des matrices de passage entre ces bases.
2.1 Matrices coordonnees
D
efinition 10
Soit B = (e
1
, ..., e
n
) une base de E. La matrice coordonnees de x E dans la base B est la
matrice colonne X =
_
_
_
1
.
.
.
n
_
_
_, o` u x =
1
e
1
+ +
n
e
n
est lunique decomposition de x dans
B. On notera parfois : x
B
X, ou encore : X = Mat
B
x.
Exemple 8 Si E = R
3
, x = (1, 1515, 2) avec B = (e
1
, e
2
, e
3
) la base canonique, et
B
= (f
1
, f
2
, f
3
), o` u f
1
= e
1
+e
2
, f
2
= e
2
+e
3
, et f
3
= e
1
+e
3
(verier que B
_
_
1
1515
2
_
_
, mais x
B
_
_
759
756
758
_
_
.
Le fait suivant recolle les morceaux de facon naturelle entre vecteurs, applications lineaires,
matrices dAL et matrices coordonnees :
Proposition 8 Soient u L(E, F), e et f deux bases de E et F.
Si U = Mat
e,f
u, x
e
X et y
f
Y , alors : Y = UX.
Preuve : Notons p et n les dimensions de E et F, et U = ((u
i,j
)) : x =
p
i=1
x
i
e
i
, donc :
y = u(x) =
p
j=1
x
i
_
n
i=1
u
i,j
f
i
_
=
n
i=1
_
p
j=1
u
i,j
x
i
_
f
i
,
donc le i-`eme terme de la matrice coordonnee Y est
p
j=1
u
i,j
x
i
, ce qui est egalement le i-`eme
terme de la matrice colonne UX.
On sait dej`a que la matrice UV est par denition canoniquement associee `a uv, o` u u et v sont
canoniquement associees `a U et V . A partir du resultat precedent, on va pouvoir generaliser
ce fait ` a toutes applications lineaires associees `a U et V , entre des bases compatibles :
Corollaire 2 Soient E, F, G trois espaces de dimensions nies munis de trois bases e,
f, g, ainsi que v L(E, F) et u L(F, G).
(E, e)
v
V
(F, f)
u
U
(G, g)
Si U = Mat
f,g
u et V = Mat
e,f
v, alors UV = Mat
e,g
u v.
7
Preuve : Soit x E. On denit y = v(x), z = u(y) = (u v)(x), x
e
X, y
e
Y ,
z
e
Z, ainsi que W = Mat
e,g
u v.
La proposition precedente permet darmer : Y = V X, Z = UY , et Z = WX. On a donc :
(UV )X = WX, soit encore (UV W)X = 0 (matrice colonne). Si on note D = UV W
et on prend x = e
k
, DX vaut alors la k-`eme colonne de D. Ainsi, D a toutes ses colonnes
nulles, donc est nulle.
2.2 Matrice de passage entre deux bases
Exercice 5 E = R
2
, B
1
= (e
1
, e
2
) (base canonique) et B
2
= (f
1
, f
2
), avec f
1
= e
1
+ e
2
et f
2
= e
1
+e
2
.
Montrer que B
2
est une base de E.
Quelles sont les coordonnees de (2, 3) dans B
1
? Et dans B
2
? Recommencer avec (3, 4),
puis (x, y).
Quelles sont les coordonnees de 2f
1
+ 3f
2
dans B
2
? Et dans B
1
? Recommencer avec
3f
1
+ 4f
2
, puis xf
1
+yf
2
.
D
efinition 11
Soit B = (e
1
, ..., e
n
) une base de E
Considerons p vecteurs x
1
, ..., x
p
E. La matrice representant la famille x
1
, ..., x
p
dans B
est la matrice (n, p) dont la k-`eme colonne est la matrice coordonnee de x
k
dans B. Elle
est notee Mat
B
(x
1
, ..., x
p
).
Soit B
= (e
1
, ..., e
n
) une autre base de E. La matrice de passage entre B et B
est la
matrice representant (e
1
, ..., e
n
) dans B. Elle est notee P
B
B
.
P
B
B
= Mat
B
(e
1
, ..., e
n
) =
e
1
. . . e
n
_
_
_
p
1,1
. . . p
1,n
.
.
.
.
.
.
.
.
.
p
n,1
. . . p
n,n
_
_
_
e
1
.
.
.
e
n
Remarques 6
La matrice de la fonction identite de E (muni de B
i
) = e
i
dans B, et donc :
P = P
B
B
= Mat
B
(e
1
, ..., e
n
) = Mat
B
,B
Id : (E, B
)
Id
P
(E, B).
P
B
B
est inversible, dinverse P
B
B
. En eet, P
B
B
P
B
B
represente la matrice de lapplication
identite entre E muni de B et E muni de B, cest-`a-dire I
n
. Meme chose pour P
B
B
P
B
B
.
Proposition 9 Soit x E, de coordonnees respectives X et X
.
Si P est la matrice de passage de B vers B
, alors X = PX
.
Preuve : Considerons u lapplication identite de E (moralement : muni de B
) vers E
(muni de B). Sa matrice entre ces deux bases est P, donc les coordonnees de u(x) dans B
sont PX
, puisque X
permet
de passer directement des coordonnees ... dans B
1
, alors que F est muni des bases B
2
et B
2
. On note P (resp. Q) la matrice de passage
entre B
1
et B
1
(resp. B
2
et B
2
).
Soit u L(E, F). On suppose que M = Mat
B
1
,B
2
u et M
= Mat
B
1
,B
2
u. Alors :
M
= Q
1
MP.
Preuve : La formule precedente et sa preuve sont fondamentalement expliquees par le
diagramme
3
suivant, sur lequel il convient de mediter :
E, B
1
u
M
F, B
2
Id
E
P Id
F
Q
1
E, B
1
u
F, B
2
Il sut en eet dappliquer la formule donnant la matrice dune composee aux applications
Id
E
, u et Id
F
...
Corollaire 3 Cas des endomorphismes
E, B
1
u
M
E, B
1
Id
E
P Id
E
P
1
E, B
1
u
E, B
1
Si F = E, avec M = Mat
B
1
u et M
= Mat
B
1
u, la formule precedente devient :
M
= P
1
MP.
Exemples 9
Soit E = R
2
. On cherche la matrice A dans la base canonique B = (e
1
, e
2
) de la projection
p sur Rf
1
parall`element `a Rf
2
, avec f
1
= (1, 1) et f
2
= (1, 1). La matrice B de p dans
F = (f
1
, f
2
) vaut B =
_
1 0
0 0
_
. Notons P la matrice de passage de F vers B :
B = Mat
f
1
,f
2
(e
1
, e
2
) =
1
2
_
1 1
1 1
_
et P
1
= Mat
e
1
,e
2
(f
1
, f
2
) =
_
1 1
1 1
_
On peut donc appliquer la formule de changement de base, apr`es avoir fait le diagramme
maintenant usuel :
E, F
p
B
E, F
Id
E
P Id
E
P
1
E, B
u
A
E, B
A = P
1
BP =
1
2
_
1 1
1 1
__
1 0
0 0
__
1 1
1 1
_
=
1
2
_
1 1
1 1
_
On verie que A
2
= A, ce qui etait attendu; pourquoi ?
En remplacant B par C =
_
1 0
0 1
_
, on obtient la matrice S dans B de la symetrie par
rapport ` a Rf
1
parall`element `a Rf
2
:
S = P
1
CP =
1
2
_
1 1
1 1
__
1 0
0 1
__
1 1
1 1
_
=
_
0 1
1 0
_
Que peut-on verier ?
3
Pour les disciples de Knuth, la reponse `a leur question est : \usepackage[]{amscd}
9
2.4 Complements sur M
n
(K)
D
efinition 12
La trace dune matrice carree A M
n
(K) est par denition la somme de ses elements
diagonaux :
tr A =
n
i=1
a
i,i
.
Proposition 11 Si A, B M
n
(K), alors tr AB = tr BA.
Preuve : Les deux membres sont egaux `a
1i,jn
a
i,j
b
j,i
.
Corollaire 4 Trace dun endomorphisme
Soit u L(E). Les matrices reresentant u dans les diverses bases de E ont toutes meme
trace. Cette trace commune est appelee trace de u, et notee tr u.
Preuve : Soient E et F deux bases de E, M la matrice de passage de la premi`ere vers la
seconde, et soient enn M et M
= tr P
1
MP = tr (P
1
M)P = tr P(P
1
M) = tr (P
1
P)M = tr M.
On rappelle que GL
n
(K) designe lensemble des matrices (n, n) `a coecients dans K et
inversibles. Comme dans tout anneau, on sait que lensemble des inversibles muni de la
multiplication (GL
n
(K), .) est un groupe.
Proposition 12 Soit u L(E, F) de matrice U entre deux bases donnees E et F. Alors
u est un isomorphisme si et seulement si M est inversible.
Preuve :
Si u est un isomorphisme : notons v lisomorphisme reciproque (v = u
1
) et V = Mat
F,E
v :
les relations uv = Id
F
et v u = Id
E
permettent dassurer les relations UV = V U = I
n
.
Reciproquement, si U est inversible, denissons v lunique application lineaire de F dans
E dont la matrice entre les bases F et E est U
1
. On a alors Mat
F
u v = U.U
1
= I
n
,
donc u v = Id
F
. De meme, v u = Id
E
, et u est bijective (de bijection reciproque v).
Remarque 8 Si A, B M
n
(C) et AB = I
n
, les applications u et v canoniquement
associee `a A et B verient u v = Id
E
(E = K
n
). v est donc injective, puis bijective
(dimension), donc cest un isomorphisme de reciproque u. Mais alors, BA = I
n
, donc B et
A sont inversibles, et inverses lune de lautre.
Le resultat suivant nest pas bien dicile `a montrer, si on suit les denitions. La raison
profonde est en fait bien plus subtile, puisquelle necessite de comprendre la veritable nature
de la transposition... ce qui est largement exclu de notre programme.
Proposition 13 A M
n
(K) est inversible si et seulement si
t
A lest.
Preuve :
Si A est inversible, on a A.A
1
= I
n
, donc en transposant :
t
(A
1
) .
t
A =
t
I
n
= I
n
. De
meme, en partant de A
1
.A = I
n
, on obtient
t
A.
t
(A
1
) = I
n
, donc
t
A est inversible,
dinverse
t
(A
1
).
Reciproquement, si
t
A est inversible, le travail precedent assure que
t
(
t
A) (cest-`a-dire A)
est inversible : gagne !
10
On termine par un exercice, qui est un preliminaire `a la fois au paragraphe suivant et au
chapitre suivant sur les syst`emes lineaires (meme si ca ne saute pas aux yeux. . .)
Exercice 7 Soit A T
+
n
(K). Alors A est inversible si et seulement si a
i,i
= 0 pour tout
i [[1, n]].
Solution : On raisonnera geometriquement, on etudiant particuli`erement les sous-espaces
F
k
= u
_
Vect(e
1
, ..., e
k
)
_
.
3 Theorie du rang
3.1 Operations elementaires
On va sinteresser dans ce chapitre `a quatre types doperations sur une matrice donnee :
lechange de deux lignes (resp. colonnes), et le remplacement dune ligne L
i
par L
i
+L
j
, o` u
L
j
est une autre ligne (meme chose avec les colonnes). Ces types doperations sont habituelles
lors de la resolution de syst`emes lineaires, et la proposition suivante les interpr`ete comme
des produits par des matrices simples.
Proposition 14 Pour i = j et K, on denit les matrices carrees (n, n) :
S
n
i,j
= I
n
+E
i,j
+E
j,i
E
i,i
E
j,j
et T
n
i,j
= I
n
+E
i,j
(faire un dessin !). Soit M M
n,p
(K) :
Si on echange les lignes (resp. colonnes) i et j de M, on obtient la matrice S
n
i,j
M (resp.
MS
p
i,j
) ;
si on remplace la ligne L
i
(resp colonne C
i
) de M par L
i
+ L
j
(resp. C
i
+ C
j
), on
obtient la matrice T
n
i,j
()M (resp. MT
p
i,j
() ).
Preuve : Pour retrouver les resultats comme pour les prouver (il est illusoire dessayer
de les apprendre), il faut faire des dessins avec i et j tr`es dierents pour y voir quelque
chose.
Remarques 9
On verie sans mal (par le calcul et/ou par linterpretation en terme doperations
elementaires) que S
i,j
est inversible, dinverse elle-meme, et que T
i,j
() est inversible
dinverse T
i,j
(). La veritable raison vient de la reversibilite des operations elementaires
usuelles et de la nature des operations reciproques.
On sautorise parfois ` a multiplier une ligne ou une colonne par une constante NON
NULLE. Cela revient ` a multiplier la matrice `a droite ou `a gauche par I
n
+ ( 1)E
i,i
.
Il sagit `a nouveau dune operation reversible (faire la meme operation avec
1
redonne la
matrice initiale). Gr ace `a cette nouvelle operation, on peut egalement faire des operations
de la forme L
i
L
i
+L
j
, lorsque = 0 et i = j.
3.2 Rang dune matrice, pivot de Gauss
D
efinition 13
Le rang dune matrice A, note rg A, est le rang de lapplication lineaire canoniquement
associee `a A, cest-` a-dire (rappel...) la dimension de son image.
Remarque 10 Lapplication lineaire en question va de K
p
dans K
n
. Son image est donc
de dimension n. Mais le theor`eme du rang nous dit que ce rang est aussi p : pourquoi ?
Exemple 10 Notons J
(n,p)
r
(ou bien, lorsquil ny a pas dambigute : J
r
) la matrice de
M
n,p
(K) dont toutes les entrees sont nulles sauf les J
i,i
pour i [[1, r]] (dessin...). lAL
canoniquement associee `a J
r
va de K
p
dans K
n
, et a pour image lespace engendre par les
r premiers vecteurs de bases de K
n
: son rang est donc r
11
Exercice 8 IMPORTANTISSIME
Soient P GL
n
(K), Q GL
p
(K), et A M
n,p
(K). Montrer que A et PAQ ont le meme
rang.
Remarque 11 Dapr`es lexercice et lexemple precedent, le rang de PJ
r
Q vaut r : nous
en reparlerons bientot...
Les resultats de la proposition suivante relient les rangs de matrices `a ceux des familles
de vecteurs ou des applications dans nimporte quelle bases (et pas seulement celles
canoniquement associees `a une matrices).
Proposition 15
Si u L(E, F), avec E et F munis de bases B
1
et B
2
, alors le rang de u est egalement
celui de U = Mat
B
1
,B
2
u.
Si x
1
, ..., x
p
sont des vecteurs de E de dimension n, muni dune base B, alors le rang de
(x
1
, ..., x
p
) est egalement le rang de Mat
B
(x
1
, ..., x
p
).
Preuve :
Il semble naturel de faire intervenir lAL v canoniquement associee `a U. Cette application
va de K
p
dans K
n
(avec p = dim E et n = dim F). Pour relier les dierents espaces, on
dispose des deux isomorphismes :
1
K
p
E
(
1
, ...,
p
)
p
j=1
j
x
i
et
2
K
n
F
(
1
, ...,
n
)
n
i=1
i
y
i
avec B
1
= (x
1
, ..., x
p
) et B
2
= (y
1
, ..., y
n
). Pour resumer :
E, B
1
u
U
F, B
2
K
p
, E
v
U
K
n
, F
On va montrer que le diagramme est commutatif, cest-`a-dire le
Lemme 1 u
1
=
2
v.
Preuve : Les applications en jeu vont de K
p
dans F. On va considerer limage des
vecteurs de la base canonique de K
p
. On montre sans mal que pour tout j [[1, p]] :
(u
1
)(e
j
) = u(x
j
) =
n
k=1
u
k,j
y
j
=
2
_
n
k=1
u
k,j
f
j
_
= (
2
v)(e
j
).
Fin de la preuve : Puisque le rang des AL est maintenu par composition avec des
isomorphismes, on peut ecrire :
rg u = rg u
1
= rg
2
v = rg v = rg U
(la derni`ere egalite venant la denition du rang de U).
12
Le rang de (x
1
, ..., x
p
) est la dimension de Vect(x
1
, ..., x
p
), qui est limage de lapplication
K
p
E
(
1
, ...,
p
)
p
j=1
j
x
i
Il reste `a ecrire en utilisant le resultat precedent et en notant E la base canonique de K
p
:
rg(x
1
, ..., x
p
) = rg = rg Mat
E,B
= rg Mat
B
(x
1
, ..., x
p
).
Le resultat suivant est `a connatre AVEC SA PREUVE : il sexprime de facon
matricielle, mais fondamentalement, il dit que toute application lineaire se represente TRES
SIMPLEMENT, pour peu quon prenne une bonne base au depart et `a larrivee.
Th
eor
`
eme 1 Reduction du rang
Si A M
n,p
(K) est de rang r, alors il existe Q GL
n
(K) et P GL
p
(K) telles que
A = QJ
r
P.
Preuve : Considerons lapplication u L(K
p
, K
n
) canoniquement associee `a A :
A = Mat
E,F
u, avec E et F les bases canoniques de E = K
p
et F = K
n
. On va construire
de bonnes bases E
et F
,F
=
u(e
1
) . . . u(e
r
) u(e
r+1
) . . . u(e
p
)
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0
.
.
.
.
.
.
.
.
. 0
0 1
.
.
.
.
.
.
0
.
.
. 0
.
.
.
_
_
_
_
_
_
_
_
_
_
_
_
_
_
f
1
.
.
.
.
.
.
f
r
f
r+1
.
.
.
f
n
Il faut dej`a prendre e
r+1
, ..., e
p
dans le noyau de u. Mais ce noyau est de dimension
p r (theor`eme du rang). On peut donc eectivement denir (e
r+1
, ..., e
p
) comme une
base du noyau de u. Completons la alors en une base quelconque de E, avec des vecteurs
(e
1
, ..., e
r
). On est oblige de prendre f
1
= u(e
1
),..., f
r
= u(e
r
). Comme la restriction de u `a
Vect(e
1
, ..., e
r
) est injective
4
, on en deduit que (f
1
, ..., f
r
) est libre. Il reste `a la completer en
une base (f
1
, ..., f
n
) de F, et on aura alors Mat
E
,F
u = J
r
.
E, E
u
A
F, F
Id
E
P
1 Id
F
P
2
E, E
J
r
F, F
vers E et P
2
de F vers
F
.
.
. ()
. . . . . . . . . . . .
0
.
.
.
.
.
.
.
.
. ()
0
.
.
.
_
_
_
_
_
_
_
_
_
_
et
_
_
_
_
_
_
_
_
_
_
_
_
_
.
.
. ()
0
.
.
. ()
. . . . . . . . . . . . . . .
0 0
.
.
.
.
.
.
.
.
.
.
.
. ()
0 0
.
.
.
_
_
_
_
_
_
_
_
_
_
_
_
_
Pour P(1), il sut de noter que pivot = 1, car il ny a pas de j veriant 1 j < 1...
Supposons P(k) veriee pour un certain k [[1, p]]. La phase 1 va placer un terme non nul
en position (k, k), en conservant la propriete P(k) (pourquoi ?). La phase 2 va placer un
0 en position (k, p) pour tout k [[p, n]], tout en preservant les autres 0 de la matrice.
Comme en phase 3 on incremente pivot, celui-ci vaudra bien k + 1 au test suivant. Tout
ceci etablit P(k + 1).
Ainsi, le principe de recurrence nous permet darmer que P(k) est verie pour tout
k [[1, p + 1]]. En particulier, au moment du p + 1-`eme test, on a pivot = p + 1, donc :
dapr`es P(p + 1), on a a
i,j
= 0 lorsque j [[1, p]] et j < i n.
comme le test est invalide, les a
i,j
sont tous nuls pour i p + 1 et j p + 1.
La matrice rendue a bien des 0 o` u il faut (avec r = p), et des elements non nuls egalement
o` u il faut !
Pour terminer, puisque les operations elementaires sur les lignes et colonnes conservent le
rang, il reste ` a montrer que A
N
est eectivement de rang r. Pour cela, on montre que
lapplication lineaire u canoniquement associee `a A
N
a pour image le sous-espace G de
F = R
n
engendre par les r premiers vecteurs de la base canonique de F. Linclusion Imu G
est claire. Pour lautre, on montre par recurrence :
k [[1, r]], Vect
_
u(e
1
), ..., u(e
k
)
_
= Vect(f
1
, ..., f
k
)
(et tout cela fait furieusement penser `a ces histoires de familes de polynomes echelonnes en
degre, non ?)
Remarque 13 En pratique, on sautorise egalement les operations consistant `a
transposer des matrices, ou faire disparatre une colonne ou une ligne constituee uniquement
de 0. Ces operations conservent le rang : pourquoi ?
Exemples 11
Rang de A =
_
1 2
3 4
_
:
A =
_
1 2
3 4
_
L
2
L
2
3L
1
_
1 2
0 2
_
,
donc rg A = 2 : A est inversible.
Rang de B =
_
1 2
4 8
_
:
B =
_
1 2
4 8
_
L
2
L
2
4L
1
_
1 2
0 0
_
,
et donc rg B = 1.
Rang de C =
_
_
0 1 1
1 0 1
1 1 0
_
_
:
C
L
2
L
1
_
_
1 0 1
0 1 1
1 1 0
_
_
L
3
L
3
L
1
_
_
1 0 1
0 1 1
0 1 1
_
_
L
3
L
3
L
2
_
_
1 0 1
0 1 1
0 0 2
_
_
,
15
et donc rg C = 3 : C est inversible.
Rang de D =
_
_
1 1 1
1 2 2
1 5 5
_
_
:
D
L
2
L
2
+L
1
L
3
L
3
+L
1
_
_
1 1 1
0 3 3
0 6 6
_
_
L
3
L
3
2L
2
_
_
1 1 1
0 3 3
0 0 0
_
_
,
et donc rg D = 2.
Exercice 10 Determiner le rang de la famille de vecteurs de R
4
(f
1
, f
2
, f
3
, f
4
), avec
f
1
= (0, 1, 1, 2), f
2
= (1, 1, 0, 1), f
3
= (1, 1, 1, 1) et f
4
= (3, 4, 3, 1).
3.3 Inversion des matrices
Soit A M
n
(K).
Supposons A inversible, et xons Y M
n,1
(K). Lequation AX = Y , dinconnue
X M
n,1
(K), est equivalente (pourquoi ?) `a X = A
1
Y .
Si A nest pas inversible, lapplication canoniquement associee ne sera ni injective ni
surjective. Il existera donc dune part des X non nuls tels que AX = 0, et dautre part
des Y tels que lequation AX = Y admette plusieurs solutions.
Pour inverser une matrice A, on va donc chercher `a resoudre le syst`eme AX = Y (en xant
prealablement Y ). On va chercher `a triangulariser le syst`eme, ce qui revient `a faire les memes
operations que lors du calcul du rang par pivot de Gauss :
Si A est inversible, on va arriver `a un syst`eme equivalent triangulaire `a elements diagonaux
non nuls, quon pourra resoudre de haut en bas par substitutions successives. On arrivera
`a une solution de la forme X = BY , avec B M
n
(K). On a donc (B A
1
)Y = 0 pour
tout Y . En raisonnant geometriquement ou en prenant Y une matrice colonne ne contenant
que des 0 sauf un 1, on en deduit que B = A
1
, et cest gagne.
Si A nest pas inversible, son rang r est < n. Comme les operations eectuee pour resoudre
le syst`eme sont les memes que pour determiner le rang, on va arriver `a un syst`eme o` u
les premiers membres de n r equations seront nuls mais pas les seconds membres. A
defaut davoir la matrice inverse, on aura trouve le rang... Pour pas tr`es cher, on aura
meme caracterise les elements de limage, en regardant de plus pr`es ces n r equations
degenerees... mais cest une autre histoire.
Exemples 12
Pour la matrice A =
_
1 1
1 1
_
, on trouve :
AX = Y X =
1
2
_
1 1
1 1
_
Y,
donc A est inversible dinverse
1
2
_
1 1
1 1
_
.
Pour B =
_
_
0 1 1
1 0 1
1 1 0
_
_
, on trouve :
BX = Y X =
1
2
_
_
1 1 1
1 1 1
1 1 1
_
_
Y,
donc B est inversible dinverse
1
2
_
_
1 1 1
1 1 1
1 1 1
_
_
.
16
Pour C =
_
_
1 0 1
1 1 0
1 0 1
_
_
, on trouve :
_
_
1 0 1
1 1 0
1 0 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
y
1
y
2
y
3
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
1 0 1
0 1 1
0 0 0
_
_
_
_
y
1
y
2
y
1
y
1
+y
3
_
_
,
syst`eme nadmettant pas de solution lorsque (y
1
, y
2
, y
3
) = (1, 0, 0), et C nest pas
inversible. Plus precisement, son rang est 2 : pourquoi ?
Exercice 11 On reprend la matrice B des exemples precedents. On note M =
_
_
1 1 1
1 1 1
1 1 1
_
_
.
Exprimer B en fonction de M et I
3
.
Calculer M
2
. En deduire B
2
en fonction de M et I
3
, puis de B et I
3
.
En deduire que B est inversible, et determiner son inverse.
Exercice 12 Montrer que la matrice
_
a b
c d
_
est inversible si et seulement si adbc = 0.
4 Annexe : puissances dune matrice
4.1 Pourquoi et comment ?
Pourquoi veut-on calculer A
p
, o` u A est une matrice (n, n) ?
Pour etudier une suite denie par ses premiers termes, et une relation de recurrence
lineaire. Par exemple, la suite de bonacci est denie par ses premiers termes f
0
= 0
et f
1
= 1, puis la relation f
n+2
= f
n
+ f
n+1
valable pour tout n N. Si on note
X
n
=
_
f
n
f
n+1
_
, on verie sans mal :
n N, X
n+1
=
_
0 1
1 1
_
X
n
= AX
n
,
de sorte que X
n
= A
n
X
0
(recurrence immediate). La connaissance de A
n
permettra donc
de calculer X
n
donc f
n
.
Les iterees successives u
n
dun endomorphisme u ont pour matrice dans une base B donnee
A
n
, o` u A = Mat
B
u. La connaissance de A
n
peut alors donner des informations sur u
n
.
Les calculs de A
n
interviendront dans bien des ecrits et des oraux de concours, donc si on
veut integrer... Plus serieusement, les calculs de A
n
sont loccasion de mettre en uvre un
certain nombre de techniques dalg`ebre (binome, polynomes, recurrences, etc...), et sont
donc assez ltrants.
Comment realiser un tel calcul ?
Prouver par recurrence une formule fournie, ou intuitee `a laide des premiers termes.
Utiliser la formule du binome de Newton, apr`es avoir decompose A sous une forme A
1
+A
2
,
avec A
1
et A
2
qui commutent, et dont le calcul des puissances est aise (souvent, lune des
deux est une matrice scalaire ou nilpotente...).
Obtenir une relation polynomiale simple veriee par A, cest-`a-dire de la forme P(A) =
0, avec P un polynome de degre le plus petit possible. Ensuite, eectuer la division
euclidienne de X
n
par P apr`es avoir factorise ce dernier.
Obtenir une relation de la forme A = PDP
1
, o` u d est une matrice dont on peut facilement
calculer les puissances (par exemple D diagonale...).
On donne un exemple pour les deux premi`eres methodes. Les deux derni`eres font lobjet des
deux derniers paragraphes de ce chapitre.
17
Exemple 13 A =
_
_
0 1 1
1 0 1
1 1 0
_
_
. On constate que A
2
= A + 2I
3
, puis on montre par
recurrence :
n N, A
n
=
2
n
(1)
n
3
A+
2
n
+ 2(1)
n
3
I
3
.
Exemple 14 A =
_
_
0 1 1
1 0 1
1 1 0
_
_
. Posant M =
_
_
1 1 1
1 1 1
1 1 1
_
_
, on a A = MI
3
. Puisque M
et I
3
commutent, on peut utiliser la formule du binome de Newton, sachant que M
2
= 3M,
puis par recurrence immediate M
k
= 3
k1
M :
A
n
=
n
k=0
C
k
n
M
k
(I
3
)
nk
= (1)
n
I
3
+
_
n
k=1
C
k
n
3
k1
(1)
nk
_
M,
que lon simplie grace au binome `a nouveau, en reinjectant un terme dans la somme apr`es
avoir factorise
1
3
:
n
k=1
C
k
n
3
k1
(1)
nk
=
1
3
_
(3 1)
n
(1)
n
_
,
soit enn :
A
n
= (1)
n
I
3
+
2
n
(1)
n
3
M.
4.2 Utilisation dun polynome annulateur
Pour un polynome P =
0
+
1
X + +
d
X
d
et une matrice A M
n
(K), on denit :
P(A) =
0
I
n
+
1
A+ +
d
A
d
.
Si P est un polynome tel que P(A) = 0, avec P de degre d (souvent d 3), on eectue
la division euclidienne de X
n
par P : X
n
= Q
n
P + R
n
, avec R de degre < d. On a alors
A
n
= R
n
(A).
Le tout est de savoir comment faire pour :
trouver un polynome annulateur P : il est en general donne (quand vous serez grand,
vous aurez un moyen pour le trouver : voir `a ce sujet la feuille Maple des exercices, avec
la mysterieuse fonction charpoly...) ;
calculer le reste dans la division euclidienne (le quotient, on sen che) : puisque R est
de degre d 1, on a d inconnues. On cherche les racines de P. Si P admet d racines
distinctes, on evalue les deux membres de la division euclidienne en chacune des racines,
et on obtient un syst`eme qui admet une unique solution : on peut le prouver, mais dans
un premier temps, on peut se contenter de le constater `a chaque fois, par miracle.
Si P admet des racines multiples, on peut egalement deriver les membres de la division
euclidienne, et evaluer en ces racines...
Exemple 15 A =
_
_
0 1 1
1 0 1
1 1 0
_
_
. On constate que A
2
A 2I
3
= 0. Posant P = X
2
5
_
2
5 1
_
k
5
_
5 + 1
_
k
19