6 Matrices
6 Matrices
Calcul matriciel
Sommaire
6.1 Matrices et applications linéaires . . . . . . . . . . . . . . . . . . 1
6.2 Produits de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 4
6.3 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
6.4 Diagonalisation et vecteurs propres . . . . . . . . . . . . . . . . 15
6.5 Polynômes d’endomorphismes . . . . . . . . . . . . . . . . . . . . 19
6.6 Théorème de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 23
Dans un espace vectoriel de dimension finie, une fois qu’une base est choisie, chaque
vecteur est défini de façon unique par ses coordonnées. Les opérations usuelles d’addition
et de multiplication par un scalaire peuvent alors se calculer sur les coordonnées. Plus
généralement, une fonction entre espaces vectoriels peut alors être représentée par une
fonction qui aux coordonnées d’un vecteur associe les coordonnées de son image.
Démonstration. Il est clair que l’addition coefficient par coefficient est une loi de com-
position interne et qu’elle est associative et commutative, puisque l’addition de K a ces
propriétés. Son élément neutre est la matrice dont tous les coefficients sont nuls, on la
notera donc 0. Étant donné un élément λ de K, l’opération qui multiplie chaque coeffi-
cient d’une matrice par λ est une action de K sur Mn,p (K) qui vérifie toutes les propriétés
voulues par la définition d’un espace vectoriel, du fait des propriétés de la multiplication
dans K (associativité et élément neutre). Ainsi Mn,p (K) est un espace vectoriel sur K.
Pour établir qu’il est de dimension finie np, considérons la famille de matrices (Ei,j )
telle que chaque Ei,j est la matrice qui a un coefficient 1 en position (i, j) et des coefficients
0 partout ailleurs. Alors il est clair que cette famille est libre et génératrice puisqu’une com-
P
binaison linéaire λi,j Ei, j définit exactement la matrice dons les λi,j sont les coefficients.
C’est donc une base de Mn,p (K) et elle a np éléments.
Plus généralement, si f est une rotation d’angle θ, par le même raisonnement on obtient
!
cos θ − sin θ
M (f ) = .
sin θ cos θ
6.6 Exemple. Soit f : R → Rn l’application telle que f (t) = (a1 t, . . . , an t) pour tout t, pour
une certaine a1 , . . . , an ∈ R. La matrice de f dans les bases canoniques est
a1
..
M (f ) = . .
an
6.7 Théorème. Pour tous espaces vectoriels E et F de dimension finie et toutes bases B de
E et C de F , la fonction MB,C est un isomorphisme.
Démonstration. Pour simplifier les notations, comme les bases B et C sont fixées, on se
contentera de noter M (f ) la matrice d’un application linéaire f donnée, et on notera
mi,j (f ) le coefficient à la ligne i et à la colonne j de cette matrice. La première chose
à montrer est que la fonction M est linéaire, pour cela il suffit de montrer que chaque
fonction mi,j est linéaire. Considérons alors deux fonctions f, g ∈ L(E, F ) et un coefficient
λ ∈ K. Pour chaque j on a (f + λg)(ej ) = f (ej ) + λg(ej ) par définition, et considérant
la i-ème coordonnée de ce vecteur on obtient mi,j (f + λg) = mi,j (f ) + λmi,j (g), ce qui
montre bien la linéarité de mi,j .
Pour montrer que M est un isomorphisme, on montre que c’est une fonction injective et
surjective. Pour l’injectivité, il suffit de montrer que son noyau est réduit à 0, considérons
donc une application linéaire f telle que M (f ) = 0. Alors par définition pour tout j on
a f (ej ) = 0, donc pour tout vecteur x ∈ E, en notant x = x1 e1 + · · · + xn en on obtient
f (x) = x1 f (e1 ) + · · · + xn f (en ) = x1 0 + · · · + xn 0 = 0, ainsi f est bien la fonction nulle.
Pour la surjectivité, considérons une matrice A ∈ Mn,p (K) quelconque. Par le théorème ??,
on sait qu’il existe une application linéaire f telle que pour chaque j on ait f (ej ) =
a1,j f1 + · · · + an,j fn et par construction cette fonction a bien pour matrice A.
6.8 Corollaire. Pour tous espaces vectoriels E et F de dimensions finies, L(E, F ) est de
dimension finie et dim L(E, F ) = dim E × dim F .
6.9 Un cas particulier important de matrices est le cas où il n’y a qu’une seule colonne,
c’est-à-dire le cas des espaces Mn,1 (K). On emploie ce genre de matrice en particulier pour
représenter des vecteurs : si B = (e1 , . . . , en ) est une base d’un espace vectoriel E, alors
un vecteur x = x1 e1 + · · · + xn en sera représenté par la matrice
x1
..
X = MB (x) = .
xn
Une telle matrice est souvent appelée vecteur colonne.
6.10 Soit f : E → F une application linéaire et soient B = (e1 , . . . , ep ) et C = (f1 , . . . , fn )
des bases de E et F respectivement. Posons A = MB,C (f ) et notons ai,j les coefficients
de A. Alors l’image d’un vecteur x = x1 e1 + · · · + xp ep par f est x1 f (e1 ) + · · · + xp f (ep ),
on peut en déduire ses coordonnées dans C : la coordonnée de f (x) selon le vecteur fi est
ai,1 x1 + · · · + ai,p xp . On représente ce calcul sous forme d’une multiplication :
a1,1 · · · a1,p x1 a1,1 x1 + · · · + a1,p xp
.. .. .. .. = ..
.
. . . . .
an,1 · · · an,p xn an,1 x1 + · · · + an,p xp
4 Chapitre 6 – Calcul matriciel
Cette formule est un cas particulier de la notion plus générale de produit de matrices que
l’on verra plus loin.
6.11 Exemple. Reprenons la matrice d’une rotation du plan d’angle θ dans la base canonique.
On obtient ! ! !
cos θ − sin θ x1 cos θ · x1 − sin θ · x2
= .
sin θ cos θ x2 sin θ · x1 + cos θ · x2
6.12 Exemple. Pour une application linéaire de Rn dans R on obtient :
x1
..
a1 · · · an . = a1 x1 + · · · + an xn .
xn
6.13 Par cette opération, une matrice A ∈ Mn,p (K) peut donc être considérée comme une
application linéaire de Mp,1 (K) (vecteurs colonnes à p coordonnées) dans Mn,1 (K) (vecteurs
colonnes n coordonnées). Les notions qui concernent les applications linéaires concernent
donc aussi bien les matrices, ainsi on pourra considérer utilement le noyau d’une matrice,
son image, son rang, etc.
n
X
AB = (ci,k )1≤i≤m,1≤k≤p où ci,k = ai,j bj,k .
j=1
Cette opération de Mm,n (K) × Mn,p (K) dans Mm,p (K) est appelée produit de matrices.
Pour visualiser cette opération, il est utile de montrer comment on peut poser la
multiplication des matrices :
· · · b1,k · · ·
· · · b2,k · · ·
..
.
· · · bn,k · · ·
.. .. ..
. . .
ci,k = ai,1 b1,k + ai,2 b2,k + · · · + ai,n bn,k
ci,k · · ·
ai,1 ai,2 · · · ai,n
..
.. .. ..
. . . .
6.2. Produits de matrices 5
Le coefficient en position (i, k) dans le produit est obtenu en prenant la ligne d’indice i
dans A et la colonne d’indice k dans B, en multipliant les coefficients dont les indices
correspondent, et en additionnant les résultats. Il faut donc que le nombre de colonnes de
A soit égal au nombre de lignes de B.
6.15 Théorème. Soient f : E → F et g : F → G deux applications linéaires, soient B, C et D
des bases de E, F et G respectivement. Alors on a MB,D (g ◦ f ) = MC,D (g)MB,C (f ).
donc q q q
r r
!
X X X X X
g ◦ f (ej ) = akj g(fk ) = akj bik gi = bik akj gi
k=1 k=1 i=1 i=1 k=1
Pq
donc cij = k=1 bik akj . C’est bien la formule du produit de matrices.
Cette propriété est la raison d’être de la définition du produit de matrices. Elle indique
comment raisonner sur la composition des applications linéaires en raisonnant sur leurs
coordonnées.
6.16 Exemple. Considérons le corps des nombres complexes C comme un espace vectoriel de
dimension 2 sur le corps R des réels. Nous choisissons la base (1, i). La multiplication par
a ∈ C définit toujours une application linéaire ma . Exprimons le vecteur a dans la base
choisie : a = Re(a) + i Im(a), où Re(a) est la partie réelle de a et Im(a) est sa partie
imaginaire. La matrice de ma dans la base (1, i) est alors
!
Re(a) − Im(a)
.
Im(a) Re(a)
Si le nombre complexe u est de module 1, alors u = cos θ + i sin θ pour un certain angle θ,
et si λ ∈ R, on obtient :
! !
cos θ − sin θ λ 0
M (mu ) = , M (mλ ) = ,
sin θ cos θ 0 λ
!
λ cos θ −λ sin θ
M (mλ )M (mu ) = .
λ sin θ λ cos θ
6.26 Il est facile de constater que la matrice identité est la matrice de l’application linéaire
identité. Plus précisément, si E est un espace vectoriel de dimension n et si id : E → E est
l’application identité (telle que id(v) = v pour tout vecteur v) alors dans toute base B on
a MB,B (id) = In . Bien entendu, si on choisit deux bases différentes B et C, alors MB,C (id)
n’est pas la matrice identité.
6.27 Proposition. La matrice identité est neutre pour le produit de matrices, c’est-à-dire que
— pour tous m, n, pour toute matrice A ∈ Mm,n (K) on a AIn = A,
— pour tous n, p, pour toute matrice B ∈ Mn,p (K) on a In B = B.
Comme le produit de matrices est une forme de multiplication, il est naturel de se
demander s’il y a une notion associée de division, c’est-à-dire d’inverse. On peut le a
définir de façon formelle :
6.28 Définition (matrice inversible). Une matrice carrée A ∈ Mn (K) est dite inversible s’il
existe une matrice B telle que AB = BA = In . Dans ce cas la matrice B est unique, on
l’appelle inverse de A et on la note A−1 .
6.29 Le fait que l’inverse soit unique peut s’établir simplement en considérant deux matrices
B et C qui sont toutes les deux inverses de A. Alors par définition on a BA = I et
AC = I, alors en appliquant l’associativité du produit on peut calculer le produit BAC
de deux façons différentes : d’une part on a (BA)C = IC = C et d’autre part on a
B(AC) = BI = B, par conséquent B = C.
6.30 Si A est la matrice représentative d’un application linéaire f : E → E dans une base
B donnée et si A est inversible, alors on peut observer que A−1 représente la fonction
réciproque de f , en effet si g : E → E est telle que MB (g) = A−1 alors on a M (f ◦ g) =
M (f )M (g) = AA−1 = I = M (id) donc f ◦ g = idE , et de même on a g ◦ f = idE , ce qui
correspond bien à la définition du fait que g est réciproque de f .
Par des arguments similaires, on voit que la relation fonctionne aussi dans l’autre
sens : si f est une application linéaire inversible, alors sa matrice représentative (quelles
que soient les bases choisies) est inversible et son inverse est une matrice de f −1 .
6.31 La définition d’inversibilité ne s’applique qu’aux matrices carrées parce que si A n’est
pas carrée, alors il ne peut pas exister de matrice B telle que AB et BA soient toutes les
deux des matrices identité. Ce fait n’est pas évident si on considère seulement la définition
du produit de matrices, mais si on s’intéresse aux applications linéaires associées alors cela
peut se justifier par exemple en raisonnant sur les rangs de A et B.
6.32 On peut se demander comment exprimer les coefficients de la matrice A−1 en fonction
de ceux de A. Dans le cas d’une matrice carrée de taille 2, il y a un critère d’inversibilité
et une formule relativement simples. On peut les obtenir par exemple en posant l’équation
! ! ! !
a b x y ax + bz ay + bt 1 0
= =
c d z t cx + dz cy + dt 0 1
et de même
(B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 IB = B −1 B = I,
ce qui prouve par définition que B −1 A−1 est inverse de AB.
Comme le produit des matrices n’est pas commutatif, il est important de retenir ce
phénomène : lors du passage à l’inverse, l’ordre des facteurs dans un produit est renversé.
À cause du fait que l’ordre est important, on évite en général d’employer la notation
des fractions dans le cas des matrices (et plus généralement dans les produits non commu-
A
tatifs). On pourrait bien sûr fixer une convention, par exemple que B représente toujours
−1
le produit AB , mais on ne le fait pas parce que certaines règles très naturelles liées à
cette notation, comme la règle du produit ab dc = ac
bd , ne s’appliquent plus.
6.34 Proposition (formule du binôme). Soient A et B deux matrices qui commutent, c’est-
à-dire telles que AB = BA. Alors pour tout entier naturel n on a
n
! !
n
X n k n−k n n!
(A + B) = A B où =
k=0
k k k!(n − k)!
6.3 Déterminants
6.36 Définition (permutation). Une permutation d’ordre n est une bijection de l’ensemble
{1, . . . , n} dans lui-même. L’ensemble des permutation d’ordre n est noté Sn .
6.37 L’ensemble Sn est fini et son cardinal est n! = n × (n − 1) × (n − 2) × · · · × 3 × 2 × 1,
la factorielle de n.
6.38 La composition des fonctions est une loi de composition interne associative sur Sn
pour laquelle la fonction identité est l’élément neutre et pour laquelle tout élément a un
inverse qui est sa fonction réciproque. Il forme donc un groupe, que l’on appelle groupe des
permutations d’ordre n.
6.3. Déterminants 9
6.39 Définition (signature). Soit σ une permutation d’ordre n. Une inversion de σ est un
couple (i, j) tel que i < j et σ(j) < σ(i). On note I(σ) le nombre d’inversions de σ. La
signature de σ et le nombre sgn(σ) = (−1)I(σ) , c’est-à-dire 1 si I(σ) est pair et −1 s’il est
impair.
6.40 Exemple. La fonction identité est une permutation, par définition elle n’a aucune inversion
donc sa signature est 1.
6.41 Exemple. Soit n un entier, soit ` un entier inférieur ou égal à n. Soit σ la permutation
telle que σ(i) = i + 1 si 1 ≤ i < `, σ(`) = 1 et σ(i) = i si l < i ≤ n. Graphiquement, on
peut représenter cette permutation par le diagramme suivant :
1 2 3 4 5 6 7
1 2 3 4 5 6 7
1 2 3 4 5 6 7
1 2 3 4 5 6 7
En effet, pour tout couple (i, j) avec i < j, la différence σ(j) − σ(i) est négative si et
seulement si (i, j) est une inversion de σ et la différence j − i est toujours positive, donc le
signe du produit est bien celui de sgn(σ). Pour ce qui est de la valeur absolue, on remarque
que si (i, j) atteint chaque paire exactement une fois, alors (σ(i), σ(j)) aussi puisque σ est
une bijection, donc Π1≤i<j≤n |σ(j) − σ(i)| = Π1≤i<j≤n |j − i|.
En appliquant cette égalité à σ ◦ σ 0 on peut écrire
σ(σ 0 (j)) − σ(σ 0 (i)) σ(σ 0 (j)) − σ(σ 0 (i)) σ 0 (j) − σ 0 (i)
0
Y Y
sgn(σ ◦ σ ) = = ×
1≤i<j≤n
j−i 1≤i<j≤n
σ 0 (j) − σ 0 (i) j−i
Y σ(σ 0 (j)) − σ(σ 0 (i)) Y σ 0 (j) − σ 0 (i)
= ×
1≤i<j≤n
σ 0 (j) − σ 0 (i) 1≤i<j≤n
j−i
σ(j 0 ) − σ(i0 ) Y σ(j) − σ(i)
= sgn(σ) sgn(σ 0 )
Y
= 0 − i0
×
0 0
1≤i <j ≤n
j 1≤i<j≤n
j − i
en observant que le changement de variable entre (i, j) et (i0 , j 0 ) est valide parce que le
quotient (σ 0 (σ(i)) − σ 0 (σ(j)))/(σ(i) − σ(j)) est préservé si l’on échange i et j, ce qui peut
être nécessaire pour obtenir i0 < j 0 .
Il s’agit donc d’une somme de n! termes qui sont toutes les façons de choisir un coef-
ficient dans chaque ligne en n’en choisissant jamais deux dans u ne même colonne. Pour
chaque choix, on fait le produit des coefficients choisis et on compte le terme en positif ou
en négatif selon la signature de la permutation considérée.
6.47 Dans le cas d’une matrice de taille 2, on retrouve la formule vue précédemment dans le
calcul de l’inverse. En effet, il y a deux permutations dans S2 : l’identité et la transposition
(1 2), de signatures respectives 1 et −1. Le résultat est donc a11 a22 − a12 a21 .
6.3. Déterminants 11
6.48 On peut écrire une formule explicite dans le cas d’une matrice 3 × 3. Le groupe S3 a
6 éléments donc la somme a 6 termes :
a11 a12 a13
det a21 a22 a23 = a11 a22 a33 −a11 a32 a23 +a21 a32 a13 −a21 a12 a33 +a31 a12 a23 −a31 a22 a13 .
a31 a32 a33
Cependant il y a peut d’intérêt à retenir cette formule. Au delà de la taille 3, il y a d’autant
moins d’intérêt à écrire une formule développée dans le cas général. On verra dans la suite
qu’il y a d’autres façons plus efficaces de calculer des déterminants.
6.49 Si la matrice A est diagonale, alors det(A) est le produit des coefficients de la diagonale.
En effet dans ce cas tous les termes de la somme qui définit le déterminant contiennent
un coefficient ai,σ(i) qui est nul sauf dans le cas où σ est la permutation identité. En
conséquence on a en particulier det(In ) = 1 et det(λIn ) = λn pour tout λ.
Pour établir les propriétés du déterminant, il est utile d’étendre la définition à d’autres
objets, notamment des familles de vecteurs et des applications linéaires.
6.50 Définition (déterminant d’une famille de vecteurs). Soit E un espace vectoriel
de dimension n et soit B = (e1 , . . . , en ) une base de E. On définit le déterminant dans
B d’une famille de vecteurs (v1 , . . . , vn ) comme detB (v1 , . . . , vn ) = det(A) où A est la
matrice n × n dont les colonnes sont les coordonnées de v1 , . . . , vn dans B, c’est-à-dire
vj = a1j e1 + · · · + anj en pour tout j.
6.51 On peut donner une interprétation instructive du déterminant d’une famille de vecteurs
en géométrie. En dimension 2, si on se place dans un repère orthonormé et si on considère
deux vecteurs u = (a, c) et v = (b, d), alors on a la situation suivante :
u+v
v
d w
a − bc/d
Calculons l’aire du parallélogramme porté par les vecteurs u et v, dont les sommets sont
donc 0, u, u + v, v. Si on déplace le côté (u, u + v) sur la même droite de sorte qu’il parte
de l’axe des abscisses et arrive en un point w alors l’aire est préservée, de plus w a la
même ordonnée que v c’est-à-dire d, et le point sur l’axe des abscisses doit avoir pour
coordonnées (a − bc/d, 0) puisqu’il est à l’intersection de l’axe d’équation y = 0 et de la
droite qui contient u = (a, c) et u + v = (a + b, c + d), d’équation b(y − c) = d(x − a). Le
parallélogramme obtenu a pour base a − bc/d et pour hauteur d donc son aire est ad − bc,
le déterminant de (u, v) dans la base considérée.
Si on échange u et v dans le raisonnement précédent, on obtient une aire bc−ad opposée
de la précédente : il s’agit en fait d’une aire algébrique, positive si les sommets 0, u, u + v, v
sont parcourus dans le sens direct (trigonométrique) et négative s’ils sont parcourus dans
le sens indirect (horaire). Le déterminant est nul si et seulement si le parallélogramme est
aplati, c’est-à-dire si les deux vecteurs sont colinéaires.
12 Chapitre 6 – Calcul matriciel
f (v1 , v2 , v3 , . . . , vd ) + f (v2 , v2 , v3 , . . . , vd )
= f (v1 , v1 , v3 , . . . , vd ) + f (v1 , v2 , v3 , . . . , vd ) + f (v2 , v1 , v3 , . . . , vd ) + f (v2 , v2 , v3 , . . . , vd )
= f (v1 , v1 + v2 , v3 , . . . , vd ) + f (v2 , v1 + v2 , v3 , . . . , vd ) = f (v1 + v2 , v1 + v2 , v3 , . . . , vd ) = 0
et le raisonnement est le même pour toute transposition. On en déduit que pour toute
permutation σ on doit avoir f (vσ(1) , . . . , vσ(n) ) = sgn(σ)f (v1 , . . . , vn ), en écrivant σ comme
une composition de transpositions.
6.55 Lemme. Pour toute forme n-linéaire alternée f : E n → K, toute base B de E et toute
famille (v1 , . . . , vn ) ∈ E n on a f (v1 , . . . , vn ) = f (B) detB (v1 , . . . , vn ).
où le premier argument par alternance vient du fait que dans tous les cas où deux indices
ip et iq sont égaux, le déterminant de la famille (ei1 , . . . , ein ) est nul et qu’il suffit donc de
considérer les familles (i1 , . . . , in ) qui sont des bijections.
Ce résultat signifie donc que toutes les formes n-linéaires alternées d’un espace de
dimension n sont égales à une constante multiplicative près. On peut en particulier en
déduire une formule de changement de base pour le déterminant. En effet, pour deux
bases B et C, en choisissant pour f la fonction detC on obtient
6.56 En appliquant la formule on peut facilement constater que pour toute base B on a
detB (B) = 1 parce que ce déterminant est celui de la matrice identité.
Du fait du lemme 6.55, on peut donner une définition alternative de la fonction detB :
c’est l’unique forme n-linéaire alternée qui envoie B sur 1.
6.57 Théorème. Le déterminant d’une famille de vecteurs est nul et si et seulement si cette
famille est liée.
Démonstration. On se place dans une base quelconque B. Si une famille (v1 , . . . , vn ) est
liée alors l’un des vecteurs est combinaison linéaire des autres. Quitte à changer l’ordre,
on suppose qu’il s’agit de vn qui s’écrit a1 v1 + · · · + an−1 vn−1 . Par linéarité on a donc
detB (v1 , . . . , vn ) = n−1
P
i=1 ai detB (v1 , . . . , vn−1 , vi ) or les déterminants dans cette formule
sont tous nuls puisqu’ils portent sur des familles dont deux vecteurs sont égaux. Au
contraire, si (v1 , . . . , vn ) est libre alors c’est une base C de E et on a detC (B) detB (C) =
detC (C) = 1, donc detB (C) 6= 0.
du fait que detB (C) et detC (B) sont inverses l’un de l’autre.
Démonstration. Si g est inversible, alors pour tout base B la famille g(B) est une base et
on peut écrire det(f ◦ g) = detB (f (g(B))) = detB (g(B)) detg(B) (f (g(B))) = det(g) det(f ).
Si g n’est pas inversible alors f ◦ g non plus et det(f ◦ g) = det(f ) det(g) = 0 par le
théorème précédent.
6.61 Pour tout espace vectoriel E de dimension finie et toute base B de E, pour tout
endomorphisme f : E → E on a det(f ) = det(MB (f )) par définition. On peut donc
transposer les propriétés du déterminant des endomorphismes au cas des matrices :
— Pour toutes matrices A et B, on a det(AB) = det(A) det(B).
— Une matrice A est inversible si et seulement si det(A) 6= 0.
— Le déterminant commute à l’inversion : det(A−1 ) = det(A)−1 .
On va maintenant voir comment généraliser la formule de l’inversion des matrices à
toute dimension.
6.62 Exercice. Démontrer que le déterminant d’une matrice ne change pas lorsqu’on ajoute à
une de ses colonnes une combinaisons linéaire de ses colonnes.
Le développement d’un déterminant par rapport à une colonne (ou à une ligne) est
une méthode permettant le calcul des déterminants. Soit
A = (aij )1≤i,j≤n
6.64 Exercice. Démontrer que le déterminant d’une matrice carrée qui possède au moins deux
lignes égales est nul.
6.65 Théorème. Soit A = (aij )1≤i,j≤n une matrice n × n à coefficients dans un corps K. Soit
B = (bij )1≤i,j≤n , la matrice définie par
Alors on a
AB = det(A)In
En particulier, si det(A) 6= 0, alors on a A−1 = (1/ det(A))B.
6.4. Diagonalisation et vecteurs propres 15
Démonstration. Soit cij le i-ème terme de la j-ème colonne du produit AB. On a donc :
n
X
cij = (−1)k+j aik det(Ajk ).
k=1
f (bj ) = aB B
1j b1 + · · · + anj bn .
de plus en appliquant le même théorème on constate que MB,C (idE ) et MC,B (idE ) sont
inverses l’une de l’autre.
6.66 Définition (matrice de passage). Soit E un espace vectoriel et soient B et C deux bases
de E. La matrice MC,B (idE ) est appelée matrice de passage ou matrice de changement de
base de B dans C.
16 Chapitre 6 – Calcul matriciel
6.67 Une autre façon d’exprimer la matrice de passage de B vers C est d’observer que c’est
la matrice dont les colonnes représentent les coordonnées des vecteurs de C dans la base B.
Ainsi, si P est la matrice de passage de B dans C et si X est le vecteur colonne représentant
un vecteur x dans C, alors P X est le vecteur colonne représentant x dans B, et à l’inverse
P −1 transforme des coordonnées dans C en coordonnées dans B. Par conséquent, si A est
la matrice de f dans une B et P est la matrice de passage de B dans C, la matrice de f
dans C est donc P −1 AP .
6.68 Exemple. On se place dans R2 muni de la base canonique B = ((1, 0), (0, 1)) et on considère
l’application linéaire f : R2 → R2 telle ! que f (1, 0) = (1, 2) et f (0, 1) = (3, 4). Alors
1 3
la matrice A de f dans B est . Si on considère maintenant la base C obtenue
2 4
en échangeant les deux vecteurs de B, c’est-à-dire C = ((0, 1), (1, 0)), comme (3,!4) =
4 2
4(0, 1) + 3(1, 0) et (1, 2) = 2(0, 1) + 1(1, 0) la matrice de f dans C est B = . La
3 1
!
0 1
matrice de changement de base de B dans C est P = et on vérifie facilement que
1 0
B = P −1 AP , en fait dans ce cas on a même P = P −1 .
6.69 Exercice. Soit E un espace vectoriel de dimension n. Soit f une application linéaire de
E dans E. Soit B = (b1 , . . . , bn ) une base de E et soit MB (f ) la matrice de f dans cette
base. Montrer que la somme
n
X
Tr(MB (f )) = mii
i=1
a11 . . . 0
.. .. .. .
M (f ) = . . .
0 ... ann
Dans ce cas, chaque vecteur de base bi est un vecteur propre pour f de valeur propre
aii . Si de plus tous les éléments diagonaux sont égaux à un même scalaire λ, c’est-à-dire
λ = a11 = · · · = ann , alors f est une homothétie de rapport λ centrée à l’origine.
6.75 Exercice (sous-espace propre). Soit f : E → E une application linéaire. Soit λ une
valeur propre de f . Montrer que l’ensemble Eλ = {v ∈ E | f (v) = λv} des vecteurs propres
de f de valeur propre λ est un sous-espace vectoriel de E. Montrer que Eλ est stable par f ,
c’est-à-dire que f (Eλ ) ⊆ Eλ . Montrer que si µ est une valeur propre de A qui est distincte
λ alors Eλ ∩ Eµ = {0}. Le sous-espace Eλ est appelé le sous-espace propre de f associé à
la valeur propre λ.
6.76 Exercice (matrice par blocs). Soit E un espace vectoriel et soient U et V des sous-
espaces vectoriels de E tels que E = U ⊕ V . Soit f : E → E une application linéaire.
Supposons que f préserve U et V , c’est-à-dire que f (U ) ⊆ U et f (V ) ⊆ V . Notons
fU : U → U et fV : V → V les restrictions de f à U et à V . Montrer qu’il existe une base
de E dans laquelle la matrice de A est de la forme
!
M (fU ) 0
M (f ) = ,
0 M (fV )
où M (fU ) est la matrice de fU dans une base de U et M (fV ) est la matrice de fV dans une
base de V . La matrice ci-dessus est une matrice constituée de quatre blocs. Si dim(U ) = m
et dim(V ) = n, alors le bloc M (fU ) est une matrice m × m, M (fV ) est une matrice n × n,
le symbole 0 qui apparaît en haut à droite représente une matrice à m lignes et n colonnes
dont tous les coefficients sont nuls, le symbole 0 qui apparaît en bas à gauche représente
une matrice à n lignes et m colonnes dont tous les coefficients sont nuls.
6.77 Exercice (matrice à un bloc). Soit E un espace vectoriel et soit U un sous-espace
vectoriel de E. Soit f : E → E une application linéaire. Supposons que f préserve U .
Notons fU : U → U la restriction de f à U . Montrer qu’il existe une base de E dans
laquelle la matrice de f est de la forme
!
M (fU ) ∗
M (A) = ,
0 ∗
où M (fU ) est la matrice de fU dans une base de U . Comme dans l’exercice 6.76, la matrice
est constituée de quatre blocs, ceux de la diagonale étant carrés. Le symbole ∗ dans la
colonne de droite représente des matrices quelconques de taille convenable.
6.78 Théorème. Soient E un espace vectoriel de dimension finie et f : E → E une application
linéaire. Les conditions suivantes sont équivalentes.
1. Il existe une base de E dans laquelle la matrice de f est diagonale.
2. Il existe une base de E qui est formée de vecteurs propres de f .
18 Chapitre 6 – Calcul matriciel
Démonstration. Comme on l’a vu dans l’exemple 6.74, s’il existe un base dans laquelle la
matrice de f est diagonale, alors chaque vecteur de cette base est un vecteur propre de f .
Supposons maintenant que B = (b1 , . . . , bn ) est une base de E formée de vecteurs
propres de f . Pour chaque valeur propre λ correspondant à un vecteur de cette base
(il se peut bien entendu que plusieurs vecteurs de cette base soient vecteurs propres de
f de même valeur propre), notons Fλ le sous-espace propre de f associé à λ et Eλ le
plus petit sous-espace vectoriel de E contenant tous les vecteurs de B dont la valeur
propre est λ. On a alors Eλ ⊆ Fλ donc l’intersection Eλ ∩ Eµ est réduite à {0} dès que
λ 6= µ. Comme la réunion des Eλ contient la base B, on obtient E comme somme directe
E = λ Eλ ⊂ λ Fλ ⊂ E, ce qui montre que E = λ Fλ .
L L L
Pour finir, supposons que E est somme directe des sous-espaces propres de f et choi-
sissons pour chaque sous-espace propre Fλ de f une base Bλ . Comme la restriction de f à
Fλ est une homothétie de rapport λ, la matrice de la restriction de f à Fλ est diagonale,
quelle que soit la base Bλ . La réunion B = λ Bλ est donc une base de E dans la quelle
S
Une application linéaire qui satisfait les conditions du théorème est dite diagonali-
sable puisque les conditions entraînent qu’il existe une base dans laquelle la matrice de
f est diagonale. Par extension, on dit qu’une matrice A est diagonalisable s’il existe une
matrice inversible P telle que P −1 AP est diagonale, ce qui revient à dire que l’on peut
changer de base (par la matrice de passage P ) pour obtenir une représentation diagonale
de l’application linéaire représentée par A.
!
−1 −2
6.79 Exemple. Considérons la matrice A = . Alors on peut observer que
3 4
! ! ! !
1 1 −2 −4
A = et A =
−1 −1 3 6
donc V = (1, −1) est vecteur propre associé à la valeur propre 1 et W = (−2, 3) est vecteur
propre associé à la valeur propre 2. Ces deux vecteurs sont linéairement indépendants donc
ils forment une base de R2 , ainsi A est diagonalisable et il existe une matrice P telle que
!
−1 1 0
P AP =
0 2
6.80 Un avantage qu’il y a à diagonaliser une matrice est que cela simplifie le calcul de son
inverse et de ses puissances. En effet, pour toute matrice inversible P , l’application de «
changement de base » A 7→ P −1 AP préserve l’addition, la multiplication et l’inversion
des matrices, ainsi on a (P −1 AP )n = P −1 An P pour tout n. Dans le cas des matrices
diagonales, ces puissances sont immédiates à calculer puisqu’il suffit de calculer la puissance
correspondante de chaque coefficient de la diagonale.
Pour reprendre l’exemple précédent, après diagonalisation on obtient
! !
1 0 1 0
P −1 AP = donc A=P P −1
0 2 0 2
Le calcul direct de la dernière formule n’est pas facile et nécessiterait au mieux de deviner
la formule puis de la démontrer par récurrence sur n.
De même l’écriture diagonale permet de déduire immédiatement que les valeurs propres
de An sont 1 et 2n et que les sous-espaces propres associés sont ceux de A.
6.81 Exemple. Il est important de noter que toute matrice n’est pas diagonalisable. L’exemple
le plus simple est donné par les rotation du plan R2 : on a vu dans l’exemple 6.4 que la
rotation d’angle θ autour de l’origine a pour matrice
!
cos θ − sin θ
sin θ cos θ
dans la base canonique. Géométriquement, il est clair que cette transformation n’a pas de
vecteur propre dès lors que θ n’est pas multiple de π, en effet la transformation préserve la
norme des vecteurs donc un vecteur propre devrait être envoyé soit sur lui-même soit sur
son opposé, mais ces cas ne peuvent survenir dans une rotation que si l’angle est 0 (c’est
la fonction identité) ou π (c’est la symétrie centrale). Ainsi une rotation de R2 d’angle non
multiple de π n’est pas diagonalisable.
6.82 Proposition (polynôme caractéristique). Soit A une matrice n×n à coefficients dans
un corps K. La fonction λ 7→ det(A − λI) est une fonction polynomiale de degré n. Le
polynôme correspondant, élément de K[X], est appelé polynôme caractéristique de A et
est noté PA ou PA (X).
Ce polynôme est invariant par changement de base. Pour un endomorphisme f d’un
espace vectoriel de dimension finie, on appelle polynôme caractéristique de f et on note
Pf ou Pf (X) le polynôme caractéristique de la matrice de f dans une base quelconque.
6.83 Pour être très formel, on pourrait considérer la matrice A − XI à coefficients dans
K[X] et faire le calcul du déterminant de cette matrice dans K[X]. Cependant K[X] n’est
pas un corps donc la construction précise nécessiterait des complications techniques dont
l’intérêt est limité dans le cadre de ce cours.
6.84 Exemple. Reprenons la matrice A de l’exemple 6.79. On a alors
!
−1 − λ −2
det(A − λI) = det = (−1 − λ)(4 − λ) − (−2)3 = λ2 − 3λ + 2
3 4−λ
On rappelle qu’un polynôme P ∈ K[X] est scindé K s’il se décompose dans K[X] en
facteurs linéaires : P = λ(X − α1 )(X − α2 ) · · · (X − αn ) où les αi sont éléments de K. On
22 Chapitre 6 – Calcul matriciel
sait que la liste α1 , . . . , αn est unique à permutation près. La multiplicité d’une racine α est
le nombre de fois où elle apparaît dans cette liste ; une racine est simple si sa multiplicité
est 1, elle est double si sa multiplicité est 2, etc.
6.90 Théorème. Soit E un espace vectoriel de dimension finie. Un endomorphisme f de E est
diagonalisable si et seulement s’il existe un polynôme P ∈ K[X] scindé, à racines simples,
tel que P (f ) = 0.
Démonstration. Supposons que f soit diagonalisable. Par définition il existe donc une base
B de E formée de vecteurs propres de f . Soient {λ1 , . . . , λk } l’ensemble des valeurs propres
de f (avec λi 6= λj pour i 6= j), posons P = (X − λ1 ) · · · (X − λk ). Pour tout vecteur b
dans la base B il existe un i tel que f (b) = λi b donc (f − λi id)(b) = 0 et donc P (f )(b) = 0,
par conséquent P (f ) envoie chaque vecteur de la base B sur 0 donc P (f ) = 0.
Réciproquement, supposons qu’il existe P ∈ K[X], scindé à racines simples, tel que
P (f ) = 0. Sans perte de généralité, on peut supposer que le coefficient dominant de P est
1 et que l’on a donc P = (X − α1 ) · · · (X − αk ) pour une famille α1 , . . . , αk d’éléments
deux à deux distincts de K. En appliquant le lemme des noyaux, on obtient
6.91 Exemple. Soit f : R2 → R2 l’endomorphisme du plan défini dans la base canonique par la
matrice !
2 1
M (f ) = .
1 1
Le polynôme caractéristique de f est
! √ ! √ !
2−X 1 2 3+ 5 3− 5
Pf = det = X − 3X + 1 = X− X− .
1 1−X 2 2
w = (λ, 1 − 2λ) (tout multiple de w est aussi une solution). Dans la base (v, w), la matrice
de f est
!
λ 0
M(v,w) (f ) =
0 µ
6.92 Proposition (polynôme minimal). Soit A une matrice carrée (ou un endomorphisme
d’un espace vectoriel de dimension finie). Parmi l’ensemble des polynômes non nuls P tels
que P (A) = 0, il y en a exactement un qui est de degré minimal et unitaire. Ce polynôme
est appelé polynôme minimal de A.
Une façon plus abstraite de formuler cette propriété est d’observer que l’ensemble
des polynômes qui annulent A est un idéal de l’anneau K[X], or tout idéal de K[X] est
principal, donc engendré par un seul polynôme (nécessairement de degré minimal), et le
polynôme minimal de A est l’unique polynôme unitaire qui engendre cet idéal.
Dans la démonstration, on trouve que le degré du polynôme minimal est au plus n2
par un simple argument sur la dimension de Mn (K), mais on peut en fait montrer que son
degré est au plus n, grâce qu théorème de Cayley-Hamilton qui prouve que le polynôme
caractéristique de A, de degré n, annule A.
On étudiera les propriétés du polynôme minimal dans les exercices en fin de chapitre.
Le polynôme caractéristique de A est PA = (2 − X)2 , il est donc scindé mais son unique
racine 2 est double. On peut facilement constater que l’on a bien PA (A) = 0. Or A n’est
pas diagonalisable, en effet son seul sous-espace propre est est E2 , associé à l’unique valeur
propre 2, or (x, y) ∈ E2 si et seulement si
! ! (
x x 2x + y = 2x
A =2 ⇔ ⇔y=0
y y 2y = 2y
donc E2 = Vect((1, 0)) et dim(E2 ) = 1. Ainsi R2 n’est pas somme directe des sous-espaces
propres de A, ce qui contredit la caractérisation du théorème 6.78.
Le théorème de Jordan, qui conclut ce chapitre, étend le théorème précédent au cas de
polynômes qui ne sont pas forcément à racines simples. La matrice de l’exemple précédent
donne la forme générale : le mieux que l’on puisse faire est de décomposer en une matrice
qui a les valeurs propres sur la diagonale et quelques 1 juste au dessus de la diagonale, là
où des valeurs propres apparaissent plusieurs fois.
6.94 Définition (bloc de Jordan). Un bloc de Jordan Jn (λ) est une matrice carrée dont les
seuls coefficients non nuls sont d’une part les coefficients diagonaux, qui sont tous égaux
au scalaire λ, et d’autre part les coefficients sur diagonaux, qui sont tous égaux à 1.
6.95 Exemple. On a donc
λ 1 0 0
! λ 1 0
λ 1 0 λ 1 0
J2 (λ) = , J3 (λ) = 0 λ 1 , J4 (λ) = .
0 λ 0 0 λ 1
0 0 λ
0 0 0 λ
De façon générale Jn (λ) est la matrice (aij ) telle que aii = λ pour chaque i, ai,i+1 = 1
pour tout i < n et aij = 0 si j ∈
/ {i, i + 1}.
6.96 Définition (nilpotence). Soit E un espace vectoriel. Un endomorphisme f : E → E est
nilpotent s’il existe un entier positif d tel que f d = 0.
6.97 Proposition. Soient E un espace vectoriel, f un endomorphisme nilpotent de E et v ∈ E
un vecteur non nul. Soit c le plus petit entier tel que f c+1 (v) = 0. Notons Z(v) le sous-
espace vectoriel de E engendré par les vecteurs v, f (v), . . . , f c (v). Alors Z(v) est stable par
f , la famille (f c (v), . . . , f (v), v) est une base de Z(v) et la matrice de la restriction de f
à Z(v) dans cette base est Jc+1 (0). Le sous-espace Z(v) est appelé le sous-espace cyclique
de f engendré par v.
On procède par récurrence forte : soit i ≤ c, supposons que pour tout j < i on ait
aj = 0. On a donc ai f i (v) + ai+1 f i+1 (v) + · · · + ac f c (v) = 0. En appliquant f c−i à cette
égalité on obtient ai f c (v) + ai+1 f c+1 (v) + · · · + ac f 2c−i (v) = 0, or tous les termes de cette
égalité s’annulent sauf le premier donc on a ai f c (v) = 0 d’où ai = 0 et l’étape de récurrence
est validée.
Ainsi (f c (v), . . . , v) est bien une base de Z(v). Comme l’image du premier vecteur f c (v)
de cette base par f est 0 et que tout autre vecteur de cette base est appliqué par f sur
son prédécesseur, la matrice de la restriction de f a Z(v) dans cette base est Jc+1 (0).
Démonstration. Pour chaque vecteur x non nul, notons c(x) le plus petit entier tel que
f c(x)+1 (x) = 0 Quitte à échanger les rôles de x et y, on peut supposer que c(x) ≤ c(y).
Par définition de v et w on a c(v) = c(x) + 1 et c(w) = c(y) + 1. Soit z ∈ Z(v) ∩ Z(w). Il
existe donc a0 , . . . , ac(v) , b0 , . . . , bc(w) ∈ K tels que
Comme c(v) ≥ 1, on en déduit que a0 f c(v) (v) ∈ Z(x) ∩ Z(y). Ainsi a0 f c(v) (v) = 0 or
f c(v) (v) 6= 0 donc a0 = 0 et
On a c(v) ≤ c(w) par hypothèse, les vecteurs f c(v) (w), . . . , f c(w) (w) sont linéairement
indépendants et f c(w)+1 (w) = · · · = f c(v)+c(w) (w) = 0 donc on en déduit b0 = 0. Ceci
entraîne z ∈ Z(x) ∩ Z(y) et donc z = 0.
E = Z(x1 ) ⊕ · · · ⊕ Z(xk ).
Pr
tel que yi = Pi (f )(xi ), et on a finalement f (y) = i=1 Pi (f )(xi ). Posons alors w =
Pr
i=1 Pi (f )(vi ). On a w ∈ W et
r
X r
X r
X
f (y − w) = f (y) − f (w) = Pi (f )(xi ) − Pi (f )(f (vi )) = Pi (f )(xi − f (vi )) = 0
i=1 i=1 i=1
6.100 Théorème (Jordan). Soient E un espace vectoriel de dimension finie sur un corps K
et f un endomorphisme de E. Il existe une base de E dans laquelle la matrice de f est
formée de blocs de Jordan si et seulement s’il existe un polynôme P ∈ K[X] scindé tel que
P (f ) = 0.
Démonstration. Supposons qu’il existe une base B dans laquelle la matrice de f soit formée
de blocs de Jordan :
Jn1 (λ1 ) · · · 0
M (f ) = ... .. .. .
. .
0 · · · Jnr (λr )
Le polynôme caractéristique d’un bloc de Jordan Jn (λ) est (λ − X)n donc on obtient
donc Pf est scindé. Si v est un vecteur de la base B, il existe un i tel que v ∈ Ker(f −λi id)ni
donc Pf (f )(v) = 0, par conséquent Pf (f ) = 0.
Réciproquement, supposons qu’il existe P ∈ K[X] scindé tel que P (f ) = 0. Quitte à
multiplier P par une constante non nulle, on peut donc écrire
pour une certaine famille (λ1 , . . . , λr ) d’éléments de K deux à deux distincts et une certaine
famille (n1 , . . . , nr ) d’entiers naturels non nuls. Les polynômes (λi − X)ni sont premiers
entre eux donc le lemme des noyaux implique que
Pour chaque i, comme f et (λi − f )ni commutent, le sous-espace Ker(λi − f )ni est préservé
par f . La restriction de λi − f à Ker(λi − f )ni est nilpotente, il existe donc une base Bi
de Ker(λi − f )ni dans laquelle la matrice de la restriction de λi − f à Ker(λi − f )ni est
constituée de blocs de Jordan de valeur propre 0. Dans Bi , la restriction de f à Ker(λi −f )ni
est donc constituée de blocs de Jordan de valeur propre λi . Soit B = (B1 , . . . , Br ) la base
de E obtenue en rassemblant les Bi , alors dans B la matrice de f est constituée de blocs
de Jordan.