http ://[Link].
fr 20 août 2010
Calcul Matriciel
Exercice 1. Soit f une forme linéaire sur Mn (C) telle que f (AB) = f (BA) pour tout (A, B) ∈
Mn (C). Montrer que f est proportionnelle à la trace.
Exercice 2. [Lemme d’Hadamard : une matrice à diagonale strictement dominante est inversible] Soit
A dans Mn (C) telle que X
∀i ∈ {1, n}, |aij | < |aii |.
j6=i
Montrer que A est inversible.
Exercice 3. Soit A ∈ Mn (C) de rang 1.
a. Montrer qu’il existe X et Y dans Mn,1 (C) telles que A = X t Y .
b. Montrer que A2 = αA.
c. Lorsque c’est possible, inverser la matrice (A + In ) [indication : on pourra chercher l’inverse sous la
forme d’un polynôme en A].
Exercice 4. CCP MP 2007
Soit A ∈ Mn (K), où K est R ou C. Montrer que l’application M 7→ tr(AM ) est une forme linéaire sur
Mn (K). Les obtient-on toutes de cette manière ?
Exercice 5. CCP MP 2007
Calculer le déterminant d’ordre n :
1 + x2 −x 0 ... 0
.. ..
−x 1 + x2 −x . .
Dn (x) = .. .. .. .
0 . . 0 .
.. ..
. . −x 1 + x2 −x
0 ... 0 −x 1 + x2
Exercice 6. CCP MP 2007
Soient A, B ∈ Mn (R). Montrer que AB − In est inversible si et seulement si BA − In l’est.
Exercice 7. CCP MP 2007
Soit t ∈ R. On pose
cos t 2 sin t
A= 1 .
− 2 sin t cos t
Calculer An , n > 1.
Exercice 8. ENSTIM MP 2007
Trouver les matrices A ∈ Mn (R) telles que, notant t A sa transposée,
A t A A = In (∗).
Exercice 9. a. Soit n ∈ N∗ . Soit E un C-espace vectoriel de dimension finie n. Soit u ∈ L(E). On
suppose que tr(u) = 0. Montrer qu’il existe une base de E dans laquelle la matrice de l’endomorphisme
u est de diagonale nulle. [Indication : on pourra d’abord considérer le cas où u est une homothetie]
b. Soient ai , 1 6 i 6 n, des éléments de C deux à deux distincts. On pose
a1 (0)
D=
.. ∈ Mn (C).
.
(0) an
calc. mat., page 1
http ://[Link]
On considère l’application
Φ : Mn (C) → Mn (C)
.
M 7→ M D − DM
Montrer que Φ est un endomorphisme de Mn (C) dont on déterminera le noyau puis la dimension de
l’image. En déduire que l’image de Φ est le sous-espace vectoriel constitué des matrices de diagonale
nulle.
c. Soit M ∈ Mn (C). Prouver le théorème de Shoda :
tr(M ) = 0 ⇔ ∃A, B ∈ Mn (C), M = AB − BA.
Exercice 10. (ENS MP 2002)
Soient n, m ∈ N∗ . Déterminer l’ensemble des morphismes de groupe de (GLn (R), ◦) vers (Z/mZ, +).
calc. mat., page 2
http ://[Link] 20 août 2010
Solutions : Calcul Matriciel
Exercice 1. Considérons la famille de matrices F := (Eij )16i,j6n définie de la façon suivante : tous
les coefficients de Eij sont nuls à l’exception du coefficient ligne i colonne j qui vaut 1.
La famille F est une base de Mn (R) et on rappelle la formule suivante : Eij Ejk = δjk Eik où (notation
de Kronecker)
δjk = 1 si j = k
δjk = 0 sinon.
Alors, pour i = k on obtient f (Eii ) = f (Eij Eji ) = f (Eji Eij ) = f (Ejj ) et pour i 6= k, f (Eik ) =
f (Eij Ejk ) = f (Ejk Eij ) = 0.
Ainsi, pour M dans Mn (R),
X n
X
f (M ) = mij f (Eij ) = mii f (Eii ) = tr(M )f (E11 )
i,j i=1
et f est bien proportionnelle à la trace, le coefficient de proportionnalité étant donné par l’image par
f de l’un des (Eii )16i6n .
Exercice 2. Supposons qu’une telle matrice A soit non inversible : nécéssairement, Ker(A) 6= {0}, et
il existe un vecteur de Rn X non nul tel que AX = 0. Choisissons j ∈ {1, n} tel que |xj | = ||X||∞ :=
maxi∈{1,n} |xi |. Comme AX = 0, la j-ème ligne de cette égalité donne
X
ajj xj + ajk xk = 0
k6=j
d’où X
ajj xj = − ajk xk .
k6=j
P
Or, comme par hypothèse pour tout k ∈ {1, n}, |xk | 6 |xj | et k6=j |ajk | < |ajj |, on obtient
X X
ajk xk 6 |xj | |ajk |
k6=j k6=j
< |xj ajj |
ce qui contredit l’égalité précedemment obtenue.
Exercice 3. a. A étant de rang un, ses colonnes sont nécessairement proportionnelles (l’image d’une
matrice est l’espace engendré par ses vecteurs colonnes). Notons X1 , . . . , Xn ses colonnes. A étant
non nulle (puisque de rang 1), il existe i0 ∈ J1; nK tel que Xi0 6= 0, et alors on peut écrire ∀i ∈
J1; nK, ∃ αi ∈ R, Xi = αi Xi0 (en particulier αi0 = 1). Les colonnes de la matrice A s’écrivent
donc α2 Xi0 , . . . , αn Xi0 , ce qui permet de voir que A s’écrit bien sous la forme A = X t Y avec
α1 Xi0 ,
α1
α2
Y = . ∈ Mn,1 (C), Y 6= 0, et X = Xi0 ∈ Mn,1 (C).
..
αn
b. On calcule A2 = (X t Y )(X t Y ) = X(t Y X) t Y = X(α) t Y = αX t Y = αA, où α ∈ R est la valeur
du produit scalaire t Y X.
c. On va procéder (dans un premier temps) comme le suggère l’énoncé. Par la question b. on peut
voir qu’il suffit de faire notre recherche sur des polynômes de degré 1, car de A2 = αA une récurence
calc. mat., page 1
http ://[Link]
immédiate nous donne Ak = αk−1 A. On calcule donc (A + In )(aA + bIn ) où a et b sont des réels, on a
(A+In )(aA+bIn ) = aA2 +(a+b)A+bIn = (a(α+1)+b)A+bIn . Ainsi, pour avoir (A+In )(aA+bIn ) = In ,
−1
il suffit de prendre b = 1 et a(α + 1) + b = 0, donc, si α 6= −1, b = 1 et a = α+1 , ce qui donne (A + In )
−1 1
inversible et (A + In ) = In − α+1 A. Si α = −1, on ne peut pas trouver l’inverse de cette façon.
On va donc donner une deuxième solution qui permettra de mieux comprendre la situation. A étant
de rang 1, la dimension de ker(A) est n − 1. D’autre part, de la question b. on tire que A annule le
polynôme X 2 − αX = X(X − α). Si α 6= 0, alors ce polynôme est scindé à racines simples, et A est
diagonalisable, de valeurs propres 0 (la dimension de l’espace propre associé est n−1) et α (la dimension
(0)n−1 (0)
de l’espace propre associé est 1). Ainsi, la matrice A est semblable à la matrice , et
(0) α
In−1 (0)
par suite (A + In ) est semblable à la matrice dont l’inverse (qui existe si et seulement
(0) α + 1
In−1 (0) 1 (0)n−1 (0)
si α 6= −1, ici c’est très clair) est alors 1 = In − α+1 . En faisant le
(0) α+1 (0) α
1
changement de base inverse, il vient que (A + In ) est inversible d’inverse In − α+1 A. Enfin, si α = 0,
2
alors A = 0 et il est clair que (In + A)(In − A) = In .
On a montré que (A + In ) est inversible si et seulement si α 6= −1 et alors l’inverse de cette matrice
1
est In − α+1 A.
Exercice 4. M 7→ tr(M ) est bien une application de Mn (K) vers K. Elle est de plus linéaire par
distributivité du produit matriciel par rapport à l’addition et linéarité de la trace.
Par égalité des dimensions de Mn (K) et de Mn (K)∗ (l’ensemble des formes linéaires sur Mn (K)), il
suffit de montrer que l’application
Φ : Mn (K) → M ∗
n (K)
ΦA : Mn (K) → K
A 7→
M 7→ tr(AM )
est injective. Déterminons donc ker(Φ). Soit A ∈ Mn (K), on note A = (aij )16i,j6n . Si A ∈ ker(Φ),
alors ∀M ∈ Mn (K), M = (mij )16i,j6n , on a
n X
X n
0 = tr(AM ) = aik mki .
i=0 k=0
Soient (i, j) ∈ J1, nK. On considère la matrice M dont le coefficient mij = 1 et les autres sont tous nuls.
On déduit de ce qui précède que le coefficient aji est nul. Ainsi, A = 0. L’application Φ est injective,
et on a donc toutes les formes linéaires sur Mn (K) de cette façon.
1 + x2 −x
Exercice 5. On calcule d’abord D1 (x) = 1 + x2 et D2 (x) = = 1 + x2 + x4 . On
−x 1 + x2
suppose maintenant n > 3. On développe par rapport à la première ligne une première fois (l’indice en
bas du déterminant en indique l’ordre) :
1 + x2 −x 0 ... 0 −x 0 ... ... 0
.. .. .. ..
−x 1 + x2 −x . . −x 1 + x2 −x . .
.. .. .. = (1+x2 )Dn−1 (x)+x 0 .. .. .. .
0 . . 0 . . . 0.
.. .. 2
.. .. 2
. . −x 1 + x −x . . −x 1 + x −x
0 ... 0 −x 1 + x2 n
0 ... 0 −x 1 + x2 n−1
Ensuite on développe par rapport à la première ligne (c’est à dire ici qu’on utilise la règle de calcul
d’un déterminant par bloc) :
Dn (x) = (1 + x2 )Dn−1 (x) − x2 Dn−2 (x).
On se retrouve en présence d’une suite récurrente linéaire d’ordre 2. L’équation caractéristique est
λ2 − (1 + x2 )λ + x2 = 0.
calc. mat., page 2
http ://[Link]
Les racines (évidentes) en sont 1 et x2 . Pour x 6= 1 fixé, la suite est donc de la forme
Dn (x) = α(x) + β(x)x2n .
−1
Exprimant D1 (x) et D2 (x), déjà calculés, en fonction de α(x) et β(x), on trouve que α(x) = x2 −1
et
x2
β(x) = x2 −1
, si bien que a :
n
x2n+2 − 1 X 2k
∀x ∈ R\{1}, Dn (x) = = x .
x2 − 1
k=0
Le déterminant étant une fonction polynômiale en ses coefficients, x 7→ Dn (x) est une fonction continue
sur R, et on en déduit que Dn (1) = n + 1.
Exercice 6. Montrons que AB − In non-inversible ⇔ BA − In non-inversible, ce qui est équivalent
à la question posée. On suppose AB − In non-inversible, alors il existe x ∈ Rn , x 6= 0, tel que
ABx = x. En particulier, Bx 6= 0 (puisque sinon ABx = 0 6= x). On peut alors former l’égalité
BA(Bx) = B(ABx) = Bx, c’est à dire BAy = y avec y = Bx 6= 0, donc BA − In n’est pas inversible.
En échangeant les rôles de A et B, il vient que si BA − In n’est pas inversible, alors AB − In non plus.
D’où l’équivalence demandée.
Exercice 7. On “intuite” que A est la matrice d’une rotation dans une “mauvaise” base. En effet, on
remarque que
1 0 cos t 2 sin t 1 0 cos t sin t
= .
0 2 − 12 sin t cos t 0 12 − sin t cos t
Alors, sachant que n
cos t sin t cos nt sin nt
= ,
− sin t cos t − sin nt cos nt
on en déduit que
n cos nt 2 sin nt
A = 1
− 2 sin nt cos nt
Exercice 8. A est inversible. Multipliant à gauche par t A les deux membres de l’égalité (∗), on
obtient t A A t A A = t A, donc en particulier, t A est symétrique, et donc A est symétrique. Toute
matrice symétrique réelle est diagonalisable (en b.o.n), et ses valeurs propres sont réelles, il existe donc
P ∈ Gln (R), P AP −1 = D, où D est diagonale réelle. On a alors, en composant à droite et à gauche par
P dans (∗), l’égalité D3 = In , les coefficients diagonaux de D sont donc des racines troisième de l’unité,
et sont réelles, donc nécessairement, ils valent 1, donc D = In , puis il vient que A = In . Inversement,
A = In convient.
Exercice 9. a. Montrons le résultat par récurrence sur n ∈ N∗ . Si n = 1, alors la matrice est la
matrice nulle et le résultat est vrai. On suppose le résultat acquis jusqu’à l’ordre n − 1, n > 1. Suivons
l’indication. Si u est une homothetie, alors ∃λ ∈ C, u = λid, mais alors tr(u) = nλ et donc λ = 0 puis
u = 0, le résultat est vrai. Sinon, u n’étant pas une homothétie, il existe un vecteur x ∈ E tel que x et
u(x) sont non colinéaires. On peut donc compléter la famille libre (x, u(x)) en une base e de E (c’est
du cours de sup). La matrice de u dans la base e est donc de la forme
0 ∗...∗
1
0
.
B
..
.
0
La trace de B est alors nulle. On peut appliquer l’hypothèse de récurence à l’endomorphisme cano-
niquement associé à la matrice B, matriciellement cela signifie qu’il existe P ∈ GLn−1 (C) telle que
P BP −1 soit de diagonale nulle. Alors la matrice
calc. mat., page 3
http ://[Link]
0 ∗...∗
1 0...0 1 0...0 0 ∗...∗
1
0 0 ∗
..
0
.. =
..
P B P −1 P BP −1
. .. . .
.
0 0 ∗
0
est de diagonale nulle. Ceci signifie qu’il existe une base de E dans laquelle la matrice de u soit de
diagonale nulle.
b. La linéarité de Φ est une vérification immédiate.
Calculons le noyau de Φ. Soit M ∈ Mn (C) telle que Φ(M ) = 0, c’est à dire que M D = DM . On note
les coefficients de M et D respectivement (mij )16i,j6n et (dij )16i,j6n , sachant que D étant diagonale,
Pa dij = 0 dès que i 6= j et dii = ai [Link] coefficients de M D et DM sont donc respectivement
on
( nk=0 mik dkj )16i,j6n = (aj mij )16i,j6n et ( nk=0 dik mkj )16i,j6n = (ai mij )16i,j6n . Ainsi,
∀i, j ∈ J1; nK, (ai − aj )mij = 0.
Donc, dès que i 6= j, on a ai − aj 6= 0 et donc mij = 0. La matrice M est donc une matrice diagonale.
Inversement, toute matrice diagonale vérifie Φ(M ) = 0. Le noyau est donc constitué des matrices
diagonales, qui est de dimension n. D’après le théorème du rang, l’image est de dimension n2 − n =
n(n − 1).
L’image contient les matrices de diagonale nulle comme le prouve le calcul précédent (les élements
diagonaux sont ai mii − ai mii = 0). Cet espace étant de dimension n2 − n, on en déduit que l’image de
Φ est bien l’espace des matrices de diagonale nulle.
c. Soit M ∈ Mn (C).
On suppose que tr(M ) = 0. D’après la première question, il existe P ∈ GLn (C) telle que P M P −1
a tous ses coefficients diagonaux nuls. D’après la deuxième question, il existe Q ∈ Mn (C) tel que
P M P −1 = QD − DQ. Ainsi, on a l’égalité M = P −1 QDP − P −1 DQP , ce qui s’écrit encore M =
(P −1 QP )(P −1 DP ) − (P −1 DP )(P −1 QP ), c’est à dire que M s’écrit bien M = AB − BA avec A =
(P −1 QP ) et B = (P −1 DP ). Inversement, si M = AB − BA, alors tr(M ) = tr(AB) − tr(BA) = 0. On
a donc montré le théorème.
Exercice 10. • Déjà, dans le cas m = 2, en représentant (Z/2Z, +) par ({−1, +1}, ∗) on connait un
morphisme non trivial (ie non réduit au morphisme constant M 7→ 1) qui est le déterminant.
• Procédons par conditions nécessaires. Soit φ un tel morphisme. On va faire quelques remarques
préliminaires sur les propriétés de φ. On a
∀A, B ∈ GLn (R), φ(AB) = φ(A) + φ(B),
et donc
∀A ∈ GLn (R), φ(Am ) = mφ(A) ≡ 0 (mod m) .
Ainsi, toute matrice qui est une puissance m-ième a une image nulle par φ. La “bonne” question
est maintenant “quelles sont les matrices que l’on peut obtenir comme puissance m-ième d’une autre
matrice ? ” Ou mieux, en remarquant la commutativité de Z/mZ, “quelles sont les matrices que l’on
peut obtenir comme produit de matrices qui sont puissances m-ième d’autres matrices ? ” Car de telles
matrices ont alors une image nulle par φ.
On cherche donc maintenant à écrire toute matrice M de GLn (R) comme produit de matrices qui
sont des puissances m-ième et de matrices “simples” dont il est facile de calculer l’image par φ. Il faut
donc chercher du côté des décompositions en produits de matrices de transformations élémentaires,
essentiellement, tout ce qui suit est du cours. Les premières matrices de transformations élémentaires
à regarder sont les matrices de transvections. Soient i, j ∈ J1; nK, i 6= j, et soit λ ∈ R, on note Tij (λ) la
matrice In + λEij , où Eij est la matrice de Mn (R) dont tous les coefficients sont nuls, sauf celui qui
est à la i-ième ligne et j-ième colonne qui vaut 1. La matrice Tij (λ) a donc une diagonale de 1, λ en
i-ième ligne et j-ième colonne, et des 0 partout ailleurs. De plus, det(Tij (λ)) = 1. Soit M ∈ GLn (R).
La multiplication à gauche par Tij (λ) donne une matrice M 0 obtenue à partir de M en ajoutant λ
fois la j-ième ligne à la i-ième. De même, la multiplication à droite par Tij (λ) donne une matrice M 00
calc. mat., page 4
http ://[Link]
obtenue à partir de M en ajoutant λ fois la i-ième colonne à la j-ième. Avec cette interprétation, il est
facile de voir que les matrices Tij (λ) sont la puissance m-ième des Tij (λ/m) (on peut en faire le calcul
sinon). Ainsi, φ(Tij (λ)) = 0.
Quelles décompositions peut-on obtenir à l’aide des matrices Tij (λ) ? Et bien, une version “forte”
de l’algorithme du pivot de Gauss montre qu’en multipliant à droite et à gauche par des matrices
Tij (λ) ∈ SLn (R), toute matrice M de GLn (R) se réduit à une matrice diagonale avec que des 1 sur la
diagonale, sauf le dernier coefficient diagonal qui est égal au déterminant de M . On notera une telle
matrice D(det(M )). Montrons cette affirmation :
On procède par récurrence sur n ∈ N∗ . Si n = 1, alors il n’y a rien à démontrer. On suppose le résultat
acquis jusqu’à l’ordre n − 1, n > 2. On note (aij )16i,j6n les coefficients de M ∈ GLn (R).
Etape i. a) Si a11 = 1, passons à l’étape ii. b) Si a11 est non nul mais différent de 1, et que les
a1j , 2 6 j 6 n sont nuls, alors il existe un couple (i0 , j0 ) ∈ J1; nK tel que ai0 j0 6= 0, car M est inversible.
La situation ressemble à
∗ 0 ... 0
∗
.
..
. ∃ai0 j0 6= 0
∗
Multipliant alors M à gauche par T1i0 (1) on est ramené au cas où a1j0 est non nul. La situation
ressemble à
∗ ∗ . . . ∗ a1j0 6= 0 ∗ . . . ∗
∗
.
..
. (∗)
∗
En multipliant M à droite par T1j0 ( 1−a a1j0 ), on est ramené au cas où a11 = 1. c) Enfin, dans les autres
11
cas (a11 = 0), il existe j0 ∈ J2; nK tel que a1j0 6= 0 (puisque M ∈ GLn (R) elle ne saurait avoir une ligne
nulle). La situation ressemble à
0 ∗ . . . ∗ a1j0 6= 0 ∗ . . . ∗
∗
.
.. (∗)
.
∗
En multipliant M à droite par T1j0 (1/a1j0 ) on est ramené au cas où a11 = 1.
Etape ii. On a donc M telle que a11 = 1. Ensuite, on multiplie M à droite successivement pour j
variant de 2 à n par T1j (−a1j ) pour obtenir une matrice M 0 telle que la première ligne soit nulle sauf
le premier coefficient qui vaut 1. M 0 ressemble à
1 0 ... 0
∗
.
.. (∗)
.
∗
De même, on multiplie M 0 à gauche successivement pour j variant de 2 à n par Ti1 (−ai1 ) pour obtenir
une matrice M 00 telle que la première colonne soit nulle sauf le premier coefficient qui vaut 1.
Etape iii. On est donc ramené à une matrice qui ressemble à
1 0 ... 0
0
.
.. B
.
0
Il est alors clair que B ∈ GLn−1 (R), et que det(B) = det(A). Remarquant qu’on peut “plonger” une
calc. mat., page 5
http ://[Link]
matrice Tij (λ) de taille n − 1 dans une matrice Ti+1,j+1 (λ) de taille n, par l’application
1 0 ... 0
0
GLn−1 (R) → GLn (R); A 7→ . .
.. A
0
on peut appliquer l’hypothèse de récurrence à B et obtenir ainsi le résultat demandé à l’ordre n, ce
qui achève la démonstration.
A ce stade, on a donc établi l’existence de P, Q ∈ SLn (R), P et Q étant des produits de matrices de
transvections, telles que P M Q = D(det(M )). On a donc φ(P ) + φ(M ) + φ(Q) = φ(D(det(M )),
et comme d’après les remarques faites précédemment φ(P ) = φ(Q) = 0, il vient que φ(M ) =
φ(D(det(M )), et tout revient à déterminer les valeurs possibles pour φ(D(det(M )).
Soit α ∈ R∗ , notons D(α) la matrice diagonale dont tous les coefficients diagonaux sont égaux à 1 sauf
le dernier qui vaut α. Il est clair que D(α) est puissance m-ième d’une autre matrice si et seulement si
α est puissance m-ième d’un autre réel β (et alors D(α) = D(β)m ). Si m est impair, ceci est toujours
possible, et donc, pour m impair, ∀α ∈ R, φ(D(α)) = 0. Sinon, α est une puissance m-ième si et seule-
ment si α > 0. La valeur de φ(D(α)) que l’on note y peut donc être non nulle, mais nécessairement
elle vérifie 2y ≡ 0 (mod m) car α2 > 0. Ainsi, les seules valeurs possibles pour y sont 0 et m2.
Finalement, on a donc montré que : si m est impair, alors il n’existe qu’un seul morphisme, le mor-
phisme trivial M 7→ 0 ; et si m est pair, alors il peut y avoir au plus deux morphismes, le morphisme
trivial d’une part, et le morphisme qui aux matrices de déterminants positifs associe 0, et aux matrices
de déterminants négatifs associe m 2.
• Inversement, les morphismes exhibés précédemment conviennent.
calc. mat., page 6