0% ont trouvé ce document utile (0 vote)
1K vues8 pages

Correction Centrale Réduction

Ce document présente des exemples de sous-algèbres de matrices et d'applications linéaires. Il démontre qu'une certaine sous-algèbre de Mn(R) est commutative et en donne une base.

Transféré par

Alessandro Amalric
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
1K vues8 pages

Correction Centrale Réduction

Ce document présente des exemples de sous-algèbres de matrices et d'applications linéaires. Il démontre qu'une certaine sous-algèbre de Mn(R) est commutative et en donne une base.

Transféré par

Alessandro Amalric
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Centrale M1 2019 - Corrigé

I. Exemples de sous-algèbres

I.A - Exemples de sous-algèbres de Mn (K)


1. Tn (K) et Tn+ (K) sont des sous-espaces vectoriels de Mn (K) stables par produit, donc ce sont des sous-algèbres de
Mn (K).
2. S2 (K) et A2 (K) sont des sous-espaces vectoriels de M2 (K).
1 0 0 1 0 1
Cependant, A = ( ) ∈ S2 (K) et B = ( ) ∈ S2 (K), mais AB = ( ) ∈/ S2 (K), donc S2 (K) n'est pas stable par
0 0 1 0 0 0
produit, donc S2 (K) n'est pas une sous-algèbre de M2 (K).
0 1
C = ( ) ∈ A2 (K) et C 2 = −I2 ∈/ A2 (K), donc A2 (K) n'est pas stable par produit, donc A2 (K) n'est pas une
−1 0
sous-algèbre de M2 (K).
A 02,n−2 B 02,n−2 C 02,n−2
3. En prenant An = ( ) ∈ Sn (K), Bn = ( ) ∈ Sn (K) et Cn = ( ) ∈ An (K), on a
0n−2,2 0n−2 0n−2,2 0n−2 0n−2,2 0n−2
AB 02,n−2 −I2 02,n−2
An B n = ( ) ∈/ Sn (K) et Cn2 = ( ) ∈/ An (K), donc An (K) et Sn (K) ne sont pas stables par
0n−2,2 0n−2 0n−2,2 0n−2
produit, donc Sn (K) et An (K) ne sont pas des sous-algèbres de Mn (K).

I.B - Exemples de sous-algèbres de L(E)


4. ● AF ⊂ L(E) par dénition de AF .
● l'application nulle 0L(E) ∈ AF car 0L(E) (F ) = {0E } ⊂ F, donc AF ≠ ∅.
● Pour tout (u, v) ∈ (AF )2 , pour tout λ ∈ K, pour tout x ∈ F,

(λu + v)(x) = λ u(x) + v(x) ∈ F car F est un sous-espace vectoriel de E,


± ±
∈F car u∈AF ∈F car v∈AF

donc (λu + v)(F ) ⊂ F, donc λu + v ∈ AF .


● AF est donc un sous-espace vectoriel de E.
● De plus, pour tout (u, v) ∈ (AF )2 , u○v(F ) = u(v(F )) ⊂ u(F ) ⊂ F, donc u○v ∈ AF , donc AF est stable par composition.
● AF est donc bien une sous-algèbre de L(E).
5. Soit B1 = (e1 , . . . , ep ) une base de F complétée en une base B = (e1 , . . . ep , ep+1 , . . . , en ) de E.
A B
Alors u ∈ AF ⇔ M atB (u) est de la forme ( ) où A ∈ Mp (K), B ∈ Mp,n−p (K) et C ∈ Mn−p (K).
0n−p,p C
Comme u ↦ M atB (u) est un isomorphisme d'espaces vectoriels, on a

A B
dim AF = dim {( ) , A ∈ Mp (K), B ∈ Mp,n−p (K) C ∈ Mn−p (K)} = p2 + p(n − p) + (n − p)2 = n2 − pn + p2 .
0n−p,p C

1 2 3 1 2
6. Pour tout p ∈ [[1, n−1]], n2 −np+p2 = (p − n) + n2 , donc (n2 −pn+p2 ) est maximum quand (p − n) est maximum,
2 4 2
1 2 3 2
donc pour p = 1 ou p = n − 1, et ce maximum vaut (1 − n) + n = n − n + 1.
2
2 4

I.C - Exemples de sous-algèbres de M2 (K) diagonalisables et non diagonalisables

⎛ ⎞
⎜ 0 −1 ⎟
⎜ ⎟
7. ● Γ(K) = Vect ⎜I2 , ( )⎟ , donc Γ(K) est un sous-espace vectoriel de M2 (K).
⎜ 1 0 ⎟
⎜ ⎟
⎝ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶⎠
notée C
● De plus, comme C 2 = −I2 , on a, pour tout (aI2 + bC, cI2 + dC) ∈ Γ(K)2 ,

(aI2 + bC)(cI2 + dC) = (ac − bd) I2 + (ad + bc) C ∈ Γ(K),


´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶ ´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¸ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶
∈K ∈K

donc Γ(K) est stable par produit.


● Γ(K) est donc bien une sous-algèbre de M2 (K).
8. On a χC (X) = X 2 + 1 n'est pas scindé sur R, donc C n'est pas diagonalisable dans M2 (R), donc Γ(R) n'est pas une
sous-algèbre diagonalisable de M2 (R).

1
9. ● Comme χC (X) = X 2 + 1 = (X + i)(X − i) est scindé à racines simples sur C, C est diagonalisable dans M2 (C) et il
existe P ∈ GL2 (C) et D = diag(i, −i) diagonale telles que C = P DP −1 .
● Alors, pour tout aI2 + bC ∈ Γ(K),
P −1 (aI2 + bC)P = aP I2 P −1 + bP −1 CP = aI2 + bdiag(i, −i) = diag(a + bi, a − bi),
donc Γ(C) est une sous-algèbre diagonalisable de M2 (C).

II. Une sous-algèbre commutative de Mn (R)


II.A - Calcul des puissances de J
10. ● On a J = M at(e1 ,...,en ) (ϕ) = J(0, 1, 0, 0, . . . , 0).
● J 2 = M at(e1 ,...,en ) (ϕ2 ).
Or, pour tout i ∈ [[1, n − 2]], ϕ2 (ei ) = ϕ(ei+1 ) = ei+2 , ϕ2 (en−1 ) = ϕ(en ) = e1 et ϕ2 (en ) = ϕ(e1 ) = e2 , donc


⎪I2 si n = 2
J2 = M at(e1 ,...,en ) (ϕ2 (e1 ), . . . ϕ2 (en )) = ⎨ .

⎪J(0, 0, 1, 0, . . . , 0) si n ≥ 3

11. Soit n ≥ 3.
On vérie par le calcul que J × J(a0 , a1 . . . , an−1 ) = J(an−1 , a0 , . . . , an−2 ), puis, par récurrence immédiate, on obtient :
J k = J(0, . . . , 0, 1, 0, . . . , 0) (ak = 1 et ai = 0 pour tout i ≠ k ) et J n = In .
n−1 n−1
12. On a J(a0 , . . . , an−1 ) = ∑ ak J(0, . . . , 0, 1 , 0, . . . , 0) = ∑ ak J k .
k=0 ® k=0
position k

II.B - Une base de A


13. ● La famille (In , J, J 2 , . . . , J n−1 ) est composée d'éléments de A d'après la question 11.
● D'après la question 12, (In , J, J 2 , . . . , J n−1 ) est génératrice de A.
● De plus, pour tout (a0 , . . . , an−1 ) ∈ Kn , toujours d'après la question 13, on a :
n−1
a0 In + ∑ ak J k = 0n ⇔ J(a0 , . . . an−1 ) = 0n ⇔ a0 = . . . = an−1 = 0,
k=1

donc la famille (In , J, J , . . . , J ) est libre.


2 n−1

● (In , J, J 2 , . . . , J n−1 ) est donc bien une base de A, qui est donc de dimension n.
14. Soit M ∈ Mn (R).
● Si M commute avec J, alors, par récurrence immédiate, M commute avec J k pour tout k ∈ N.
n−1
Par suite, pour tout N = ∑ ak J k ∈ A,
k=0

n−1 n−1 n−1 n−1


M N = M ( ∑ ak J k ) = ∑ ak M J k = ∑ ak J k M = ( ∑ ak J k ) M = N M,
k=0 k=0 k=0 k=0

donc M commute avec tous les éléments de A.


● Réciproquement, si M commute avec tous les éléments de A, M commute avec J car J ∈ A.
● par double-implication, on a donc bien l'équivalence souhaitée.
15. ● A = Vect(In , J, J 2 , . . . , J n−1 ) est un sous-espace vectoriel de Mn (K).
n−1
● Pour tout i ∈ [[0, n − 1]], pour tout N = ∑ ak J k ∈ A,
k=0

n−1 n−1 n−1−i n−1


J i N = J i ( ∑ ak J k ) = ∑ ak J k+i = ∑ ak J k+i + ∑ ak J k+i
k=0 k=0 k=0 k=n−i
n−1−i n−1
= ∑ ak J k+i + ∑ ak J n J k+i−n
k=0 k=n−i ¯
=In
n−1−i n−1
= ∑ ak J k+i + ∑ ak J k+1−n ∈ A comme combinaison linéaire d'éléments de A.
k=0 ± k=n−i ´¹¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¶
∈A car k+i∈[[0,n−1]] ∈A car k+i−n∈[[0,n−1]]

A est donc stable par produit, donc A est une sous-algèbre de Mn (K).
n−1
● Pour tout N = ∑ ak J k ∈ A,
k=0

n−1 n−1 n−1 n−1 n−1


JN = J ( ∑ ak J k ) = ∑ ak JJ k = ∑ ak J k+1 = ∑ ak J k J = ( ∑ ak J k ) J = N J,
k=0 k=0 k=0 k=0 k=0

2
donc N commute avec J, donc, d'après la question précédente, N commute avec tous les éléments de A.
A est donc bien une sous-algèbre commutative de Mn (K).

II.C - Diagonalisation de J
16. On a
RRR X 0 ⋯ 0 −1RRR
RRR RR
RRRR−1 X ⋱ ⋮ 0 RRRR
χJ (X) = det(XIn − J) = RRRR 0 ⋱ ⋱ 0 ⋮ RRRR
RRR ⋮ R
RRR ⋱ ⋱ ⋱ 0 RRRR
RRR 0 ⋯ 0 −1 X RRRRR
[n]
RRR X 0 ⋯ ⋯ 0 RRR RRR−1 X 0 ⋯ 0 RRRR
RRR RR RRR R
RRR−1 X 0 ⋮ RRRR RRR 0 −1 X ⋱ ⋮ RRRR
= X RRRRR 0 ⋱ ⋱ ⋱ ⋮ RRRR
RRR + (−1) n+1
× (−1) × RRR ⋮
RRR ⋱ ⋱ ⋱ 0 RRRR
R
RRR ⋮ ⋱ ⋱ ⋱ 0 RR RRR ⋮ ⋱ ⋱ X RRRR
RRR
RRR 0 ⋯ 0 −1 X RRRRR RRR
RR 0 ⋯ ⋯ 0
R
−1RRRR[n−1]
[n−1]

(dvlpt par rapport à la dernière colonne)


= X × X n−1 + (−1)n+2 × (−1)n−1 (déterminant de matrices triangulaires)
= X + (−1)
n 2n+1
= X − 1.n

17. Par suite, χJ est scindé à racines simples dans C (ses racines sont les racines n-ème de l'unité), donc J est diagonalisable
dans Mn (C).
18. Pour n = 2, χJ = (X − 1)(X + 1) est scindé à racines simples dans R, donc J est diagonalisable dans M2 (R).
Si n ≥ 3, χJ n'est pas scindé sur R, donc J n'est pas diagonalisable dans Mn (R).
19. D'après la question 17, Sp C (J) = {e2ikπ/n , k ∈ [[0, n − 1]]} = {ω k , k ∈ [[0, n − 1]]} où ω = e2iπ/n .
Pour tout k ∈ [[0, n − 1]],
⎛ω ⎞ ⎛ω ⎞
(n−1)k (n−1)k
⎛ 1 ⎞ ⎛ ω nk ⎞
⎜ω (n−2)k ⎟ ⎜ω (n−2)k ⎟
⎜ ⎟ ⎜ω (n−1)k ⎟ ⎜ω (n−1)k ⎟ ⎜ ⎟
⎜ ⋮ ⎟ ⎜ (n−2)k ⎟ ⎜ (n−2)k ⎟ ⎜ ⋮ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ k⎜ ⎟
J⎜ ⎟ = ⎜ω ⎟ = ⎜ω ⎟ = ω ⎜ ωk ⎟ ,
⎜ ωk ⎟ ⎜ ⋮ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⋮ ⎟ ⎜ ⎟
⎜ ⋮ ⎟ ⎝ k ⎠ ⎝ ω k ⎠ ⎜ ⋮ ⎟
⎝ 1 ⎠ ω ⎝ 1 ⎠

⎛ω ⎞
(n−1)k

⎜ω (n−2)k ⎟
⎜ ⎟
⎜ ⋮ ⎟
donc ⎜ ⎟
⎜ ω k ⎟ est un vecteur propre de J associé à la valeur propre ω .
k
⎜ ⎟
⎜ ⎟
⎜ ⋮ ⎟
⎝ 1 ⎠
⎛⎛ω ⎞⎞ ⎛⎛ω ⎞⎞
(n−1)k (n−1)k

⎜⎜ω (n−2)k ⎟⎟ ⎜⎜ω (n−2)k ⎟⎟


⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟
⎜⎜ ⋮ ⎟⎟ ⎜⎜ ⎟⎟
Par suite, Vect ⎜ ⎜ ⎟⎟ ⊂ Eωk (J), et, comme ω k est une valeur propre simple, on a dim Eωk (J) = 1 = dim Vect ⎜⎜ ⋮ ⎟⎟
⎜⎜ ω k ⎟⎟ ⎜⎜ ω k ⎟⎟
⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟
⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟
⎜⎜ ⋮ ⎟⎟ ⎜⎜ ⋮ ⎟⎟
⎝⎝ 1 ⎠⎠ ⎝⎝ 1 ⎠⎠
donc, comme on a une inclusion et l'égalité des dimensions, on a :

⎛⎛ω ⎞⎞
(n−1)k

⎜⎜ω (n−2)k ⎟⎟
⎜⎜ ⎟⎟
⎜⎜ ⋮ ⎟⎟
Eωk (J) = Vect ⎜⎜
⎜⎜ ω k ⎟⎟ .
⎟⎟
⎜⎜ ⎟⎟
⎜⎜ ⎟⎟
⎜⎜ ⋮ ⎟⎟
⎝⎝ 1 ⎠⎠

II.D - Diagonalisation de A
20. La preuve faite en question 15 avec K au lieu de R permet de conclure directement ici que A est une sous-algèbre
(commutative) de Mn (C).
21. Comme J est diagonalisable dans Mn (C), il existe P ∈ GLn (C) et D diagonale telles que P −1 JP = D.
On peut même particulariser P et D à l'aide de la question 19, mais une telle précision ne servira à rien dans la suite
de cette preuve.

3
n−1
Alors, par récurrence immédiate, on a, pour tout k ∈ N, P −1 J k P = Dk . Puis, pour tout M = ∑ ak J k ∈ A,
k=0

n−1 n−1 n−1


P −1 M P = P −1 ( ∑ ak J k ) P = ∑ ak P −1 J k P = ∑ ak Dk ,
k=0 k=0 k=0

qui est diagonale come combinaison linéaire de matrices diagonales.


A est donc une sous-algèbre diagonalisable de Mn (C).
22. En choisissant bien la matrice P dans la question précédente, on a D = diag((ω i )i=0..n−1 ), donc
n−1 n−1
P −1 J(a0 , . . . , an−1 )P = ∑ ak Dk = ∑ ak diag((ω ki )i=0..n−1 )
k=0 k=0
n−1
= diag (( ∑ ak ω ki ) ),
k=0 i=0..n−1

n−1
donc Sp C (J(a0 , . . . , an−1 )) = { ∑ ak ω ki , i ∈ [[0, n − 1]]} .
k=0

III. Sous-algèbres strictes de Mn (R) de dimension maximale

III.A - Un produit scalaire sur Mn (R)


23. ● Pour tout (M, N ) ∈ (Mn (R))2 , ⟨M, N ⟩ = tr(M T N ) = tr((M T N )T ) = tr(N T M ) = ⟨N, M ⟩ , donc ⟨, ⟩ est symétrique.
● Pour tout (M, N, P ) ∈ (Mn (R))3 , pour tout λ ∈ R,

⟨λM + N, P ⟩ = tr((λM + N )T P ) = tr(λM T P + N T P ) (linéarité de la transposition)


= λtr(M T P ) + tr(N T P ) (linéarité de la trace)
= λ ⟨M, P ⟩ + ⟨N, P ⟩ ,

donc ⟨, ⟩ est linéaire à gauche.


● ⟨, ⟩ est symétrique et linéaire à gauche, donc bilinéaire.
● Pour tout i ∈ [[1, n]],
n n
(M T M )i,i = ∑ (M T )i,k (M )k,i = ∑ m2k,i ,
k=1 k=1
donc
n n n
⟨M, M ⟩ = tr(M T M ) = ∑(M T M )i,i = ∑ ∑ m2k,i = 2
∑ mi,k .
i=1 i=1 k=1 1≤i,k≤n

Par suite, il est clair que ⟨M, M ⟩ ≥ 0 (comme somme de positifs) et on a

⟨M, M ⟩ = 0 ⇔ ∑ mi,k = 0 ⇔ ∀(i, k) ∈ [[1, n]] , mi,k = 0 ⇔ M = 0n .


2 2

1≤i,k≤n

⟨, ⟩ est donc bien déni positif.


● ⟨, ⟩ dénit donc bien un produit scalaire sur Mn (R).
24. Comme Mn (R) est de dimension nie, (Mn (R), ⟨., .⟩) est un espace euclidien, donc dim A + dim A⊥ = dim Mn (R), ie
d + r = n2 .
25. Comme (Mn (R), ⟨., .⟩) est un espace euclidien, A = (A⊥ )⊥ .
● Soit M ∈ A. Alors, pour tout N ∈ A⊥ , ⟨M, N ⟩ = 0.
En particulier, pour tout i ∈ [[1, r]], comme Ai ∈ A⊥ , on a ⟨Ai , M ⟩ = 0.
● Réciproquement, supposons que pour tout i ∈ [[1, r]], ⟨Ai , M ⟩ = 0. Comme (A1 , . . . , Ar ) est une base de A⊥ , pour tout
n
N ∈ A⊥ , il existe (a1 , . . . , ar ) ∈ Rr tel que N = ∑ ai Ai .
i=1
Alors, par bilinéarité du produit scalaire, on a
n
⟨N, M ⟩ = ∑ ai ⟨Ai , M ⟩ = 0,
i=1 ´¹¹ ¹ ¹ ¹ ¹ ¹¸ ¹ ¹ ¹ ¹ ¹ ¹ ¶
=0

donc M ∈ (A ) = A.
⊥ ⊥

● On a donc bien, par double-implication, l'équivalence souhaitée.


26. Soit N ∈ A et i ∈ [[1, r]].
Pour tout M ∈ A,
⟨M, N T Ai ⟩ = tr(M T N T Ai ) = tr((N M )T Ai ) = ⟨N M, Ai ⟩ = 0
d'après la question précédente avec N M ∈ A car A est stable par produit.
On a donc bien N T Ai ∈ A⊥ .

4
III.B - Conclusion

27. ● L'application transposition T rans ∶ M ∈ Mn (R) ↦ M T ∈ Mn (R) est un automorphisme de Mn (R) (et T rans−1 =
T rans), donc AT = T rans(A) est un sous-espace vectoriel de Mn (R) de même dimension que A comme image d'un
sous-espace vectoriel par un isomorphisme.
● Pour tout (A, B) ∈ (AT )2 , il existe (M, N ) ∈ A2 tel que A = M T et B = N T .
Alors AB = M T N T = (N M )T ∈ AT car A est stable par produit, donc N M ∈ A.
AT est donc stable par produit, donc c'est une sous-algèbre de Mn (R).
28. Pour tout M T ∈ A⊥ , pour tout i ∈ [[1, r]], M T Ai ∈ A⊥ d'après la question 26, donc, comme (A1 , . . . , Ar ) est une base
r
de A⊥ , il existe (a1 , . . . , ar ) ∈ Rr tel que M T Ai = ∑ ak Ak et, par suite,
k=1

n
M T Ai X = ∑ ak Ak X ∈ Vect(A1 X, . . . , Ar X).
k=1

Par suite, M T (F ) = Vect(M T A1 X, . . . , M T Ar X) ⊂ F comme espace vectoriel engendré par des éléments de F, donc F
est stable par M T . cqfd.
29. ● Si d > n2 − n + 1, alors r = n2 − d < n − 1. Soit X ∈/ KerA1 (possible car A1 ≠ 0 car la famille (A1 , . . . , Ar ) est libre).
Soit F = Vect(A1 X, . . . , Ar X). On a :
 dim F ≤ r < n, donc F ≠ Mn,1 (R)
 dim F ≥ 1, car A1 X ≠ 0, donc F ≠ {0}.
De plus, en identiant les matrices et leur application linéaire canoniquement associée, on a

AT ⊂ AF , où cette notation a été introduite dans la partie I.B.

On a donc

d = dim A = dim AT (d'après la question 27)


≤ dim AF = n − pn + p2
2
(d'après la question 5)
≤ max n − pn + p = n − n + 1,
2 2 2
ce qui est contraire à l'hypothèse sur d.
1≤p≤n−1

D'où, par l'absurde, d ≤ n2 − n + 1.


● Soit E = Mn,1 (R) et soit X ∈ Mn,1 (R) non nul. En posant F = Vect(X) de dimension 1, AF = {u ∈ L(E) ∶ u(F ) ⊂ F }
est une sous-algèbre de L(E) de dimension n2 − n + 1 d'après la question 5.
Soit B une base de E. Alors, d'après les remarques préliminaires, {M atB (u), u ∈ AF } est une sous-algèbre de Mn (R)
de même dimension, donc de dimension n2 − n + 1.
Le majorant n2 − n + 1 de la dimension d'une sous-algèbre stricte de Mn (R) est donc atteint, donc n2 − n + 1 est la
dimension maximale d'une sous-algèbre stricte de Mn (R).

IV. Réduction d'une algèbre nilpotente de Mn (C)


30. Si E est de dimension 1, alors L(E) est de dimension 12 = 1, donc A = {0} ou A = L(E).
Comme IdE n'est pas nilpotente, A ≠ L(E), donc A = {0}, et A est bien trigonalisable.
On peut aussi remarquer que la matrice de n'importe quel endomorphisme de E est une matrice de M1 (C), donc
automatiquement triangulaire.

31. Comme IdE n'est pas nilpotente, IdE ∈/ A, donc A ≠ L(E), La contraposée du théorème de Burnside assure alors
l'existence d'un sous-espace vectoriel V de E distinct de E et {0} stable par tous les éléments de A.
32. Soit B1 = (e1 , . . . , er ) une base de V complétée en une base (e1 , . . . , en ) de E.
Alors, pour tout u ∈ A, pour tout j ∈ [[1, r]], u(ej ) ∈ F = Vect(e1 , . . . , er ), donc il existe (ai,j )i∈[[1,r]] tel que u(ej ) =
r
∑ ai,j ej .
i=1
Alors on a
A(u) B(u)
M atB (u) = M atB (u(e1 ), . . . , u(er ), u(er+1 ), . . . , u(en )) = ( ),
0 D(u)
où A(u) = (ai,j )1≤i,j≤r ∈ Mr (C), B(u) ∈ Mr,s (C) et D(u) ∈ Ms (C).
A B
33. ● Soit M = ( ) où A ∈ Mr (C), B ∈ Mr,s (C) et D ∈ Ms (C).
0 D
Ap Bp
Montrons par récurrence que, pour tout p ∈ N, il existe Bp ∈ Mr,s (C) telle que M p = ( ) (HRp )
0 Dp
0
A B0
Initialisation : Pour p = 0, M = Ip = ( ) en posant B0 = 0r,s .
0
0 D0
Pour p = 1, B1 = B convient.

5
Hérédité : Soit p ∈ N et supposons HRp vériée.
Alors
Ap Bp A B Ap+1 Ap B + B p D Ap+1 Bp+1
M p+1 = M p M = ( )( )=( )=( )
HRp 0 Dp 0 D 0 D p+1
0 Dp+1
en posant Bp+1 = Ap B + Bp D. On a bien HRp+1 .
Ap Bp
Conclusion : D'où, par récurrence, pour tout p ∈ N, il existe Bp ∈ Mr,s (C) telle que M p = ( ).
0 Dp
A B
● Soit A ∈ {A(u)∣u ∈ A}. Alors il existe u ∈ A tel que M atB (u) = ( ).
0 D
Alors, d'après le premier point, pour tout p ∈ N,
p
A B Ap Bp
M atB (up ) = ( ) =( ).
0 D 0 Dp

Ap 0 B p0
Or u ∈ A, donc u est nilpotent, donc il existe p0 ∈ N tel que up0 = 0 et, par suite, 0 = ( ) , donc Ap0 = 0, donc
0 D p0
A est nilpotente.
● Pour tout (u, v) ∈ A pour tout λ ∈ C,

λA(u) + A(v) ∗
M atB (λu + v) = λM atB (u) + M atB (v) = ( ),
0 ∗

donc A(λu + v) = λA(u) + A(v).


ϕ ∶ u ∈ A ↦ A(u) ∈ Mr (C) est donc une application linéaire, donc {A(u)∣u ∈ A} = Im ϕ est un sous-espace vectoriel de
Mr (C).
A ∗
● Pour tout (A, B) ∈ ({A(u)∣u ∈ A})2 , il existe u et v ∈ A tels que A = A(u) et B = A(v), c'est-à-dire M atB (u) = ( )
0 ∗
B ∗
et M atB (v) = ( ).
0 ∗
Alors u ○ v ∈ A car A est une sous-algèbre de L(E) et

AB ∗
M atB (u ○ v) = M atB (u) × M atB (v) = ( ),
0 ∗

donc AB = A(u ○ v) ∈ {A(u)∣u ∈ A}.


{A(u)∣u ∈ A} est donc stable par produit.
● {A(u)∣u ∈ A} est donc bien une sous-algèbre de Mr (C) constituée de matrices nilpotentes.
● On montre de même que {D(u)∣u ∈ A} est une sous-algèbre de Ms (C) constituée de matrices nilpotentes.
34. ● {A(u)∣u ∈ A} est une sous-algèbre de Mr (C) dont tous les éléments sont nilpotents, donc, comme r ≤ n − 1,
{A(u)∣u ∈ A} est trigonalisable (version matricielle de l'hypothèse de récurrence), ie il existe P ∈ GLr (C) telle que pour
tout A ∈ {A(u)∣u ∈ A}, P −1 AP soit triangulaire supérieure.
● De même, il existe Q ∈ GLs (C) telle que pour tout D ∈ {D(u)∣u ∈ A}, P −1 DP soit triangulaire supérieure.
P 0
● Posons alors R = ( ) ∈ Mn (C).
0 Q
Comme det(R) = det(P ) det(Q) ≠ 0, R est inversible.
En voyant R comme une matrice de changement de base, et en posant donc C base de E telle que R = M atB (C), on a,
pour tout u ∈ A,

P −1 0 A(u) B(u) P 0
M atC (u) = R−1 M atB (u)R = ( )( )( )
0 Q−1 0 D(u) 0 Q
P −1 0 A(u)P B(u)Q
=( )( )
0 Q−1 0 D(u)Q
P −1 A(u)P P −1 B(u)Q
=( )
0 Q−1 D(u)Q

et cette dernière matrice est triangulaire supérieure car P −1 A(u)P et Q−1 D(u)Q le sont. On peut alors conclure la
propriété annoncée par récurrence...

35. Dans cette base C, les valeurs propres de u sont les éléments diagonaux de la matrice associée.
Or, comme il existe p tel que up = 0, si x est un vecteur propre de u associé à la valeur propre λ, alors

up (x) = up−1 (u(x)) = up−1 (λx) = λup−1 (x) = . . . = λp x,

donc, comme up = 0, on a λp x = 0, donc, comme x ≠ 0, on a λp = 0, donc λ = 0.


Par suite, les éléments diagonaux de la matrice associée à u dans la base C sont nuls, donc cette matrice triangulaire
est dans Tn+ (C).

6
V. Le théorème de Burnside

V.A - Recherche d'un élément de rang 1

Comme A est irréductible, A ≠ {0L(E) }, car tous les sous-espaces vectoriels de E seraient alors stable par tous les éléments
de A.
36. ● Soient x un élément non nul de E.
F = {u(x)∣u ∈ A} est un sous-espace vectoriel car A en est un. De plus, pour tout y ∈ F, il existe u ∈ A tel que y = u(x).
Alors, pour tout v ∈ A, v(y) = v ○ u (x) ∈ {f (x)∣f ∈ A} = F. F est donc stable par tous les éléments de A, donc F = {0}
±
∈A
ou F = E.
● Si F = {0}, alors, pour tout u ∈ A, u(x) = 0, donc Vect(x) est stable par tous les éléments de A, ce qui est exclu car
A est une sous-algèbre irréductible de L(E) et car Vect(x) ≠ {0} (car x ≠ 0).
● On a donc F = E, et, par suite, pour tout y ∈ E, il existe u ∈ A tel que u(x) = y.
37. ● Soit x et y dans E tels que la famille (v(x), v(y)) soit libre (x et y existent car rg(v) ≥ 2). D'après la question
précédente, comme v(x) ≠ 0, il existe u ∈ A tel que y = u(v(x)) = u ○ v(x).
● Considérons alors ϕ ∶ z ∈ Im (v) ↦ v ○ u(z) ∈ Im (v).
ϕ est un endomorphisme de Im (v), C espace vectoriel de dimension au moins 1, donc ϕ admet au moins une valeur propre
λ. (car son polynôme caractéristique, de degré au moins 1, admet au moins une racine sur C). Par suite, ϕ − λIdIm (v)
n'est pas injective, donc non surjective (endomorphisme en dimension nie), donc rg(ϕ) ≤ dim(Im (v)) − 1 = rg(v) − 1.
● Soit alors ψ = v ○ u ○ v − λv ∈ L(E).
Comme ψ = ϕ ○ v, rg(ψ) ≤ min(rg(ϕ), rg(v)) ≤ rg(v) − 1 et, comme ψ(x) = v ○ u ○ v(x) − λv(x) = v((u ○ v)(x)) − λv(x) =
v(y) − λv(x) ≠ 0 (car (v(x), v(y)) est une famille libre), donc rg(ψ) ≥ 1.
On a donc bien 0 < rg(v ○ u ○ v − λv) < rg(v).
38. Supposons qu'il n'existe pas d'élément de A de rang 1.
Posons alors r = min{rg(u), u ∈ A∖{0L(E) }}, qui existe comme minimum d'un ensemble ni non vide (car A ≠ {0L(E) }).
Soit alors v ∈ E tel que rg(v) = r. Alors, en prenant u comme dans la question précédente, v ○ u ○ v ∈ A comme composé
d'éléments de A, et v ○ u ○ v − λv ∈ A car A est un sous-espace vectoriel de L(E).
Or 0 < rg(v ○ u ○ v − λv) < rg(v) = r, ce qui est exclu.
D'où, par l'absurde, il existe v ∈ A tel que rg(v) = 1.

V.B - Conclusion

39. Comme u0 est de rang 1, et u0 (εk ) = 0 pour tout k ∈ [[2, n]], on a u0 (ε1 ) ≠ 0.
D'où, d'après la question 36, pour tout i ∈ [[2, n]], il existe vi ∈ A tel que vi (u0 (ε1 )) = εi . Alors ui = vi ○ u ∈ A car A est
stable par composition et

ui (ε1 ) = εi et ∀k ∈ [[2, n]], ui (εk ) = vi (u0 (εk )) = vi (0) = 0,

donc dim Im (ui ) = dim Vect(ui (εk )k∈[[1,n]] ) = dim Vect(ui (ε1 )) = 1, donc ui est de rang 1 et ui (ε1 ) = εi .
40. On construit maintenant des endomorphismes ui,j dans A dont les matrices dans B sont les Ei,j de la base canonique
de Mn (C).
On a déjà construit ui,1 = ui dans la question précédente.
 Notons (V1 , . . . , Vn ) la base canonique de Mn,1 (C) et

G = {x ∈ E ∶ ∀u ∈ A, V1T M atB (u)M atB (x) = 0} .

 G est un sous-espace vectoriel de E.


De plus, si x ∈ G, alors, pour tout v ∈ A, v(x) ∈ G car pour tout u ∈ A,

V1T M atB (u)M atB (v(x)) = V1T M atB (u)M atB (v)M atB (x) = V1T M atB (u ○ v) M atB (x) = 0.
´¹¹ ¹ ¹ ¸¹ ¹ ¹ ¹¶ car x ∈ G
∈A

Par suite, comme A est supposée irréductible, on a G = {0} ou G = E.


Supposons G = E. Soit alors ϕ ∶ x ∈ E ↦ V1T M atB (x) ∈ C. ϕ est une forme linéaire non nulle de L(E, C), donc
K = Ker ϕ = {x ∈ E ∶ V1T M atB (x) = 0} est un sous-espace vectoriel de E de dimension n − 1.
De plus, pour tout x ∈ K, pour tout u ∈ A, u(x) ∈ K car

V1T M atB (u(x)) = V1T M atB (u)M atB (x) = 0

car x ∈ E = G.
K est donc un sous-espace vectoriel non tirvial de E stable par A, ce qui est contraire au caractère irréductible de
A.
On a donc G = {0}.

7
 Soit à présent H = {(M atB (u))T V1 , u ∈ A} .
H est un sous-espace vectoriel de Mn,1 (C).
Si H ≠ Mn,1 (C), alors on note p = dim H < n et H = Vect(W1 , . . . , Wp ).
On choisit X ≠ 0 dans l'intersection d'hyperplans

Ker (W1T ) ∩ Ker (W2T ) ∩ . . . ∩ Ker (WpT )

qui est de dimension ≥ n − p > 0.


Alors, en prenant x ∈ E tel que X = M atB (x) = X, on a x ∈ G et x ≠ 0, ce qui est exclu.
D'où, par l'absurde, H = Mn,1 (C).
 Comme H = Mn,1 (C), pour tout j ∈ [[1, n]], il existe wj ∈ A tel que (M atB (wj ))T V1 = Vj .
On a alors Ei,j = Vi VjT = Vi V1T M atB (wj ) = Ei,1 M atB (wj ) = M atB (ui,1 wj ), où ui,1 wj ∈ A car A est stable par
composition.
 Posons alors, pour tout (i, j) ∈ [[1, n]]2 , ui,j = ui,1 wj .
(ui,j )(i,j)∈[[1,n]]2 est une base de L(E) car (M atB (ui,j ))(i,j)∈[[1,n]]2 = (Ei,j )(i,j)∈[[1,n]]2 est la base canonique de Mn (C).
Par suite, L(E) = Vect((ui,j )(i,j)∈[[1,n]]2 ) ⊂ A comme espace vectoriel engendré par des éléments de A.
L'inclusion réciproque étant évidente, on a bien l'égalité : A = L(E).

Vous aimerez peut-être aussi