0% ont trouvé ce document utile (0 vote)
10 vues91 pages

Algèbre

math

Transféré par

blayzy
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
10 vues91 pages

Algèbre

math

Transféré par

blayzy
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Partie 1

Algèbre
Algèbre
1 Structures algébriques usuelles 8
1.1 : Groupe engendré par deux éléments 8
1.2 : Centre du groupe symétrique 9
1.3 : Conjugaison 9
1.4 : Partie génératrice du groupe orthogonal 11

1.5 : Anneau Z[ 2] 13
1.6 : Groupe multiplicatif d’un corps fini 16
1.7 : Radical d’un idéal 17
1.8 : Une congruence 19
1.9 : Systèmes de congruences 20
1.10 : Application du théorème chinois 22
1.11 : Nombres de Fermat 23
1.12 : Codage RSA 25
1.13 : Polynôme et racines n-ièmes 26
1.14 : PGCD de P et P’ 27
1.15 : Exemple de polynôme irréductible 29
2 Réduction 31
2.1 : Éléments propres d’un endomorphisme d’un espace de polynômes 31
2.2 : Éléments propres d’un endomorphisme d’un espace de fonctions 33
2.3 : Réduction d’une matrice d’ordre 3 37
2.4 : Diagonalisation 39
2.5 : Trigonalisation 43
2.6 : Réduction d’une matrice à paramètres 47
2.7 : Diagonalisation simultanée 49
2.8 : Réduction des matrices de trace nulle 51
2.9 : Étude d’un endomorphisme d’un espace d’endomorphismes 54
2.10 : Réduction 56
2.11 : Diagonalisabilité et sous-espaces stables 60
2.12 : Une caractérisation des endomorphismes nilpotents 61
2.13 : Décomposition de Dunford 62
2.14 : Théorème de Cayley-Hamilton 67
3 Espaces euclidiens 74
3.1 : Famille de polynômes orthogonaux 74
3.2 : Une série de Fourier 77
3.3 : Un problème de minimisation 80
3.4 : Isométries matricielles 82
3.5 : Formes quadratiques 84
3.6 : Quotients de Rayleigh 87
3.7 : Matrices définies positives 88
3.8 : Décomposition polaire 90
3.9 : Connexité par arcs de SOn (R) 92
3.10 : Étude d’une rotation en dimension 3 94
CHAPITRE

Structures algébriques usuelles


1
Exercice 1.1 : Groupe engendré par deux éléments
   
1 0 0 0 0 1
Soient A =  0 0 1  et B =  1 0 0 .
0 1 0 0 1 0
Quel est le groupe engendré par A et B ?

Il s’agit d’éléments de M3 (R). La loi n’est pas précisée. Mais pour l’addition le groupe
engendré serait l’ensemble des matrices pA + qB avec p ∈ Z et q ∈ Z. Il n’y aurait
donc aucun problème : c’est le produit de matrices qu’il faut considérer. Le groupe
dans lequel on se place est celui des matrices carrées inversibles d’ordre 3.

Lorsqu’il s’agit de groupes usuels, les énoncés ne prendront générale-


ment pas la peine de préciser la loi utilisée. Lorsque deux lois sont
possibles, il faut étudier pour laquelle la question posée a le plus de
sens.

Le groupe engendré par A et B est le plus petit (au sens de l’inclusion) sous-groupe
contenant les deux matrices. Il est constitué par tous les produits possibles avec A, B
et leurs inverses. Remarquons que A et B sont bien inversibles puisque det A = −1
et det B = 1.

Le groupe G cherché contient


 A et B.Il contient aussi A2 = I3 , ce qui implique
0 1 0
que A−1 = A, B 2 =  0 0 1 , B 3 = I3 , ce qui implique que l’on a
1 0 0
B −1 = B 2 . On en déduit alors que pour tout n ∈ Z, An ∈ {I3 , A} et que pour
tout p ∈ Z, B p ∈ {I3 , B, B 2 }.  
0 0 1
Il reste à calculer les produits de A et de B. On a AB =  0 1 0  et
  1 0 0
0 1 0
BA =  1 0 0  = AB 2 . Ainsi tout élément de G peut s’écrire sous la
0 0 1
Algèbre 9

forme An B p , (n, p) ∈ Z2 (puisqu’on peut commuter A et B en augmentant la


puissance de B).
Avec la remarque plus haut, les éléments de G sont les An B p avec n ∈ {0, 1}
et p ∈ {0, 1, 2} et
G = {I3 , B, B 2 , A, AB, AB 2 }.

A et B sont des matrices associées à des permutations des vecteurs de


la base canonique (e1 , e2 , e3 ) : A est associée à la transposition τ2,3 , B
au cycle (1, 2, 3).
Ces deux permutations engendrent S3 , donc G est l’ensemble des six
matrices de permutation de la base (e1 , e2 , e3 ).

Exercice 1.2 : Centre du groupe symétrique

Démontrer que le centre du groupe symétrique Sn (c’est-à-dire l’ensemble des


éléments de Sn qui commutent avec tous les éléments de Sn ) est réduit à {Id}
pour n > 3.

Il faut bien se souvenir que la loi d’un groupe n’est pas, en général,
commutative !

Il est clair que Id commute avec tous les éléments de Sn , il faut donc montrer que si
une permutation σ commute avec tous les éléments de Sn , c’est l’identité. On raisonne
par l’absurde.

Supposons qu’il existe une permutation σ différente de l’identité appartenant


au centre de Sn . Il existe alors a 6= b tels que σ(a) = b.
Introduisons la transposition τa,b . On a alors : σ ◦ τa,b (b) = σ(a) = b. Comme
σ commute avec tout élément de Sn , on aussi : τa,b ◦ σ(b) = b d’où σ(b) = a.
Introduisons le cycle ca,b,c , avec c distinct de a et b, ce qui est possible car
n > 3. On a :
σ ◦ ca,b,c (a) = σ(b) = a et ca,b,c ◦ σ(a) = ca,b,c (b) = c.
On obtient une contradiction, donc le centre de Sn est inclus dans {Id}. L’in-
clusion réciproque étant claire, on a le résultat voulu.
10 Chapitre 1 Structures algébriques usuelles

Exercice 1.3 : Conjugaison

Soit G un groupe. Pour a ∈ G, on note fa : G → G, x 7→ a−1 x a.


1. Montrer que pour tout a ∈ G, fa est un automorphisme de G.
2. Montrer que ϕ : G →Aut(G), a 7→ fa est un morphisme de groupes.
3. Déterminer le noyau de ϕ.

1. La loi du groupe G n’est pas précisée, mais vu la définition de fa , elle est notée
comme une multiplication.
Pour a ∈ G, il faut montrer, d’une part que fa est un morphisme de groupes, d’autre
part qu’il est bijectif. Pour le premier point, on vérifie la définition, pour le second on
choisit ici de résoudre l’équation fa (x) = y.

Soit a ∈ G. Pour (x, y) ∈ G2 , on a


fa (x) fa (y) = (a−1 x a) (a−1 y a) = (a−1 x) (a−1 a) (y a) = a−1 x y a = fa (x y)
par associativité de la multiplication dans G. Ainsi fa est un endomorphisme du
groupe G.
Soit y ∈ G, l’équation fa (x) = y, d’inconnue x ∈ G, équivaut à a−1 x a = y,
si et seulement si a (a−1 x a) = a y, i.e. x a = a y, i.e. (x a) a−1 = a y a−1 , i.e.
x = a y a−1 . On a donc une unique solution, et fa est une bijection de G dans
G. Ainsi fa est un automorphisme du groupe G.

2. La loi du groupe Aut(G) est la loi ◦. Il faut donc montrer que pour (a, b) ∈ G2 ,
ϕ(a b) = ϕ(a) ◦ ϕ(b), c’est-à-dire fa b = fa ◦ fb .

Ici ϕ est une fonction qui renvoie des fonctions. Il faut bien faire atten-
tion au type des objets manipulés, et ne pas confondre argument de ϕ
ou argument de fa .

Soit (a, b) ∈ G2 . Pour x ∈ G, on a


(fa ◦fb )(x) = fa (fb (x)) = fa (b−1 x b) = a−1 b−1 x a b = (a b)−1 x a b = fa b (x).
Ainsi fa ◦ fb = fa b , puis ϕ(a b) = ϕ(a) ◦ ϕ(b). ϕ est donc un morphisme de
groupes.

3. Le noyau de ϕ est l’ensemble des éléments de G qui sont envoyés sur le neutre de
Aut(G), ici IdG . On cherche donc les a ∈ G tel que ϕ(a) = IdG .
Algèbre 11

Le neutre n’est pas toujours le même dans tous les groupes, il faut donc
faire attention au neutre du groupe d’arrivée lors d’un calcul de noyau.

Pour a ∈ G, on a a ∈ Ker ϕ si et seulement si ϕ(a) = IdG , c’est-à-dire


fa = IdG . a ∈ Ker ϕ est donc équivalent à ∀x ∈ G, a−1 x a = x i.e. x a = a x.
Ainsi Ker ϕ est le centre de G, c’est-à-dire l’ensemble des éléments a de G qui
commutent avec tous les éléments de G.

Exercice 1.4 : Partie génératrice du groupe orthogonal

Soit E un espace euclidien.


1. Soit a et b deux vecteurs distincts de E de même norme. Démontrer qu’il
existe une unique réflexion s de E telle que s(a) = b et s(b) = a.
2. Montrer que O(E) est engendré par les réflexions.
On pourra montrer par récurrence sur dim(E) − dim(Ker(f − IdE )) que f peut
s’écrire comme composée de réflexions.

O(E) est le groupe des endomorphismes orthogonaux de E, c’est-à-dire les endomor-


phismes qui conservent le produit scalaire et la norme.
En première année, on a vu le cas n = 2. À cette occasion, il a été démontré que le
groupe orthogonal du plan est engendré par les réflexions. C’est cette propriété que
l’on va généraliser.

1. Pour montrer l’existence et l’unicité, on va raisonner par analyse/synthèse : comme


il est nécessaire d’avoir s(a − b) = s(a) − s(b) = b − a = −(a − b), ceci impose que
l’hyperplan de la réflexion soit (a − b)⊥ .
I Analyse :
On suppose avoir une réflexion qui convient, et à partir des propriétés qu’elle vérifie,
on obtient ses éléments caractéristiques.

Supposons avoir une réflexion s qui échange a et b.


On a alors a − b ∈ Ker(s + IdE ). Or s est une réflexion donc Ker(s + IdE )
est une droite et son orthogonal est Ker(s − IdE ) qui est de dimension n − 1.
Ainsi, s est nécessairement la réflexion par rapport à l’hyperplan (a − b)⊥ , et
on a l’unicité.
I Synthèse :
On pose la forme trouvée à la fin de l’analyse, et on vérifie qu’elle convient bien.

Comme a = 6 b, on a a − b 6= 0. L’orthogonal du vecteur a − b est donc un


hyperplan H. Soit s la réflexion par rapport à H. Alors s(a − b) = −(a − b)
12 Chapitre 1 Structures algébriques usuelles

donc s(a) − s(b) = b − a. Par ailleurs,


ha − b|a + bi = ha|ai − hb|ai + ha|bi − hb|bi
= ha|ai − hb|bi
car ha|bi = hb|ai (le produit scalaire est symétrique).
Comme a et b sont de même norme, ha|ai = hb|bi, donc a − b et a + b sont
orthogonaux ; ainsi, a + b ∈ H et s(a + b) = a + b, soit s(a) + s(b) = a + b.
On en déduit s(a) = b et s(b) = a et on a l’existence.

2. Comme donné en indication, on raisonne par récurrence sur l’entier


k = dim(E) − dim(Ker(f − IdE )).
L’initialisation correspond donc au cas où Ker(f − IdE ) = E, soit f = IdE , ce qui est
facile. Pour l’hérédité, on doit donc trouver, à partir de f , une fonction g telle que
Ker(g − IdE ) soit strictement plus grand que Ker(f − IdE ). Pour utiliser la question 1,
on pense alors à échanger a et f (a), si a est un vecteur qui n’est pas dans Ker(f −IdE ).
On a une réflexion s qui fait ceci, et on va regarder la fonction g = s ◦ f .
Cependant, pour que g conserve les invariants de f , il faut que a soit orthogonal à
Ker(f − IdE ).

En algèbre linéaire, le complémentaire d’un espace vectoriel n’a aucun


intérêt : ce n’est jamais un espace vectoriel. Il faut donc considérer un
supplémentaire (voire le supplémentaire orthogonal dans le cas eucli-
dien).

On note n = dim(E). Montrons par récurrence sur k ∈ {0, . . . , n} la propriété


Hk : « Si f ∈ O(E) vérifie dim(Ker(f − IdE )) = n − k, alors f est composée
de réflexions. »
• Soit f ∈ O(E) tel que dim(Ker(f − IdE )) = n. Alors Ker(f − IdE ) = E
donc f = Id. f s’écrit donc s ◦ s pour n’importe quelle réflexion s, et on a
H0 .
• Soit k ∈ {0, . . . , n − 1} tel que Hl est vraie pour tous les l entre 0 et k. Soit
f ∈ O(E) tel que dim(Ker(f − IdE )) = n − k − 1. Alors Ker(f − IdE ) = 6 E
donc [Ker(f −IdE )]⊥ 6= {0}, et on a a ∈ [Ker(f −IdE )]⊥ tel que f (a) 6= a.
Notons b = f (a). Alors a = 6 b par définition de a et a et b ont même norme
car b = f (a) et f est orthogonal. Ainsi, il existe une réflexion s de E telle
que s(a) = b et s(b) = a, c’est la réflexion par rapport à (a − b)⊥ comme
vu au 1. On a donc (s ◦ f )(a) = a.
Si x ∈ Ker(f − IdE ), on a hx|ai = 0 donc hx|bi = hf (x)|f (a)i = 0 ; par
suite hx|a − bi = 0 et donc s(x) = x et s ◦ f (x) = x. Ainsi, Ker(s ◦ f − IdE )
est un sous-espace vectoriel de E qui contient Ker(f − IdE ). Cette inclusion
est stricte puisque Ker(s ◦ f − IdE ) contient aussi a, qui n’est pas dans
Ker(f − IdE ). Ainsi dim(Ker(s ◦ f − IdE )) = n − l avec l 6 k.
Algèbre 13

Par hypothèse de récurrence, on peut donc écrire s ◦ f comme composée de


réflexions : s◦f = r1 ◦. . .◦rt , et alors f = s◦r1 ◦. . .◦rt peut s’écrire comme
composée de réflexions, donc on a Hk+1 , ce qui conclut la récurrence.


Exercice 1.5 : Anneau Z[ 2]

1. Soit P = Z ∪ { 2}. Montrer que le sous-anneau de R engendré par P est :

A = {m + n 2 ; (m, n) ∈ Z2 }.
Comme pour les groupes, il s’agit du plus petit sous-anneau de R contenant P .
On note U le groupe des √ éléments inversibles de A .
2. On pose N m + n 2 = m2 − 2n2 . Pour a et b éléments de A, calculer
N (ab). Montrer que z ∈ U si, et√seulement si, N (z) = 1.
3. Soit z ∈ U tel que z = x + y√ 2 avec x et y ∈√N, x 6= 0. Montrer qu’il√existe
un unique n ∈ N tel que (1√+ 2)n 6 z < (1 + 2)n+1 , puis que z(1 + 2)−n
0 0 0 0
 + y 2√avec x et y ∈ N.
s’écrit sous la forme x
4. Montrer que U = ± (1 + 2)n ; n ∈ Z .

1. Comme toujours il faut montrer deux inclusions pour avoir l’égalité √ d’ensembles
voulue. Tout d’abord, le sous-anneau de R engendré par P contient Z et 2. Il contient
donc
√ toutes les sommes, et leurs opposées, que√ l’on peut obtenir à partir de 1 et de
2, c’est-à-dire tous les réels du type m + n 2 avec m ∈ Z et n ∈ Z.

Notons B le sous-anneau de R engendré par P . Alors 1 ∈ B et 2 ∈ B. Pour
(m, n) ∈ Z2√ , m est la puissance m-ième de√1 pour la loi +, donc est dans B.
De même n 2 est √ la puissance n-ième de 2 pour la loi +, donc est dans B.
Par suite m + n 2 ∈ B et A ⊂ B.
Pour montrer l’inclusion réciproque, il suffit de montrer que A est un sous-anneau de
R contenant P . Par minimalité de B, on aura alors B ⊂ A.
√ √
Soient a = m1 + n1 2 et b = m2 + n2 2 avec (m1 , n1 , m2 , n2 ) ∈ Z4 .
D’une part : √
a − b = (m1 − m2 ) + (n1 − n2 ) 2 ∈ A
car m1 − n1 ∈ Z et m2 − n2 ∈ Z.
D’autre part :

ab = (m1 m2 + 2n1 n2 ) + 2(n1 m2 + m1 n2 ) ∈ A
car m1 m2 + 2n1 n2 √ ∈ Z et n1 m2 + m1 n2 ∈ Z.
Enfin, 1 = 1 + 0 × 2 ∈ A, donc A est un sous-annneau de R. Comme P est
clairement inclus dans A, et comme B est le plus petit (au sens de l’inclusion)
sous-anneau de R contenant P , on a B ⊂ A.
Ainsi, on a l’égalité cherchée.
14 Chapitre 1 Structures algébriques usuelles

Il faut vérifier que le neutre pour la multiplication est bien dans A,


puisqu’on ne peut pas le déduire des propriétés de stabilité.

2. Cette question a pour objectif de caractériser les éléments de U .


√ √
Soit a = m1 + n1 2 ∈ A et b = √m2 + n2 2 ∈ A.
On a ab = (m1 m2 + 2n1 n2 ) + 2(n1 m2 + m1 n2 ), ce qui entraîne :
N (ab) = (m1 m2 + 2n1 n2 )2 − 2(n1 m2 + m1 n2 )2
= m21 m22 + 4n21 n22 − 2n21 m22 − 2m21 n22

Ce calcul n’a pas beaucoup d’intérêt si on s’arrête là. Soyons optimiste : calculons
N (a)N (b) en espérant découvrir quelque chose.

Par ailleurs :
N (a)N (b) = (m21 − 2n21 )(m22 − 2n22 )
= m21 m22 + 4n21 n22 − 2n21 m22 − 2m21 n22
= N (ab).

Le sens facile est celui où l’on suppose z ∈ U , puisqu’on peut alors utiliser son inverse ;
l’autre implication nécessite de prouver l’existence de cet inverse, ce qui est a priori
plus difficile.

Supposons z ∈ U . Il existe donc z 0 ∈ U tel que zz 0 = 1. D’après ce qu’on vient


d’obtenir, on en déduit que N (z)N (z 0 ) = N (1) = 1. Comme N (z) et N (z 0 )
appartiennent à N∗ , on conclut que N (z) = 1.
Passons à la réciproque : pour z ∈ A tel que N (z) = 1, on cherche z 0 ∈ A tel que
zz 0 = 1.

Réciproquement, considérons z = m√ + n 2 ∈√
A avec N (z) = 1.
Remarquons d’abord que : (m + n 2)(m − n 2) = m2 − 2n2 .
Comme N (z) = m2 − 2n2 = 1, z est inversible : selon que m2 − 2n2 est égal
√ √
à 1 ou −1, son inverse est m − n 2 ou −m + n 2.
z appartient donc bien à U .

On remarque l’analogie des formules, propriétés et démonstrations avec


les calculs dans C utilisant le module.

3. Pour avoir l’existence et l’unicité de n, on se ramène à un encadrement de définition


de partie entière.
Algèbre 15

√ n √
Pour n ∈ N, on a (1 + 2) 6 z < (1 + 2)n+1 si et seulement si
√ √
n ln(1 + 2) 6 ln(z) < (n + 1) ln(1 + 2)
par stricte
√ croissante de ln, ln(z) étant bien défini puisque z > x > 1. Comme
ln(1 + 2) > 0, ceci équivaut à
ln(z)
n6 √ <n+1
ln(1 + 2)
donc n existe et est unique par définition de la partie entière.

Pour la seconde partie de la question, on commence par montrer que z(1 + 2)−n √ est
0 0
de la forme cherchée avec x et y dans Z. Ceci vient de l’inversibilité de (1 + 2)n .
On manipule ensuite les inégalités pour avoir x0 et y 0 > 0.
√ √ √
Comme N ((1 + 2)n ) = N (1 + 2)n = 1, (1 + 2)n est un élément inversible
de A. On peut donc poser :

x+y 2 √
√ = x0 + y 0 2 avec x0 ∈ Z et y 0 ∈ Z
(1 + 2) n

et on a :
√ √ √
N (x0 + y 0 2) = 1 = x02 − 2y 02 = x0 + y 0 2 × x0 − y 0 2
On a nécessairement x0 6= 0 (sinon 2(y 0 )2 = 1 mais 1 est impair).
Supposons y 0 6= 0 ; x0 et y 0 sont alors de même signe. En effet, supposons-les de
signe distinct, par exemple x0 > 0 et y 0 6 0 pour fixer les idées. Comme x0 = 6 0,
x0 > 1. Alors on a : √ √
1 6 x0 + y 0 2 < x0 − y 0 2
qui entraîne x02 − 2y 02 > 1... absurde !
Par suite x0 et y 0 sont positifs, quitte à changer x0 et y 0 en leurs opposés.

4. On doit montrer deux inclusions pour cette égalité d’ensembles. L’inclusion simple

est celle qui consiste à vérifier que tout nombre élément de A de la forme ±(1 + 2)n
est inversible, ce qui est facile en utilisant N (qui est un morphisme de groupes par
le 2).
√  √ n
Si z = ±(1 + 2)n avec n ∈ Z, on a N (z) = N (1 + 2) = 1 ; z appartient
donc à U .
Pour la réciproque, on utilise la question précédente.

Réciproquement, soit z = x + y 2 ∈ U , ce qui est équivalent à x2 − 2y 2 = 1.

Les éléments ±x ± y 2 vérifient cette équation, et sont aussi inversibles. On
peut donc suppposer x > 0 et y > 0.
Notons n, x0 et y 0 les entiers donnés par la question précédente. On a alors

x+y 2 √ √
16 √ = x0 + y 0 2 < 1 + 2.
(1 + 2) n
16 Chapitre 1 Structures algébriques usuelles

√ √
On a donc y 0 = 0 et x0 = 1 et on obtient : z√= x + y 2 =√(1 + 2)n . √
Les autres cas possibles sur z donnent −(1+ 2)n , ou x−y 2 = ±(1+ 2)−n .
z est donc toujours de la forme annoncée.

Exercice 1.6 : Groupe multiplicatif d’un corps fini

Soit G un groupe fini de neutre e. On note m le ppcm des ordres des éléments
αd
de G et m = pα 1 · · · pd sa décomposition en facteurs premiers.
1

1. Montrer que pour i entre 1 et d, G admet un élément d’ordre pα i


i (on pourra
αi
commencer par chercher un élément dont l’ordre est divisible par pi ).
2. Montrer que G admet un élément d’ordre m.
3. Soit K un corps fini, montrer que (K∗ , ×) est cyclique. On admettra que tout
polynôme à coefficients dans K a moins de racines que son degré, et on pourra
considérer le polynôme X m − 1.

1. En suivant l’indication, il faut commencer par trouver un élément dans G dont


l’ordre est divisible par pα i
i . Pour ce faire, on raisonne par l’absurde : si aucun élément
dans G n’a d’ordre divisant pα i
i alors on va réussir à trouver un multiple commun plus
petit que m.

Soit i ∈ {1, . . . , d}. Supposons que l’ordre de tout élément de G ne soit pas
divisible par pα
i . Si x ∈ G, l’ordre n de x divise m, donc a une décomposition
i

en facteurs premiers de la forme pβ1 1 · · · pβd d , avec, pour k entre 1 et d, βk 6 αk .


Comme x n’est pas divisible par pα i , βi 6 αi − 1. Ainsi n divise l’entier
i

αi−1 αi −1 α
q = pα
1 · · · pi−1 pi
1 i+1
pi+1 · · · pα
d .
d

Ceci vaut pour tout x dans G, donc les ordres de tous les éléments de G divisent
q < m... absurde, puisque m est le ppcm de ces ordres ! Ainsi on a x ∈ G tel
que pαi divise n, l’ordre de x.
i

Dans un deuxième temps, on va utiliser x pour construire un élément d’ordre pαi


i .
αi αi
Comme pi divise n, on a k ∈ N tel que n = pi k. On a alors
αi αi
e = x n = x pi k
= (xk )pi ,
ce qui encourage à regarder xk .
αi αi
Notons k = n p−α
i
i
et posons y = xk . Alors y pi = xkpi = xn = e. Pour
αi
6 e. Ainsi pα
l < pi − 1, on a kl < n − 1, donc xk l 6= e i.e. y l = i est l’ordre de
i

y dans G.

Il ne faut pas oublier que pour prouver que y est d’ordre d, il faut
montrer que y d = e et y l 6= e pour tout l entre 1 et d − 1.
Algèbre 17

2. Notons xi un élément de G d’ordre pα αi


i . Comme les pi sont deux à deux premiers
i

entre eux, pour avoir un élément d’ordre m, on regarde le produit des xi . Pour démon-
trer que ce x est d’ordre m, la méthode reste la même : il faut montrer que xm = e
et que pour tous les k < m − 1, xk 6= e.

Pour tout i entre 1 et d, on a xi un élément d’ordre pα i dans G d’après la


i

question précédente. Posons x = x1 . . . xd . Pour i ∈ {1, . . . , d}, notons alors


mi = n p−α
i
i
, alors (comme G est abélien)
d d α
d
p i
Y Y Y
m
x = xm
i = (xi i )mi = emi = e.
i=1 i=1 i=1
Si k < m − 1, on a i entre 1 et d tel que k ne soit pas divisible par pα i . Alors
i

α1 αi−1 αi −1 αi+1 αd
k divise q = p1 . . . pi−1 pi pi+1 . . . pd .
Pour j 6= i, on a comme plus haut xqj = e, mais xqi = 6 e, sinon q serait divisible
q
par pα
i
i
(qui est l’ordre de x i ). On a donc x q
= xi 6= e. Comme k divise q, si
q
k q k k k
x = e, x = (x ) = e. Ainsi x 6= e et x est d’ordre m

3. Pour montrer que K∗ est cyclique, il faut montrer que K∗ a un élément d’ordre n−1
(si n est le cardinal de K). Comme K∗ est un groupe abélien pour la multiplication,
on considère le ppcm des ordres des éléments de K∗ d’après la question précédente.
En termes de polynômes, tous les éléments de K∗ vont donc être racines de X m − 1.
On utilise donc le lien entre nombres de racines et degré (donné en indication).

Soit m le ppcm des ordres des éléments de K∗ . Comme tout élément de K∗ est
d’ordre divisant n − 1 (par le théorème de Lagrange), m divise n − 1. On a donc
m 6 n − 1.
D’autre part, le polynôme X m − 1 a pour racines tous les éléments de K∗
(puisque tout élément de K∗ a un ordre divisant m). Il a donc n − 1 racines,
donc n − 1 est plus petit que m, le degré de ce polynôme.
Ainsi m = n − 1, et comme K∗ a un élément d’ordre m d’après la question
précédente, il est cyclique.

Exercice 1.7 : Radical d’un idéal

Soit A√ un anneau commutatif et I un idéal de A. On appelle radical nde I, et on


note I, l’ensemble √ des x ∈ A pour lesquels il existe n ∈ N tel que x ∈ I.
1. Démontrer que pI est un idéal de A.
√ √
2. Démontrer que I = I.
3. Si I et J sont deux idéaux de A, démontrer que :
√ √ √ √ √ √
I ∩ J = I ∩ J et I + J ⊃ I + J.

4. Dans Z, trouver 3 648 Z.

Rappelons la définition d’un idéal I d’un anneau commutatif A :


18 Chapitre 1 Structures algébriques usuelles

– pour l’addition, c’est un sous-groupe ;


– pour la multiplication, pour tous x ∈ I et a ∈ A, on a xa ∈ I.

1. On commence par vérifier que I est un sous-groupe de A pour l’addition.

I√6= ∅, puisqu’il contient 0A . Considérons
√ deux éléments quelconques x et y
de I, et montrons que x − y ∈ I. Il existe alors des entiers m et n tels que
xn ∈ I et y m ∈ I.
Dans l’anneau commutatif A, nous pouvons utiliser la formule du binôme :
n+m  
X n + m k n+m−k
(x − y)n+m = (−1)n+m−k x y .
k
k=0
Nous allons prouver que cette somme appartient à I en prouvant que tous les
termes sont dans I car I est stable pour l’addition.

Il faut faire attention à ne pas introduire une puissance négative car x


et y ne sont pas supposés inversibles.

• D’une part, pour 0 6 k 6 n, on a xk y n+m−k = y m (xk y n−k ) ∈ I, car


y m ∈ I.
• D’autre part, si n 6 k 6 n + m, on a xk y n+m−k = xn (xk−n y n+m−k ) ∈ I,
car xn ∈ I.
Comme I est un sous-groupe pour l’addition, la somme de termes qui appar-
tiennent tous à I appartient
√ aussi à I. On a donc (x − y)n+m ∈ I, ce qui
démontre que x − y ∈ I.
On vérifie ensuite la propriété du produit, qui est assez simple.

Soit x ∈ I et a ∈ A ; alors (xa)n = xn an car l’anneau √
est commutatif.
Comme xn ∈ I,√on a (xa)n ∈ I ce qui signifie que xa ∈ I.
En conclusion, I est un idéal de A.

2. On doit montrer une égalité d’ensembles, il faut donc faire les deux inclusions. On
commence par remarquer que l’une des inclusions est bien plus générale.

D’une
√ façon générale, si I √et J sont deux idéaux de A tels que I ⊂ J, alors

I ⊂ J. En effet, si x ∈ I, il existe un entier n tel quepxn ∈ I, donc xn ∈ J
√ √ √
si I ⊂ J. Comme I ⊂ I, on en déduit donc que I ⊂ I.
L’autre inclusion s’obtient en utilisant directement la définition du radical.
Algèbre 19

p√ √
Réciproquement, soit x ∈ I. Il existe alors un entier p tel que xp ∈ I.
Dans ce cas, il existe aussi un entier n tel que (xp )n ∈ I. On a donc xnp ∈ I,
soit x ∈ I. p√ √
En conclusion, ces deux inclusions montrent que I = I.

3. On procède de même, en réutilisant la remarque sur les inclusions de radicaux.

√ √ √ √
• De I √
∩ J ⊂ I et√I ∩ J√⊂ J, on déduit que I ∩ J ⊂ I et I ∩ J ⊂ J,
d’où I ∩ J ⊂ I ∩ J.
√ √
• Soit x ∈ I ∩ J. Il existe donc deux entiers m et n tels que xm ∈ I et
xn ∈ J. D’après la définition d’un idéal, on en déduit que xm xn√appartient
à I et à J. On a alors xm+n ∈ I ∩ J. x est donc un élément de I ∩ J, ce
qui démontre : √ √ √
I ∩ J ⊂ I ∩ J.
√ √ √
Des deux inclusions précédentes on tire I ∩ J = I ∩ J.
La dernière inclusion s’obtient en appliquant le radical aux inclusions que l’on connait :
I ⊂ I + J et J ⊂ I + J.

On a I ⊂ I + J et J√⊂ I +
√ J car les √
sous-groupes
√ additifs√I et √
J contiennent

0. Par conséquent
√ : I ⊂ I + J et J ⊂ I + J, puis I + J ⊂ I + J
puisque I + J est un idéal, donc stable pour l’addition.

4. Nous allons introduire la décomposition en facteurs premiers de 3 648 : en effet,


pour qu’il existe une puissance de x divisble par 3 648, il faut et il suffit que x soit
divisible par les facteurs premiers de 3 648.

Dans Z, 3 648 Z est constitué par les x ∈ Z tels qu’il existe une puissance
xn qui soit multiple de 3 648.
La décomposition de 3 648 en facteurs premiers est : 3 648 = 26 × 3 × 19.
Pour qu’une puissance de x soit divisible par ces facteurs, il faut, et il suffit que
√ par 2 × 3 × 19 = 114.
x soit divisible
On a donc : 3 648 Z = 114 Z.

Exercice 1.8 : Une congruence

Pour n entier naturel écrit en base dix, on désigne par f (n) la somme des chiffres
de n. Calculer f ◦ f ◦ f (N ) avec N = 20112012 .

10 est congru à 1 modulo 9, et il en est de même de toutes ses puissances. Il s’agit


donc d’un calcul dans Z/9Z, suivi d’un encadrement pour obtenir un résultat unique.
20 Chapitre 1 Structures algébriques usuelles

Si l’écriture de n en base dix est : n = ak . . . a1 a0 , cela signifie que :


n = a0 + a1 × 10 + · · · + ak × 10k .
Si l’on se place dans Z/9Z, on peut écrire l’égalité des classes :
k
n = a0 + a1 × 10 + · · · + ak × 10 = a0 + a1 + · · · + ak = f (n)
puisque 10 = 1.
Nous allons déterminer N dans Z/9Z.
Tout d’abord : 2011 = 2 + 1 + 1 = 4.
Écrivons maintenant les puissances successives de 4 jusqu’à l’obtention de 1
pour trouver l’ordre de 4.
(4)2 = 42 = 16 = 7
(4)3 = 42 × 4 = 7 × 4 = 7 × 4 = 28 = 1.
Écrivons l’égalité de division euclidienne de l’exposant de N par l’ordre de 4 :
2012 = 3 × 670 + 2.
On a donc :
 670
2012 3×670+2 3 2 2
N = 2011 =4 = 4 ×4 =4
= 7.
Si N est congru à 7 modulo 9, il en est de même de f (N ), de f ◦ f (N ) et de
f ◦ f ◦ f (N ). Ces nombres sont donc du type 7 + 9k avec k ∈ N. Nous allons
les localiser de sorte qu’il ne reste qu’une seule valeur de k pour f ◦ f ◦ f (N ).

À elle seule, une congruence ne peut se transformer en égalité ; il faut


un encadrement plus précis.

En majorant grossièrement, on a : 20112012 < 10 0002500 = 1010 000 .


N a donc moins de 10 000 chiffres, et on a : f (N ) < 9 × 10 000.
Le nombre inférieur à 90 000 dont la somme des chiffres est la plus grande est
89 999 ; par conséquent : f ◦ f (N ) < 44.
Le nombre inférieur à 44 dont la somme des chiffres est la plus grande est 39 ;
par conséquent : f ◦ f ◦ f (N ) < 12.
Un seul entier du type 7 + 9k avec k ∈ N vérifie cette majoration, l’entier 7,
obtenu pour k = 0. On a donc f ◦ f ◦ f (N ) = 7.

Avec un logiciel de calcul, on obtient successivement : f (N ) = 29 950.


On en déduit : f ◦ f (N ) = 25 et enfin f ◦ f ◦ f (N ) = 7.
Algèbre 21

Exercice 1.9 : Systèmes de congruences

1. Résoudre dans Z/5Z l’équation : 3x + 2 = −1.


2. Résoudre le système de congruence suivant

3x + 2 ≡ −1 [5]
3x − 1 ≡ 3 [7]
3. Résoudre le système de congruence suivant

5x + 2y ≡ 3 [6]
2x + 4y ≡ 1 [5]

Dans un anneau, si vous voulez diviser par un élément, il s’agit en fait de multiplier
par son inverse, s’il existe.
Dans Z/nZ, un élément p est inversible si, et seulement si, n et p sont premiers entre
eux.

1. La rédaction de l’énoncé conduit à chercher x comme élément de Z/5Z.

Comme 5 est un nombre premier, Z/5Z est un corps, donc tout élément non
nul est inversible.
Diviser par 3, c’est multiplier par son inverse qui est égal à 2 puisque 3 × 2 = 1.
L’équation est donc équivalente à :
x + 4 = −2 = 3
d’où : x = 3 − 4 = −1 = 4.

2. La question précédente montre que la première équation équivaut à x ≡ 4 [5]. On


résout la séconde équation comme dans la question précédente, en travaillant cette
fois dans Z/7Z.

Comme 7 est un nombre premier, Z/7Z est un corps, donc tout élément non
nul est inversible. Diviser par 3, c’est multiplier par son inverse qui est égal à 5
puisque 3 × 5 = 1.
L’équation est donc équivalente à :
3x = 4 i.e. x = 20 = 6
Au final le système à résoudre équivaut à

x ≡ 4 [5]
x ≡ 6 [7]

x ≡ a [m]
Lorsqu’on a à résoudre un système de la forme avec (a, b) ∈ Z2 , m et
x ≡ b [n]
n deux entiers premiers entre eux, on sait d’après le théorème des restes chinois qu’il
existe au moins une solution x ∈ Z, unique modulo mn.
22 Chapitre 1 Structures algébriques usuelles

Si l’on trouve une solution particulière x0 , les solutions sont donc les x0 + kmn,
k ∈ Z. Pour trouver une solution particulière x0 , on part d’une relation de Bezout
mu + nv = 1 (avec (u, v) ∈ Z). On a alors c = mu qui vérifie c ≡ 0 [m] et c ≡ 1 [n],
pendant que d = nv vérifie d ≡ 1 [m] et d ≡ 0 [n]. Ainsi x0 = ad + bc est une solution
particulière.
Dans notre cas particulier, on commence par trouver une relation de Bezout entre
5 et 7 (à tâtons ou en appliquant l’algorithme d’Euclide étendu) puis on trouve une
solution particulière avec la méthode ci-dessus.

Comme 5 et 7 sont premiers entre eux, le système admet au moins une solution
x ∈ Z, unique modulo 35, par le théorème des restes chinois.
3 × 5 − 2 × 7 = 1 est une relation de Bezout évidente entre 5 et 7 donc c = 15
vérifie c ≡ 1 [7] et c ≡ 0 [5], d = −14 vérifie d ≡ 0 [7] et d ≡ 1 [5]. Par suite
x0 = 4d + 6c = −56 + 90 = 34 est solution du système.
Les solutions du système sont les 34 + 35k, k ∈ Z.

3. Les deux conditions conduisent à des calculs simultanés dans des anneaux différents.
Il est préférable de chercher les entiers x et y plutôt que leurs classes.

Dans Z/6Z, la première équation peut s’écrire : 5 x + 2 y = 3. En multipliant


par 5, cette équation devient :
x + 4y = 3
soit
x = 2y + 3
ou encore : x = 2y + 3 + 6k avec k ∈ Z.
Reportons cette expression dans la seconde équation :
3y + 2k ≡ 0 [5]
puis y ≡ k [5] en effectuant des calculs dans Z/5Z. On obtient donc (en
reportant la valeur de y dans l’expression qui donne x) :
x = 3 + 8k + 10k 0
y = k + 5k 0
avec k ∈ Z et k 0 ∈ Z.

Exercice 1.10 : Application du théorème chinois

Soit p et q deux entiers. Montrer que le groupe produit Z/pZ × Z/qZ est cyclique
si et seulement si p et q sont premiers entre eux.
Algèbre 23

Aucune loi n’est précisée dans l’énoncé, mais Z/pZ, Z/qZ et Z/pqZ ne
sont des groupes que pour la loi +.

Pour démontrer une équivalence, il faut montrer les deux implications. Si p et q sont
premiers entre eux, on pense au théorème chinois.

L’appelation « théorème chinois » vient du fait que les chinois de la


Haute Antiquité utilisaient ce résultat en astronomie : étant donnés
deux astres dont les durées de révolution et les positions sont connues, le
temps qu’ils mettront à retrouver la même position s’obtient en utilisant
ce lemme.

Supposons p et q premiers entre eux. D’après le théorème chinois, Z/pZ × Z/qZ


est isomorphe (en tant qu’anneau, donc en tant que groupe pour la loi +)
à Z/pqZ. Notons ϕ : Z/pqZ → Z/pZ × Z/qZ un tel isomorphisme. Pour
(a, b) ∈ Z/pZ × Z/qZ, on a un unique x ∈ Z/pqZ tel que ϕ(x) = (a, b).
Notons n un représentant de x, alors
(a, b) = ϕ(x) = ϕ(n1) = nϕ(1)
et Z/pZ × Z/qZ est cyclique, engendré par ϕ(1).
Pour démontrer l’autre implication, il est préférable de démontrer sa contraposée ;
c’est-à-dire que, si p et q ne sont pas premiers entre eux, alors Z/pZ × Z/qZ, n’est
pas cyclique.

Supposons que p et q ne sont pas premiers entre eux. Notons d > 1 leur pgcd
et m leur ppcm. Puisque |pq| = md, on a alors m < pq.
Pour tout couple (x, y) de Z/pZ × Z/qZ, on a m(x, y) = (mx, my) = (0, 0)
puisque p divise mx et q divise my.
Le sous-groupe engendré par (x, y) a un cardinal inférieur ou égal m. Comme
m < pq, il ne peut pas être égal à Z/pZ × Z/qZ, qui n’est donc pas cyclique.

Ceci montre en particulier que le théorème chinois est faux si p et q ne


sont pas premiers entre eux : Z/pqZ et Z/pZ × Z/qZ ne peuvent être
isomorphes en tant que groupes puisque l’un est cyclique, mais l’autre
non.
24 Chapitre 1 Structures algébriques usuelles

Exercice 1.11 : Nombres de Fermat

1. Montrer que si 2a + 1 est premier, alors a est une puissance de 2.


n
2. Pour tout entier n, on note Fn = 22 +1. Montrer que, si m et n sont distincts,
alors Fn et Fm sont premiers entre eux.

1. Il s’agit de démontrer une implication. Les tentatives pour la montrer directement


n’aboutissent pas, nous allons donc démontrer la contraposée, c’est-à-dire que, si a
n’est pas une puissance de 2, alors 2a +1 n’est pas premier. Si a n’est pas une puissance
de 2, on peut écrire a = p2k avec p impair et p > 1. Pour montrer qu’il existe un
diviseur non trivial de 2a + 1 (autre que 1 et lui-même), on va utiliser une congruence.
k
Mais commençons par une congruence relative à 22 avant d’arriver à 2a .
k
h k i k
h k i
De 22 ≡ −1 22 + 1 , on déduit 2p2 ≡ (−1)p ≡ −1 22 + 1 , soit :
h k i
2a + 1 ≡ 0 22 + 1
ce qui assure que 2a + 1 n’est pas premier.

Il ne faut pas oublier que les congruences sont des outils très utiles pour
montrer des relations de divisibilité.

Fermat (1601-1665) était persuadé que la réciproque était vraie, ce qui


aurait fourni des nombres premiers à volonté. Mais Euler (1707-1783) a
donné le premier contre-exemple : 232 + 1 = 4 294 967 297 est divisible
k
par 641. Les nombres Fk = 22 + 1 sont appelés nombres de Fermat.
Actuellement, on sait que F0 , F1 , F2 , F3 , F4 sont premiers, et que
F5 , . . . , F32 ne sont pas premiers. On ne sait pas pour n = 33.

2. On réduit le plus grand des deux modulo le plus petit, afin d’exploiter la propriété
précédente.

Supposons m > n. On a :
n m−n m−n
Fm = (22 )2 + 1 ≡ (−1)2 + 1 ≡ 2 [Fn ] .
Donc si d divise Fn et Fm alors d divise 2. Fn étant impair on en déduit d = 1,
c’est-à-dire que Fn et Fm sont premiers entre eux.
Algèbre 25

Chaque Fn ayant un diviseur premier, on en déduit qu’il y a une infinité


de nombres premiers, et même de la forme 4k +1 car, si p premier divise
Fn , alors :
p−1
 n−1 p−1
(−1) 2 ≡ 22 [p]
≡ 1 [p] en utilisant le théorème de Fermat.
Par suite : p = 4k + 1.

Exercice 1.12 : Codage RSA

On se donne p et q deux nombres premiers distincts.


1. Justifier que pour a ∈ Z non divisible par p et q, a(p−1) (q−1) ≡ 1 [pq].
2. Soit d ∈ {1, . . . , (p − 1)(q − 1)}, premier avec (p − 1) (q − 1). Justifier l’existence
de e ∈ {1, . . . (p − 1) (q − 1)} tel que e d ≡ 1 [(p − 1) (q − 1)].
3. Montrer que pour tout a ∈ Z, ad e ≡ a [p q] .

1. Il faut tout simplement appliquer le théorème d’Euler : comme p et q sont premiers


et distincts, (p − 1) (q − 1) = ϕ(p q).

Notons ϕ l’indicatrice d’Euler. Comme p et q sont deux nombres premiers dis-


tincts (donc premiers entre eux), on a ϕ(p q) = ϕ(p) ϕ(q) = (p − 1) (q − 1).
Soit a ∈ Z non divisible par p et q. Alors a est premier avec p et avec q, donc
avec p q. Ainsi, par le théorème d’Euler, a(p−1) (q−1) ≡ 1 [p q].

2. Il s’agit de trouver l’inverse modulo (p − 1) (q − 1). On se place donc dans l’anneau


Z/(p − 1) (q − 1)Z.

Soit d ∈ {1, . . . , (p − 1) (q − 1)}, premier avec (p − 1) (q − 1). Alors la classe d


de d modulo (p − 1) (q − 1) est inversible dans Z/(p − 1) (q − 1)Z. On a donc
x ∈ Z/(p − 1) (q − 1)Z tel que dx = 1.
Soit e le représentant de x compris entre 1 et (p − 1) (q − 1), alors on a la
relation de ≡ 1 [(p − 1) (q − 1)].

Il faut bien faire la distinction entre la classe d’équivalence d’un objet


modulo d et ses représentants.

3. On doit distinguer les cas a multiple de p ou de q, ou non, pour pouvoir (dans le


deuxième cas) utiliser la question 1.
26 Chapitre 1 Structures algébriques usuelles

Si a n’est ni multiple de p, ni multiple de q, a(p−1) (q−1) ≡ 1 [p q]. Comme


d e ≡ 1 [(p − 1) (q − 1)], on a k ∈ Z tel que d e = 1 + (p − 1) (q − 1) k. Par
suite,
ad e = a1+(p−1) (q−1) k = a × (a(p−1) (q−1) )k ≡ a × 1k ≡ a [p q] .
Supposons maintenant a multiple de p ou de q. Si a est multiple de p et q, alors
p q divise a, donc ad e . Alors ad e et a sont tous deux congrus à 0, donc sont
congrus modulo p q.
Reste à montrer le cas où a est multiple de p mais pas de q (on s’y ramène en
échangeant p et q, si nécessaire). Alors ae d est divisible par p, donc ae d − a
également. Par le petit théorème de Fermat, aq−1 ≡ 1 [q], donc
a(p−1) (q−1) ≡ 1p−1 ≡ 1 [q] .
Ainsi ae d = a1+(p−1) (q−1) k ≡ a [q] (comme plus haut).
Par suite ae d − a est divisible par q. Il est donc divisible par p et q donc par p q
(car p et q sont premiers entre eux), puis ae d ≡ a [p q].

Ceci est utilisé pour des algorithmes de codage : une personne souhai-
tant communiquer de manière codée publie l’entier n = p q et la clé de
codage d, mais est le seul à connaître la clé de décodage e. Son calcul
nécessite celui de (p − 1) (q − 1) donc de réussir à trouver les facteurs
premiers de n, ce qui est très compliqué, si n est très grand.

Exercice 1.13 : Polynôme et racines n-ièmes

Soient n ∈ N∗Pet p ∈ Z. On note Un l’ensemble des racines n-ièmes de l’unité.


1. Calculer xp .
x∈Un
2. Soit P ∈ C[X] un polynôme de degré plus petit que n − 1. On suppose avoir
M > 0 tel que
∀x ∈ Un , |P (x)| 6 M.
Montrer que les coefficients de P sont bornés par M .

1. Il s’agit d’un simple calcul d’une somme géométrique, il suffit de bien se souvenir
de l’énumération classique de Un .

Lors du calcul d’une somme géométrique, il est indispensable de bien


distinguer le cas où la raison vaut 1.
Algèbre 27

On sait que Un est l’ensemble de e2ikπ/n , k variant entre 0 et n − 1. Ainsi, si


p n’est pas un multiple de n, on a e2ipπ/n 6= 1 et donc :
X n−1
X p n−1X n−1
X k
xp = e2ikπ/n = e2ikpπ/n = e2ipπ/n
x∈Un k=0 k=0 k=0
2ipπ
1−e
= =0
1 − e2ipπ/n
Si maintenant p est un multiple de n, on a
X n−1
X p n−1
X n−1
X
xp = e2ikπ/n = e2ikpπ/n = 1 = n.
x∈Un k=0 k=0 k=0

n−1
ak xk . Pour
P
2. Comme P est de degré plus petit que n − 1, il s’écrit sous la forme
k=0
isoler le coefficient de degré k, on pense, avec la question précédente, à regarder la
somme de P (x)x−k pour x ∈ Un : les puissances autres que k vont s’annuler, et il ne
restera que n ak .

Comme P est de degré plus petit que n − 1, on a (a0 , . . . , an−1 ) ∈ Cn tel que :
n−1
X
P (x) = ak xk .
k=0
Pour k ∈ {0, . . . , n − 1}, on a, d’après la question précédente,
X X n−1
X n−1
X X
P (x)x−k = aj xj−k = aj xj−k = nak
x∈Un x∈Un j=0 j=0 x∈Un

puisque pour j 6= k, j − k n’est pas un multiple de n.


Ainsi, par l’inégalité triangulaire :
1 X 1 X 1 X
|ak | = P (x)x−k 6 P (x)x−k 6 M = M.
n n n
x∈Un x∈Un x∈Un

Exercice 1.14 : PGCD de P et P’

Soient K un sous-corps de C et P ∈ K[X].


1. Si P et Q ∈ K[X], expliquer pourquoi les pgcd de P et de Q calculés dans
C[X] ou dans K[X] sont les mêmes.
2. Montrer que P n’a que des racines simples dans C si et seulement si le pgcd
de P et P 0 dans K[X] vaut 1.
3. Calculer le pgcd de P et de P 0 si P est scindé dans K.
28 Chapitre 1 Structures algébriques usuelles

1. Pour calculer le pgcd de deux polynômes, il faut appliquer l’algorithme d’Euclide.


On doit donc expliquer pourquoi l’algorithme d’Euclide donne les mêmes résultats
dans K[X] ou C[X]. Les différentes étapes de l’algorithme sont des divisions eucli-
diennes, il faut donc montrer que les divisions euclidiennes dans K[X] et C[X] donnent
le même résultat.

Si (A, B) ∈ K[X]2 , et si B 6= 0, notons A = B S + R la division euclidienne


de A par B dans K[X], avec S et R ∈ K[X] et deg(R) < deg(B). Alors S
et R ∈ C[X] (car K ⊂ C), donc par unicité de la division euclidienne, c’est
également la division euclidienne de A par B dans C[X].
Les divisions euclidiennes de polynômes de K[X] donnent le même résultat dans
K[X] ou dans C[X]. Ainsi, en appliquant l’algorithme d’Euclide dans K[X] ou
dans C[X] à P et Q, on obtiendra les mêmes résultats à chaque étape, donc le
même résultat final. Par suite, les pgcd de P et Q dans K[X] et C[X] sont les
mêmes.

Ici utiliser la définition du pgcd ne pouvait aboutir. Il faut utiliser le


moyen pratique de calcul du pgcd.

2. Il faut se souvenir de la caractérisation de la multiplicité d’une racine via les


dérivées. En particulier, a est racine simple de P si et seulement si P 0 (a) 6= 0 et
P (a) = 0.

• Supposons que P n’ait que des racines simples dans C. Soit R un diviseur
commun à P et P 0 dans K[X]. Ona donc (U, V ) ∈ K[X]2 tel que P = RU
et P 0 = RV . Si R n’est pas constant, il admet une racine a dans C. Alors
P (a) = R(a) U (a) = 0 et P 0 (a) = R(a) V (a) = 0, donc a est racine de P ,
de multiplicité au moins 2. Absurde ! Ainsi R est constant, et le pgcd de P
et P 0 dans K[X] vaut 1.
• Supposons maintenant que le pgcd de P et P 0 dans K[X] vale 1. Si a est
racine de P , on a (X − a)|P . Comme (X − a) ne divise pas P 0 (sinon il
diviserait le pgcd de P et P 0 dans C[X], qui est le même que celui dans
K[X], donc 1), on a P 0 (a) 6= 0. Ainsi a est racine simple de P .

3. On écrit P sous sa forme de polynôme scindé. On trouve alors facilement les


diviseurs communs à P et à P 0 .

Notons a1 , . . . , ar les racines (deux à deux distinctes) de P dans K, de multi-


plicités respectives m1 , . . . , mr . Pour i entre 1 et r, (X − ai )mi −1 divise P et
P 0 (car ai est racine de P 0 de multiplicité mi − 1). Comme les (X − ai )mi −1
Algèbre 29

sont deux à deux premiers entre eux, on en déduit que


Y r
Q= (X − ai )mi −1 divise P et P 0 .
i=1
Réciproquement, soit R un diviseur commun à P et P 0 . Comme R divise P , il
a les mêmes facteurs irréductibles, et R est de la forme
Yr
(X − ai )βi avec βi 6 mi
i=1
pour tout i entre 1 et r. Si βi = mi , alors (X − ai )mi divise R, donc P 0 , et
ai est racine de P de multiplicité mi + 1... absurde ! Ainsi β 6 mi − 1, puis R
divise Q. Q est donc le pgcd de P et P 0 .

On retrouve bien entendu le fait que ce pgcd vaut 1 si les racines sont
toutes simples.

Exercice 1.15 : Exemple de polynôme irréductible

Soient K un sous-corps de C et a ∈ K. On note P le polynôme X p − a, p étant


un nombre premier.
1. Soient Q et R ∈ K[X] unitaires non constants tels que X p − a = Q R, si
n = deg(Q) et b = (−1)n Q(0), montrer que bp = an .
2. En déduire que si P n’a pas de racines dans K, alors P est irréductible dans
K[X].

1. Le fait de poser b = (−1)n Q(0) fait penser aux relations coefficients/racines : b est
le produit des racines de Q. Comme les racines de Q sont des racines p-ièmes de a, on
obtiendra le résultat. On part alors de la forme factorisée de P pour faire apparaître
ces racines.

Notons
p
Y
Xp − a = (X − ri )
i=1
la forme factorisée de X p − a dans C. Comme Q divise P , Q est de la forme
n
Y
(X − rkj ),
j=1

avec k1 , . . . , kn entre 1 et p. Par les relations coefficients/racines, on en déduit


que b = rk1 . . . rkn . Comme pour tout j ∈ {1, . . . , p}, rkj est racine de P ,
30 Chapitre 1 Structures algébriques usuelles

rkpj = a. Ainsi
n
Y n
Y
bp = rkpj = a = an .
j=1 j=1

2. La question précédente nous invite à raisonner par l’absurde. Le fait que p soit
premier va permettre d’obtenir une relation de Bezout entre p et n, avec laquelle on
va réussir à construire un élément de K, qui mis à la puissance p, donne a.

Supposons que P n’admette pas de racines dans K. Si l’on peut écrire P = Q R


avec Q et R non constants dans K[X], d’après la question précédente, bp = an
avec b = (−1)n Q(0) ∈ K et n = deg(Q).
Or n < p, donc n est premier avec p. On a donc (u, v) ∈ Z2 tel que p u+n v = 1.
6 0 (sinon P admet 0 comme racine), donc b 6= 0. On a alors
Notons que a =
(bv au )p = bpv apu = (bp )v apu = (an )v apu = anv+pu = a
donc bv au ∈ K est racine de P ... absurde ! Ainsi P est irréductible dans K[X].

C’est seulement dans ce cas particulier que P n’a pas de racines im-
plique P irréductible. Cet énoncé reste faux dans le cas général, pour
des polynômes de degrés supérieurs à 4.
CHAPITRE

Réduction
2
Exercice 2.1 : Éléments propres d’un endomorphisme
d’un espace de polynômes
Soit K = R ou C. Pour P ∈ K[X] on pose :
Φ(P ) = (2X + 1)P − (X 2 − 1)P 0 .
1. Montrer que Φ est un endomorphisme de K[X].
2. Soit P est un vecteur propre de Φ. Montrer que P 0 =
6 0 et en déduire le degré
de P .
3. Déterminer les éléments propres de Φ.

1. Ce genre de question, extrêmement courante au début d’un exercice d’algèbre


linéaire, ne présente en général aucune difficulté : il s’agit simplement de vérifier que
Φ est linéaire à partir de la définition même de la linéarité.

Soient (λ, µ) ∈ K2 et (P, Q) ∈ K[X]2 . Alors :


Φ(λ P + µ Q) = (2X + 1)(λ P + µ Q) − (X 2 − 1)(λ P + µ Q)0 .
D’une part, (2X + 1)(λ P + µ Q) = λ(2X + 1)P + µ(2X + 1)Q.
D’autre part,
(X 2 − 1)(λ P + µ Q)0 = (X 2 − 1)(λ P 0 + µ Q0 ) = λ (X 2 − 1)P 0 + µ (X 2 − 1)Q0 .
Ainsi,
Φ(λ P + µ Q) = λ (2X + 1)P + µ (2X + 1)Q)
− (λ (X 2 − 1)P 0 + µ (X 2 − 1)Q0 )
= λ Φ(P ) + µ Φ(Q)
donc Φ est linéaire.

6 0 et il existe λ ∈ K tel que


2. La définition d’un vecteur propre P de Φ est : P =
Φ(P ) = λ P . Cette dernière relation s’écrit
(2X + 1)P − (X 2 − 1)P 0 = λ P
soit encore (2X + 1 − λ)P = (X 2 − 1)P 0 .
Pour montrer que P 0 6= 0, on peut raisonner par l’absurde en supposant P 0 = 0.
32 Chapitre 2 Réduction

Soit P un vecteur propre de Φ. Par définition, P = 6 0 et il existe λ ∈ K tel que


Φ(P ) = λ P .
Si P 0 = 0 la relation Φ(P ) = λ P se réduit à (2X + 1 − λ)P = 0 et donc P = 0,
ce qui est exclu. Ainsi, P 0 6= 0.
Soit n = deg(P ) ∈ N et notons
X n
P = ak X k avec an =
6 0.
k=0
0
Comme P 6= 0, P n’est pas constant, donc :
n−1
X
n > 1 et P 0 = (k + 1)ak+1 X k .
k=0
Le degré de (2X + 1 − λ)P est n + 1 et son coefficient dominant est 2 an .
De même, (X 2 − 1)P 0 est de degré n + 1 et son coefficient dominant est n an .
Vu que ces deux polynômes sont égaux et que an = 6 0, on a n = 2. Ainsi :
si P ∈ Ker(Φ − λ Id) et P =
6 0 alors deg(P ) = 2.

3. Puisque l’on sait que les vecteurs propres de Φ sont de degré 2, on peut les écrire
aX 2 + bX + c (avec a 6= 0) et injecter ceci dans la formule définissant Φ : on obtiendra
ainsi un système d’équations vérifié par (a, b, c). Il ne restera plus qu’à résoudre ce sys-
tème pour trouver les vecteurs propres. Comme λ interviendra, on sera éventuellement
amené à distinguer divers cas selon la valeur de ce paramètre.

Soit λ une valeur propre de Φ et P un vecteur propre associé. Alors P est de


degré 2 ; notons P = aX 2 + bX + c avec a =
6 0. On a alors
(2X + 1 − λ)P = 2aX 3 + (2b + (1 − λ)a)X 2 + (2c + (1 − λ)b)X + (1 − λ)c
et
(X 2 − 1)P 0 = (X 2 − 1)(2 a X + b) = 2 a X 3 + b X 2 − 2 a X − b.
Ainsi, la relation
(2X + 1 − λ)P = (X 2 − 1)P 0
s’écrit
2 a X 3 +(2 b+(1−λ)a)X 2 +(2 c+(1−λ)b)X+(1−λ)c = 2 a X 3 +b X 2 −2 a X−b
soit, après simplification et regroupement des termes dans le membre de gauche :
(b + (1 − λ)a)X 2 + (2(c + a) + (1 − λ)b)X + b + (1 − λ)c = 0.
Un polynôme est nul si, et seulement si, tous ses coefficients sont nuls. P est
donc vecteur propre si et seulement si on a le système

 (1 − λ)a + b = 0
(S) (1 − λ)b + 2(a + c) = 0
(1 − λ)c + b = 0

Algèbre 33

La présence du facteur (1 − λ) dans ces équations suggère d’étudier séparément le cas


λ = 1. En effet, dans ce cas, les équations se simplifient considérablement. Dans le
cas λ 6= 1, nous pourrons au besoin diviser par 1 − λ pour extraire a, b et c de ces
équations.

Que l’on commence ou non par le cas λ = 1, il ne faut pas oublier de


traiter ce cas à part.

Supposons λ = 1 : le système équivaut à b = 0 et c = − a ; on a donc


P = a(X 2 − 1). Ainsi, Ker(Φ − Id) = K(X 2 − 1) qui est de dimension 1.
1 est valeur propre de Φ et le sous-espace propre associé est la droite vectorielle
K(X 2 − 1).
6 1.
Il reste à traiter le cas λ =

Supposons λ 6= 1 : la première et la troisième équations donnent alors


(1 − λ)a = (1 − λ)c
et donc a = c, car 1 − λ =
6 0.
La deuxième équation devient alors (1−λ)b = −4a d’où, comme b = −(1−λ)a :
(1 − λ)2 a = 4 a. Comme a =6 0, il vient (1 − λ)2 = 4, soit 1 − λ ∈ {−2, 2} et
enfin λ ∈ {−1, 3}.
Nous avons donc, pour l’instant, restreint le nombre de cas à étudier : si λ est une
valeur propre de Φ et λ = 6 1, alors λ ne peut valoir que −1 ou 3.
Il reste à voir si ces scalaires sont bien des valeurs propres de Φ et, le cas échéant,
déterminer le sous-espace propre associé. Ce sera aisé car le système (S) se simplifie
considérablement lorsque l’on assigne à λ une valeur particulière.

Si λ = −1 : le système équivaut à b = −2 a et c = a donc à P = a(X − 1)2 .


Ainsi, Ker(Φ + Id) = K(X − 1)2 ; −1 est donc valeur propre de Φ et le sous-
espace propre associé est K(X − 1)2 .
Il ne reste plus qu’à traiter le cas λ = 3 de manière tout à fait analogue.

Si λ = 3 : le système équivaut à b = 2 a et c = a donc à P = a(X + 1)2 .


Ker(Φ − 3 Id) = K(X + 1)2 ; 3 est donc valeur propre de Φ et le sous-espace
propre associé est K(X + 1)2 .
En conclusion, les valeurs propres de Φ sont −1, 1 et 3. De plus :
Ker(Φ − Id) = K(X 2 − 1)
Ker(Φ + Id) = K(X − 1)2
Ker(Φ − 3 Id) = K(X + 1)2
34 Chapitre 2 Réduction

Exercice 2.2 : Éléments propres d’un endomorphisme


d’un espace de fonctions
Soit E l’espace vectoriel des applications continues de R+ dans R. Pour f ∈ E
on définit une application Tf : R+ → R par Tf (0) = f (0) et
1 x
Z
∀x ∈ R∗+ , Tf (x) = f (t) dt.
x 0
1. Montrer que, pour tout f ∈ E, Tf ∈ E.
2. Soit T : E → E, f 7→ Tf . Montrer que T est linéaire.
3. Déterminer les éléments propres de T .

1. Soit f ∈ E. La fonction Tf est définie séparément sur R∗+ et en 0. Nous allons donc
vérifier séparément la continuité de Tf sur R∗+ et en 0. Vu la définition de Tf il est
assez naturel de faire apparaître une primitive de f .

F (x)
Soit F la primitive de f sur R+ nulle en 0. Alors, pour x > 0, Tf (x) = ,
x
donc Tf est continue sur R+ (et même en fait de classe C puisque F l’est).
∗ 1

Par ailleurs F (0) = 0 donc :


F (x) − F (0)
∀x ∈ R∗+ , Tf (x) = .
x−0
Ainsi, Tf tend vers F 0 (0) = f (0) quand x tend vers 0, donc Tf est également
continue en 0.
En conclusion, Tf est continue sur R+ , donc Tf ∈ E.

2. Nous devons vérifier l’égalité T (λ f + µ g) = λ T (f ) + µ T (g) pour tous f et g ∈ E


et λ et µ ∈ K. Autrement dit il faut vérifier, pour tout x ∈ R+ , l’égalité
Tλ f +µ g (x) = λ Tf (x) + µ Tg (x).
Comme les fonctions de la forme Th sont définies séparément sur R∗+ et en 0, nous
allons distinguer à nouveau ces deux cas.

Soient (f, g) ∈ E 2 et (λ, µ) ∈ R2 . Alors :


• pour x > 0,
1 x λ x µ x
Z Z Z
Tλ f +µ g (x) = (λ f (t) + µ g(t)) dt = f (t) dt + g(t) dt
x 0 x 0 x 0
= λ Tf (x) + µ Tg (x).
• pour x = 0,
Tλ f +µ g (0) = (λ f + µ g)(0) = λ f (0) + µ g(0)
= λ Tf (0) + µ Tg (0).
Algèbre 35

Ainsi :
∀x ∈ R+ , Tλ f +µ g (x) = λ Tf (x) + µ Tg (x)
c’est-à-dire Tλ f +µ g = λ Tf + µ Tg , soit T (λ f + µ g) = λ T (f ) + µ T (g).
T est donc linéaire.

3. La difficulté de la question est que l’on ne connaît pas a priori les valeurs propres
de T . Nous allons donc chercher simultanément les valeurs propres et les sous-espaces
propres associés.

Soit λ ∈ R et f ∈ Ker(f − λ Id). On a donc Tf Z= λ f .


1 x
Alors f (0) = λ f (0) et, pour tout réel x > 0, f (t) dt = λ f (x).
x 0
Encore une fois, il y a deux conditions vérifiées par f . La seconde est une équation
intégrale : une relation entre f (x) et une intégrale de f avec une borne dépendant de
x, c’est-à-dire une primitive de f . Dériver cette équation par rapport à x permet de
se ramener à une équation différentielle vérifiée par f et donc de trouver la forme de
la fonction f .

En notant F la primitive de f nulle en 0 on a donc, pour tout réel x > 0 :


F (x) = λ x f (x).
Comme F est dérivable, on en déduit que f l’est (si λ = 0, F est constante
nulle donc f aussi et est dérivable) donc
∀x ∈ R∗+ , F 0 (x) = λ x f 0 (x) + λ f (x).
Comme F 0 = f il vient enfin :
∀x ∈ R∗+ , λ x f 0 (x) + (λ − 1)f (x) = 0.

Ceci est une équation différentielle vérifiée par f . . . si λ n’est pas nul ! En effet, pour
nous ramener au cas d’une équation différentielle de la forme y 0 + a(x)y = 0, dont on
connaît les solutions, il faut diviser par λ x. La division par x ne pose pas de problème
puisque l’équation est donnée pour x > 0. Il reste à distinguer le cas λ = 0.

Supposons λ = 0. Alors la relation précédente se réduit à :


∀x ∈ R∗+ , f (x) = 0.
Par ailleurs, f (0) = λ f (0) d’où f (0) = 0. La fonction f est donc identiquement
nulle.
Ainsi, Ker(T ) = {0}, ce qui montre que 0 n’est pas valeur propre de T .
Nous pouvons ensuite rapidement résoudre l’équation différentielle dans le cas λ 6= 0.

Supposons λ 6= 0. Alors f vérifie :


 
1 1
∀x ∈ R∗+ , 0
f (x) + 1 − f (x) = 0.
λ x
Ainsi, il existe un réel k tel que :
1
∀x ∈ R∗+ , f (x) = k x λ −1 .
36 Chapitre 2 Réduction

Maintenant que l’on connaît la forme de f sur R∗+ nous pouvons étudier le problème en
0. f est continue sur R+ donc en 0 ; cependant, pour certaines valeurs de λ, l’expression
1
x λ −1 peut diverger quand x tend vers 0 : il faut donc distinguer à nouveau des cas
selon le comportement en 0 de cette fonction de x.
On sait que ce comportement dépend du signe de l’exposant de x, ce qui nous donne
trois cas à étudier. En soit, l’étude de chaque cas est simple puisqu’il s’agit de pro-
blèmes de limites de fonctions usuelles.

1
Il faut être prudent pour passer du signe de −1 à une inégalité sur λ :
λ
en effet, λ peut très bien être négatif et, dans ce cas, la multiplication
par λ change le sens de l’inégalité.

Plus précisément :
1
• si − 1 < 0 et λ > 0 alors 1 − λ < 0 donc λ > 1 ;
λ
1
• si − 1 < 0 et λ < 0 alors 1 − λ > 0 donc λ < 1. Cependant, on a déjà supposé
λ
λ < 0 donc cette nouvelle inégalité n’apporte pas de contrainte supplémentaire.
1
Ainsi : si − 1 < 0 alors λ < 0 ou λ > 1. Réciproquement, si λ < 0 ou λ > 1, on
λ
1
vérifie aisément que − 1 < 0. De même :
λ
1
• si − 1 > 0 et λ > 0 alors 1 − λ > 0 donc λ < 1. Comme on a supposé ici λ > 0
λ
on a donc en fait 0 < λ < 1 ;
1
• si − 1 > 0 et λ < 0 alors 1 − λ < 0 donc λ > 1. Ceci est absurde : on ne peut
λ
avoir à la fois λ < 0 et λ > 1.
1
Ainsi : si − 1 > 0 alors 0 < λ < 1. Réciproquement, si 0 < λ < 1, on vérifie
λ
1
facilement que − 1 > 0.
λ
1
Enfin, il ne faut pas oublier de traiter le cas − 1 = 0, c’est-à-dire simplement λ = 1.
λ
Distinguons trois cas.
1 1
• Si − 1 < 0, c’est-à-dire λ < 0 ou λ > 1 : alors x λ −1 tend vers +∞ quand
λ
x tend vers 0+ . Comme f est continue en 0, sa limite en 0 est finie, ce qui
impose k = 0 et donc f = 0. Ainsi, Ker(T − λ Id) = {0}, ce qui montre
que λ n’est pas valeur propre de T .
1
• Si − 1 = 0, c’est-à-dire λ = 1 : alors f (x) = k pour tout réel k > 0 et,
λ
f étant continue en 0, il vient f (0) = k : la fonction f est donc constante
égale à k. Nous avons donc Ker(T − Id) ⊂ R.
Algèbre 37

Réciproquement, il est clair que toute fonction constante c vérifie Tc = c ;


ainsi, Ker(T − Id) = R. 1 est donc bien valeur propre de T et le sous-espace
propre associé est R, l’espace des fonctions constantes.
1 1
• Si − 1 > 0, c’est-à-dire 0 < λ < 1 : alors x λ −1 tend vers 0 quand x tend
λ
vers 0+ , donc f (0) = 0.
1
Pour alléger les notations, posons fλ (x) = x λ −1 si x > 0 et fλ (0) = 0.
Nous avons montré : si λ est une valeur propre de T telle que 0 < λ < 1 et f
un vecteur propre de T , alors il existe un réel k tel que f = k fλ . Autrement
dit, Ker(f − λ Id) ⊂ R fλ .
Réciproquement, Tfλ = λfλ ; on a donc Ker(f − λ Id) = R fλ . Comme
fλ 6= 0, λ est bien valeur propre de T .
En résumé, étant donné un réel λ :
• si λ 6 0 ou λ > 1, λ n’est pas valeur propre de T ;
• 1 est valeur propre de T et le sous-espace propre associé est R, l’espace des
fonctions constantes ;
• si 0 < λ < 1, λ est valeur propre de T et le sous-espace propre associé est
Rfλ .

Exercice 2.3 : Réduction d’une matrice d’ordre 3

Diagonaliser la matrice  
6 2 0
A= 2 3 0 .
−10 −5 2

La matrice étant d’ordre 3 le calcul du polynôme caractéristique peut être un moyen


rapide de trouver les valeurs propres. Qui plus est, la présence des zéros de la dernière
colonne simplifie grandement le calcul et la factorisation de ce polynôme.

Pour λ ∈ K on a
 
λ−6 −2 0
det(λ I3 − A) = det  −2 λ−3 0 
10 5 λ−2
= ((λ − 6)(λ − 3) − 4) (λ − 2)
= (λ2 − 9λ + 14)(λ − 2)
= (λ − 2)2 (λ − 7).
Les valeurs propres de A sont donc 2 et 7.
38 Chapitre 2 Réduction

Pour vérifier que A est diagonalisable nous allons calculer les dimensions des sous-
espaces propres de f , l’endomorphisme de K3 canoniquement associé à A, pour vérifier
que leur somme est 3.

La dimension de Ker(f − 7 Id) est au moins 1 (par définition d’une valeur


propre) et elle est inférieure ou égale à 1 (l’ordre de multiplicité de 7 comme
racine du polynôme caractéristique).

Dans le cas d’une valeur propre simple, le sous-espace propre associé est
automatiquement de dimension 1. Pour les valeurs propres multiples,
on a seulement un encadrement de la dimension.

Il reste à déterminer la dimension du sous-espaces propre associé à la valeur propre


2.

Soit (x, y, z) ∈ K3 tel que (x, y, z) ∈ Ker(f −2 Id). Il vient, d’après l’expression
de A − 2 I3 , le système :

 4x + 2y = 0
2x + y = 0
−10 x − 5 y = 0

qui se réduit en fait à une seule équation car elles sont toutes trois proportion-
nelles :
2 x + y = 0.
Ainsi Ker(f −2 Id) est de dimension 2, qui est la multiplicité de 2 comme valeur
propre de f .
A est donc bien diagonalisable.
Il faut maintenant trouver une base de chacun des espaces propres. Pour Ker(f −2 Id),
il suffit de trouver deux vecteurs non colinéaires pour en avoir une base.

On vérifie aisément que, si (e1 , e2 , e3 ) désigne la base canonique de K3 , les


vecteurs e3 et e1 − 2 e2 sont propres pour f et associés à la valeur propre 2.
Comme ils ne sont pas colinéaires et que dim(Ker(f − 2 Id)) = 2, ils forment
une base de ce sous-espace propre de f .
Enfin, le sous-espace propre associé à 7 est de dimension 1 : il suffit donc de trouver
un vecteur non nul de cet espace et il en constituera automatiquement une base.
 
−1 2 0
A − 7 I3 =  2 −4 0  .
−10 −5 −5
donc, si f (x, y, z) = 0, on a

 −x + 2 y = 0
2x − 4y = 0
−10 x − 5 y − 5 z = 0

Algèbre 39

Les deux premières équations sont proportionnelles à l’équation x − 2 y = 0. La


dernière, divisée par −5, est équivalente à 2 x + y + z = 0. On a donc le système
équivalent plus simple : 
x − 2y = 0
2x + y + z = 0
On vérifie aisément que 2 e1 + e2 − 5 e3 ∈ Ker(f − 7 Id). Comme ce sous-espace
propre de f est de dimension 1, ce vecteur propre en forme une base.
Posons 
 u1 = e3
u2 = e1 − 2 e2
u3 = 2 e1 + e2 − 5 e3

Alors, d’après ce qui précède, (u1 , u2 , u3 ) est une base de K3 constituée de


vecteurs propres de f .
Il reste à déterminer la matrice de passage.

La matrice de passage de (e1 , e2 , e3 ) à (u1 , u2 , u3 ) est


 
0 1 2
P = 0 −2 1  .
1 0 −5

Il n’y a aucun calcul à faire pour déterminer P −1 AP . En effet, ce n’est autre que la
matrice de f dans la base (u1 , u2 , u3 ).

Sauf si l’énoncé le demande explicitement, où si une question suivante


le nécessite, le calcul de P −1 n’est pas nécessaire.

Comme f (u1 ) = 2 u1 , f (u2 ) = 2 u2 et f (u3 ) = 7 u3 nous obtenons, sans calcul


supplémentaire :  
2 0 0
P −1 AP = 0 2 0 .
0 0 7

Connaître a priori la dimension d’un sous-espace vectoriel est extrême-


ment pratique pour en déterminer une base, surtout en petite dimen-
sion, comme on vient de le voir : si la dimension est 1 il suffit de trouver
un vecteur non nul, si elle est 2 il suffit de trouver deux vecteurs non
colinéaires.
40 Chapitre 2 Réduction

Exercice 2.4 : Diagonalisation

Soient un entier n > 3 et


 
1 ··· ··· 1
 .. . . 
. . 0  ∈ Mn (R).

A=
.
 .. .. 
0 . 
1 1
Déterminer les éléments propres de A . Est-elle diagonalisable ? Que vaut son
déterminant ?

Nous allons d’abord déterminer les valeurs propres en cherchant les réels λ pour
lesquels le système AX = λ X(X ∈ Mn,1 (R)) possède au moins une solution X =6 0.

En taille n, il ne faut pas toujours se lancer tête baissée dans le calcul


du polynôme caractéristique. Dans certains cas, il est plus simple de
résoudre le système AX = λ X, surtout lorsqu’il faut déterminer les
espaces propres.

 
x1
Pour λ ∈ R et X =  ...  ∈ Mn,1 (R) non nul, X est vecteur propre de A de
 

xn
valeur propre associée λ si et seulement si AX = λ X.
L’égalité AX = λ X est équivalente au système :


 x1 + · · · + xn = λ x1
 x1 + x2 = λ x2

(S) ..


 .
x1 + xn = λ xn

En particulier, pour k ∈ {2, . . . , n} : x1 = (λ − 1) xk . Ainsi, il est naturel de distinguer


le cas λ = 1.

Supposons λ 6= 1. Alors les équations 2 à n donnent


1
∀k ∈ {2, . . . , n}, xk = x1
λ−1
ce qui montre en particulier que x2 = · · · = xn .
La première équation, compte tenu de ces égalités, se réduit alors à
x1 + (n − 1) x2 = λ x1 .
Algèbre 41

1
Par ailleurs, nous avons vu que x2 = x1 d’où enfin :
λ−1
n−1
x1 = (λ − 1) x1 i.e. (n − 1) x1 = (λ − 1)2 x1 .
λ−1
Peut-on diviser par x1 afin de déterminer les valeurs possibles de λ ? Si x1 est nul,
1
alors pour k > 2 : xk = x1 = 0. On a donc X = 0, ce qui contredit l’hypothèse
λ−1
faite sur X.

Si x1 était nul, X serait nul, ce qui est exclu. Ainsi :


(n − 1) = (λ − 1)2
d’où l’on tire les valeurs
√ possibles de λ : si
√λ est une valeur propre de A distincte
de 1 alors λ = 1 + n − 1 ou λ = 1 − n − 1.
Remarquons que ces deux valeurs propres potentielles sont distinctes.
Il faut désormais déterminer si ce sont bien des valeurs propres de A et, si oui, déter-
miner le sous-espace propre associé.
Ce ne sera pas bien difficile car l’essentiel des calculs a déjà été effectué précédemment :
il suffit de remplacer λ par l’une des deux valeurs possibles trouvées ci-dessus.

Soient λ1 = 1 + n − 1 et E1 = Ker(A − λ1 In ).
D’après les calculs précédents, X ∈ E1 si et seulement si
1 1
∀k ∈ {2, . . . , n}, xk = x1 = √ x1 .
λ−1 n−1
√ T
Autrement dit, si et seulement si, x = x1 ( n − 1, 1, . . . , 1) ce dont on déduit
√ T
que E1 = R( n − 1,√ 1, . . . , 1) .
En conclusion : 1 + n − 1 est valeur propre de A et le sous-espace propre
√ T
associé est la droite R( n − 1, 1, . . . , 1) .

Dans ce qui précède, l’utilisation du signe transposée n’est ici utilisé


que par commodité typographique. Il vaut mieux écrire les vecteurs
colonnes.


Le cas de 1 − n − 1 se traite identiquement.

Soit λ2 = 1 − n − 1 et E2 = Ker(A − λ2 In ).
D’après les calculs précédents, X ∈ E2 si et seulement si
1 1
∀k ∈ {2, . . . , n}, xk = x1 = − √ x1 .
λ−1 n−1
√ T
Autrement dit, si et seulement si x = x1 (− n − 1, 1, . . . , 1) ce dont on déduit
√ T
que E2 = R(− n − 1, 1, . . . , 1) .
42 Chapitre 2 Réduction


En conclusion : 1 − n − 1 est valeur propre de A et le sous-espace propre
√ T
associé est la droite R(− n − 1, 1, . . . , 1) .
Il reste à étudier le cas λ = 1. Dans ce cas, le système (S) se simplifie considérablement.

Supposons λ = 1 : le système (S) se réduit à deux équations :



x1 + · · · + xn = 0
x1 = 0
la première se simplifiant même en x2 + · · · + xn = 0. Ainsi, en notant
  
 x1
 

 .. 
E3 =  .  ∈ Mn,1 (R) ; x1 = 0 et x2 + · · · + xn = 0
 
xn
 

on a Ker(A − In ) = E3 .
Nous n’avons pas encore tout à fait démontré que 1 est valeur propre de A : il pourrait
en effet se faire que E3 soit réduit à {0}.
D’une part, une solution de (S) vérifie nécessairement x1 = 0.
D’autre part, comme n > 3 l’équation x2 + · · · + xn = 0 contient au moins deux
termes ; il suffit d’en prendre un égal à 1, un autre égal à −1 et tous les autres nuls
pour en avoir une solution non nulle. Nous aurons ainsi bien utilisé le fait que n > 3.
T T
Soit le vecteur X = (0, 1, −1, 0, . . . , 0) (si n > 3) ou X = (0, 1, −1) (si
n = 3). Alors X ∈ E3 car les coordonnées de X vérifient bien x1 = 0 et
x2 + · · · + xn = 0. De plus, X 6= 0. Ainsi, E3 n’est pas réduit à {0}. Ceci
montre que 1 est valeur propre de A et que le sous-espace propre associé est
E3 . √ √
En conclusion, A possède trois valeurs propres : 1 + n − 1, 1 − n − 1 et 1.
Les sous-espaces propres associés sont respectivement E1 , E2 et E3 .
A est diagonalisable si et seulement si, la somme des dimensions de ses sous-espaces
propres est n.
Il est clair que dim(E1 ) = dim(E2 ) = 1. Reste à calculer dim(E3 ), la difficulté étant
que E3 est donné par un système d’équations.
Pour déterminer cette dimension, on peut chercher une base de E3 . Cependant, on
peut aussi calculer cette dimension par le théorème du rang. En effet, il est souvent
assez simple de déterminer le rang d’une matrice par des opérations élémentaires sur
les lignes et les colonnes. Parfois, le rang est même évident sans qu’il n’y ait à faire
ces opérations ; c’est le cas quand beaucoup de colonnes sont colinéaires voire égales.

Déterminons la dimension de E3 :
dim(E3 ) = dim(Ker(A − λIn )) = n − rg(A − In )
La matrice  
0 1 ··· 1
1 0 · · · 0
A − In =  .
 
 ..

0 
1 0 ··· 0
Algèbre 43

est de rang 2 donc dim(E3 ) = n − 2.

Connaître la dimension de E3 facilite la recherche d’une base de cet


espace : en effet, il suffirait désormais de trouver une famille libre de
n − 2 vecteurs de E3 pour en avoir une base.

La somme des dimensions des sous-espaces propres de A est n donc A est


diagonalisable.
A est donc semblable à la matrice
 
λ1 0

 λ2 


 1 


 . .. 

0 1
et en particulier a même déterminant, à savoir
√ √
λ1 λ2 = (1 + n − 1)(1 − n − 1) = 2 − n.

T
Si n = 2, les équations vérifiées par les éléments (x1 , x2 ) ∈ E3 se
√ E3 = {0} est 1 n’est pas valeur propre
résument à x1 = x2 = 0 ; ainsi,
de A. En revanche, comme n − 1 = 1, λ1 = 2 et λ2 = 0 sont valeurs
T
propres distinctes de sous-espaces propres associés respectifs R(−1, 1)
T
et R(1, 1) et A est encore diagonalisable.

Exercice 2.5 : Trigonalisation

Soit la matrice :  
−3 −2 0
A= 6 3 1 ∈ M3 (R).
4 0 3
On note f l’endomorphisme de R3 canoniquement associé à A.
1. Calculer les puissances de A − I3 .
Pour k ∈ {1, 2, 3} on pose Ek = Ker((f − Id)k ).
2. Démontrer que dim(Ek ) = k.
3. En déduire une base (u1 , u2 , u3 ) de E3 telle que (u1 ) est une base de E1 et
(u1 , u2 ) est une base de E2 .
4. Déterminer une matrice B triangulaire supérieure et semblable à A ainsi que
les matrices de passage correspondantes.
44 Chapitre 2 Réduction

1. Cette question est un simple calcul de produits matriciels.

On a successivement :
   
−4 −2 0 4 4 −2
A − I3 =  6 2 1 , (A − I3 )2 = −8 −8 4 
4 0 2 −8 −8 4
et (A − I3 )3 = 0. Au vu de cette dernière relation on a donc (A − I3 )n = 0 pour
tout n > 3.

2. D’une manière générale, si g et h sont deux endomorphismes d’un espace vectoriel,


on a toujours Ker(h) ⊂ Ker(g ◦ h) : en effet, si h(x) = 0, alors
(g ◦ h)(x) = g(h(x)) = g(0) = 0.

On a les inclusions :
Ker(f − Id) ⊂ Ker((f − Id)2 ) ⊂ Ker((f − Id)3 ) = R3 .

Le théorème du rang permet de faire le lien entre la dimension de Ker((f − Id)k ) et


rg((f − Id)k ) = rg((A − I3 )k ).
Pour calculer le rang, on dispose d’une méthode générale consistant à effectuer des
opérations élémentaires sur les lignes et les colonnes. Cependant, on peut aussi parfois
identifier le rang immédiatement : c’est ici le cas de (A − I3 )3 , qui est nulle donc de
rang nul, et (A − I3 )2 , dont toutes les colonnes sont colinéaires.

On calcule les dimensions des noyaux à l’aide du rang.


• Comme (A − I3 )3 = 0, (f − Id)3 = 0 et donc Ker((f − Id)3 ) = R3 . Ainsi,
dim(E3 ) = 3.
• Les colonnes de la matrice (A−I3 )2 sont colinéaires ; ainsi, rg((A−I3 )2 ) 6 1.
Par ailleurs (A − I3 )2 6= 0 donc rg((A − I3 )2 ) 6= 0.
Ainsi, rg((f − Id)2 ) = 1 donc, d’après le théorème du rang, on en déduit
que dim(Ker((f − Id)2 )) = 2.
• La matrice A − I3 n’est pas nulle et possède deux colonnes non colinéaires :
son rang est donc au moins 2.
Si son rang était 3, elle serait inversible et donc toutes ses puissance égale-
ment, en particulier (A−I3 )3 , qui est nulle. Ainsi, A−I3 n’est pas inversible,
donc son rang est 2. On en déduit dim(Ker(f − Id)) = 1.

Nous aurions aussi pu remarquer, pour cette dernière matrice, que la première colonne
est une combinaison linéaire des deux autres (le double de leur somme).

3. Il est aisé de construire des bases de ce type. En effet, une base de E1 est une
famille libre de E2 donc peut être complétée en une base de E2 , etc.
Nous connaissons les dimensions des espaces Ek , ce qui simplifie la détermination de
bases. En effet :
• E1 est de dimension 1, donc toute famille libre à un élément en est une base.
Autrement dit, on peut prendre pour u1 n’importe quel élément non nul de E1 .
Algèbre 45

• E2 est de dimension 2. La famille (u1 , u2 ) étant de cardinal 2 = dim(E2 ) il suffit


qu’elle soit libre pour être une base de E2 . Autrement dit, si u2 est n’importe quel
vecteur de E2 non colinéaire à u1 , (u1 , u2 ) est une base de E2 .
• Enfin, E3 = R3 est de dimension 3. Sachant que (u1 , u2 ) est libre, il suffit donc de
prendre pour u3 n’importe quel vecteur n’appartenant pas à Vect(u1 , u2 ), c’est-
à-dire à E2 , pour que (u1 , u2 , u3 ) soit également libre, et donc une base de R3
puisqu’elle a 3 = dim(R3 ) vecteurs.
On voit en particulier qu’il y a beaucoup (en fait, une infinité) de choix possibles pour
une telle base. Nous essaierons donc de faire en sorte que les vecteurs uk choisis soient
« les plus simples possibles ». En pratique, ceci signifie qu’on essaiera de faire en sorte
que leurs coordonnées dans la base canonique soient de petits entiers. Ceci permettra
d’avoir des matrices de passage simples.

Il ne faut surtout pas chercher la base demandée sous forme de trois


vecteurs ayant chacun trois coordonnées inconnues.

Commençons donc par chercher un élément non nul de E1 = Ker(f − Id).


Si (x, y, z) ∈ E1 alors    
x 0
(A − I3 ) y  = 0
z 0
ce qui se traduit par le système :

 −4 x − 2 y = 0
6x + 2y + z = 0
4x + 2z = 0

La première équation donne y = −2 x et la troisième z = −2 x. Ainsi, on obtient


(x, y, z) = x(1, −2, −2). Réciproquement, (1, −2, −2) est bien solution de ce système
donc le vecteur u1 = (1, −2, −2) est un élément non nul de E1 .
Alternativement, les égalités (f − Id)3 = (f − Id) ◦ (f − Id)2 et Ker((f − Id)3 ) = R3
entraînent Im((f − Id)2 ) ⊂ Ker(f − Id). Il suffit donc de trouver un élément non nul
de Im((f − Id)2 ). Ceci est facile puisque les vecteurs colonnes de la
 matrice
 (A − I3 )2
1
engendrent Im((f − Id)2 ) ; comme ces colonnes sont colinéaires à −2, on retrouve
−2
le fait que (1, −2, −2) est élément de Ker(f − Id).

On vérifie facilement que u1 = e1 − 2 e2 − 2 e3 est un vecteur non nul de E1 ,


qui est de dimension 1. La famille (u1 ) est donc une base de E1 .
Cherchons à compléter (u1 ) en une base de Ker((f − Id)2 ). Pour cela, il suffit de
trouver un vecteur u2 ∈ Ker((f − Id)2 ) non colinéaire à u1 .
Si u2 = x e1 + y e2 + z e3 , la relation (f − Id)2 (u2 ) = 0 donne 2 x + 2 y − z = 0. On
peut chercher u2 convenant avec un maximum de coordonnées nulles pour faciliter les
calculs ultérieurs.
46 Chapitre 2 Réduction

Si deux des coordonnées sont nulles, la relation 2x+2y −z = 0 montre que la troisième
est nulle et donc u2 également, ce qui est exclu.
Si x = 0, alors on peut prendre y = 1 et z = 2. On obtient ainsi bien un vecteur qui
n’est pas colinéaire à u1 .

On a E1 ⊂ E2 , donc u1 ∈ E2 . Le vecteur e2 + 2 e3 n’est pas colinéaire à u1


et est bien élément de E2 donc (u1 , u2 ) est une famille libre de E2 . Comme
dim(E2 ) = 2, c’est bien une base de E2 telle que (u1 ) est une base de E1 .

On aurait aussi bien pu choisir y = 0 puis x = 1 et z = 2, ou z = 0 puis


x = 1 et y = −1, ou même des coordonnées toutes non nulles, comme
x = y = 1 et z = 4.

Enfin, on peut prendre pour u3 n’importe quel vecteur qui n’est pas élément de E2 ,
c’est-à-dire u3 = x e1 +y e2 +z e3 avec 2 x+2 y −z = 6 0. Encore une fois, une infinité de
choix se présente mais il y en a de plus simples que d’autres : prendre deux coordonnées
nulles et la troisième égale à 1. N’importe lequel des trois vecteurs e1 , e2 et e3 est un
choix convenable pour u3 . Nous allons cependant choisir u3 = e3 afin que la matrice
de passage soit triangulaire : vu qu’il faudra effectuer un calcul de changement de
base, donc en particulier inverser cette matrice de passage, autant la choisir de sorte
que les calculs soient les plus simples possibles !

Le vecteur u3 = e3 n’appartient pas à E2 ; la famille (u1 , u2 , u3 ) est donc une


famille libre de E3 , qui est de dimension 3, et en est donc une base.
En résumé, nous avons : 
 u1 = e1 − 2 e2 − 2 e3
u2 = e2 + 2 e3
u3 = e3

4. Les relations précédentes donnent la matrice de passage demandée.

La matrice de passage de (e1 , e2 , e3 ) à (u1 , u2 , u3 ) est


 
1 0 0
P = −2 1 0 .
−2 2 1

Il s’agit désormais d’inverser le système précédent pour exprimer les ei en fonction


des uj . Ceci est facile car la matrice est triangulaire.

La définition de (u1 , u2 , u3 ) donnée précédemment permet d’obtenir aisément :



 e1 = u1 + 2 u2 − 2 u3
e2 = u2 − 2 u3
e3 = u3

Algèbre 47

La matrice de passage de (u1 , u2 , u3 ) à (e1 , e2 , e3 ) est donc :


 
1 0 0
P −1 =  2 1 0 .
−2 −2 1
Enfin, en notant B la matrice de f dans la base (u1 , u2 , u3 ), on a P −1 AP = B.
On en déduit :  
1 −2 0
B = 0 1 1
0 0 1

Exercice 2.6 : Réduction d’une matrice à paramètres

Pour quelles valeurs des scalaires a, b, c et d la matrice


 
1 a b
A = 0 2 c
0 0 d
est-elle diagonalisable ?

Cette matrice est triangulaire : ses valeurs propres sont donc simplement ses coeffi-
cients diagonaux.
Partant des valeurs propres, il suffit de déterminer la dimension des sous-espaces
propres associés pour déterminer si la matrice est ou non diagonalisable : une condition
nécessaire et suffisante pour qu’une matrice de taille n soit diagonalisable est que
chaque son polynôme caractéristique soit scindé et que chaque sous-espace propre soit
de même dimension que la multiplicité de la valeur propre associée. Un tel calcul de
dimension de noyau peut se ramener à un calcul, plus simple, de rang via le théorème
du même nom.

Lorsque l’énoncé ne demande pas de diagonaliser une matrice, il n’est


pas nécessaire de résoudre le système associé à chaque sous-espace
propre.

Il y a visiblement trois cas à distinguer selon que d = 1, d = 2 ou d ∈ / {1, 2}.


En effet, dans ce dernier cas, la matrice a trois valeurs propres distinctes. D’une
manière générale, si une matrice n × n possède n valeurs propres distinctes, elle est
diagonalisable.

La matrice A étant triangulaire, ses valeurs propres sont ses coefficients diago-
naux : 1, 2 et d.
Supposons d ∈ / {1, 2}. A est alors une matrice 3 × 3 possédant 3 valeurs propres
distinctes donc A est diagonalisable.
48 Chapitre 2 Réduction

Dans les cas d = 1 et d = 2, les rangs de A − I3 et A − 2 I3 se calculent sans peine.

Supposons d = 2. Les valeurs propres de A sont 1 (simple) et 2 (double).


D’une part, dim(Ker(f − Id)) = 1 (puisque 1 est valeur propre simple).
D’autre part,  
−1 a b
A − 2 I3 =  0 0 c  .
0 0 0
Si c = 0, cette matrice est de rang 1. Sinon, elle est de rang 2. La dimension
de Ker(f − 2 Id) est donc 2 si c = 0 et 1 si c = 6 0.
Ainsi : si d = 2 A est diagonalisable si et seulement si c = 0.
Traitons enfin le dernier cas.

Supposons d = 1. Les valeurs propres de A sont 1 (double) et 2 (simple).


D’une part,  
0 a b
A − I3 = 0 1 c  .
0 0 0
Cette matrice est de rang 1 ou 2 selon que a c = b ou non. Ker(f − Id) est
donc de dimension 1 (si a c 6= b) ou 2 (si a c = b).
D’autre part, dim(Ker(f − 2 Id)) = 1 (car 2 est valeur propre simple).
En particulier, la somme des dimensions des sous-espaces propres est 3 si, et
seulement si, ac = b.
Ainsi : si d = 1 A est diagonalisable si et seulement si a c = b.
La condition nécessaire et suffisante de diagonalisabilité peut se résumer ainsi :
d∈
/ {1, 2} ou (c, d) = (0, 2) ou (b, d) = (a c, 1).
Algèbre 49

Exercice 2.7 : Diagonalisation simultanée

Soit E un K-espace vectoriel de dimension finie n ∈ N∗ .


1. Soient u et v deux endomorphismes diagonalisables de E. Montrer que les
propriétés suivantes sont équivalentes :
(1) il existe une base B de E telle que MatB (u) et MatB (v) sont diago-
nales ;
(2) u ◦ v = v ◦ u.
2. Soit A un sous-ensemble non vide de L (E) dont tous les éléments sont dia-
gonalisables. On suppose que, pour tout (f, g) ∈ A2 , f ◦ g = g ◦ f . Montrer qu’il
existe une base B de E telle que, pour tout f ∈ A, MatB (f ) est diagonale. On
pourra raisonner par récurrence sur n en distinguant le cas où tous les éléments
de A sont des homothéties.

1. Pour montrer l’équivalence, on doit faire deux implications. On commence par la


plus simple.

1 =⇒ 2 : notons (e1 , . . . , en ) les vecteurs de B. Il existe des scalaires


λ1 , . . . , λn et µ1 , . . . , µn tels que, pour tout i : u(ei ) = λi ei et v(ei ) = µi ei .
En particulier, u(v(ei )) = λi µi ei et v(u(ei )) = µi λi ei ; u◦v et v ◦u coïncident
sur la base B et sont donc égaux.
Alternativement, on aurait pu considérer U (resp. V ) la matrice de u (resp. v) dans
B et constater que, ces deux matrices étant diagonales, on a U V = V U .
L’autre implication est plus difficile. Rappelons une propriété fondamentale des sous-
espaces propres : si deux endomorphismes d’un espace vectoriel commutent, tout
sous-espace propre de l’un est stable par l’autre.
Nous savons que E possède une base de vecteurs propres pour u et aussi une base de
vecteurs propres pour v. Le but de la question est de démontrer qu’il existe une base
constituée de vecteurs propres pour u et v simultanément. Le problème est qu’une
base de vecteurs propres pour l’un n’a a priori aucune raison d’être une base de
vecteurs propres pour l’autre.
Cependant, si u est une homothétie, tout se simplifie : toute base de E est une base
de vecteurs propres pour u donc n’importe quelle base de vecteurs propres pour v est
aussi une base de vecteurs propres pour u.
Dans le cas général, u n’est pas forcément une homothétie mais u induit une homo-
thétie sur chacun de ses sous-espaces propres. Si F est un sous-espace propre de u et
que F est stable par v alors l’endomorphisme vF de F induit par v est diagonalisable
(car v l’est) et l’endomorphisme uF induit par u est une homothétie (par définition
d’un sous-espace propre). On peut donc trouver une base de F consitutée de vecteurs
propres de vF et qui seront automatiquement vecteurs propres de uF . Il faudra en-
suite « remonter » à l’espace E et aux endomorphismes u et v ; pour cela, on pourra
utiliser le fait que E est la somme directe des sous-espaces propres de u.
50 Chapitre 2 Réduction

Il faut donc savoir si les sous-espaces propres de u sont bien stables par v. Justement,
il est supposé que u et v commutent, donc tout sous-espace propre de u est stable par
v.

2 =⇒ 1 : u et v commutant, tout sous-espace propre de l’un est stable par


l’autre.
De plus, tout endomorphisme induit sur un sous-espace stable par un endomor-
phisme diagonalisable est diagonalisable. Notons λ1 , . . . , λr les valeurs propres
distinctes de u et Ek = Ker(u − λk Id) les sous-espaces propres associés.
Pour chaque k, Ek est stable par v car u et v commutent et Ek est le noyau
d’un polynôme en u. v induit donc un endomorphisme vk de Ek . v étant diago-
nalisable, vk l’est également : il existe une base Bk de Ek constituée de vecteurs
propres de vk (et donc de v).
Par ailleurs, Ek est un sous-espace propre de u : tous ses éléments sont donc
vecteurs propres de u. En particulier, les vecteurs de la base Bk sont propres
pour u. Ainsi, Bk est une base de Ek dont tous les éléments sont vecteurs
propres de u et de v.
Soit B la famille de vecteurs obtenue en concaténant B1 , . . . , Br . Comme
chaque famille Bk est une base de Ek et que E est la somme directe des Ek ,
B est une base de E. Dans cette base, les matrices de u et de v sont diagonales.

2. Si tous les éléments de A sont des homothéties, il n’y a rien à faire : la matrice
d’une homothétie dans n’importe quelle base est diagonale et donc n’importe quelle
base de E convient.
Dans le cas contraire, l’un des éléments de A n’est pas une homothétie : nous pouvons
nous ramener à des espaces de dimension plus faible (pour pouvoir raisonner par
récurrence sur la dimension) en considérant ses sous-espaces propres. En effet, un
endomorphisme diagonalisable qui n’est pas une homothétie possède plusieurs sous-
espaces propres, qui sont donc tous de dimensions strictement inférieures à celle de
E.

On aura besoin de l’hypothèse de récurrence pour un k < n + 1, mais


on ne sait pas lequel. Il faut donc faire une récurrence forte.

Montrons par récurrence forte sur n ∈ N∗ la propriété Hn : « Si E est un


espace vectoriel de dimension n, A un sous-ensemble non vide de L (E) dont
les éléments sont diagonalisables et commutent deux à deux, alors il existe une
base B de E telle que, pour tout f ∈ A, MatB (f ) est diagonale. »
• H1 est vraie car toute matrice 1 × 1 est diagonale.
• Soit n ∈ N∗ tel que H1 , . . . , Hn . Considérons un espace vectoriel E de
dimension n + 1 et A une partie non vide de L (E) dont les éléments sont
diagonalisables et commutent deux à deux.
Algèbre 51

Si tous les éléments de A sont des homothéties, n’importe quelle base de E


convient.
Sinon, soit un élément f de A qui n’est pas une homothétie. f est diagona-
lisable par hypothèse et, en notant E1 , . . . , Er ses sous-espaces propres, on
Mr
a donc E = Ek .
k=1
Par ailleurs, f n’est pas une homothétie donc f a plusieurs valeurs propres.
Ainsi, r > 2. On a donc dim(E1 ) + · · · + dim(Er ) = n + 1, avec r > 2 et
dim(Ek ) > 1, ce qui impose dim(Ek ) 6 n pour k ∈ {1, . . . , r}.
Pour tout élément g de A, Ek est stable par g, car f et g commutent.
L’endomorphisme gk de Ek induit par g est diagonalisable, car g l’est. Enfin,
pour tous g et h ∈ A, gk ◦ hk = hk ◦ gk car g ◦ h = h ◦ g.
Ainsi, par hypothèse de récurrence (Hp avec p = dim(Ek ) 6 n), il existe
une base Bk de Ek telle que, pour tout g ∈ A, MatBk (gk ) est diagonale ;
autrement dit, Bk est une base de Ek dont tous les éléments sont vecteurs
propres de tous les élements de A.
Mr
Comme E = Ek la famille B obtenue en concaténant B1 , . . . , Br est
k=1
une base de E.
Enfin, pour tout k ∈ {1, . . . , r}, les vecteurs de Bk sont vecteurs propres
de tous les éléments de A ; ainsi, les vecteurs de B sont vecteurs propres
de tous les éléments de A, ce qui montre que la matrice de n’importe quel
élément de A dans B est diagonale, ce qui conclut la récurrence.

Exercice 2.8 : Réduction des matrices de trace nulle

1. Soit E un K-espace vectoriel (K = R ou C) de dimension finie n > 1 et f un


endomorphisme de E. On suppose que, pour tout x ∈ E, f (x) ∈ K x. Démontrer
que f est une homothétie, c’est-à-dire qu’il existe un scalaire λ tel que f = λ IdE .
2. Soit M ∈ Mn (K) une matrice non nulle de trace nulle. Montrer qu’il existe
P ∈ GLn (K) telle que la première colonne de P −1 M P soit nulle, sauf le deuxième
coefficient qui vaut 1.
3. Montrer que toute matrice de Mn (K) de trace nulle est semblable à une
matrice dont tous les coefficients diagonaux sont nuls. On pourra raisonner par
récurrence sur n.

1. Ce résultat n’a a priori rien d’évident. L’hypothèse est que, pour tout élément x
de E, il existe un scalaire λx tel que f (x) = λx x. La conclusion est qu’il existe un
scalaire λ tel que, pour tout élément x de E, f (x) = λ x. Ces deux énoncés diffèrent
par l’ordre des quantificateurs : dans le premier cas, le scalaire dépend de x, alors qu’il
52 Chapitre 2 Réduction

n’en dépend pas dans le second ! Autrement dit, il s’agit de montrer que les scalaires
λx sont en fait tous égaux.

Il faut bien faire la distinction entre une phrase logique du type ∀x, ∃λ,
où pour chaque x, on obtient un λ dépendant de x, et une phrase du
type ∃λ, ∀x qui nous donne un λ constant, qui marche pour tous les x.

Tous les éléments non nuls de E sont vecteurs propres de f ; en particulier, toute
base de E est une base de vecteurs propres de f (et donc f est diagonalisable).
Soit (e1 , . . . , en ) une base de E. Il existe des scalaires λ1 , . . . , λn tels que, pour
tout k ∈ {1, . . . , n}, f (ek ) = λk ek . Il suffit de montrer que λ1 = · · · = λn .
Si n = 1, il n’y a rien à faire.
Sinon, pour k et l distincts : f (ek + el ) = λk ek + λl el . Mais il existe aussi un
scalaire µ tel que f (ek + el ) = µ (ek + el ) (µ = λek +el avec les notations vues
plus haut). Ainsi :
λk ek + λl el = µ (ek + el ).
Comme (e1 , . . . , en ) est une base de E on a
λk = µ = λl .
Ainsi, λ1 = · · · = λn .

2. Soit f l’endomorphisme de Kn canoniquement associé à M . Supposons que P existe


et soit B la base de Kn telle que P est la matrice de passage de la base canonique
à B : alors P −1 M P est la matrice de f dans la base B et le fait que la première
colonne de cette matrice soit nulle, sauf le deuxième coefficient qui vaut 1, signifie que
l’image par f du premier vecteur de B est le deuxième vecteur de B. Ainsi, il s’agit
de démontrer l’existence d’une base (e1 , . . . , en ) de E telle que f (e1 ) = e2 .
Il suffit pour cela de disposer d’un vecteur x tel que (x, f (x)) est libre : en complétant
n’importe comment cette famille en une base de E nous aurons une base qui convient.

Nous devons envisager le cas où toutes les familles (x, f (x)) sont liées
puisqu’alors l’argument précédent ne tient pas. C’est précisément ici
qu’intervient le résultat de la première question : il faut distinguer
deux cas selon que f est une homothétie ou non.

Distinguons deux cas.


• Si l’endomorphisme canoniquement associé f est une homothétie : M est
de la forme λ In et sa trace est λ n. Ainsi, λ = 0 et donc M = 0, ce qui est
exclu. Ce cas est donc impossible.
Algèbre 53

• Si f n’est pas une homothétie : il existe x ∈ E tel que f (x) ∈ / K x. Si


a
a x + b f (x) = 0 alors b = 0 (car sinon f (x) = − x ∈ K x) d’où
b
a x = 0. x 6= 0 (car sinon f (x) = 0 ∈ K x = {0}) donc a = 0. Ainsi,
(x, f (x)) est libre. D’après le théorème de la base incomplète, il existe une
base B = (e1 , . . . , en ) de E telle que e1 = x et e2 = f (x). Alors la première
colonne de MatB (f ) est nulle, sauf le deuxième coefficient qui vaut 1, car
f (e1 ) = e2 . En notant P la matrice de passage de la base canonique à B, la
matrice précédente n’est autre que P −1 M P , qui possède donc la propriété
désirée.

3. Conformément à l’indication, commençons une démonstration par récurrence.

Montrons par récurrence sur n ∈ N∗ la propriété Hn : « Toute matrice de


Mn (K) de trace nulle est semblable à une matrice dont tous les coefficients
diagonaux sont nuls. »
• H1 est clairement vraie puisqu’une matrice 1 × 1 de trace nulle est nulle.
• Soient n ∈ N∗ tel que Hn est vraie et M ∈ Mn+1 (K) de trace nulle.
Si M = 0, M est semblable à elle-même dont les coefficients diagonaux
sont nuls.
Si M 6= 0 il existe P ∈ GLn+1 (K) telle que
 
0 L
 1 
 
−1  0
P MP = 


 .. 
 . N 
0
avec L ∈ M1,n (K) et N ∈ Mn (K) d’après la deuxième question.

Nous n’avons à ce stade fait que reprendre les résultats précédents.


Il reste à voir comment utiliser l’hypothèse de récurrence : où y a-t-il une matrice
d’ordre strictement inférieur à n + 1 et de trace nulle ? Clairement, la matrice N
convient. Nous allons utiliser l’hypothèse de récurrence pour réduire N et des produits
matriciels par blocs permettront de réduire M comme demandé.

On remarque que tr(N ) = tr(P −1 M P ) = tr(M ) = 0. Ainsi, par hypothèse


de récurrence, il existe une matrice Q ∈ GLn (K) telle que tous les coefficients
diagonauxde Q−1 N Q sont nuls.  
1 0 1 0
Soit R = ∈ Mn+1 (K). R est inversible, d’inverse .
0 Q 0 Q−1
Par ailleurs,
 
0 L
 1   
0 ∗
 
−1 −1  0
(P R) M (P R) = R  R = .

 ..  ∗ Q−1 N Q
 . N 
0
54 Chapitre 2 Réduction

Ainsi, (P R)−1 M (P R) est une matrice semblable à M dont tous les coefficients
diagonaux sont nuls. La propriété est donc démontrée par récurrence.
Dans la dernière égalité, nous n’avons pas pris la peine d’expliciter tous les blocs de
la matrice : en effet, seuls les blocs diagonaux nous intéressaient ici.

Exercice 2.9 : Étude d’un endomorphisme d’un espace


d’endomorphismes
Soit E un K-espace vectoriel de dimension finie non nulle. Pour f ∈ L (E) on
définit :
Φf : L (E) → L (E), g 7→ f ◦ g.
1. Vérifier que, pour tout f ∈ L (E), Φf ∈ L (L (E)).
2. Soit f ∈ L (E). Montrer que, pour tout P ∈ K[X], P (Φf ) = ΦP (f ) .
3. En déduire que Φf est diagonalisable si, et seulement si, f l’est.
4. Soit λ ∈ K. Décrire Ker(Φf − λ IdL (E) ) à l’aide de Ker(f − λ IdE ).

1. La notation ne doit pas effrayer : Φf est par définition une application de L (E)
dans lui-même. Dire que Φf ∈ L (L (E)) n’est donc rien d’autre que dire que Φf
est linéaire, c’est-à-dire que l’on a Φf (λ g + µ h) = λ Φf (g) + µ Φf (h) pour tous g et
h ∈ L (E) et λ et µ scalaires ; cette dernière relation peut enfin s’écrire

f ◦ (λ g + µ h) = λ f ◦ g + µ f ◦ h.

Finalement, comme dans presque toutes les questions demandant de vérifier qu’une
application est linéaire, il suffit simplement de le vérifier à partir de la définition.

Il faut bien faire la distinction entre les arguments de Φf (des fonctions)


et les arguments de f (des vecteurs de E).

Soit f ∈ L (E). Pour tout (g, h) ∈ L (E)2 et (λ, µ) ∈ K 2 on a


f ◦ (λ g + µ h) = λ f ◦ g + µ f ◦ h
car f est linéaire. Ainsi :
Φf (λ g + µ h) = f ◦ (λ g + µ h) = λ f ◦ g + µ f ◦ h
= λ Φf (g) + µ Φf (h)
et Φf est donc linéaire.
Algèbre 55

n
X
2. Si P = ak X k on a, par définition d’un polynôme d’endomorphismes,
k=0

n
X
P (Φf ) = ak Φkf .
k=0

Par ailleurs, pour tout g ∈ L (E),

n
! n
X X
k
ΦP (f ) (g) = P (f ) ◦ g = ak f ◦g = ak f k ◦ g.
k=0 k=0

Pour démontrer que P (Φf ) = ΦP (f ) , il suffit donc de démontrer que Φkf (g) = f k ◦ g
pour tout g ∈ L (E), c’est-à-dire Φkf = Φf k . Autrement dit, il suffit de démontrer le
résultat dans le cas particulier des monômes X k , ce qui est moins lourd à écrire et se
rédigera aisément par récurrence.

Montrons par récurrence sur n ∈ N la propriété Hn : « Φnf = Φf n . »


• H0 est vraie : en effet, Φ0f = IdL (E) et f 0 = IdE , par définition de la
puissance 0 d’un endomorphisme d’un espace vectoriel.
Par ailleurs, pour tout g ∈ L (E), ΦIdE (g) = IdE ◦g = g donc on obtient
ΦIdE = IdL (E) . Ainsi, Φ0f = Φf 0 .
• Soit n ∈ N tel que Hn . On a donc Φnf = Φf n c’est-à-dire :
∀g ∈ L (E), Φnf (g) = f n ◦ g.
On a alors successivement, pour tout g ∈ L (E) :
Φn+1
f (g) = Φf (Φnf (g)) = Φf (f n ◦ g) = f ◦ (f n ◦ g) = f n+1 ◦ g
= Φf n+1 (g).
Ainsi, Φn+1
f = Φf n+1 , c’est-à-dire Hn+1 est vraie.
En conclusion, Hn est vraie pour tout n ∈ N.
Traitons maintenant le cas général tel que nous l’avons fait en préambule :

n
X
Soit P = ak X k ∈ K[X]. On a
k=0
n
X
P (Φf ) = ak Φkf
k=0
56 Chapitre 2 Réduction

soit, pour tout g ∈ L (E) :


n
X n
X n
X
P (Φf )(g) = ak Φkf (g) = ak Φf k (g) = (ak f k ◦ g)
k=0 k=0 k=0
n
!
X
= ak f k ◦ g = P (f ) ◦ g
k=0
= ΦP (f ) (g).
Ceci étant vrai pour tout g ∈ L (E) nous avons donc démontré :
∀P ∈ K[X], P (Φf ) = ΦP (f ) .

3. Nous avons un lien simple entre polynômes et diagonalisation : un endomorphisme


d’un espace vectoriel de dimension finie est diagonalisable si et seulement si il possède
un polynôme annulateur scindé à racines simples.
La question précédente nous fournit justement des renseignements sur les polynômes
en f et Φf . Plus précisément, l’égalité P (Φf ) = ΦP (f ) entraîne que P (Φf ) = 0 si, et
seulement si, ΦP (f ) = 0. C’est ce que nous allons vérifier dans un premier temps.

Il est clair que, si P (f ) = 0, alors ΦP (f ) = 0 et donc P (Φf ) = 0.


Réciproquement, si P (Φf ) = 0, alors ΦP (f ) = 0 donc P (f ) ◦ g = 0 pour tout
endomorphisme g de E, en particulier pour g = IdE , ce qui donne P (f ) = 0.
Ainsi, f et Φf ont les mêmes polynômes annulateurs.
En particulier, Φf possède un annulateur scindé à racines simples si, et seulement
si, f possède un annulateur scindé à racines simples, donc Φ(f ) est diagonali-
sable si, et seulement si, f est diagonalisable.

4. Le fait que g ∈ Ker(Φf − λ IdL (E) ) signifie Φf (g) = λ g, soit f ◦ g = λ g et enfin


(f − λ Id) ◦ g = 0. Ceci est équivalent à l’inclusion Im(g) ⊂ Ker(f − λ Id).

Soit g ∈ L (E). Alors g ∈ Ker(Φf − λ IdL (E) ) si et seulement si f ◦ g = λ g.


Cette dernière relation est équivalente à (f −λ Id)◦g = 0, elle-même équivalente
à Im(g) ⊂ Ker(f − λ Id). Ainsi :
Ker(Φf − λ Id) = {g ∈ L (E) : Im(g) ⊂ Ker(f − λ Id)}.
Algèbre 57

Exercice 2.10 : Réduction

Soient un entier n > 2, a un réel non nul, et


 
b a
A=
 ..  ∈ Mn (R).

.
a b

1. Déterminer un polynôme annulateur de A.


2. A est-elle diagonalisable ? Déterminer ses valeurs propres et les dimensions de
ses sous-espaces propres.
3. Calculer det(A).

Remarquons que le cas a = 0 ne présenterait aucune difficulté puisqu’alors A serait


égale à b In .

1. Nous savons, d’après le théorème de Cayley-Hamilton, que le polynôme caracté-


ristique de A en est un polynôme annulateur. Cependant, il n’est pas du tout aisé à
calculer !
Pour déterminer un polynôme annulateur simple d’une matrice A, on peut essayer de
calculer les premières puissances de A et chercher une relation entre elles.
L’idéal est de pouvoir écrire A = λ In + B avec λ scalaire. En effet, les matrices B
et λ In commutent et on peut donc utiliser la formule du binôme de Newton pour
calculer les puissances de A en fonction de celles de B. Ceci est intéressant quand les
puissances de B sont simples à calculer, ce qui est le cas, entre autres :
(1) des matrices nilpotentes ;
(2) des matrices diagonales, parfois des matrices triangulaires ;
(3) des matrices dont tous les coefficients sont égaux ;
(4) des matrices « diagonales par blocs » avec de « petits » blocs.
Ici, nous pouvons faire apparaître la matrice J dont tous les coefficients sont égaux à
1 : plus précisément, tous les coefficients de a J sont égaux à a donc les coefficients
de a J + (b − a) In sont égaux à a en dehors de la diagonale et b sur la diagonale,
c’est-à-dire a J + (b − a) In = A.
Par ailleurs, comme annoncé, les puissances de J sont faciles à calculer car tous les
coefficients de J 2 sont égaux à n, c’est-à-dire J 2 = n J.
Ainsi, lorsque nous calculerons A2 , il apparaîtra un terme en J 2 que nous pourrons
exprimer en fonction de J, ce qui permettra de faire réapparaître A à l’aide de la
relation A = a J + (b − a) In et d’obtenir ainsi une relation entre A et A2 .

Soit J la matrice dont tous les coefficients sont égaux à 1.


Alors J 2 = n J et on a A = a J + (b − a) In . Comme J et In commutent on a
A2 = a2 J 2 + (b − a)2 In + 2 a (b − a) J
58 Chapitre 2 Réduction

soit, comme J 2 = n J,
A2 = (n a2 + 2 a (b − a)) J + (b − a)2 In .
 
1 b
Comme a 6= 0, on a J = A − − 1 In . En remplaçant J par cette
a a
expression dans l’égalité ci-dessus on obtient
   
1 b
A2 = (n a2 + 2 a (b − a)) A− − 1 In + (b − a)2 In
a a
soit, après simplification :
A2 − (n a + 2 (b − a)) A + (n a (b − a) + (b − a)2 ) In = 0.
Ainsi, le polynôme
P = X 2 − (n a + 2 (b − a)) X + (n a (b − a) + (b − a)2 )
est un polynôme annulateur de A.

2. La question est de savoir si A possède un polynôme annulateur scindé à racines


simples. Commençons donc par étudier les racines de P , ce qui est facile puisque P
est de degré 2 : si le discriminant est strictement positif alors P possède deux racines
réelles distinctes et est donc scindé à racines simples.

Le discriminant de P est
(n a + 2 (b − a))2 − 4 (n a (b − a) + (b − a)2 ) = n2 a2 > 0
donc P possède deux racines réelles distinctes.
P est un polynôme annulateur scindé à racines simples de A donc A est diago-
nalisable.
Par ailleurs, les valeurs propres de A sont racines de tout polynôme annulateur de
A, en particulier de P . À partir du discriminant de P calculé plus haut on obtient
aisément ses racines.

Les racines de P sont (n a + 2 (b − a) ± n a)/2, c’est-à-dire b − a et b + (n − 1) a.


Autrement dit, P = (X − (b − a)) (X − (b + (n − 1) a))
Comme P (A) = 0, les valeurs propres de A sont toutes racines de P donc
appartiennent à {b − a, b + (n − 1) a}.

A priori, il se pourrait que l’un de ces réels ne soit pas valeur propre
de A.

Cependant, nous savons ici que A est diagonalisable et a donc au moins une valeur
propre. De plus, une matrice diagonalisable qui n’a qu’une seule valeur propre λ est en
fait égale à λ In , ce qui n’est pas le cas de A. A possède donc plusieurs valeurs propres,
ce qui assure que b − a et b + (n − 1) a sont bien valeurs propres de A. Cependant,
il est ici demandé de calculer les dimensions des sous-espaces propres associés. Il va
Algèbre 59

donc falloir effectuer quelques calculs. Une façon simple d’aborder une telle question
est de plutôt calculer des rangs.

Soit f l’endomorphisme de Rn canoniquement associé à A.


Comme A − (b − a) In = a J on a, d’après le théorème du rang :
dim(Ker(f − (b − a) Id)) = n − rg(f − (b − a) Id)
= n − rg(A − (b − a) In )
= n − rg(a J).
Toutes les colonnes de a J sont colinéaires donc rg(a J) 6 1. Par ailleurs,
comme a 6= 0, a J n’est pas nulle donc son rang n’est pas nul non plus. Ainsi,
rg(a J) = 1 donc dim(Ker(f − (b − a) Id)) = n − 1.
Sachant que A est diagonalisable, le calcul de la dimension de l’autre sous-espace
propre est rapide.

A étant diagonalisable, la somme des dimensions de ses sous-espaces propres


est n ; la dimension du sous-espace propre associé à b + (n − 1) a est donc 1.
On aurait également pu utiliser le fait que la trace de A (nb) est la somme des valeurs
propres comptées avec multiplicité. Ainsi, notant k la multiplicité de b − a,b + (n − 1) a
est de multiplicité n − k (car A est diagonalisable) donc
k(b − a) + (n − k) (b + (n − 1) a) = nb,
ce qui donne k = n − 1.

Le fait de savoir qu’une matrice est diagonalisable (par exemple lors-


qu’on a constaté qu’elle avait un polynôme annulateur scindé à racines
simples) permet d’abréger le calcul de la dimension des sous-espaces
propres : la dernière dimension est imposée par le fait que la somme de
toutes ces dimensions est égale à n.
Cependant, si l’on ne sait pas que la matrice est diagonalisable, il faut
calculer « à la main » toutes ces dimensions et voir si leur somme est
égale à n pour conclure quant à la diagonalisabilité.

3. Nous connaissons les valeurs propres et les dimensions des sous-espaces propres
associés, donc nous connaissons une matrice diagonale semblable à A sans avoir besoin
de calculer des matrices de passage !

D’après les questions précédentes, A est semblable à


 
b−a 0
 .. 

 . .

 b−a 
0 b + (n − 1) a
60 Chapitre 2 Réduction

En particulier, ces deux matrices ont même déterminant. On en déduit


det(A) = (b − a)n−1 (b + (n − 1) a).

Exercice 2.11 : Diagonalisabilité et sous-espaces stables

Soient E un C-espace vectoriel et u ∈ L (E). Montrer que u est diagonalisable si


et seulement si tout sous-espace F de E stable par u admet un supplémentaire
stable par u.

Pour montrer cette caractérisation, il faut montrer un sens puis l’autre.


I Sens direct
Dans le sens direct, pour commencer, on se donne un sous-espace stable. Il faut
montrer l’existence d’un supplémentaire stable. Comme dans la preuve du cours, qui
montre l’existence d’un supplémentaire en dimension finie, on pense alors au théorème
de la base incomplète.

Supposons u diagonalisable, on a alors B une base de E, constituée de vec-


teurs propres pour u. Soit F un sous-espace de E stable par u. On se donne
(e1 , . . . , ep ) une base de F . D’après le théorème de la base incomplète, on peut
compléter (e1 , . . . , ep ) en une base (e1 , . . . , en ) de E au moyen d’éléments de
B.
On pose alors G = Vect(ep+1 , . . . , en ), et on a F ⊕ G = E. De plus, comme
ep+1 , . . . , en sont des éléments de B, ce sont des vecteurs propres de u. Notons
λp+1 , . . . , λn les valeurs propres associées.
n
Si x ∈ G, on a (µp+1 , . . . , µn ) ∈ Kn−p tel que x =
P
µi ei et
i=p+1
n
X n
X
u(x) = µi u(ei ) = µi λi ei ∈ G
i=p+1 i=p+1

donc G est stable par u.

Il faut bien se souvenir qu’on peut choisir où prendre les vecteurs avec
lesquels on complète une base, dans le théorème de la base incomplète.

I Sens réciproque
Pour le sens réciproque, on commence par constater que u admet une valeur propre
et un vecteur propre associé (puisqu’on est dans C). On applique alors l’hypothèse à
F = C x, ce qui donnera un sous-espace stable G. La stabilité permet de considérer
l’endomorphisme induit par u sur G, et on réitère le raisonnement.
Algèbre 61

Supposons que tout sous-espace stable par u admette un supplémentaire stable


par u. Montrons que u est diagonalisable par récurrence sur la dimension de E.
• Si E est de dimension 1, il est clair que u est diagonalisable.
• On suppose désormais le résultat acquis pour n − 1 (n ∈ N∗ ). Dans C[X], le
polynôme caractéristique de u est scindé, donc u admet au moins une valeur
propre λ et un vecteur propre x associé. Posons F = C x, F est stable par
u. Par hypothèse, on a donc G un supplémentaire de F stable par u, qui
vérifie dim(G) = n − 1.
Soit v l’endomorphisme induit par u sur G. Si F1 est un sous-espace de G
stable par v, il est stable par u, donc on a H un supplémentaire de F1 dans
E stable par u. Par suite, G1 = H ∩ G est un supplémentaire de F1 dans
G, stable par u (donc par v). Ainsi v vérifie la même hypothèse que u, et
par hypothèse de récurrence, v est diagonalisable.
On ajoute x à une base de G de vecteurs propres de v pour obtenir une base
de E de vecteurs propres de u. Ainsi u est diagonalisable.

Exercice 2.12 : Une caractérisation des endomorphismes


nilpotents
Soient E un C-espace vectoriel de dimension finie et f ∈ L (E).
1. Montrer que si f est nilpotent, pour tout k ∈ {1, . . . , n}, tr(f k ) = 0.
Réciproquement, on suppose que pour tout k ∈ {1, . . . , n}, tr(f k ) = 0. On note
λ1 , . . . , λp les valeurs propres disctintes de f , de multiplicités m1 , . . . , mp .
p
mk λik = 0.
P
2. Montrer que pour tout i ∈ {1, . . . , n},
k=1
3. En déduire que f est nilpotent.

1. Si f est nilpotent, il est trigonalisable de valeur propre nulle. On calcule alors les
traces demandées dans une base de trigonalisation.

Comme f est nilpotent, il est trigonalisable et sa seule valeur propre est 0. On a


donc B une base de E dans laquelle la matrice T de f est triangulaire supérieure
avec des 0 sur la diagonale.
Pour k ∈ {1, . . . , n}, T k est donc triangulaire supérieure, avec des 0 sur la
diagonale, et tr(f k ) = tr(T k ) = 0.

2. Là encore, le calcul des traces s’effectue facilement dans une base de trigonalisation
(possible puisqu’on est dans C).

Dans C[X], le polynôme caractéristique de f est scindé, donc f est trigonali-


sable. On a donc une base B de E dans laquelle la matrice T de f est triangulaire
supérieure, avec pour coefficients diagonaux, m1 fois λ1 , . . . , mp fois λp . Pour
62 Chapitre 2 Réduction

k ∈ {1, . . . , n}, T k est encore triangulaire supérieure, avec pour coefficients


diagonaux, m1 fois λk1 , . . . , mp fois λkp . Ainsi :
p
X
mi λki = tr(T k ) = tr(f k ) = 0.
i=1

Il faut toujours penser à trigonaliser lorsqu’on souhaite faire le lien


entre les valeurs propres de f et celles d’un polynôme en f .

3. Pour montrer que f est nilpotent, il faut montrer que sa seule valeur propre est 0.
On suppose donc (par l’absurde) que f a plus de deux valeurs propres. La question
précédente donne alors un système de n équations à p inconnues, qui rappelle un
Vandermonde.

Si p = 1, alors m1 = n et n λ1 = 0 donne λ1 = 0. Ainsi la seule valeur propre


de f est 0, donc son polynôme caractéristique est X n , donc par le théorème de
Cayley-Hamilton, f n = 0 et f est nilpotent.
Supposons maintenant p > 1. Si 0 est une des valeurs propres de f , quitte à les
échanger, on suppose λp = 0. On obtient alors
p−1
X
mi λki = 0 pour tout k ∈ {1, . . . , n}.
i=1
Quitte à diminuer p de 1, on peut supposer que toutes les valeurs propres de f
sont non nulles. Les p équations
X p
mi λki = 0 en prenant k entre 1 et p
i=1
forment alors un système de p équations à p inconnues (m1 , . . . , mp ), dont la
matrice associée est  
λ1 . . . λp
A =  ... ..  .

. 
p
λ1 . . . λpp
Cette matrice est inversible : on reconnait un déterminant de Vandermonde, une
fois que λ1 , . . . , λp , non nuls, sont mis en facteurs, et les λi sont deux à deux
distincts.
Ainsi le système a une unique solution. Comme (0, . . . , 0) est solution, c’est la
solution nulle et m1 = . . . = mp = 0. Absurde, puisque les mi sont tous non
nuls ! Ainsi p = 1 et comme vu plus haut, f est nilpotent.
Algèbre 63

Exercice 2.13 : Décomposition de Dunford

Soit E un K-espace vectoriel de dimension finie non nulle p et f un endomor-


phisme de E. On note P le polynôme caractéristique de f et on suppose qu’il
est scindé : P = (X − λ1 )n1 · · · (X − λr )nr avec r ∈ N∗ , λ1 , . . . , λr les racines
distinctes de P de multiplicités respectives n1 , . . . , nr .
1. Démontrer qu’il existe des sous-espaces E1 , . . . , Er de E stables par f , tels
que pour tout k entre 1 et r, l’endomorphisme induit par f sur Ek soit somme
d’une homothétie et d’un endomorphisme nilpotent.
2. Démontrer qu’il existe deux endomorphismes d et n de E, avec d diagonalisable
et n nilpotent, tels que f = d + n et d ◦ n = n ◦ d.
3. Application numérique : soit f l’endomorphisme de R3 défini par
f (x, y, z) = (−2z, x + 3z, y).
Déterminer les matrices de d et n dans la base canonique.

1. Cette décomposition de E a a été vue en cours. Il faut appliquer le lemme des


noyaux à partir de la factorisation de P et les Ek sont les Ker((f − λk Id)nk ) (sous-
espaces caractéristique) .

Si i 6= j sont entre 1 et r, les polynômes (X −λi )ni et (X −λj )nj sont premiers
entre eux car ils n’ont aucun facteur irréductible en commun.
On a donc, d’après le lemme de décomposition des noyaux :
Mr Mr
Ker(P (f )) = Ker((f − λk Id)nk ) = Ek .
k=1 k=1
nk
en posant Ker((f − λk Id) ) = Ek (stable par f puisque c’est le noyau d’un
polynôme en f ).
D’autre part, d’après le théorème de Cayley-Hamilton, P (f ) = 0 et donc
Ker(P (f )) = E, ainsi :
M r
E= Ek .
k=1
Pour k entre 1 et r, notons fk l’endomorphisme induit par f sur Ek . On a
(fk − λk Id)nk = 0, donc fk − λk Id est nilpotent.
Ainsi fk est la somme d’une homothétie et d’un endomorphisme nilpotent.

Il est important de savoir refaire ce raisonnement pour obtenir la dé-


composition de E en somme des sous-espaces caractéristiques.
64 Chapitre 2 Réduction

2. Nous avons vu que la décomposition de E comme somme directe des sous-espaces


Ek permettait de simplifier l’étude de f . L’idée est de commencer par montrer que la
propriété est vérifiée par les fk pour ensuite remonter à f .

Pour k ∈ {1, . . . , r}, nous avons, d’après ce qui précède, que fk est la somme
de l’homothétie λk Id et de l’endomorphisme nilpotent gk = fk − λk Id de Ek .
Dans une base Bk de Ek , on a donc (notant Mk la matrice de fk et Nk celle
de gk ) Mk = λ Ink + Nk , avec Nknk = 0.
La matrice M de f dans la base B obtenue en concaténant les base B1 , . . . , Bk
est diagonale par blocs :
 
M1 0
M =
 .. .

.
0 Mr
que l’on peut écrire sous forme d’une somme :
   
λ1 In1 0 N1 0
M =
 . .. +
  ..  = D + N.

.
0 λr Inr 0 Nr

Notons que D est diagonale. N est nilpotente car elle est diagonale par blocs avec
des blocs diagonaux eux-mêmes nilpotents. Il restera ensuite à vérifier que D et N
commutent.

Vérifions que N est nilpotente et commute avec D.


• D et N commutent : en effectuant les produits par blocs,
  
λ1 In1 0 N1 0
DN = 
 ..  .. 
.  . 
0 λr Inr 0 Nr
 
λ1 N1 0
=
 .. 
. 
0 λr Nr
  
N1 0 λ1 In1 0
=
 ..  .. 
.  . 
0 Nr 0 λr Inr
= N D.
• N est nilpotente. En effet :
 l l 
N1 0 N1 0
l
N =
 ..  =
  .. .

. .
0 Nr 0 Nrl
Algèbre 65

On sait que Nknk = 0 ; on a donc Nkl = 0 pour tout entier l > nk . En


particulier, avec l = max(n1 , . . . , nr ), Nkl = 0 pour tout k. Ainsi, N l = 0,
ce qui montre que N est nilpotente.

Enfin, nous pouvons revenir aux endomorphismes.

Soit d l’endomorphisme de E dont la matrice dans la base B est D et n celui


dont la matrice dans cette base est N .
Alors f = d+n, d est diagonalisable car sa matrice dans la base B est diagonale,
n est nilpotent et d ◦ n = n ◦ d.

3. La méthode est expliquée dans les questions précédentes : nous allons commencer
par déterminer les sous-espaces caractéristiques de f .

La matrice de f dans la base canonique de R3 est


 
0 0 −2
A = 1 0 3  .
0 1 0
Son polynôme caractéristique P vérifie alors :
∀λ ∈ R, P (λ) = det(λ In − A)
et un calcul simple donne
∀λ ∈ R, P (λ) = λ3 − 3λ + 2.
Pour trouver les racines de ce polynôme, cherchons des racines évidentes. On
voit rapidement que P (1) = 0, ce qui permet une première factorisation :
P (λ) = (λ − 1)(λ2 + λ − 2). Les racines du facteur de degré 2 sont 1 et −2
d’où la factorisation de P :
P = (X − 1)2 (X + 2).

Cherchons désormais des bases des sous-espaces caractéristiques. Nous savons d’après
ce qui précède qu’en les concaténant nous obtiendrons une matrice « diagonale par
blocs » qui nous permettra de trouver D et N .

Notons E1 = Ker((f − Id)2 ) et E2 = Ker(f + 2 Id) les sous-espaces caracté-


ristiques de f .
D’une part,  
1 −2 4
(A − I3 )2 = −2 4 −8 .
1 −2 4
Un vecteur (x, y, z) ∈ R appartient donc au noyau de (f −Id)2 si, et seulement
3

si :
x − 2 y + 4 z = 0.
C’est l’équation d’un plan (de dimension 2), il suffit donc de trouver deux vecteurs
non colinéaires dans ce plan pour en avoir une base.
66 Chapitre 2 Réduction

Posons u1 = (2, 1, 0) et u2 = (0, 2, 1). On vérifie aisément que u1 et u2 sont


deux éléments de Ker((f − Id)2 ). De plus, ils ne sont pas colinéaires donc
(u1 , u2 ) est libre. Enfin, d’après les questions précédentes, Ker((f − Id)2 ) est
de dimension 2 donc (u1 , u2 ) est une base de Ker((f − Id)2 ).
Passons à l’autre sous-espace caractéristique. Nous savons qu’il est de dimension 1 et
il suffit donc d’en trouver un élément non nul pour avoir une base.

D’autre part :  
2 0 −2
A + 2 I3 = 1 2 3  .
0 1 2
Les éléments (x, y, z) de Ker(f + 2 Id) vérifient donc

x = z
.
y = −2 z
En particulier, on voit que (1, −2, 1) ∈ Ker(f + 2 Id). Comme ce noyau est
de dimension 1, d’après les questions précédentes, la famille réduite au vecteur
u3 = (1, −2, 1) en est une base.
Nous allons maintenant déterminer, comme nous l’avons fait précédemment dans le
cas général, la matrice de f dans la base B = (u1 , u2 , u3 ). Nous savons que nous
aurons une matrice diagonale par blocs, le premier bloc étant d’ordre 2. Pour cela, on
peut calculer les matrices de passage.

La matrice de passage de la base canonique de R3 à (u1 , u2 , u3 ) est


 
2 0 1
P = 1 2 −2 .
0 1 1
Son inverse est  
4 1 −2
1 
P −1 = −1 2 5 ,
9
1 −2 4

Le calcul de P −1 , non précisé ici, se fait par le pivot de Gauss.

La matrice de f dans (u1 , u2 , u3 ) est donc


 
0 −1 0
P −1 AP = 1 2 0 .
0 0 −2

Nous devons maintenant écrire cette matrice comme somme d’une matrice diagonale
et d’une matrice nilpotente. Cependant, nous ne cherchons pas ces matrices au hasard :
nous savons que la matrice diagonale doit être, d’après les questions précédentes,
diag(1, 1, −2).
Algèbre 67

Nous avons donc, avec les notations précédentes :


   
1 0 0 −1 −1 0
D = 0 1 0  et N = 1 1 0 .
0 0 −2 0 0 0

Ce sont les matrices de d et n respectivement dans la base (u1 , u2 , u3 ). Il reste à


effectuer un changement de base pour obtenir leurs matrices dans la base canonique,
ce qui est ici demandé.

Toujours avec les notations précédentes, les matrices de d et n dans la base


canonique de R3 sont respectivement
   
2 2 −4 −2 −2 −2
1 1
P DP −1 =  2 −1 8  et P N P −1 =  1 1 1 .
3 3
−1 2 −1 1 1 1

D’après ce qui précède, ces matrices commutent. On peut aisément le vérifier à la


main pour s’assurer qu’il n’y a pas eu d’erreur dans les calculs. On peut également
vérifier que leur somme est bien égale à A.

Exercice 2.14 : Théorème de Cayley-Hamilton

Le but de cet exercice est de démontrer le théorème de Cayley-Hamilton. Veillez


donc à ne pas l’utiliser pour répondre aux questions!
1. Lemme : soient un entier n > 2 et (a0 , . . . , an−1 ) ∈ Kn . Déterminer le poly-
nôme caractéristique de la matrice
 
0 ... ... 0 a0
..
1 . . .
 
 . a1  
A(a0 , . . . , an−1 ) = 0 . . . . . . ... ..  .

 . 
. . .. 
 .. .. ... 0 . 
0 . . . 0 1 an−1

Soit E un K-espace vectoriel de dimension finie non nulle n et f un endomor-


phisme de E dont on notera P le polynôme caractéristique. On fixe un élément
non nul x de E.
2. Démontrer qu’il existe un plus petit entier naturel p tel que la famille
(x, f (x), . . . , f p (x)) est liée ; vérifier que p =
6 0.
3. Soit F = Vect(x, f (x), . . . , f p−1 (x)). Démontrer que F est stable par f et que
la famille B = (x, f (x), . . . , f p−1 (x)) en est une base.
4. On note g l’endomorphisme de F induit par f . Quelle est la matrice de g dans
B?
5. Soit Q le polynôme caractéristique de g. Démontrer que Q(g)(x) = 0.
6. Montrer que Q divise P puis que P (f )(x) = 0. Conclure.
68 Chapitre 2 Réduction

1. Commençons par traiter les petites valeurs de n pour voir si un schéma simple se
dégage, ce qui permettrait une démonstration par récurrence.
• Si n = 2 :  
0 a0
A(a0 , a1 ) =
1 a1
et P son polynôme caractéristique. Alors, pour tout scalaire x :
 
x −a0
P (x) = det = x(x − a1 ) − a0 = x2 − a1 x − a0 .
−1 x − a1
Ainsi, P = X 2 − a1 X − a0 .
• Si n = 3 :  
0 0 a0
A(a0 , a1 , a2 ) = 1 0 a1 
0 1 a2
et P son polynôme caractéristique. Alors, pour tout scalaire x :
 
x 0 −a0
P (x) = det −1 x −a1  .
0 −1 x − a2
En développant selon la première colonne il vient
   
x −a1 0 −a0
P (x) = x det + det
−1 x − a2 −1 x − a2
soit
P (x) = x(x(x − a2 ) − a1 ) − a0
et enfin P (x) = x − a2 x2 − a1 x − a0 . Ainsi, P = X 3 − a2 X 2 − a1 X − a0 .
3

Dans le cas général de l’énoncé, il est raisonnable de supposer que le polynôme carac-
téristique de A(a0 , . . . , an−1 ) est X n − an−1 X n−1 − · · · − a1 X − a0 .

Montrons par récurrence sur n > 2 la propriété Hn :


« Pour tout (a0 , . . . , an−1 ) ∈ Kn , le polynôme caractéristique de la matrice
A(a0 , . . . , an−1 ) est X n − an−1 X n−1 − · · · − a1 X − a0 . »
• H2 est vraie comme vu plus haut.
• Soit un entier n > 2 tel que Hn . Considérons (a0 , . . . , an ) ∈ Kn+1 et soit
P le polynôme caractéristique de A(a0 , . . . , an ). Ainsi, pour tout x ∈ K :
 
x ... ... 0 −a0
..
−1 . . .
 
 . −a1 
P (x) = det(x In+1 − A(a0 , . . . , an )) = det  0 . . . . . .
 .. ..  .
 . . 
 . .. .. .. 
 .. . . x . 
0 . . . 0 −1 x − an
Algèbre 69

En supprimant la première ligne et la première colonne de x In+1 − A(a0 , . . . , an ) on


obtient la matrice xIn − A(a1 , . . . , an ).
En supprimant la première ligne et la dernière colonne de x In+1 − A(a0 , . . . , an ) on
obtient une matrice triangulaire supérieure.
Ainsi, en développant le déterminant donnant P (x) par rapport à la première ligne,
on obtiendra deux déterminants d’ordre n aisés à calculer : le premier est donné
par l’hypothèse de récurrence et le second est un déterminant triangulaire et donc
simplement le produit des termes diagonaux.

Attention aux signes : d’une manière générale, quand on développe un


déterminant par rapport à une ligne ou une colonne, le déterminant
extrait obtenu en supprimant la ligne i et la colonne j est affecté du
coefficient (−1)i+j ; ici, dans le cas de la première ligne et de la dernière
colonne, i = 1 et j = n + 1, d’où la présence du coefficient (−1)n+2 .

En développant le déterminant selon la première ligne on obtient


P (x) = x det(xIn − A(a1 , . . . , an )) + (−1)n+2 (−a0 ) det(T )
où T est la matrice obtenue en supprimant la première ligne et la dernière
colonne de x In+1 − A(a0 , . . . , an−1 ).
– D’une part, det(x In − A(a1 , . . . , an )) = xn − an xn−1 − · · · − a2 x − a1 par
hypothèse de récurrence.
– D’autre part, T est triangulaire supérieure à coefficients diagonaux tous égaux
à −1, donc det(T ) = (−1)n . Ainsi,
P (x) = x(xn − an xn−1 − · · · − a2 x − a1 ) − a0
= xn+1 − an xn − · · · − a1 x − a0 .
Cette relation étant vraie pour tout x ∈ K,
P = X n+1 − an X n − · · · − a1 X − a0 .
Autrement dit, Hn+1 est vraie, ce qui conclut la récurrence.

2. Pour démontrer qu’il existe un plus petit entier naturel possédant une propriété,
il suffit de démontrer que l’ensemble des entiers naturels possédant cette propriété
n’est pas vide : il possède alors un plus petit élément car toute partie non vide de N
possède un minimum.
Dans le cas qui nous intéresse, il s’agit donc de démontrer qu’il existe au moins
un entier naturel k tel que la famille (x, f (x), . . . , f k (x)) est liée. Comme E est de
dimension finie n, toute famille de cardinal n + 1 est liée, il suffit donc de prendre
k = n.

Soit X l’ensemble des entiers naturels k tels que la famille (x, f (x), . . . , f k (x))
est liée. Comme E est de dimension finie n, toute famille de cardinal n + 1 est
liée, en particulier (x, f (x), . . . , f n (x)) est liée. Ainsi, n ∈ X, donc X 6= ∅.
70 Chapitre 2 Réduction

X est un sous-ensemble non vide de N donc possède un plus petit élément p.


Ainsi, p est le plus petit entier naturel tel que (x, f (x), . . . , f p (x)) est liée.
Supposons p = 0 ; la famille est alors réduite à (x). Cependant, x = 6 0, donc la
famille (x) est libre ; ainsi, p 6= 0.
Remarquons dès à présent que la définition de p entraîne que toutes les familles
(x, f (x), . . . , f k (x)), avec k < p, sont libres (et en particulier si k = p − 1, ce qui
servira par la suite).

3. La définition de la famille B est bien cohérente car p ∈ N∗ : si p était nul, f p−1 (x)
n’aurait pas de sens en général ! C’est pour cela qu’il était demandé de vérifier p = 6 0.
Comme F est, par définition, engendré par les vecteurs f k (x) avec 0 6 k 6 p − 1, il
suffit de démontrer que f (f k (x)) ∈ F pour tout ces entiers k.
C’est facile pour les premières valeurs de k, il restera à montrer que f (f p−1 (x)), c’est-
à-dire f p (x), est élément de F , c’est-à-dire est combinaison linéaire des f k (x) avec
0 6 k 6 p − 1.
Nous avons une propriété assez voisine de celle-ci : la famille (x, f (x), . . . , f p (x)) étant
liée, et (x, f (x), . . . , f p−1 (x)) étant libre, on peut écrire f p (x) comme combinaison
linéaire des autres f k (x).

Pour 0 6 k 6 p − 2, on a f (f k (x)) = f k+1 (x) ∈ F car alors k + 1 6 p − 1.


Par définition de p (x, f (x), . . . , f p (x)) est liée et (x, f (x), . . . , f p−1 (x)) est
libre. f p (x) s’écrit donc comme combinaison linéaire de x, f (x), . . . , f p−1 (x) :
on a (λ0 , . . . , λp−1 ) ∈ Kp tel que.
p−1
X
f p (x) = λk f k (x) ∈ F.
k=0
p−1
En conséquence, f (f (x)) ∈ F : F est donc stable par f .
Enfin, par définition, B est une famille génératrice de F . De plus, nous avons
vu que cette famille est libre, c’est donc une base de F .

4. Pour plus de clarté notons, pour 0 6 k 6 p − 1, ek = f k (x).


g étant induit par f on a, par définition, g(y) = f (y) pour tout élément y de F . En
particulier, g(ek ) = f (f k (x)) = f k+1 (x). Si k + 1 6 p − 1, ce dernier vecteur n’est
autre que ek+1 . Le cas de g(ep−1 ) devra être traité séparément.

Si 0 6 k 6 p − 2, k + 1 6 p − 1 et on a donc g(ek ) = ek+1 .


Pour k = p−1, on a g(ep−1 ) = f p (x). Nous avons vu précédemment que f p (x)
est combinaison linéaire de B ; il existe donc des scalaires a0 , . . . , ap−1 tels que
p−1
X p−1
X
f p (x) = ak f k (x) = ak ek .
k=0 k=0
Algèbre 71

La matrice de g dans la base B est donc :


 
0 ... ... 0 a0
..
1 . . .
 
 . a1  
MatB (g) = 0 . . . .. . ..  = A(a , . . . , a ).
. ..

 . 

0 p−1
. . .. .. 
 .. .. . 0 . 
0 ... 0 1 ap−1

5. Vu la forme de la matrice de g dans B, le lemme de la première question s’applique.


Le résultat en découle immédiatement.

D’après le lemme, Q = X p − ap−1 X p−1 − · · · − a1 X − a0 . On a donc


p−1
X
Q(g) = g p − ak g k
k=0
et enfin :
p−1
X
p
Q(g)(x) = g (x) − ak g k (x).
k=0
Par définition des scalaire ak on a :
p−1
X
p
f (x) = ak f k (x)
k=0
soit, vu que g(y) = f (y) pour tout y ∈ F :
p−1
X
g p (x) = ak g k (x)
k=0
ce qui donne enfin
Q(g)(x) = 0.
Nous pouvons remarquer que l’on a en fait Q(g) = 0. En effet, comme Q(g) est un
polynôme en g, Q(g) et g commutent. On a donc
Q(g)(g k (x)) = g k (Q(g(x))) = g k (0) = 0
pour tout entier naturel k. Par ailleurs, g étant induit par f , g k (x) = f k (x). Ainsi,
Q(g) est nul sur tous les vecteurs de B et donc sur F . Nous avons donc démon-
tré le théorème de Cayley-Hamilton pour g, c’est-à-dire dans le cas particulier des
endomorphismes dont la matrice dans une certaine base est de la forme du lemme.

6. Le calcul du polynôme caractéristique peut se faire à partir de la matrice de l’en-


domorphisme dans n’importe quelle base. Pour trouver une relation entre P et Q, on
peut donc d’abord chercher une relation entre les matrices de g et f dans des bases
de F et E bien choisies.
Afin d’exploiter le fait que F est stable par f et que g est l’endomorphisme de F induit
par f , on peut considérer la matrice de f dans une base de E obtenue en complétant
72 Chapitre 2 Réduction

une base de F . En effet, dans une telle base, la matrice de f est constituée de quatre
blocs et le bloc en deuxième ligne et première colonne est nul. Ceci permet de calculer
les déterminants, et donc les polynômes caractéristiques, simplement.

Comme toujours, quand on veut compléter une base d’un espace vec-
toriel de dimension finie, il faut traiter à part un cas particulier. En
effet, si F est égal à E, B est elle-même une base de E et il n’y a rien
à compléter : dans ce cas, on a simplement g = f et donc Q = P . De
façon analogue, avant d’introduire une base d’un espace vectoriel, on
doit toujours vérifier qu’il n’est pas réduit à 0.

Distinguons deux cas.


• Supposons p = n : alors F = E et donc, comme g(y) = f (y) pour tout
y ∈ F , on a g = f et enfin Q = P , donc Q divise P .
• Supposons p < n.
Complétons B en une base C de E. Alors la matrice de f dans la base C
est de la forme  
A B
0 C
avec A = MatB (g) ∈ Mp (K), B ∈ Mp,n−p (K) et C ∈ Mn−p (K).
Pour tout λ ∈ K on a donc :
   
A B λ Ip − A −B
λ In − =
0 C 0 λ In−p − C
donc P (λ) = Q(λ) det(λ In−p − C) = Q(λ) R(λ), avec R le polynôme
caractéristique de C.
Ceci étant vrai pour tout scalaire λ on a l’égalité
P = QR
donc Q divise P .

Le produit des polynômes se traduit par la composition des endomorphismes. Ceci


permet de faire le lien entre P (f ) et Q(f ), et donc Q(g).

La relation P = QR donne P (f ) = Q(f ) ◦ R(f ) = R(f ) ◦ Q(f ).


Ainsi : P (f )(x) = Q(f )(R(f )(x)) = R(f )(Q(f )(x)).
Comme g est induit par f on a, pour tout élément y de F , Q(g)(y) = Q(f )(y) ;
en particulier, Q(f )(x) = Q(g)(x) = 0.
Il vient enfin :
P (f )(x) = R(f )(Q(f )(x)) = R(f )(0) = 0.

Le but de l’exercice est de démontrer que P (f ) = 0, c’est-à-dire que l’égalité ci-dessus


est vérifiée pour tous les vecteurs x de E. Ceci est presque le cas : nous l’avons vérifié
Algèbre 73

pour un vecteur non nul quelconque, il reste à voir que c’est encore vrai pour x = 0,
ce qui est clair par linéarité.

Nous avons donc démontré que, pour tout élément non nul x de E, P (f )(x) = 0.
Par ailleurs, P (f ) est linéaire, donc P (f )(0) = 0. Ainsi, P (f )(x) = 0 pour tout
élément x de E. Ceci montre que P (f ) = 0, c’est-à-dire que P , le polynôme
caractéristique de f , est un polynôme annulateur de f : c’est le théorème de
Cayley-Hamilton.
CHAPITRE

Espaces euclidiens
3
Exercice 3.1 : Famille de polynômes orthogonaux

Sur E = R[X], on définit un produit scalaire en posant, pour P et Q ∈ R[X],


Z 1
hP |Qi = P (t)Q(t) dt.
−1

1. Justifier que h | i définit bien un produit scalaire sur E.


2. Montrer qu’il existe une unique suite (Pn )n∈N ∈ R[X]N orthogonale telle que
∀n ∈ N, deg(Pn ) = n et Pn a pour coefficient dominant 1.
Z 1

3. Pour n ∈ N et R ∈ Rn−1 [X], justifier que Pn (t)R(t) dt = 0.
−1
4. En déduire que pour tout n ∈ N∗ , Pn est scindé à racines simples et que
celles-ci sont dans [−1, 1].
On pourra construire un polynôme R de degré au plus n − 1 tel que Pn R soit de
signe constant sur [−1, 1].

1. Il faut tout simplement vérifier les trois axiomes de la définition.

Montrons que h | i est un produit scalaire :


• Soit (P, Q) ∈ R[X]2 , on a
Z 1 Z 1
hP |Qi = P (t)Q(t) dt = Q(t)P (t) dt = hQ|P i ,
−1 −1
donc h | i est symétrique.
• Soient (P, Q, R) ∈ R[X]3 et (λ, µ) ∈ R2 , on a
Z 1
hλP + µQ|Ri = (λP (t) + µQ(t))R(t) dt
−1
Z 1 Z 1
=λ P (t)R(t) dt + µ Q(t)R(t) dt
−1 −1
= λ hP |Ri + µ hQ|Ri .
Ainsi h | i est linéaire à droite, puis bilinéaire (grâce à la symétrie).
Algèbre 75

• h | i est positif par positivité de l’intégrale.


Z 1
Soit P ∈ R[X] tel que hP |P i = 0. Alors P (t)2 dt = 0. Comme la fonc-
−1
tion t 7→ P (t)2 est positive et continue (car polynomiale), elle est constante
nulle, donc P (t)2 = 0 pour tout t ∈ [−1, 1], puis P (t) = 0. P admet donc
une infinité de racines, donc P = 0.
Ainsi h | i est défini-positif. C’est donc bien un produit scalaire.

On peut se permettre de passer très vite sur les deux premiers points,
mais il faut toujours prouver proprement le caractère défini-positif, qui
nécessite généralement des théorèmes un peu plus évolués.

2. Le résultat demandé ressemble au procédé d’othonormalisation de Gram-Schmidt,


avec des polynômes de coefficient dominant 1 au lieu de norme 1. On adapte donc la
preuve de ce procédé (qu’il faut bien connaître) à ce cas particulier.

On pourrait appliquer le procédé d’orthonormalisation démontré dans


le cours pour obtenir l’existence, mais pas l’unicité.

Montrons par récurrence sur n ∈ N la propriété P(n) : « ∃!(P0 , . . . , Pn ) or-


thogonale, ∀k ∈ {0, . . . , n}, deg(Pk ) = k et Pk est de coefficient dominant
1. »
• Il existe un unique polynôme de degré 0 et de coefficient dominant 1, c’est
P0 = 1. On a donc P(0).
• Soit n ∈ N tel que P(n). On a, par hypothèse de récurrence, l’existence et
l’unicité de (P0 , . . . , Pn ). Il reste donc à montrer l’existence et l’unicité de
Pn+1 . Pour ce faire, on raisonne par analyse/synthèse.

I Analyse :
On suppose avoir Pn+1 qui convient, il doit alors être orthogonal à P0 , . . . , Pn , donc
à tous les polynômes de Rn [X]. On peut donc exprimer Pn+1 via la projection ortho-
gonale : il est de la forme Q − pn (Q), où pn est la projection sur Rn [X].
Comme Pn+1 doit être unitaire et de degré n + 1, on doit donc avoir Q = X n+1 .

Supposons avoir Pn+1 ∈ R[X] de degré n + 1, de coefficient dominant 1, et


orthogonal à (P0 , . . . , Pn ). Comme (P0 , . . . , Pn ) est échelonnée en degrés, elle
est libre. Elle contient n + 1 = dim(Rn [X]) éléments, c’est donc une base de
Rn [X].
76 Chapitre 3 Espaces euclidiens

Ainsi Pn+1 est orthogonal aux éléments d’une base de Rn [X], donc à Rn [X].
Comme il est de la forme X n+1 + Q, avec Q ∈ Rn [X], on a Q = −pn (X n+1 ),
où pn désigne la projection orthogonale sur Rn [X] (puisque −Q est dans Rn [X]
et vérifie X n+1 − (−Q) = P orthogonal à Rn [X]).
On a donc Pn+1 = X n+1 − pn (X n+1 ) et on a l’unicité.
I Synthèse :
On pose ici le résultat trouvé dans l’analyse. Il ne faut cependant pas oublier de
vérifier qu’il est bien unitaire, de degré n + 1 et orthogonal à P0 , . . . , Pn .

Posons Pn+1 = X n+1 − pn (X n+1 ). Alors comme pn (X n+1 ) est dans Rn [X]
(donc de degré 6 n), Pn+1 est de degré n + 1 et de coefficient dominant 1.
D’autre part Pn+1 est orthogonal à Rn [X] par définition du projeté orthogonal,
donc à (P0 , . . . , Pn ). On a donc l’existence, ce qui termine de montrer P(n+1).
En conclusion, ∀n ∈ N, P(n), ce qui donne l’existence et l’unicité de la suite
cherchée.

3. La relation à démontrer se réécrit hPn |Ri = 0. Il faut donc montrer que Pn est
orthogonal à R, ce qu’on a déjà fait dans la question précédente.

Soit n ∈ N∗ , on a vu dans la question précédente que Pn est orthogonal à


Rn−1 [X], donc à R. Ainsi
Z 1
0 = hPn |Ri = Pn (t)R(t) dt.
−1

4. On suit l’indication donnée : pour construire un polynôme R tel que Pn R soit de


signe constant sur [−1, 1], il faut que R change de signe en même temps que P . Il
faut donc considérer les points ai de [−1, 1] où P s’annule en changeant de signe. Le
polynôme donné par le produit des X − ai s’annule en changeant de signe en même
temps que P , ce qui implique que P R est de signe constant.

Notons a1 < · · · < ak les points de [−1, 1] où Pn s’annule en changeant de


signe (avec k = 0 si Pn ne s’annule pas en changeant de signe sur [−1, 1]).
Posons alors
k
Y
R= (X − ai ) avec R = 1 si k = 0.
i=1
Comme R s’annule en changeant de signe aux ai , Pn R est de signe constant
sur [−1, 1].
Z 1
Supposons k 6 n − 1. Alors R ∈ Rn−1 [X], donc Pn (t)R(t) dt = 0 d’après
−1
la question précédente. Mais t 7→ Pn (t)R(t) est continue et de signe constant
sur [−1, 1], donc pour tout t ∈ [−1, 1], Pn (t)R(t) = 0, puis Pn R admet une
infinité de racines, donc Pn R = 0. Comme R = 6 0 et Pn 6= 0, c’est absurde !
Ainsi k > n et puisque Pn admet au plus n racines (car il est de degré n), on
a k = n et Pn est scindé, à racines simples, sur [−1, 1].
Algèbre 77

Exercice 3.2 : Une série de Fourier

On considère E l’ensemble des fonctions f continues de R dans R, 2π-périodiques


et paires.
On munit E du produit scalaire définit par :
1 π
Z
hf |gi = f (t)g(t) dt.
π 0

Pour n ∈ N, on pose cn : x 7→ 2 cos(nx) si n > 1, c0 : x 7→ 1.
1. Montrer que h | i définit un produit scalaire sur E.
2. Montrer que la suite (cn )n∈N est orthonormale.
3. Si f ∈ E et ε > 0, montrer qu’il existe P ∈ R[X] tel que
∀x ∈ [0, π], |f (x) − P (cos x)| 6 ε.
4. En déduire que la suite (cn )n∈N est totale.
n
P
Pour n ∈ N et f ∈ E, on note an (f ) = hcn |f i puis Sn (f ) = ak (f )ck .
k=0
(f ))n∈N converge vers f pour la norme associée à h | i.
5. Montrer que (Sn P
6. On suppose que ak converge absolument. Montrer que
+∞
X
∀x ∈ R, f (x) = an (f )cn (x).
n=0

1. Comme souvent, il faut surtout faire attention au caractère défini-positif.

h | i est clairement bilinéaire (par linéarité de l’intégrale) et symétrique. Si


f ∈ E, on a hf |f i > 0 par positivité de l’intégrale.
Supposons hf |f i = 0. La fonction f 2 est positive et continue sur [0, π], donc
est nulle sur ce segment. Pour t ∈ [0, π], on donc f (t) = 0. Par parité, f est
alors nulle sur [−π, π], puis sur R par périodicité. Ainsi f = 0.
En conclusion h | i définit un produit scalaire sur E.

2. Il suffit de calculer les hcn |cm i pour n et m ∈ N. La seule difficulté (outre la


connaissance des formules de trigonométrie !) est de bien distinguer les cas où m ou
n est nul.

La définition de cn change suivant le fait que n soit nul ou non. Pour


étudier hcn |cm i, il faut distinguer les cas n ou m = 0. Attention éga-
lement à distinguer le cas n = 6 m qui apparait lors de l’intégration de
cos((n − m)t).
78 Chapitre 3 Espaces euclidiens

Soient (n, m) ∈ N2 , on distingue plusieurs cas :


• Si n = m = 0, on a immédiatement hcn |cm i = 1.
• Si n 6= 0 et m = 0 (ou l’inverse, puisque h | i est symétrique), on a :
√ Z π √  π
2 2
hcn |cm i = cos(nt) dt = sin(nt) = 0.
π 0 nπ 0
• Si n et m 6= 0, avec m =6 n, alors :
Z π
2
hcn |cm i = cos(nt) cos(mt) dt
π 0
1 π
Z
= (cos((n + m)t) + cos((n − m)t)) dt
π 0
 π
2 1 1
= sin((n + m)t) + sin((n − m)t) = 0
π n+m n−m 0
• Enin, si n = m = 6 0, on a :
2 π 1 π
Z Z
hcn |cm i = cos2 (nt) dt = (1 + cos(2nt)) dt
π 0 π 0
 π
1 1
= t+ sin(2nt) = 1.
π 2n 0

Dans tous les cas, il vient hcn |cm i = 0 si n =


6 m, 1 si n = m, donc (cn )n∈N est
orthonormale.

3. En posant y = cos(x), il faut donc approximer uniformément la fonction donnée par


g(y) = f (arccos(y)) par un polynôme P sur [0, 1]. Ceci vient directement du théorème
de Weierstrass

Soit g : [0, 1] → R, y 7→ f (arccos(y)). g est continue sur [0, 1] comme composée


de fonctions qui le sont. Par le théorème de Weierstrass, on a donc P ∈ R[X]
tel que
∀y ∈ [0, 1] , |g(y) − P (y)| 6 ε.
Pour x ∈ [0, π], on a alors y = cos x ∈ [0, 1] donc
|f (x) − P (cos(x))| = |g(cos(x)) − P (cos(x))| 6 ε.

4. Il faut montrer que seule la fonction nulle est orthogonale à tous les cn . Soit f une
telle fonction. Pour exploiter la question précédente, on veut montrer f est orthogonale
à tous les P (cos(x)), donc à tous les x 7→ cosn (x). On pense alors à la linéarisation,
qui permet d’exprimer les cosn (x) comme combinaison linéaire de cos(kx)
Ensuite, si f est orthogonale à tous les P (cos x), P ∈ R[X], comme on dispose d’une
suite de ces fonctions qui converge uniformément vers f par la question précédente,
on montre que f est orthogonale à elle-même.
Algèbre 79

Soit f ∈ E telle que ∀n ∈ N, hf |cn i = 0. Pour n ∈ N, et x ∈ R, la linéarisation


de cosn (x) donne (par la formule d’Euler et du binôme de Newton) :
n n  
e + e−ix
 ix
1 X n ikx −i(n−k)x
cosn (x) = = n e e
2 2 k
k=0
n  
1 X n i(2k−n)x
= n e
2 k
k=0
n   n  
1 X n i(2k−n)x 1 X n i(2k−n)x
= n+1 e + n+1 e
2 k 2 k
k=0 k=0
n   n  
1 X n i(2k−n)x 1 X n
= n+1 e + n+1 ei(n−2k)x
2 k 2 n−k
k=0 k=0
n  
1 X n
= n+1 (ei(2k−n)x + ei(n−2k)x )
2 k
k=0
n  
1 X n
= n cos((n − 2k)x)
2 k
k=0
Ainsi x 7→ cosn x est combinaison linéaire de fonctions de la forme cn−2k (ou
c2k−n par parité de cosinus), donc est orthogonale à f . f est donc orthogonale
à toutes les fonctions du type x 7→ P (cos x), P ∈ R[X].
D’après la question précédente, on a (Pn )n∈N une suite de R[X]N telle que
(Pn (cos(x)))n∈N converge uniformément vers f sur [0, π]. Comme la conver-
gence est uniforme, on a alors :
1 π 1 π
Z Z
0 = hf |Pn (cos(.))i = f (t)Pn (cos(t)) dt −→ f (t)2 dt.
π 0 n→+∞ π 0
Z π
Par unicité de la limite, on a donc f (t)2 dt = 0. Ainsi hf |f i = 0 et f est
0
nulle.
5. On constate que Sn (f ) est le projeté orthogonal de f sur Vect(c0 , . . . , cn ). La suite
(cn )n∈N est orthonormale totale, donc (Sn (f ))n∈N converge vers f pour la norme
euclidienne associée à h | i de E.

Pour n ∈ N, on a
n
X n
X
Sn (f ) = ak (f )ck = hf |ck i ck ,
k=0 k=0
donc Sn (f ) est le projeté orthogonal de f sur Vect(c0 , . . . , cn ).
La suite (cn )n∈N étant orthonormale et totale, (Sn (f ))n∈N converge vers f pour
la norme euclidienne associée à h | i de E.

P +∞
P
6. Comme |an (f )| converge, on peut définir la fonction g : x 7→ an (f )cn (x). On
n=0
montre facilement que cette suite de fonctions converge normalement sur R.
80 Chapitre 3 Espaces euclidiens

Pour montrer que g = f , il suffit de montrer que g − f est orhogonal à tous les cn ,
c’est-à-dire que hcn |gi = hcn |f i i.e. an (f ) = an (g) pour tout n ∈ N. Pour ceci, on
utilise le théorème d’inversion série et intégrale, grâce à la convergence normale.

Pour x ∈ R et n ∈ N∗ , on a :
√ √
|an (f )cn (x)| 6 2 |an (f )| | cos(nx)| 6 2 |an (f )|,
P+∞
qui reste vraie si n = 0. Ainsi la série de fonction g = n=0 an (f )cn converge
normalement sur R.
Pour p ∈ N, on a
Z +∞
1 π 1 πX
Z
ap (g) = hg|cp i = g(t)cp (t) dt = an (f )cn (t)cp (t) dt.
π 0 π 0 n=0
Comme la série définissant g converge normalement sur R, elle converge nor-
malement, donc uniformément sur [0, π]. On peut donc intervertir somme et
intégrale (puisque les t 7→ an cn (t)cp (t) sont toutes continues) et :
+∞ Z π +∞
1X X
ap (g) = an (f ) cn (t)cp (t) dt = an (f ) hcn |cp i = ap (f )
π n=0 0 n=0
puisque la suite (cn )n∈N est orthonormale.
Ainsi, pour p ∈ N, hf − g|cp i = hf |cp i − hg|cp i = ap (f ) − ap (g) = 0. f − g est
donc orthogonal à tous les éléments de la suite (cn )n∈N , qui est totale, donc
f − g = 0. Ainsi, pour x ∈ R,
+∞
X
f (x) = g(x) = an (f )cn (x).
n=0

Exercice 3.3 : Un problème de minimisation

Déterminer la valeur de
Z 1
inf (t2 − at − b)2 dt
(a,b)∈R2 0
et préciser pour quelles valeurs de a et b elle est atteinte.

Il s’agit de déterminer la borne inférieure d’une intégrale dépendant de deux para-


mètres a et b. Le carré permet de réinterpréter cette intégrale comme étant la norme
au carré de X 2 − aX − b, en définissant un produit scalaire intégral sur R[X].
Quand (a, b) décrit R2 , aX + b décrit R1 [X]. La borne inférieure cherchée est donc
d(X 2 , R1 [X])2 . Cette distance se calcule au moyen du projeté orthogonal sur R1 [X].
Ce projeté orthogonal se trouve en prenant une base orthonormée de R1 [X], que l’on
obtient en orthonormalisant (1, X).
Algèbre 81

Pour (P, Q) ∈ R[X]2 , on pose


Z 1
hP |Qi = P (t)Q(t)dt.
0
On montre comme dans l’exercice précédent que h | i définit un produit sca-
laire sur R[X].
Appliquons le procédé d’orthonormalisation de Gram-Schmidt pour transformer
(1, X) en une base orthonormée (P0 , P1 ) de R1 [X].
1
On pose P0 = = 1.
k1k
Notons p0 la projection orthogonale sur R0 [X], on pose alors
X − p0 (X)
P1 = .
kX − p0 (X)k
Z 1
1
Or p0 (X) = hX|P0 i P0 = t dt =
et
0 2
Z 1 2 Z 1 
1 2 1 2 1
kX − k = t− dt = t −t+ dt
2 0 2 0 4
1 1 1 1
= − + = .
3 2 4 12
√ √ √
Ainsi P1 = 12 X − 12 = 2 3X − 3.


On a alors
Z 1
inf 2 (t2 − at − b)2 dt = inf 2 kX 2 − aX − bk2 = d(X 2 , R1 [X])2 .
(a,b)∈R 0 (a,b)∈R

Notant p1 la projection orthogonale sur R1 [X], on a


d(X 2 , R1 [X]) = kX 2 − p1 (X 2 )k.
Avec la base orthonormée calculée plus haut, il vient
p1 (X 2 ) = X 2 P0 P0 + X 2 P1 P1
Z 1 √ Z 1 2 √ √
 
1
= t2 dt + 2 3 t (2 3t − 3)dt X −
0 0 2
Z 1 2
  
1 t 1
= + 12 t3 − dt X −
3 2 2
0  
1 1 1 1
= + 12 − X−
3 4 6 2
1 1 1
= +X − =X −
3 2 6

Il est important de savoir appliquer le procédé d’orthonormalisation,


soit en apprenant les formules par cœur, soit en sachant les retrouver
très vite.
82 Chapitre 3 Espaces euclidiens

Ainsi
Z 1  2
2 2 2 2 2 2 1
d(X , R1 [X]) = kX − p1 (X )k = t −t+ dt
0 6
Z 1 2
1 t2 t
= t4 + t2 + − 2t3 + − dt
0 36 3 3
1 1 1 1 1 1
= + + − + −
5 3 36 2 9 6
36 + 60 + 5 − 90 + 20 − 30 1
= = .
180 180
En conclusion, on a donc :
Z 1
1
inf 2 (t2 − at − b)2 dt = ,
(a,b)∈R 0 180
1
et cet inf est atteint pour a = 1 et b = − .
6

Exercice 3.4 : Isométries matricielles

Soient n ∈ N∗ et E = Mn (R). Pour (A, B) ∈ E 2 , on pose hA|Bi = tr(t AB).


1. Montrer que h | i définit un produit scalaire sur E.
2. Donner une CNS sur B ∈ E pour que f : A 7→ AB soit un automorphisme
orthogonal de E.
3. Donner une CNS sur B ∈ GLn (R) pour que f : A 7→ B −1 AB soit un auto-
morphisme orthogonal de E.

1. Encore une fois, il faut tout simplement vérifier les trois axiomes de la définition.

Montrons que h | i est un produit scalaire :


• Soit (A, B) ∈ E 2 , alors
hB|Ai = tr(t BA) = tr(t (t AB)) = tr(t AB) = hA|Bi .
donc h | i est symétrique
• Soient (A, B, C) ∈ E 3 et (λ, µ) ∈ R2 , alors
hλA + µB|Ci = tr(t (λA + µB)C) = tr(λt AC + µt BC)
= λ tr(t AC) + µ tr(t BC) = λ hA|Ci + µ hB|Ci
donc h | i est linéaire à gauche. Par symétrie, h | i est bilinéaire.
• Soit A ∈ E, alors
Xn n X
X n n X
X n
t t
hA|Ai = ( AA)i,i = ( A)i,j aj,i = a2j,i > 0
i=1 i=1 j=1 i=1 j=1
Algèbre 83

où les ai,j sont les coefficients de A. Supposons hA|Ai = 0. Comme c’est une
somme de réels positifs, ils sont tous nuls, et pour tout (i, j) ∈ {1, . . . , n}2 ,
a2j,i = 0. Par suite, aj,i = 0, ce qui montre que A = 0. Ainsi h | i est défini
positif.
En conclusion, h | i définit un produit scalaire sur E.

2. L’énoncé demande de trouver une condition nécessaire et suffisante sur B pour


que f soit un automorphisme orthogonal. Pour ce faire, on commence par supposer
f orthogonal et on en tire le maximum d’information sur B (un peu comme dans
un raisonnement par analyse/synthèse). Lorsqu’on obtient une condition qui parait
satisfaisante sur B, il faudra prouver qu’elle est bien suffisante.
I Condition nécessaire :

Supposons avoir B ∈ E tel que f soit un automorphisme orthogonal. Pour tout


(A, C) ∈ E 2 , on a alors hf (A)|f (C)i = hA|Ci i.e.
tr(t f (A)f (C)) = tr(t AC) i.e. tr(t B t ACB) = tr(t AC)
i.e. tr(t ACB t B) = tr(t AC)
puisque tr(t B(t ACB)) = tr((t ACB)t B).
Ceci équivaut à hA|CB t Bi = hA|Ci, donc à hA|CB t B − Ci = 0. Comme ceci
vaut pour tout A ∈ E, CB t B − C = 0 i.e. CB t B = C. En prenant C = In ,
on trouve B t B = In , c’est-à-dire B ∈ On (R).

Il ne faut pas oublier de vérifier que si B est une matrice orthogonale,


alors f est un automorphisme orthogonal.

I Condition suffisante :

Réciproquement, supposons B ∈ On (R). Alors pour tout (A, C) ∈ E 2 , on a


hf (A)|f (C)i = tr(t f (A)f (C)) = tr(t B t ACB) = tr(t ACB t B)
= tr(t AC) = hA|Ci
donc f est un automorphisme orthogonal.
En conclusion, f est un automorphisme orthogonal si et seulement si B est une
matrice orthogonale.

3. On procède de même que dans la question précédente.


I Condition nécessaire :

Supposons avoir B ∈ GLn (R) tel que f soit un automorphisme orthogonal.


84 Chapitre 3 Espaces euclidiens

Alors pour tout (A, C) ∈ E 2 , on a hf (A)|f (C)i = hA|Ci i.e.


tr(t f (A)f (C)) = tr(t AC) i.e. tr(t B t At B −1 B −1 CB) = tr(t AC)
i.e. tr(t A(B t B)−1 CB t B) = tr(t AC).
Ceci équivaut à
A (B t B)−1 CB t B = hA|Ci ,
donc à
A (B t B)−1 CB t B − C = 0.
Comme ceci vaut pour tout A ∈ E,
(B t B)−1 CB t B − C = 0 i.e. CB t B = B t BC.

Il faut maintenant bien se souvenir (et savoir prouver rapidement) que


les matrices qui commutent avec toute matrice sont les matrices sca-
laires.

En prenant C = Ei,j (la matrice dont tous les coefficients sont nuls, sauf le
coefficient (i, j) qui vaut 1) pour (i, j) ∈ {1, . . . , n}2 , et notant M = B t B, on
calcule que CM est la matrice dont toutes les lignes sont nulles, sauf la i-ème,
qui est la j-ième ligne de M , et que M C est la matrice dont toutes les colonnes
sont nulles, sauf la j-ième, qui est la i-ème colonne de M . Si i = 6 j, on en déduit
que mi,j = 0 et que mi,i = mj,j . Ainsi M est de la forme λIn , λ ∈ R.
De plus, on a B inversible, donc M = B t B est inversible, ce qui montre que
λ=6 0.
Pour X ∈ Mn,1 (R)\{0}, t XB t BX = kt BXk2 > 0 (où k k désigne la norme
euclidienne usuelle sur Mn,1 (R)), donc λN (X)2 = N (t BX)2 > 0, ce qui
√ 1
montre que λ > 0. On peut donc poser α = ± λ et B1 = B. La relation
α
B t B = In donc B1t B1 = In , donc B1 ∈ On (R). Au final, B = αB1 , avec
α ∈ R∗ et B1 ∈ On (R).
I Condition suffisante :

Réciproquement, supposons avoir B1 ∈ On (R) et α ∈ R∗ tel que B = αB1 .


Alors pour tout (A, C) ∈ E 2 , on a
hf (A)|f (C)i = tr(t B t At B −1 B −1 CB) = α−2 tr(t B t ACB)
= α−2 tr(t ACB t B) = tr(t AC) = hA|Ci
donc f est un automorphisme orthogonal.
En conclusion, f est un automorphisme orthogonal si et seulement si B est de
la forme αB1 , avec B1 ∈ On (R) et α ∈ R∗ .
Algèbre 85

Exercice 3.5 : Formes quadratiques

Soient E un espace euclidien de dimension n et p endomorphismes symétriques


u1 , . . . , up de E. Pour i ∈ {1, . . . , p}, on note qi = x 7→ hui (x)|xi.
On suppose que ∀x ∈ E, q1 (x)+· · ·+qp (x) = kxk2 et que rg(u1 )+· · ·+rg(up ) = n.
1. Montrer que u1 + · · · + up = IdE .
2. Montrer que Im(u1 ) ⊕ · · · ⊕ Im(up ) = E.
3. Montrer que les ui sont en fait des projecteurs orthogonaux et que la somme
précédente est orthogonale.

1. Pour x ∈ E, l’identité de l’énoncé se réécrit hu1 (x) + · · · + up (x) − x|xi = 0. On


aimerait plutôt avoir hu1 (x) + · · · + up (x) − x|yi = 0 pour tout y ∈ E, ainsi le vecteur
u1 (x) + · · · + up (x) − x serait orthogonal à tout vecteur de E, donc nul.

À elle seule, l’identité < u1 (x) + · · · + up (x) − x, x >= 0 ne donne pas


u1 (x) + · · · + up (x) − x = 0 !

On cherche donc à montrer que


hx|yi = hu1 (x) + · · · + up (x)|yi .
Pour pouvoir appliquer l’hypothèse (qui concerne des normes) il faut trouver une
expression de hx|yi en fonction de normes. On utilise alors une identité de polarisation.

Soit (x, y) ∈ E 2 , on a, d’après les formules de polarisation :


1
hx|yi = (kx + yk2 − kxk2 − kyk2 )
2
p p p
!
1 X X X
= qi (x + y) − qi (x) − qi (y)
2 i=1 i=1 i=1
p
1X
= (hui (x + y)|x + yi − hui (x)|xi − hui (y)|yi)
2 i=1
p
1X
= (hui (x)|yi + hui (y)|xi)
2 i=1
p
1X
= (hui (x)|yi + hy|ui (x)i)
2 i=1
p
X
= hui (x)|yi
i=1
puisque les ui sont symétriques.
86 Chapitre 3 Espaces euclidiens

Ainsi hu1 (x) + · · · + up (x) − x|yi = 0, donc u1 (x) + · · · + up (x) − x est ortho-
gonal à tout vecteur de E. Il est donc nul, et u1 (x) + · · · + up (x) = x.
Ainsi u1 + · · · + up = idE .

2. Comme on a une hypothèse de dimension, nous n’avons que la moitié du travail à


faire : il faut simplement démontrer que
• la somme des Im(ui ) vaut E
• ou bien que la somme est directe
pour avoir le résultat.
La question précédente nous donne facilement le premier point, c’est donc ce que nous
allons montrer.

Pour x ∈ E, on a
x = u1 (x) + · · · + up (x) ∈ Im(u1 ) + · · · + Im(up )
par la question précédente. Ainsi E ⊂ Im(u1 ) + · · · + Im(up ).
On en déduit que Im(u1 ) + · · · + Im(up ) = E, l’inclusion réciproque étant
évidente. Or
dim(Im(u1 )) + · · · + dim(Im(up )) = rg(u1 ) + · · · + rg(up ) = n = dim(E)
donc la somme est directe.

3. Il faut ici penser à appliquer ce qui a été démontré dans la question précédente,
c’est-à-dire l’unicité de la décomposition d’un élément sur la somme des Im(ui ) : pour
i ∈ {1, . . . , p}, on peut écrire ui (x) comme somme de 0 et de ui (x) d’une part, et
d’autre part comme la somme des uj (ui (x)) par la première question.

Soient i ∈ {1, . . . , p} et x ∈ E. Pour j entre 1 et p, on note yj = 0 si j 6= i et


yi = ui (x), de sorte que yj ∈ Im(uj ).
D’après la première question, on a
y1 + · · · + yp = ui (x) = u1 (ui (x)) + · · · + up (ui (x))
avec uj (ui (x)) ∈ Im(uj ) pour j entre 1 et p.
La somme des Im(ui ) étant directe, on a unicité de l’écriture de ui (x) comme
somme d’éléments des Im(uj ). Ainsi pour j ∈ {1, . . . , p}, uj (ui (x)) = yj = 0
si j 6= i et u2i (x) = yi = ui (x).
On a donc u2i = ui , et ui est un projecteur. Comme ui est symétrique, c’est un
projecteur orthogonal.
Si i =6 j ∈ {1, . . . p}, on a ui ◦ uj = 0. Pour y ∈ Im(ui ) et z ∈ Im(uj ), il existe
(a, b) ∈ E 2 tel que y = ui (a) et z = uj (b). Alors
hy|zi = hui (a)|uj (b)i = ha|ui (uj (b))i = ha|0i = 0,
donc Im(ui )⊥ Im(uj ).
Ainsi la somme qui précède est orthogonale.
Algèbre 87

Exercice 3.6 : Quotients de Rayleigh

Soient E un espace euclidien de dimension n ∈ N∗ et u ∈ L (E) un endomor-


phisme symétrique.
1. Montrer qu’il existe α et β ∈ R, qu’on exprimera en fonction des valeurs
propres de u, tels que
∀x ∈ E, αkxk2 6 hu(x)|xi 6 βkxk2 .
2. Montrer que si pour x 6= 0, l’une ou l’autre des inégalités précédentes est une
égalité alors x est vecteur propre de u.
3. On note λ1 6 · · · 6 λn les valeurs propres de u, et on suppose avoir (e1 , . . . , en )
base orthonormée de E telle que ∀i ∈ {1, . . . , n}, hu(ei )|ei i = λi .
Montrer que ∀i ∈ {1, . . . , n}, u(ei ) = λi ei .

1. Comme u est symétrique, on utilise le théorème spectral. Dans la base orthonormée


obtenue, les calculs seront grandement simplifiés.

D’après le théorème spectral, on a B = (e1 , . . . , en ) base orthonormée de E


telle que MatB (u) soit diagonale. Pour i ∈ {1, . . . n}, ei est vecteur propre de
u, donc on a λi ∈ R tel que u(ei ) = λi ei .
Si x ∈ E, notons (x1 , . . . , xn ) les coordonnées de x en base B. On a alors
Xn n
X
u(x) = xi u(ei ) = λi xi ei .
i=1 i=1
Ainsi (comme (e1 , . . . , en ) est orthonormée),
Xn
hu(x)|xi = λi x2i .
i=1

Pour encadrer le produit scalaire hu(x)|xi entre deux réels faisant intervenir kxk2 , il
faut donc encadrer λi entre deux valeurs. On introduit donc la plus petite et la plus
grande des valeurs propres de u.

Notons α = min(λ1 , . . . , λn ) et β = max(λ1 , . . . , λn ) (la plus petite et la plus


grande des valeurs propres de u).
Pour i entre 1 et n, αx2i 6 λi x2i 6 βx2i (car x2i > 0), donc en sommant :
X n Xn X n
αkxk2 = αx2i 6 λi x2i 6 βx2i = βkxk2 ,
i=1 i=1 i=1
2 2
puis αkxk 6 hu(x)|xi 6 βkxk .

2. En reprenant les inégalités obtenues dans la question précédente, il faut, pour qu’on
ait égalité, qu’il y ait égalité partout. On le traduit plus rigoureusement en regroupant
les termes du même côté et en se ramenant à une somme de réels positifs ou nulss.
88 Chapitre 3 Espaces euclidiens

Soit x ∈ E\{0} tel qu’on ait αkxk2 = hu(x)|xi. Notant (x1 , . . . , xn ) les coor-
données de x dans une base orthonormée de vecteurs propres de u, on a comme
plus haut αx2i 6 λi x2i pour tout i entre 1 et n.
Or, par hypothèse,
X n
(λi − α)x2i = hu(x)|xi − αkxk2 = 0.
i=1

C’est une somme de réels tous positifs, donc on a (λi − α)x2i = 0 pour tout
i ∈ {1, . . . n}. Si i est tel que xi = 6 0, on a donc λi = α ce qui donne
Xn Xn n
X
u(x) = xi u(ei ) = xi λ i e i = xi αei = αx.
i=1 i=1 i=1

On montre de même que si x ∈ E vérifie hu(x)|xi = βkxk2 , alors u(x) = βx.

3. La question précédente permet d’obtenir que u(e1 ) = λ1 e1 et u(en ) = λn en . On


restreint alors u à l’espace engendré par (e2 , . . . , en ) (c’est-à-dire l’orthogonal de e1 )
pour pouvoir itérer le raisonnement.

Il faut bien vérifier que u stabilise F puis que l’endomorphisme induit


par u sur F vérifie les mêmes hypothèses pour pouvoir itérer.

Comme λ1 est la plus petite valeur propre de u, on a λ1 = α d’après la première


question. On a donc u(e1 ) = λ1 e1 par la question précédente.
Notons F = (Re1 )⊥ , comme e2 , . . . , en sont orthogonaux à e1 , ils sont dans F .
u étant symétrique, on a F stable par u : en effet, si x ∈ F ,
hu(x)|e1 i = hx|u(e1 )i = λ1 hx|e1 i = 0.
L’endomorphisme induit par u sur F a pour valeurs propres λ2 6 · · · 6 λn . Par
le raisonnement vu plus haut, on a donc u(e2 ) = λ2 e2 .
On réitère alors jusqu’à obtenir u(ej ) = λj ej pour tout j entre 1 et n.

Exercice 3.7 : Matrices définies positives

Soient n ∈ N∗ et A ∈ Sn (R). On dit que A est positive (resp. définie positive) si


∀X ∈ Mn,1 (R), t XAX > 0 (resp. > 0 si X 6= 0).
1. Montrer que A est positive si et seulement si toutes ses valeurs propres sont
positives.
2. Montrer que A est définie positive si et seulement si toutes ses valeurs propres
sont strictement positives.
Algèbre 89

1. Nous avons une équivalence à démontrer, on va donc traiter indépendamment les


deux implications.
Pour le sens direct, on évalue t XAX pour X vecteur propre de A.

Supposons A positive. Si λ est valeur propre de A, et X ∈ Mn,1 (R)\{0} est


un vecteur propre associé, on a AX = λX, puis t XAX = λt XX.
Or, notant (x1 , . . . , xn ) les coordonnées de X,
Xn
t
XX = x2i > 0
i=1
(puisque c’est une somme de réels positifs non tous nuls), donc comme par
hypothèse t XAX > 0, on a λ > 0. Ainsi toutes les valeurs propres de A sont
positives.
Pour le sens réciproque, on applique le théorème spectral. Le calcul de t XAX sera
plus facile après changement de base pour avoir une matrice diagonale.

Supposons que toutes les valeurs propres de A soient positives. Par le théorème
spectral, on a P ∈ On (R) et D une matrice diagonale (dont les coefficients
sont les valeurs propres de A, donc des nombres positifs) tels que A = t P DP .
Pour X ∈ Mn,1 (R), posons Y = P X, et notons (y1 , . . . , yn ) les coordonnées
de Y , d1 , . . . , dn les coefficients diagonaux (positifs) de D. Alors
Xn
t
XAX = t X t P DP X = t Y DY = di yi2 > 0.
i=1
Ainsi A est une matrice symétrique positive.

2. Cette question est très similaire à la précédente, en prenant soin de bien adapter
les inégalités.

Attention à justifier proprement les inégalités strictes, sans faire de


confusions avec les inégalités larges.

Comme dans la question précédente, on a deux sens à montrer.


• Supposons A définie positive. Soit λ une valeur propre de A, et donnons-
nous X ∈ Mn,1 (R)\{0} un vecteur propre associé, on a AX = λX, dont
on déduit que t XAX = λt XX.
Or, notant (x1 , . . . , xn ) les coordonnées de X,
Xn
t
XX = x2i > 0
i=1
(puisque c’est une somme de réels positifs non tous nuls), donc comme
t
XAX > 0, on a λ > 0. Ainsi toutes les valeurs propres de A sont stricte-
ment positives.
90 Chapitre 3 Espaces euclidiens

• Supposons que toutes les valeurs propres de A soient strictement positives.


Par le théorème spectral, on a P ∈ On (R) et D une matrice diagonale (dont
les coefficients sont les valeurs propres de A, donc des nombres > 0) tels
que A = t P DP . Notons d1 , . . . , dn les coefficients diagonaux (tous > 0) de
D.
Pour X ∈ Mn,1 (R)\{0}, posons Y = P X. Comme X = 6 0, Y 6= 0 (car
P est inversible), les coordonnées (y1 , . . . , yn ) de Y sont non toutes nulles.
Alors
Xn
t t t t
XAX = X P DP X = Y DY = di yi2 > 0
i=1
comme somme de réels positifs non tous nuls. Ainsi A est une matrice
définie-positive.

On a bien sûr des énoncés équivalents pour des matrices négatives, ou


définie-négatives.

Exercice 3.8 : Décomposition polaire

Soient n ∈ N∗ et A ∈ GLn (R). On pose B = t AA.


1. Montrer que pour tout X ∈ Mn,1 (R)\{0}, t XBX > 0.
En déduire que toutes les valeurs propres de B sont strictement positives.
2. Montrer qu’il existe C ∈ Sn (R) inversible telle que C 2 = B.
3. En déduire qu’il existe (H, C) ∈ On (R) × Sn (R) tel que A = HC, puis
généraliser cette décomposition à une matrice A quelconque.
On pourra utiliser les résultats des exercices 4.5 et 4.14.

1. Le calcul de t XBX revient à faire le calcul de la norme de Y , où Y = AX. Il faut


donc simplement justifier que ce vecteur est non nul (ce qui vient de l’inversibilité de
A).

Soit X ∈ Mn,1 (R)\{0}. Comme A est inversible, AX 6= 0 et, notant


(y1 , . . . , yn ) les coordonnées de Y = AX, on a
n
X
t
XBX = t XX t AAX = t Y Y = yi2 > 0.
i=1
comme somme de réels positifs non tous nuls.
Si λ est valeur propre de B, et si X ∈ Mn,1 (R)\{0} est un vecteur propre
associé, on a donc BX = λX, puis t XBX = λt XX.
Algèbre 91

Or, notant (x1 , . . . , xn ) les coordonnées de X,


Xn
t
XX = x2i > 0
i=1

puisque c’est une somme de réels positifs non tous nuls. Comme t XBX > 0,
on a λ > 0
Ainsi toutes les valeurs propres de B sont strictement positives.

2. On constate que la matrice B est symétrique. En appliquant le théorème spectral,


on peut donc se ramener (modulo un changement de base orthonormée) à une matrice
diagonale, avec des coefficients diagonaux tous positifs par la question précédente.
Trouver une matrice C tel que C 2 = B sera alors chose facile.

Lorsqu’on a un endomorphisme ou une matrice symétrique réelle, ap-


pliquer le théorème spectral doit être un réflexe quasi-systématique.

Comme t B = t At (t A) = t AA = B, on a B symétrique. Par le théorème


spectral, il existe P ∈ On (R) et D une matrice diagonale tels que B = t P DP .
Les coefficients diagonaux de D sont les valeurs propres de B, donc sont tous
strictement positifs d’après la question précédente. Notons-les d1 , . . . , dn et
posons  √ 
d1 (0)
∆=
 .. ,

.

(0) dn
2
de sorte que ∆ = D.
Soit alors C = t P ∆P . Comme ∆ est inversible (puisqu’elle diagonale à coeffi-
cients diagonaux tous non nuls), C est inversible comme produits de matrices
qui le sont. Comme ∆ est symétrique, on a t C = t P t ∆P = t P ∆P = C et C
est symétrique. Par suite, on a
C 2 = t P ∆P t P ∆P = t P ∆2 P = t P DP = B.

En ajoutant l’hypothèse C définie-positive, comme défini dans l’exercice


3.7, on peut également montrer que C est unique.

3. Une petite analyse nous montre que si (C, H) convient,


B = t AA = t C t HHC = C 2 = B
(puisque C est symétrique et H orthogonale). Il faut donc poser C la matrice obtenue
dans la question précédente, et ensuite H = AC −1 (possible car C est inversible).
92 Chapitre 3 Espaces euclidiens

Soit C la matrice donnée par la question précédent, et posons H = AC −1 . Ceci


est licite puisque C est inversible, sinon B = C 2 ne serait pas inversible donc
aurait 0 pour valeur propre, ce qui est exclu par la première question.
On a C est symétrique, et comme
t
HH = t (C −1 )t AAC −1 = C −1 BC = In
(puisque C est symétrique et B = C 2 ), on a H ∈ On (R).
Enfin, A = HC, donc on a la décomposition voulue.
Pour généraliser cette décomposition, il faut se souvenir de deux faits topologiques
classiques sur les ensembles de matrices : GLn (R) est dense dans Mn (R) et On (R)
est compact (voir les exercices 4.5 et 4.14).

On munit Mn (R) de la norme N telle que N (A) = max16i,j6n |ai,j |. Notons


que GLn (R) est dense dans Mn (R) d’aprè l’exercice 4.5.
Soit A ∈ Mn (R). On a alors (An )n∈N ∈ GLn (R)N qui converge vers A (pour
la norme N ).
Pour tout n ∈ N, on a (Cn , Hn ) ∈ Sn (R)×On (R) tel que An = Hn Cn d’après
ce qui précède.
Or On (R) est compact, donc (Hn )n∈N admet une suite extraite (Hϕ(n) )n∈N qui
converge, disons vers H ∈ On (R). Alors (Cϕ(n) )n∈N converge vers C = H −1 A,
et comme pour tout n ∈ N, t Cn = Cn , t C = C, donc C est symétrique (la
transposition étant continue car linéaire en dimension finie).
Enfin, A = HC en passant à la limite la relation Aϕ(n) = Hϕ(n) Cϕ(n) , et par
continuité du produit matriciel.

Exercice 3.9 : Connexité par arcs de SOn (R)

Soient n ∈ N∗ et A ∈ SOn (R). Montrer qu’il existe P ∈ On (R) telle que A soit
de la forme  
t Ir 0
P P,
0 D
où r ∈ N, D est une matrice diagonale par blocs, avec des blocs de la forme
 
cos θ sin θ
R(θ) = .
− sin θ cos θ
En déduire que SOn (R) est connexe par arcs.

Pour montrer la décomposition voulue, il faut utiliser la réduction des isométries de


E.

On a P ∈ On (R) telle que A soit de la forme


 
Ir 0 0
t 
P 0 −Is 0  P,
0 0 R
Algèbre 93

avec r, s ∈ {0, . . . , n} et R une matrice diagonale par blocs, avec des blocs de
la forme R(θ).

On peut réordonner les termes dans la forme réduite de A de la manière


dont on le souhaite : cela revient à changer l’ordre des colonnes de P ,
la matrice de changement de base.

De plus det(A) = 1, et comme pour tout θ ∈ R, det(R(θ)) = 1, det(R) = 1.


Ainsi
1 = det(t P )(−1)s det(P ) = det(P )2 (−1)s = (−1)s ,
et s est pair. On peut donc réécrire −Is sous la forme d’une matrice diagonale
par blocs, avec des blocs de la forme
 
−1 0
R(π) = ,
0 −1
ce qui donnera la forme voulue.
Pour en déduire que SOn (R) est connexe par arcs, il faut construire un chemin continu
inclus dans SOn (R), reliant deux matrices quelconques de SOn (R). Il suffit en fait de
montrer qu’on peut relier une matrice quelconque à un point particulier de SOn (R),
par exemple l’identité. On utilise alors la forme précédente.

Le chemin construit doit rester inclus dans SOn (R), on déforme donc
les matrices R(θ) pour arriver à des matrices I2 en gardant des matrices
de rotation.

On a P ∈ On (R) telle que A soit de la forme


 
t Ir 0
P P,
0 R
avec R diagonale par blocs, avec des blocs de la forme R(θ1 ), . . . , R(θk ) (où
k ∈ N).
Pour t ∈ [0, 1], notons R(t) la matrice diagonale par blocs, avec des blocs
diagonaux de la forme R(θ1 (1 − t)), . . . , R(θk (1 − t)). En faisant le produit
par blocs, on vérifie facilement que R(t) ∈ On (R), et comme det(R(t)) = 1,
R(t) ∈ SOn (R).
On pose alors  
t Ir 0
ϕ(t) = P P ∈ SOn (R),
0 R(t)
94 Chapitre 3 Espaces euclidiens

et ϕ : [0, 1] → SOn (R) est continue (car chaque coefficient est un polynôme
de fonctions trigonométriques, donc est continu) avec
ϕ(0) = A et ϕ(1) = t P P = In .

Le fait de montrer que tout élément de SOn (R) puisse être relié à In
montre que SOn (R) possède une seule composante connexe par arcs,
donc est connexe par arcs.

Exercice 3.10 : Étude d’une rotation en dimension 3

On pose  
2 2 1
1
A= −2 1 2  .
3
1 −2 2
Montrer que A est une matrice de rotation dont on précisera les éléments carac-
téristiques.

On vérifie que A est une matrice de rotation en montrant que c’est une matrice
orthogonale de déterminant 1. On détermine ensuite l’axe de la rotation en résolvant
le système AX = X, et on peut trouver le cosinus de l’angle en calculant la trace de
A. En effet, la trace de A vaut 1 + 2 cos(θ).
Il faut enfin trouver le signe du sinus de l’angle en calculant Det(k, x, Ax) pour x
un vecteur orthogonal à l’axe et unitaire et k un vecteur directeur unitaire orientant
l’axe.

Notons que les trois colonnes de A forment une famille orthonormée de 3 élé-
ments, donc A ∈ O3 (R). En effectuant L1 ← L1 − 2L3 et L2 ← L2 + 2L3 ,
puis en développant suivant la première colonne, on obtient alors :
0 6 −3
1 1 6 −3
det(A) = 0 −3 6 = = 1.
27 27 −3 6
1 −2 2
Ainsi A est une matrice de rotation. Pour
 
x
X =  y  ∈ M3,1 (R),
z
le système AX = X équivaut à
 
 2x + 2y + z = 3x  −x + 2y + z = 0 
x=z
−2x + y + 2z = 3y i.e. −2x − 2y + 2z = 0 i.e.
y=0
x − 2y + 2z = 3z x − 2y − z = 0
 
Algèbre 95

donc  
1
1
k=√  0 
2 1
est un vecteur dirigeant l’axe de la rotation. On se donne ce vecteur pour orienter
l’axe.

Si on choisit un vecteur opposé à k, on obtiendra un angle opposé.

Sous sa forme réduite, la trace d’une matrice de rotation est 1 + 2 cos θ. Comme
5 1
la trace est un invariant de similitude, on a donc 1 + 2 cos θ = donc cos θ =
  3 3
1
puis θ ≡ ± arccos [2π]. En prenant
3
   
0 2
1
x =  1  on obtient Ax =  1  ,
3
0 −2
donc, comme x⊥k et kxk = kkk = 1,
1 0 2
1 1 1 2 4
sin θ = Det(k, x, Ax) = √ 0 1 1 = √ =− √
3 2 3 2 1 −2 3 2
1 0 −2
en développant par rapport à la deuxième colonne.
Ainsi, comme sin θ < 0, A est la matrice de la rotation d’axe
 
1  
1
R  0  et d’angle − arccos .
3
1

Dans le calcul du déterminant, il faut choisir pour x et k des vecteurs


normés.

Vous aimerez peut-être aussi