Algèbre
Algèbre
Algèbre
Algèbre
1 Structures algébriques usuelles 8
1.1 : Groupe engendré par deux éléments 8
1.2 : Centre du groupe symétrique 9
1.3 : Conjugaison 9
1.4 : Partie génératrice du groupe orthogonal 11
√
1.5 : Anneau Z[ 2] 13
1.6 : Groupe multiplicatif d’un corps fini 16
1.7 : Radical d’un idéal 17
1.8 : Une congruence 19
1.9 : Systèmes de congruences 20
1.10 : Application du théorème chinois 22
1.11 : Nombres de Fermat 23
1.12 : Codage RSA 25
1.13 : Polynôme et racines n-ièmes 26
1.14 : PGCD de P et P’ 27
1.15 : Exemple de polynôme irréductible 29
2 Réduction 31
2.1 : Éléments propres d’un endomorphisme d’un espace de polynômes 31
2.2 : Éléments propres d’un endomorphisme d’un espace de fonctions 33
2.3 : Réduction d’une matrice d’ordre 3 37
2.4 : Diagonalisation 39
2.5 : Trigonalisation 43
2.6 : Réduction d’une matrice à paramètres 47
2.7 : Diagonalisation simultanée 49
2.8 : Réduction des matrices de trace nulle 51
2.9 : Étude d’un endomorphisme d’un espace d’endomorphismes 54
2.10 : Réduction 56
2.11 : Diagonalisabilité et sous-espaces stables 60
2.12 : Une caractérisation des endomorphismes nilpotents 61
2.13 : Décomposition de Dunford 62
2.14 : Théorème de Cayley-Hamilton 67
3 Espaces euclidiens 74
3.1 : Famille de polynômes orthogonaux 74
3.2 : Une série de Fourier 77
3.3 : Un problème de minimisation 80
3.4 : Isométries matricielles 82
3.5 : Formes quadratiques 84
3.6 : Quotients de Rayleigh 87
3.7 : Matrices définies positives 88
3.8 : Décomposition polaire 90
3.9 : Connexité par arcs de SOn (R) 92
3.10 : Étude d’une rotation en dimension 3 94
CHAPITRE
Il s’agit d’éléments de M3 (R). La loi n’est pas précisée. Mais pour l’addition le groupe
engendré serait l’ensemble des matrices pA + qB avec p ∈ Z et q ∈ Z. Il n’y aurait
donc aucun problème : c’est le produit de matrices qu’il faut considérer. Le groupe
dans lequel on se place est celui des matrices carrées inversibles d’ordre 3.
Le groupe engendré par A et B est le plus petit (au sens de l’inclusion) sous-groupe
contenant les deux matrices. Il est constitué par tous les produits possibles avec A, B
et leurs inverses. Remarquons que A et B sont bien inversibles puisque det A = −1
et det B = 1.
Il faut bien se souvenir que la loi d’un groupe n’est pas, en général,
commutative !
Il est clair que Id commute avec tous les éléments de Sn , il faut donc montrer que si
une permutation σ commute avec tous les éléments de Sn , c’est l’identité. On raisonne
par l’absurde.
1. La loi du groupe G n’est pas précisée, mais vu la définition de fa , elle est notée
comme une multiplication.
Pour a ∈ G, il faut montrer, d’une part que fa est un morphisme de groupes, d’autre
part qu’il est bijectif. Pour le premier point, on vérifie la définition, pour le second on
choisit ici de résoudre l’équation fa (x) = y.
2. La loi du groupe Aut(G) est la loi ◦. Il faut donc montrer que pour (a, b) ∈ G2 ,
ϕ(a b) = ϕ(a) ◦ ϕ(b), c’est-à-dire fa b = fa ◦ fb .
Ici ϕ est une fonction qui renvoie des fonctions. Il faut bien faire atten-
tion au type des objets manipulés, et ne pas confondre argument de ϕ
ou argument de fa .
3. Le noyau de ϕ est l’ensemble des éléments de G qui sont envoyés sur le neutre de
Aut(G), ici IdG . On cherche donc les a ∈ G tel que ϕ(a) = IdG .
Algèbre 11
Le neutre n’est pas toujours le même dans tous les groupes, il faut donc
faire attention au neutre du groupe d’arrivée lors d’un calcul de noyau.
√
Exercice 1.5 : Anneau Z[ 2]
√
1. Soit P = Z ∪ { 2}. Montrer que le sous-anneau de R engendré par P est :
√
A = {m + n 2 ; (m, n) ∈ Z2 }.
Comme pour les groupes, il s’agit du plus petit sous-anneau de R contenant P .
On note U le groupe des √ éléments inversibles de A .
2. On pose N m + n 2 = m2 − 2n2 . Pour a et b éléments de A, calculer
N (ab). Montrer que z ∈ U si, et√seulement si, N (z) = 1.
3. Soit z ∈ U tel que z = x + y√ 2 avec x et y ∈√N, x 6= 0. Montrer qu’il√existe
un unique n ∈ N tel que (1√+ 2)n 6 z < (1 + 2)n+1 , puis que z(1 + 2)−n
0 0 0 0
+ y 2√avec x et y ∈ N.
s’écrit sous la forme x
4. Montrer que U = ± (1 + 2)n ; n ∈ Z .
1. Comme toujours il faut montrer deux inclusions pour avoir l’égalité √ d’ensembles
voulue. Tout d’abord, le sous-anneau de R engendré par P contient Z et 2. Il contient
donc
√ toutes les sommes, et leurs opposées, que√ l’on peut obtenir à partir de 1 et de
2, c’est-à-dire tous les réels du type m + n 2 avec m ∈ Z et n ∈ Z.
√
Notons B le sous-anneau de R engendré par P . Alors 1 ∈ B et 2 ∈ B. Pour
(m, n) ∈ Z2√ , m est la puissance m-ième de√1 pour la loi +, donc est dans B.
De même n 2 est √ la puissance n-ième de 2 pour la loi +, donc est dans B.
Par suite m + n 2 ∈ B et A ⊂ B.
Pour montrer l’inclusion réciproque, il suffit de montrer que A est un sous-anneau de
R contenant P . Par minimalité de B, on aura alors B ⊂ A.
√ √
Soient a = m1 + n1 2 et b = m2 + n2 2 avec (m1 , n1 , m2 , n2 ) ∈ Z4 .
D’une part : √
a − b = (m1 − m2 ) + (n1 − n2 ) 2 ∈ A
car m1 − n1 ∈ Z et m2 − n2 ∈ Z.
D’autre part :
√
ab = (m1 m2 + 2n1 n2 ) + 2(n1 m2 + m1 n2 ) ∈ A
car m1 m2 + 2n1 n2 √ ∈ Z et n1 m2 + m1 n2 ∈ Z.
Enfin, 1 = 1 + 0 × 2 ∈ A, donc A est un sous-annneau de R. Comme P est
clairement inclus dans A, et comme B est le plus petit (au sens de l’inclusion)
sous-anneau de R contenant P , on a B ⊂ A.
Ainsi, on a l’égalité cherchée.
14 Chapitre 1 Structures algébriques usuelles
Ce calcul n’a pas beaucoup d’intérêt si on s’arrête là. Soyons optimiste : calculons
N (a)N (b) en espérant découvrir quelque chose.
Par ailleurs :
N (a)N (b) = (m21 − 2n21 )(m22 − 2n22 )
= m21 m22 + 4n21 n22 − 2n21 m22 − 2m21 n22
= N (ab).
Le sens facile est celui où l’on suppose z ∈ U , puisqu’on peut alors utiliser son inverse ;
l’autre implication nécessite de prouver l’existence de cet inverse, ce qui est a priori
plus difficile.
√ n √
Pour n ∈ N, on a (1 + 2) 6 z < (1 + 2)n+1 si et seulement si
√ √
n ln(1 + 2) 6 ln(z) < (n + 1) ln(1 + 2)
par stricte
√ croissante de ln, ln(z) étant bien défini puisque z > x > 1. Comme
ln(1 + 2) > 0, ceci équivaut à
ln(z)
n6 √ <n+1
ln(1 + 2)
donc n existe et est unique par définition de la partie entière.
√
Pour la seconde partie de la question, on commence par montrer que z(1 + 2)−n √ est
0 0
de la forme cherchée avec x et y dans Z. Ceci vient de l’inversibilité de (1 + 2)n .
On manipule ensuite les inégalités pour avoir x0 et y 0 > 0.
√ √ √
Comme N ((1 + 2)n ) = N (1 + 2)n = 1, (1 + 2)n est un élément inversible
de A. On peut donc poser :
√
x+y 2 √
√ = x0 + y 0 2 avec x0 ∈ Z et y 0 ∈ Z
(1 + 2) n
et on a :
√ √ √
N (x0 + y 0 2) = 1 = x02 − 2y 02 = x0 + y 0 2 × x0 − y 0 2
On a nécessairement x0 6= 0 (sinon 2(y 0 )2 = 1 mais 1 est impair).
Supposons y 0 6= 0 ; x0 et y 0 sont alors de même signe. En effet, supposons-les de
signe distinct, par exemple x0 > 0 et y 0 6 0 pour fixer les idées. Comme x0 = 6 0,
x0 > 1. Alors on a : √ √
1 6 x0 + y 0 2 < x0 − y 0 2
qui entraîne x02 − 2y 02 > 1... absurde !
Par suite x0 et y 0 sont positifs, quitte à changer x0 et y 0 en leurs opposés.
4. On doit montrer deux inclusions pour cette égalité d’ensembles. L’inclusion simple
√
est celle qui consiste à vérifier que tout nombre élément de A de la forme ±(1 + 2)n
est inversible, ce qui est facile en utilisant N (qui est un morphisme de groupes par
le 2).
√ √ n
Si z = ±(1 + 2)n avec n ∈ Z, on a N (z) = N (1 + 2) = 1 ; z appartient
donc à U .
Pour la réciproque, on utilise la question précédente.
√
Réciproquement, soit z = x + y 2 ∈ U , ce qui est équivalent à x2 − 2y 2 = 1.
√
Les éléments ±x ± y 2 vérifient cette équation, et sont aussi inversibles. On
peut donc suppposer x > 0 et y > 0.
Notons n, x0 et y 0 les entiers donnés par la question précédente. On a alors
√
x+y 2 √ √
16 √ = x0 + y 0 2 < 1 + 2.
(1 + 2) n
16 Chapitre 1 Structures algébriques usuelles
√ √
On a donc y 0 = 0 et x0 = 1 et on obtient : z√= x + y 2 =√(1 + 2)n . √
Les autres cas possibles sur z donnent −(1+ 2)n , ou x−y 2 = ±(1+ 2)−n .
z est donc toujours de la forme annoncée.
Soit G un groupe fini de neutre e. On note m le ppcm des ordres des éléments
αd
de G et m = pα 1 · · · pd sa décomposition en facteurs premiers.
1
Soit i ∈ {1, . . . , d}. Supposons que l’ordre de tout élément de G ne soit pas
divisible par pα
i . Si x ∈ G, l’ordre n de x divise m, donc a une décomposition
i
αi−1 αi −1 α
q = pα
1 · · · pi−1 pi
1 i+1
pi+1 · · · pα
d .
d
Ceci vaut pour tout x dans G, donc les ordres de tous les éléments de G divisent
q < m... absurde, puisque m est le ppcm de ces ordres ! Ainsi on a x ∈ G tel
que pαi divise n, l’ordre de x.
i
y dans G.
Il ne faut pas oublier que pour prouver que y est d’ordre d, il faut
montrer que y d = e et y l 6= e pour tout l entre 1 et d − 1.
Algèbre 17
entre eux, pour avoir un élément d’ordre m, on regarde le produit des xi . Pour démon-
trer que ce x est d’ordre m, la méthode reste la même : il faut montrer que xm = e
et que pour tous les k < m − 1, xk 6= e.
α1 αi−1 αi −1 αi+1 αd
k divise q = p1 . . . pi−1 pi pi+1 . . . pd .
Pour j 6= i, on a comme plus haut xqj = e, mais xqi = 6 e, sinon q serait divisible
q
par pα
i
i
(qui est l’ordre de x i ). On a donc x q
= xi 6= e. Comme k divise q, si
q
k q k k k
x = e, x = (x ) = e. Ainsi x 6= e et x est d’ordre m
3. Pour montrer que K∗ est cyclique, il faut montrer que K∗ a un élément d’ordre n−1
(si n est le cardinal de K). Comme K∗ est un groupe abélien pour la multiplication,
on considère le ppcm des ordres des éléments de K∗ d’après la question précédente.
En termes de polynômes, tous les éléments de K∗ vont donc être racines de X m − 1.
On utilise donc le lien entre nombres de racines et degré (donné en indication).
Soit m le ppcm des ordres des éléments de K∗ . Comme tout élément de K∗ est
d’ordre divisant n − 1 (par le théorème de Lagrange), m divise n − 1. On a donc
m 6 n − 1.
D’autre part, le polynôme X m − 1 a pour racines tous les éléments de K∗
(puisque tout élément de K∗ a un ordre divisant m). Il a donc n − 1 racines,
donc n − 1 est plus petit que m, le degré de ce polynôme.
Ainsi m = n − 1, et comme K∗ a un élément d’ordre m d’après la question
précédente, il est cyclique.
2. On doit montrer une égalité d’ensembles, il faut donc faire les deux inclusions. On
commence par remarquer que l’une des inclusions est bien plus générale.
D’une
√ façon générale, si I √et J sont deux idéaux de A tels que I ⊂ J, alors
√
I ⊂ J. En effet, si x ∈ I, il existe un entier n tel quepxn ∈ I, donc xn ∈ J
√ √ √
si I ⊂ J. Comme I ⊂ I, on en déduit donc que I ⊂ I.
L’autre inclusion s’obtient en utilisant directement la définition du radical.
Algèbre 19
p√ √
Réciproquement, soit x ∈ I. Il existe alors un entier p tel que xp ∈ I.
Dans ce cas, il existe aussi un entier n tel que (xp )n ∈ I. On a donc xnp ∈ I,
soit x ∈ I. p√ √
En conclusion, ces deux inclusions montrent que I = I.
√ √ √ √
• De I √
∩ J ⊂ I et√I ∩ J√⊂ J, on déduit que I ∩ J ⊂ I et I ∩ J ⊂ J,
d’où I ∩ J ⊂ I ∩ J.
√ √
• Soit x ∈ I ∩ J. Il existe donc deux entiers m et n tels que xm ∈ I et
xn ∈ J. D’après la définition d’un idéal, on en déduit que xm xn√appartient
à I et à J. On a alors xm+n ∈ I ∩ J. x est donc un élément de I ∩ J, ce
qui démontre : √ √ √
I ∩ J ⊂ I ∩ J.
√ √ √
Des deux inclusions précédentes on tire I ∩ J = I ∩ J.
La dernière inclusion s’obtient en appliquant le radical aux inclusions que l’on connait :
I ⊂ I + J et J ⊂ I + J.
On a I ⊂ I + J et J√⊂ I +
√ J car les √
sous-groupes
√ additifs√I et √
J contiennent
√
0. Par conséquent
√ : I ⊂ I + J et J ⊂ I + J, puis I + J ⊂ I + J
puisque I + J est un idéal, donc stable pour l’addition.
Pour n entier naturel écrit en base dix, on désigne par f (n) la somme des chiffres
de n. Calculer f ◦ f ◦ f (N ) avec N = 20112012 .
Dans un anneau, si vous voulez diviser par un élément, il s’agit en fait de multiplier
par son inverse, s’il existe.
Dans Z/nZ, un élément p est inversible si, et seulement si, n et p sont premiers entre
eux.
Comme 5 est un nombre premier, Z/5Z est un corps, donc tout élément non
nul est inversible.
Diviser par 3, c’est multiplier par son inverse qui est égal à 2 puisque 3 × 2 = 1.
L’équation est donc équivalente à :
x + 4 = −2 = 3
d’où : x = 3 − 4 = −1 = 4.
Comme 7 est un nombre premier, Z/7Z est un corps, donc tout élément non
nul est inversible. Diviser par 3, c’est multiplier par son inverse qui est égal à 5
puisque 3 × 5 = 1.
L’équation est donc équivalente à :
3x = 4 i.e. x = 20 = 6
Au final le système à résoudre équivaut à
x ≡ 4 [5]
x ≡ 6 [7]
x ≡ a [m]
Lorsqu’on a à résoudre un système de la forme avec (a, b) ∈ Z2 , m et
x ≡ b [n]
n deux entiers premiers entre eux, on sait d’après le théorème des restes chinois qu’il
existe au moins une solution x ∈ Z, unique modulo mn.
22 Chapitre 1 Structures algébriques usuelles
Si l’on trouve une solution particulière x0 , les solutions sont donc les x0 + kmn,
k ∈ Z. Pour trouver une solution particulière x0 , on part d’une relation de Bezout
mu + nv = 1 (avec (u, v) ∈ Z). On a alors c = mu qui vérifie c ≡ 0 [m] et c ≡ 1 [n],
pendant que d = nv vérifie d ≡ 1 [m] et d ≡ 0 [n]. Ainsi x0 = ad + bc est une solution
particulière.
Dans notre cas particulier, on commence par trouver une relation de Bezout entre
5 et 7 (à tâtons ou en appliquant l’algorithme d’Euclide étendu) puis on trouve une
solution particulière avec la méthode ci-dessus.
Comme 5 et 7 sont premiers entre eux, le système admet au moins une solution
x ∈ Z, unique modulo 35, par le théorème des restes chinois.
3 × 5 − 2 × 7 = 1 est une relation de Bezout évidente entre 5 et 7 donc c = 15
vérifie c ≡ 1 [7] et c ≡ 0 [5], d = −14 vérifie d ≡ 0 [7] et d ≡ 1 [5]. Par suite
x0 = 4d + 6c = −56 + 90 = 34 est solution du système.
Les solutions du système sont les 34 + 35k, k ∈ Z.
3. Les deux conditions conduisent à des calculs simultanés dans des anneaux différents.
Il est préférable de chercher les entiers x et y plutôt que leurs classes.
Soit p et q deux entiers. Montrer que le groupe produit Z/pZ × Z/qZ est cyclique
si et seulement si p et q sont premiers entre eux.
Algèbre 23
Aucune loi n’est précisée dans l’énoncé, mais Z/pZ, Z/qZ et Z/pqZ ne
sont des groupes que pour la loi +.
Pour démontrer une équivalence, il faut montrer les deux implications. Si p et q sont
premiers entre eux, on pense au théorème chinois.
Supposons que p et q ne sont pas premiers entre eux. Notons d > 1 leur pgcd
et m leur ppcm. Puisque |pq| = md, on a alors m < pq.
Pour tout couple (x, y) de Z/pZ × Z/qZ, on a m(x, y) = (mx, my) = (0, 0)
puisque p divise mx et q divise my.
Le sous-groupe engendré par (x, y) a un cardinal inférieur ou égal m. Comme
m < pq, il ne peut pas être égal à Z/pZ × Z/qZ, qui n’est donc pas cyclique.
Il ne faut pas oublier que les congruences sont des outils très utiles pour
montrer des relations de divisibilité.
2. On réduit le plus grand des deux modulo le plus petit, afin d’exploiter la propriété
précédente.
Supposons m > n. On a :
n m−n m−n
Fm = (22 )2 + 1 ≡ (−1)2 + 1 ≡ 2 [Fn ] .
Donc si d divise Fn et Fm alors d divise 2. Fn étant impair on en déduit d = 1,
c’est-à-dire que Fn et Fm sont premiers entre eux.
Algèbre 25
Ceci est utilisé pour des algorithmes de codage : une personne souhai-
tant communiquer de manière codée publie l’entier n = p q et la clé de
codage d, mais est le seul à connaître la clé de décodage e. Son calcul
nécessite celui de (p − 1) (q − 1) donc de réussir à trouver les facteurs
premiers de n, ce qui est très compliqué, si n est très grand.
1. Il s’agit d’un simple calcul d’une somme géométrique, il suffit de bien se souvenir
de l’énumération classique de Un .
n−1
ak xk . Pour
P
2. Comme P est de degré plus petit que n − 1, il s’écrit sous la forme
k=0
isoler le coefficient de degré k, on pense, avec la question précédente, à regarder la
somme de P (x)x−k pour x ∈ Un : les puissances autres que k vont s’annuler, et il ne
restera que n ak .
Comme P est de degré plus petit que n − 1, on a (a0 , . . . , an−1 ) ∈ Cn tel que :
n−1
X
P (x) = ak xk .
k=0
Pour k ∈ {0, . . . , n − 1}, on a, d’après la question précédente,
X X n−1
X n−1
X X
P (x)x−k = aj xj−k = aj xj−k = nak
x∈Un x∈Un j=0 j=0 x∈Un
• Supposons que P n’ait que des racines simples dans C. Soit R un diviseur
commun à P et P 0 dans K[X]. Ona donc (U, V ) ∈ K[X]2 tel que P = RU
et P 0 = RV . Si R n’est pas constant, il admet une racine a dans C. Alors
P (a) = R(a) U (a) = 0 et P 0 (a) = R(a) V (a) = 0, donc a est racine de P ,
de multiplicité au moins 2. Absurde ! Ainsi R est constant, et le pgcd de P
et P 0 dans K[X] vaut 1.
• Supposons maintenant que le pgcd de P et P 0 dans K[X] vale 1. Si a est
racine de P , on a (X − a)|P . Comme (X − a) ne divise pas P 0 (sinon il
diviserait le pgcd de P et P 0 dans C[X], qui est le même que celui dans
K[X], donc 1), on a P 0 (a) 6= 0. Ainsi a est racine simple de P .
On retrouve bien entendu le fait que ce pgcd vaut 1 si les racines sont
toutes simples.
1. Le fait de poser b = (−1)n Q(0) fait penser aux relations coefficients/racines : b est
le produit des racines de Q. Comme les racines de Q sont des racines p-ièmes de a, on
obtiendra le résultat. On part alors de la forme factorisée de P pour faire apparaître
ces racines.
Notons
p
Y
Xp − a = (X − ri )
i=1
la forme factorisée de X p − a dans C. Comme Q divise P , Q est de la forme
n
Y
(X − rkj ),
j=1
rkpj = a. Ainsi
n
Y n
Y
bp = rkpj = a = an .
j=1 j=1
2. La question précédente nous invite à raisonner par l’absurde. Le fait que p soit
premier va permettre d’obtenir une relation de Bezout entre p et n, avec laquelle on
va réussir à construire un élément de K, qui mis à la puissance p, donne a.
C’est seulement dans ce cas particulier que P n’a pas de racines im-
plique P irréductible. Cet énoncé reste faux dans le cas général, pour
des polynômes de degrés supérieurs à 4.
CHAPITRE
Réduction
2
Exercice 2.1 : Éléments propres d’un endomorphisme
d’un espace de polynômes
Soit K = R ou C. Pour P ∈ K[X] on pose :
Φ(P ) = (2X + 1)P − (X 2 − 1)P 0 .
1. Montrer que Φ est un endomorphisme de K[X].
2. Soit P est un vecteur propre de Φ. Montrer que P 0 =
6 0 et en déduire le degré
de P .
3. Déterminer les éléments propres de Φ.
3. Puisque l’on sait que les vecteurs propres de Φ sont de degré 2, on peut les écrire
aX 2 + bX + c (avec a 6= 0) et injecter ceci dans la formule définissant Φ : on obtiendra
ainsi un système d’équations vérifié par (a, b, c). Il ne restera plus qu’à résoudre ce sys-
tème pour trouver les vecteurs propres. Comme λ interviendra, on sera éventuellement
amené à distinguer divers cas selon la valeur de ce paramètre.
1. Soit f ∈ E. La fonction Tf est définie séparément sur R∗+ et en 0. Nous allons donc
vérifier séparément la continuité de Tf sur R∗+ et en 0. Vu la définition de Tf il est
assez naturel de faire apparaître une primitive de f .
F (x)
Soit F la primitive de f sur R+ nulle en 0. Alors, pour x > 0, Tf (x) = ,
x
donc Tf est continue sur R+ (et même en fait de classe C puisque F l’est).
∗ 1
Ainsi :
∀x ∈ R+ , Tλ f +µ g (x) = λ Tf (x) + µ Tg (x)
c’est-à-dire Tλ f +µ g = λ Tf + µ Tg , soit T (λ f + µ g) = λ T (f ) + µ T (g).
T est donc linéaire.
3. La difficulté de la question est que l’on ne connaît pas a priori les valeurs propres
de T . Nous allons donc chercher simultanément les valeurs propres et les sous-espaces
propres associés.
Ceci est une équation différentielle vérifiée par f . . . si λ n’est pas nul ! En effet, pour
nous ramener au cas d’une équation différentielle de la forme y 0 + a(x)y = 0, dont on
connaît les solutions, il faut diviser par λ x. La division par x ne pose pas de problème
puisque l’équation est donnée pour x > 0. Il reste à distinguer le cas λ = 0.
Maintenant que l’on connaît la forme de f sur R∗+ nous pouvons étudier le problème en
0. f est continue sur R+ donc en 0 ; cependant, pour certaines valeurs de λ, l’expression
1
x λ −1 peut diverger quand x tend vers 0 : il faut donc distinguer à nouveau des cas
selon le comportement en 0 de cette fonction de x.
On sait que ce comportement dépend du signe de l’exposant de x, ce qui nous donne
trois cas à étudier. En soit, l’étude de chaque cas est simple puisqu’il s’agit de pro-
blèmes de limites de fonctions usuelles.
1
Il faut être prudent pour passer du signe de −1 à une inégalité sur λ :
λ
en effet, λ peut très bien être négatif et, dans ce cas, la multiplication
par λ change le sens de l’inégalité.
Plus précisément :
1
• si − 1 < 0 et λ > 0 alors 1 − λ < 0 donc λ > 1 ;
λ
1
• si − 1 < 0 et λ < 0 alors 1 − λ > 0 donc λ < 1. Cependant, on a déjà supposé
λ
λ < 0 donc cette nouvelle inégalité n’apporte pas de contrainte supplémentaire.
1
Ainsi : si − 1 < 0 alors λ < 0 ou λ > 1. Réciproquement, si λ < 0 ou λ > 1, on
λ
1
vérifie aisément que − 1 < 0. De même :
λ
1
• si − 1 > 0 et λ > 0 alors 1 − λ > 0 donc λ < 1. Comme on a supposé ici λ > 0
λ
on a donc en fait 0 < λ < 1 ;
1
• si − 1 > 0 et λ < 0 alors 1 − λ < 0 donc λ > 1. Ceci est absurde : on ne peut
λ
avoir à la fois λ < 0 et λ > 1.
1
Ainsi : si − 1 > 0 alors 0 < λ < 1. Réciproquement, si 0 < λ < 1, on vérifie
λ
1
facilement que − 1 > 0.
λ
1
Enfin, il ne faut pas oublier de traiter le cas − 1 = 0, c’est-à-dire simplement λ = 1.
λ
Distinguons trois cas.
1 1
• Si − 1 < 0, c’est-à-dire λ < 0 ou λ > 1 : alors x λ −1 tend vers +∞ quand
λ
x tend vers 0+ . Comme f est continue en 0, sa limite en 0 est finie, ce qui
impose k = 0 et donc f = 0. Ainsi, Ker(T − λ Id) = {0}, ce qui montre
que λ n’est pas valeur propre de T .
1
• Si − 1 = 0, c’est-à-dire λ = 1 : alors f (x) = k pour tout réel k > 0 et,
λ
f étant continue en 0, il vient f (0) = k : la fonction f est donc constante
égale à k. Nous avons donc Ker(T − Id) ⊂ R.
Algèbre 37
Diagonaliser la matrice
6 2 0
A= 2 3 0 .
−10 −5 2
Pour λ ∈ K on a
λ−6 −2 0
det(λ I3 − A) = det −2 λ−3 0
10 5 λ−2
= ((λ − 6)(λ − 3) − 4) (λ − 2)
= (λ2 − 9λ + 14)(λ − 2)
= (λ − 2)2 (λ − 7).
Les valeurs propres de A sont donc 2 et 7.
38 Chapitre 2 Réduction
Pour vérifier que A est diagonalisable nous allons calculer les dimensions des sous-
espaces propres de f , l’endomorphisme de K3 canoniquement associé à A, pour vérifier
que leur somme est 3.
Dans le cas d’une valeur propre simple, le sous-espace propre associé est
automatiquement de dimension 1. Pour les valeurs propres multiples,
on a seulement un encadrement de la dimension.
Soit (x, y, z) ∈ K3 tel que (x, y, z) ∈ Ker(f −2 Id). Il vient, d’après l’expression
de A − 2 I3 , le système :
4x + 2y = 0
2x + y = 0
−10 x − 5 y = 0
qui se réduit en fait à une seule équation car elles sont toutes trois proportion-
nelles :
2 x + y = 0.
Ainsi Ker(f −2 Id) est de dimension 2, qui est la multiplicité de 2 comme valeur
propre de f .
A est donc bien diagonalisable.
Il faut maintenant trouver une base de chacun des espaces propres. Pour Ker(f −2 Id),
il suffit de trouver deux vecteurs non colinéaires pour en avoir une base.
Il n’y a aucun calcul à faire pour déterminer P −1 AP . En effet, ce n’est autre que la
matrice de f dans la base (u1 , u2 , u3 ).
Nous allons d’abord déterminer les valeurs propres en cherchant les réels λ pour
lesquels le système AX = λ X(X ∈ Mn,1 (R)) possède au moins une solution X =6 0.
x1
Pour λ ∈ R et X = ... ∈ Mn,1 (R) non nul, X est vecteur propre de A de
xn
valeur propre associée λ si et seulement si AX = λ X.
L’égalité AX = λ X est équivalente au système :
x1 + · · · + xn = λ x1
x1 + x2 = λ x2
(S) ..
.
x1 + xn = λ xn
1
Par ailleurs, nous avons vu que x2 = x1 d’où enfin :
λ−1
n−1
x1 = (λ − 1) x1 i.e. (n − 1) x1 = (λ − 1)2 x1 .
λ−1
Peut-on diviser par x1 afin de déterminer les valeurs possibles de λ ? Si x1 est nul,
1
alors pour k > 2 : xk = x1 = 0. On a donc X = 0, ce qui contredit l’hypothèse
λ−1
faite sur X.
√
Le cas de 1 − n − 1 se traite identiquement.
√
Soit λ2 = 1 − n − 1 et E2 = Ker(A − λ2 In ).
D’après les calculs précédents, X ∈ E2 si et seulement si
1 1
∀k ∈ {2, . . . , n}, xk = x1 = − √ x1 .
λ−1 n−1
√ T
Autrement dit, si et seulement si x = x1 (− n − 1, 1, . . . , 1) ce dont on déduit
√ T
que E2 = R(− n − 1, 1, . . . , 1) .
42 Chapitre 2 Réduction
√
En conclusion : 1 − n − 1 est valeur propre de A et le sous-espace propre
√ T
associé est la droite R(− n − 1, 1, . . . , 1) .
Il reste à étudier le cas λ = 1. Dans ce cas, le système (S) se simplifie considérablement.
on a Ker(A − In ) = E3 .
Nous n’avons pas encore tout à fait démontré que 1 est valeur propre de A : il pourrait
en effet se faire que E3 soit réduit à {0}.
D’une part, une solution de (S) vérifie nécessairement x1 = 0.
D’autre part, comme n > 3 l’équation x2 + · · · + xn = 0 contient au moins deux
termes ; il suffit d’en prendre un égal à 1, un autre égal à −1 et tous les autres nuls
pour en avoir une solution non nulle. Nous aurons ainsi bien utilisé le fait que n > 3.
T T
Soit le vecteur X = (0, 1, −1, 0, . . . , 0) (si n > 3) ou X = (0, 1, −1) (si
n = 3). Alors X ∈ E3 car les coordonnées de X vérifient bien x1 = 0 et
x2 + · · · + xn = 0. De plus, X 6= 0. Ainsi, E3 n’est pas réduit à {0}. Ceci
montre que 1 est valeur propre de A et que le sous-espace propre associé est
E3 . √ √
En conclusion, A possède trois valeurs propres : 1 + n − 1, 1 − n − 1 et 1.
Les sous-espaces propres associés sont respectivement E1 , E2 et E3 .
A est diagonalisable si et seulement si, la somme des dimensions de ses sous-espaces
propres est n.
Il est clair que dim(E1 ) = dim(E2 ) = 1. Reste à calculer dim(E3 ), la difficulté étant
que E3 est donné par un système d’équations.
Pour déterminer cette dimension, on peut chercher une base de E3 . Cependant, on
peut aussi calculer cette dimension par le théorème du rang. En effet, il est souvent
assez simple de déterminer le rang d’une matrice par des opérations élémentaires sur
les lignes et les colonnes. Parfois, le rang est même évident sans qu’il n’y ait à faire
ces opérations ; c’est le cas quand beaucoup de colonnes sont colinéaires voire égales.
Déterminons la dimension de E3 :
dim(E3 ) = dim(Ker(A − λIn )) = n − rg(A − In )
La matrice
0 1 ··· 1
1 0 · · · 0
A − In = .
..
0
1 0 ··· 0
Algèbre 43
T
Si n = 2, les équations vérifiées par les éléments (x1 , x2 ) ∈ E3 se
√ E3 = {0} est 1 n’est pas valeur propre
résument à x1 = x2 = 0 ; ainsi,
de A. En revanche, comme n − 1 = 1, λ1 = 2 et λ2 = 0 sont valeurs
T
propres distinctes de sous-espaces propres associés respectifs R(−1, 1)
T
et R(1, 1) et A est encore diagonalisable.
Soit la matrice :
−3 −2 0
A= 6 3 1 ∈ M3 (R).
4 0 3
On note f l’endomorphisme de R3 canoniquement associé à A.
1. Calculer les puissances de A − I3 .
Pour k ∈ {1, 2, 3} on pose Ek = Ker((f − Id)k ).
2. Démontrer que dim(Ek ) = k.
3. En déduire une base (u1 , u2 , u3 ) de E3 telle que (u1 ) est une base de E1 et
(u1 , u2 ) est une base de E2 .
4. Déterminer une matrice B triangulaire supérieure et semblable à A ainsi que
les matrices de passage correspondantes.
44 Chapitre 2 Réduction
On a successivement :
−4 −2 0 4 4 −2
A − I3 = 6 2 1 , (A − I3 )2 = −8 −8 4
4 0 2 −8 −8 4
et (A − I3 )3 = 0. Au vu de cette dernière relation on a donc (A − I3 )n = 0 pour
tout n > 3.
On a les inclusions :
Ker(f − Id) ⊂ Ker((f − Id)2 ) ⊂ Ker((f − Id)3 ) = R3 .
Nous aurions aussi pu remarquer, pour cette dernière matrice, que la première colonne
est une combinaison linéaire des deux autres (le double de leur somme).
3. Il est aisé de construire des bases de ce type. En effet, une base de E1 est une
famille libre de E2 donc peut être complétée en une base de E2 , etc.
Nous connaissons les dimensions des espaces Ek , ce qui simplifie la détermination de
bases. En effet :
• E1 est de dimension 1, donc toute famille libre à un élément en est une base.
Autrement dit, on peut prendre pour u1 n’importe quel élément non nul de E1 .
Algèbre 45
Si deux des coordonnées sont nulles, la relation 2x+2y −z = 0 montre que la troisième
est nulle et donc u2 également, ce qui est exclu.
Si x = 0, alors on peut prendre y = 1 et z = 2. On obtient ainsi bien un vecteur qui
n’est pas colinéaire à u1 .
Enfin, on peut prendre pour u3 n’importe quel vecteur qui n’est pas élément de E2 ,
c’est-à-dire u3 = x e1 +y e2 +z e3 avec 2 x+2 y −z = 6 0. Encore une fois, une infinité de
choix se présente mais il y en a de plus simples que d’autres : prendre deux coordonnées
nulles et la troisième égale à 1. N’importe lequel des trois vecteurs e1 , e2 et e3 est un
choix convenable pour u3 . Nous allons cependant choisir u3 = e3 afin que la matrice
de passage soit triangulaire : vu qu’il faudra effectuer un calcul de changement de
base, donc en particulier inverser cette matrice de passage, autant la choisir de sorte
que les calculs soient les plus simples possibles !
Cette matrice est triangulaire : ses valeurs propres sont donc simplement ses coeffi-
cients diagonaux.
Partant des valeurs propres, il suffit de déterminer la dimension des sous-espaces
propres associés pour déterminer si la matrice est ou non diagonalisable : une condition
nécessaire et suffisante pour qu’une matrice de taille n soit diagonalisable est que
chaque son polynôme caractéristique soit scindé et que chaque sous-espace propre soit
de même dimension que la multiplicité de la valeur propre associée. Un tel calcul de
dimension de noyau peut se ramener à un calcul, plus simple, de rang via le théorème
du même nom.
La matrice A étant triangulaire, ses valeurs propres sont ses coefficients diago-
naux : 1, 2 et d.
Supposons d ∈ / {1, 2}. A est alors une matrice 3 × 3 possédant 3 valeurs propres
distinctes donc A est diagonalisable.
48 Chapitre 2 Réduction
Il faut donc savoir si les sous-espaces propres de u sont bien stables par v. Justement,
il est supposé que u et v commutent, donc tout sous-espace propre de u est stable par
v.
2. Si tous les éléments de A sont des homothéties, il n’y a rien à faire : la matrice
d’une homothétie dans n’importe quelle base est diagonale et donc n’importe quelle
base de E convient.
Dans le cas contraire, l’un des éléments de A n’est pas une homothétie : nous pouvons
nous ramener à des espaces de dimension plus faible (pour pouvoir raisonner par
récurrence sur la dimension) en considérant ses sous-espaces propres. En effet, un
endomorphisme diagonalisable qui n’est pas une homothétie possède plusieurs sous-
espaces propres, qui sont donc tous de dimensions strictement inférieures à celle de
E.
1. Ce résultat n’a a priori rien d’évident. L’hypothèse est que, pour tout élément x
de E, il existe un scalaire λx tel que f (x) = λx x. La conclusion est qu’il existe un
scalaire λ tel que, pour tout élément x de E, f (x) = λ x. Ces deux énoncés diffèrent
par l’ordre des quantificateurs : dans le premier cas, le scalaire dépend de x, alors qu’il
52 Chapitre 2 Réduction
n’en dépend pas dans le second ! Autrement dit, il s’agit de montrer que les scalaires
λx sont en fait tous égaux.
Il faut bien faire la distinction entre une phrase logique du type ∀x, ∃λ,
où pour chaque x, on obtient un λ dépendant de x, et une phrase du
type ∃λ, ∀x qui nous donne un λ constant, qui marche pour tous les x.
Tous les éléments non nuls de E sont vecteurs propres de f ; en particulier, toute
base de E est une base de vecteurs propres de f (et donc f est diagonalisable).
Soit (e1 , . . . , en ) une base de E. Il existe des scalaires λ1 , . . . , λn tels que, pour
tout k ∈ {1, . . . , n}, f (ek ) = λk ek . Il suffit de montrer que λ1 = · · · = λn .
Si n = 1, il n’y a rien à faire.
Sinon, pour k et l distincts : f (ek + el ) = λk ek + λl el . Mais il existe aussi un
scalaire µ tel que f (ek + el ) = µ (ek + el ) (µ = λek +el avec les notations vues
plus haut). Ainsi :
λk ek + λl el = µ (ek + el ).
Comme (e1 , . . . , en ) est une base de E on a
λk = µ = λl .
Ainsi, λ1 = · · · = λn .
Nous devons envisager le cas où toutes les familles (x, f (x)) sont liées
puisqu’alors l’argument précédent ne tient pas. C’est précisément ici
qu’intervient le résultat de la première question : il faut distinguer
deux cas selon que f est une homothétie ou non.
Ainsi, (P R)−1 M (P R) est une matrice semblable à M dont tous les coefficients
diagonaux sont nuls. La propriété est donc démontrée par récurrence.
Dans la dernière égalité, nous n’avons pas pris la peine d’expliciter tous les blocs de
la matrice : en effet, seuls les blocs diagonaux nous intéressaient ici.
1. La notation ne doit pas effrayer : Φf est par définition une application de L (E)
dans lui-même. Dire que Φf ∈ L (L (E)) n’est donc rien d’autre que dire que Φf
est linéaire, c’est-à-dire que l’on a Φf (λ g + µ h) = λ Φf (g) + µ Φf (h) pour tous g et
h ∈ L (E) et λ et µ scalaires ; cette dernière relation peut enfin s’écrire
f ◦ (λ g + µ h) = λ f ◦ g + µ f ◦ h.
Finalement, comme dans presque toutes les questions demandant de vérifier qu’une
application est linéaire, il suffit simplement de le vérifier à partir de la définition.
n
X
2. Si P = ak X k on a, par définition d’un polynôme d’endomorphismes,
k=0
n
X
P (Φf ) = ak Φkf .
k=0
n
! n
X X
k
ΦP (f ) (g) = P (f ) ◦ g = ak f ◦g = ak f k ◦ g.
k=0 k=0
Pour démontrer que P (Φf ) = ΦP (f ) , il suffit donc de démontrer que Φkf (g) = f k ◦ g
pour tout g ∈ L (E), c’est-à-dire Φkf = Φf k . Autrement dit, il suffit de démontrer le
résultat dans le cas particulier des monômes X k , ce qui est moins lourd à écrire et se
rédigera aisément par récurrence.
n
X
Soit P = ak X k ∈ K[X]. On a
k=0
n
X
P (Φf ) = ak Φkf
k=0
56 Chapitre 2 Réduction
soit, comme J 2 = n J,
A2 = (n a2 + 2 a (b − a)) J + (b − a)2 In .
1 b
Comme a 6= 0, on a J = A − − 1 In . En remplaçant J par cette
a a
expression dans l’égalité ci-dessus on obtient
1 b
A2 = (n a2 + 2 a (b − a)) A− − 1 In + (b − a)2 In
a a
soit, après simplification :
A2 − (n a + 2 (b − a)) A + (n a (b − a) + (b − a)2 ) In = 0.
Ainsi, le polynôme
P = X 2 − (n a + 2 (b − a)) X + (n a (b − a) + (b − a)2 )
est un polynôme annulateur de A.
Le discriminant de P est
(n a + 2 (b − a))2 − 4 (n a (b − a) + (b − a)2 ) = n2 a2 > 0
donc P possède deux racines réelles distinctes.
P est un polynôme annulateur scindé à racines simples de A donc A est diago-
nalisable.
Par ailleurs, les valeurs propres de A sont racines de tout polynôme annulateur de
A, en particulier de P . À partir du discriminant de P calculé plus haut on obtient
aisément ses racines.
A priori, il se pourrait que l’un de ces réels ne soit pas valeur propre
de A.
Cependant, nous savons ici que A est diagonalisable et a donc au moins une valeur
propre. De plus, une matrice diagonalisable qui n’a qu’une seule valeur propre λ est en
fait égale à λ In , ce qui n’est pas le cas de A. A possède donc plusieurs valeurs propres,
ce qui assure que b − a et b + (n − 1) a sont bien valeurs propres de A. Cependant,
il est ici demandé de calculer les dimensions des sous-espaces propres associés. Il va
Algèbre 59
donc falloir effectuer quelques calculs. Une façon simple d’aborder une telle question
est de plutôt calculer des rangs.
3. Nous connaissons les valeurs propres et les dimensions des sous-espaces propres
associés, donc nous connaissons une matrice diagonale semblable à A sans avoir besoin
de calculer des matrices de passage !
Il faut bien se souvenir qu’on peut choisir où prendre les vecteurs avec
lesquels on complète une base, dans le théorème de la base incomplète.
I Sens réciproque
Pour le sens réciproque, on commence par constater que u admet une valeur propre
et un vecteur propre associé (puisqu’on est dans C). On applique alors l’hypothèse à
F = C x, ce qui donnera un sous-espace stable G. La stabilité permet de considérer
l’endomorphisme induit par u sur G, et on réitère le raisonnement.
Algèbre 61
1. Si f est nilpotent, il est trigonalisable de valeur propre nulle. On calcule alors les
traces demandées dans une base de trigonalisation.
2. Là encore, le calcul des traces s’effectue facilement dans une base de trigonalisation
(possible puisqu’on est dans C).
3. Pour montrer que f est nilpotent, il faut montrer que sa seule valeur propre est 0.
On suppose donc (par l’absurde) que f a plus de deux valeurs propres. La question
précédente donne alors un système de n équations à p inconnues, qui rappelle un
Vandermonde.
Si i 6= j sont entre 1 et r, les polynômes (X −λi )ni et (X −λj )nj sont premiers
entre eux car ils n’ont aucun facteur irréductible en commun.
On a donc, d’après le lemme de décomposition des noyaux :
Mr Mr
Ker(P (f )) = Ker((f − λk Id)nk ) = Ek .
k=1 k=1
nk
en posant Ker((f − λk Id) ) = Ek (stable par f puisque c’est le noyau d’un
polynôme en f ).
D’autre part, d’après le théorème de Cayley-Hamilton, P (f ) = 0 et donc
Ker(P (f )) = E, ainsi :
M r
E= Ek .
k=1
Pour k entre 1 et r, notons fk l’endomorphisme induit par f sur Ek . On a
(fk − λk Id)nk = 0, donc fk − λk Id est nilpotent.
Ainsi fk est la somme d’une homothétie et d’un endomorphisme nilpotent.
Pour k ∈ {1, . . . , r}, nous avons, d’après ce qui précède, que fk est la somme
de l’homothétie λk Id et de l’endomorphisme nilpotent gk = fk − λk Id de Ek .
Dans une base Bk de Ek , on a donc (notant Mk la matrice de fk et Nk celle
de gk ) Mk = λ Ink + Nk , avec Nknk = 0.
La matrice M de f dans la base B obtenue en concaténant les base B1 , . . . , Bk
est diagonale par blocs :
M1 0
M =
.. .
.
0 Mr
que l’on peut écrire sous forme d’une somme :
λ1 In1 0 N1 0
M =
. .. +
.. = D + N.
.
0 λr Inr 0 Nr
Notons que D est diagonale. N est nilpotente car elle est diagonale par blocs avec
des blocs diagonaux eux-mêmes nilpotents. Il restera ensuite à vérifier que D et N
commutent.
3. La méthode est expliquée dans les questions précédentes : nous allons commencer
par déterminer les sous-espaces caractéristiques de f .
Cherchons désormais des bases des sous-espaces caractéristiques. Nous savons d’après
ce qui précède qu’en les concaténant nous obtiendrons une matrice « diagonale par
blocs » qui nous permettra de trouver D et N .
si :
x − 2 y + 4 z = 0.
C’est l’équation d’un plan (de dimension 2), il suffit donc de trouver deux vecteurs
non colinéaires dans ce plan pour en avoir une base.
66 Chapitre 2 Réduction
D’autre part :
2 0 −2
A + 2 I3 = 1 2 3 .
0 1 2
Les éléments (x, y, z) de Ker(f + 2 Id) vérifient donc
x = z
.
y = −2 z
En particulier, on voit que (1, −2, 1) ∈ Ker(f + 2 Id). Comme ce noyau est
de dimension 1, d’après les questions précédentes, la famille réduite au vecteur
u3 = (1, −2, 1) en est une base.
Nous allons maintenant déterminer, comme nous l’avons fait précédemment dans le
cas général, la matrice de f dans la base B = (u1 , u2 , u3 ). Nous savons que nous
aurons une matrice diagonale par blocs, le premier bloc étant d’ordre 2. Pour cela, on
peut calculer les matrices de passage.
Nous devons maintenant écrire cette matrice comme somme d’une matrice diagonale
et d’une matrice nilpotente. Cependant, nous ne cherchons pas ces matrices au hasard :
nous savons que la matrice diagonale doit être, d’après les questions précédentes,
diag(1, 1, −2).
Algèbre 67
1. Commençons par traiter les petites valeurs de n pour voir si un schéma simple se
dégage, ce qui permettrait une démonstration par récurrence.
• Si n = 2 :
0 a0
A(a0 , a1 ) =
1 a1
et P son polynôme caractéristique. Alors, pour tout scalaire x :
x −a0
P (x) = det = x(x − a1 ) − a0 = x2 − a1 x − a0 .
−1 x − a1
Ainsi, P = X 2 − a1 X − a0 .
• Si n = 3 :
0 0 a0
A(a0 , a1 , a2 ) = 1 0 a1
0 1 a2
et P son polynôme caractéristique. Alors, pour tout scalaire x :
x 0 −a0
P (x) = det −1 x −a1 .
0 −1 x − a2
En développant selon la première colonne il vient
x −a1 0 −a0
P (x) = x det + det
−1 x − a2 −1 x − a2
soit
P (x) = x(x(x − a2 ) − a1 ) − a0
et enfin P (x) = x − a2 x2 − a1 x − a0 . Ainsi, P = X 3 − a2 X 2 − a1 X − a0 .
3
Dans le cas général de l’énoncé, il est raisonnable de supposer que le polynôme carac-
téristique de A(a0 , . . . , an−1 ) est X n − an−1 X n−1 − · · · − a1 X − a0 .
2. Pour démontrer qu’il existe un plus petit entier naturel possédant une propriété,
il suffit de démontrer que l’ensemble des entiers naturels possédant cette propriété
n’est pas vide : il possède alors un plus petit élément car toute partie non vide de N
possède un minimum.
Dans le cas qui nous intéresse, il s’agit donc de démontrer qu’il existe au moins
un entier naturel k tel que la famille (x, f (x), . . . , f k (x)) est liée. Comme E est de
dimension finie n, toute famille de cardinal n + 1 est liée, il suffit donc de prendre
k = n.
Soit X l’ensemble des entiers naturels k tels que la famille (x, f (x), . . . , f k (x))
est liée. Comme E est de dimension finie n, toute famille de cardinal n + 1 est
liée, en particulier (x, f (x), . . . , f n (x)) est liée. Ainsi, n ∈ X, donc X 6= ∅.
70 Chapitre 2 Réduction
3. La définition de la famille B est bien cohérente car p ∈ N∗ : si p était nul, f p−1 (x)
n’aurait pas de sens en général ! C’est pour cela qu’il était demandé de vérifier p = 6 0.
Comme F est, par définition, engendré par les vecteurs f k (x) avec 0 6 k 6 p − 1, il
suffit de démontrer que f (f k (x)) ∈ F pour tout ces entiers k.
C’est facile pour les premières valeurs de k, il restera à montrer que f (f p−1 (x)), c’est-
à-dire f p (x), est élément de F , c’est-à-dire est combinaison linéaire des f k (x) avec
0 6 k 6 p − 1.
Nous avons une propriété assez voisine de celle-ci : la famille (x, f (x), . . . , f p (x)) étant
liée, et (x, f (x), . . . , f p−1 (x)) étant libre, on peut écrire f p (x) comme combinaison
linéaire des autres f k (x).
une base de F . En effet, dans une telle base, la matrice de f est constituée de quatre
blocs et le bloc en deuxième ligne et première colonne est nul. Ceci permet de calculer
les déterminants, et donc les polynômes caractéristiques, simplement.
Comme toujours, quand on veut compléter une base d’un espace vec-
toriel de dimension finie, il faut traiter à part un cas particulier. En
effet, si F est égal à E, B est elle-même une base de E et il n’y a rien
à compléter : dans ce cas, on a simplement g = f et donc Q = P . De
façon analogue, avant d’introduire une base d’un espace vectoriel, on
doit toujours vérifier qu’il n’est pas réduit à 0.
pour un vecteur non nul quelconque, il reste à voir que c’est encore vrai pour x = 0,
ce qui est clair par linéarité.
Nous avons donc démontré que, pour tout élément non nul x de E, P (f )(x) = 0.
Par ailleurs, P (f ) est linéaire, donc P (f )(0) = 0. Ainsi, P (f )(x) = 0 pour tout
élément x de E. Ceci montre que P (f ) = 0, c’est-à-dire que P , le polynôme
caractéristique de f , est un polynôme annulateur de f : c’est le théorème de
Cayley-Hamilton.
CHAPITRE
Espaces euclidiens
3
Exercice 3.1 : Famille de polynômes orthogonaux
On peut se permettre de passer très vite sur les deux premiers points,
mais il faut toujours prouver proprement le caractère défini-positif, qui
nécessite généralement des théorèmes un peu plus évolués.
I Analyse :
On suppose avoir Pn+1 qui convient, il doit alors être orthogonal à P0 , . . . , Pn , donc
à tous les polynômes de Rn [X]. On peut donc exprimer Pn+1 via la projection ortho-
gonale : il est de la forme Q − pn (Q), où pn est la projection sur Rn [X].
Comme Pn+1 doit être unitaire et de degré n + 1, on doit donc avoir Q = X n+1 .
Ainsi Pn+1 est orthogonal aux éléments d’une base de Rn [X], donc à Rn [X].
Comme il est de la forme X n+1 + Q, avec Q ∈ Rn [X], on a Q = −pn (X n+1 ),
où pn désigne la projection orthogonale sur Rn [X] (puisque −Q est dans Rn [X]
et vérifie X n+1 − (−Q) = P orthogonal à Rn [X]).
On a donc Pn+1 = X n+1 − pn (X n+1 ) et on a l’unicité.
I Synthèse :
On pose ici le résultat trouvé dans l’analyse. Il ne faut cependant pas oublier de
vérifier qu’il est bien unitaire, de degré n + 1 et orthogonal à P0 , . . . , Pn .
Posons Pn+1 = X n+1 − pn (X n+1 ). Alors comme pn (X n+1 ) est dans Rn [X]
(donc de degré 6 n), Pn+1 est de degré n + 1 et de coefficient dominant 1.
D’autre part Pn+1 est orthogonal à Rn [X] par définition du projeté orthogonal,
donc à (P0 , . . . , Pn ). On a donc l’existence, ce qui termine de montrer P(n+1).
En conclusion, ∀n ∈ N, P(n), ce qui donne l’existence et l’unicité de la suite
cherchée.
3. La relation à démontrer se réécrit hPn |Ri = 0. Il faut donc montrer que Pn est
orthogonal à R, ce qu’on a déjà fait dans la question précédente.
4. Il faut montrer que seule la fonction nulle est orthogonale à tous les cn . Soit f une
telle fonction. Pour exploiter la question précédente, on veut montrer f est orthogonale
à tous les P (cos(x)), donc à tous les x 7→ cosn (x). On pense alors à la linéarisation,
qui permet d’exprimer les cosn (x) comme combinaison linéaire de cos(kx)
Ensuite, si f est orthogonale à tous les P (cos x), P ∈ R[X], comme on dispose d’une
suite de ces fonctions qui converge uniformément vers f par la question précédente,
on montre que f est orthogonale à elle-même.
Algèbre 79
Pour n ∈ N, on a
n
X n
X
Sn (f ) = ak (f )ck = hf |ck i ck ,
k=0 k=0
donc Sn (f ) est le projeté orthogonal de f sur Vect(c0 , . . . , cn ).
La suite (cn )n∈N étant orthonormale et totale, (Sn (f ))n∈N converge vers f pour
la norme euclidienne associée à h | i de E.
P +∞
P
6. Comme |an (f )| converge, on peut définir la fonction g : x 7→ an (f )cn (x). On
n=0
montre facilement que cette suite de fonctions converge normalement sur R.
80 Chapitre 3 Espaces euclidiens
Pour montrer que g = f , il suffit de montrer que g − f est orhogonal à tous les cn ,
c’est-à-dire que hcn |gi = hcn |f i i.e. an (f ) = an (g) pour tout n ∈ N. Pour ceci, on
utilise le théorème d’inversion série et intégrale, grâce à la convergence normale.
Pour x ∈ R et n ∈ N∗ , on a :
√ √
|an (f )cn (x)| 6 2 |an (f )| | cos(nx)| 6 2 |an (f )|,
P+∞
qui reste vraie si n = 0. Ainsi la série de fonction g = n=0 an (f )cn converge
normalement sur R.
Pour p ∈ N, on a
Z +∞
1 π 1 πX
Z
ap (g) = hg|cp i = g(t)cp (t) dt = an (f )cn (t)cp (t) dt.
π 0 π 0 n=0
Comme la série définissant g converge normalement sur R, elle converge nor-
malement, donc uniformément sur [0, π]. On peut donc intervertir somme et
intégrale (puisque les t 7→ an cn (t)cp (t) sont toutes continues) et :
+∞ Z π +∞
1X X
ap (g) = an (f ) cn (t)cp (t) dt = an (f ) hcn |cp i = ap (f )
π n=0 0 n=0
puisque la suite (cn )n∈N est orthonormale.
Ainsi, pour p ∈ N, hf − g|cp i = hf |cp i − hg|cp i = ap (f ) − ap (g) = 0. f − g est
donc orthogonal à tous les éléments de la suite (cn )n∈N , qui est totale, donc
f − g = 0. Ainsi, pour x ∈ R,
+∞
X
f (x) = g(x) = an (f )cn (x).
n=0
Déterminer la valeur de
Z 1
inf (t2 − at − b)2 dt
(a,b)∈R2 0
et préciser pour quelles valeurs de a et b elle est atteinte.
On a alors
Z 1
inf 2 (t2 − at − b)2 dt = inf 2 kX 2 − aX − bk2 = d(X 2 , R1 [X])2 .
(a,b)∈R 0 (a,b)∈R
Ainsi
Z 1 2
2 2 2 2 2 2 1
d(X , R1 [X]) = kX − p1 (X )k = t −t+ dt
0 6
Z 1 2
1 t2 t
= t4 + t2 + − 2t3 + − dt
0 36 3 3
1 1 1 1 1 1
= + + − + −
5 3 36 2 9 6
36 + 60 + 5 − 90 + 20 − 30 1
= = .
180 180
En conclusion, on a donc :
Z 1
1
inf 2 (t2 − at − b)2 dt = ,
(a,b)∈R 0 180
1
et cet inf est atteint pour a = 1 et b = − .
6
1. Encore une fois, il faut tout simplement vérifier les trois axiomes de la définition.
où les ai,j sont les coefficients de A. Supposons hA|Ai = 0. Comme c’est une
somme de réels positifs, ils sont tous nuls, et pour tout (i, j) ∈ {1, . . . , n}2 ,
a2j,i = 0. Par suite, aj,i = 0, ce qui montre que A = 0. Ainsi h | i est défini
positif.
En conclusion, h | i définit un produit scalaire sur E.
I Condition suffisante :
En prenant C = Ei,j (la matrice dont tous les coefficients sont nuls, sauf le
coefficient (i, j) qui vaut 1) pour (i, j) ∈ {1, . . . , n}2 , et notant M = B t B, on
calcule que CM est la matrice dont toutes les lignes sont nulles, sauf la i-ème,
qui est la j-ième ligne de M , et que M C est la matrice dont toutes les colonnes
sont nulles, sauf la j-ième, qui est la i-ème colonne de M . Si i = 6 j, on en déduit
que mi,j = 0 et que mi,i = mj,j . Ainsi M est de la forme λIn , λ ∈ R.
De plus, on a B inversible, donc M = B t B est inversible, ce qui montre que
λ=6 0.
Pour X ∈ Mn,1 (R)\{0}, t XB t BX = kt BXk2 > 0 (où k k désigne la norme
euclidienne usuelle sur Mn,1 (R)), donc λN (X)2 = N (t BX)2 > 0, ce qui
√ 1
montre que λ > 0. On peut donc poser α = ± λ et B1 = B. La relation
α
B t B = In donc B1t B1 = In , donc B1 ∈ On (R). Au final, B = αB1 , avec
α ∈ R∗ et B1 ∈ On (R).
I Condition suffisante :
Ainsi hu1 (x) + · · · + up (x) − x|yi = 0, donc u1 (x) + · · · + up (x) − x est ortho-
gonal à tout vecteur de E. Il est donc nul, et u1 (x) + · · · + up (x) = x.
Ainsi u1 + · · · + up = idE .
Pour x ∈ E, on a
x = u1 (x) + · · · + up (x) ∈ Im(u1 ) + · · · + Im(up )
par la question précédente. Ainsi E ⊂ Im(u1 ) + · · · + Im(up ).
On en déduit que Im(u1 ) + · · · + Im(up ) = E, l’inclusion réciproque étant
évidente. Or
dim(Im(u1 )) + · · · + dim(Im(up )) = rg(u1 ) + · · · + rg(up ) = n = dim(E)
donc la somme est directe.
3. Il faut ici penser à appliquer ce qui a été démontré dans la question précédente,
c’est-à-dire l’unicité de la décomposition d’un élément sur la somme des Im(ui ) : pour
i ∈ {1, . . . , p}, on peut écrire ui (x) comme somme de 0 et de ui (x) d’une part, et
d’autre part comme la somme des uj (ui (x)) par la première question.
Pour encadrer le produit scalaire hu(x)|xi entre deux réels faisant intervenir kxk2 , il
faut donc encadrer λi entre deux valeurs. On introduit donc la plus petite et la plus
grande des valeurs propres de u.
2. En reprenant les inégalités obtenues dans la question précédente, il faut, pour qu’on
ait égalité, qu’il y ait égalité partout. On le traduit plus rigoureusement en regroupant
les termes du même côté et en se ramenant à une somme de réels positifs ou nulss.
88 Chapitre 3 Espaces euclidiens
Soit x ∈ E\{0} tel qu’on ait αkxk2 = hu(x)|xi. Notant (x1 , . . . , xn ) les coor-
données de x dans une base orthonormée de vecteurs propres de u, on a comme
plus haut αx2i 6 λi x2i pour tout i entre 1 et n.
Or, par hypothèse,
X n
(λi − α)x2i = hu(x)|xi − αkxk2 = 0.
i=1
C’est une somme de réels tous positifs, donc on a (λi − α)x2i = 0 pour tout
i ∈ {1, . . . n}. Si i est tel que xi = 6 0, on a donc λi = α ce qui donne
Xn Xn n
X
u(x) = xi u(ei ) = xi λ i e i = xi αei = αx.
i=1 i=1 i=1
Supposons que toutes les valeurs propres de A soient positives. Par le théorème
spectral, on a P ∈ On (R) et D une matrice diagonale (dont les coefficients
sont les valeurs propres de A, donc des nombres positifs) tels que A = t P DP .
Pour X ∈ Mn,1 (R), posons Y = P X, et notons (y1 , . . . , yn ) les coordonnées
de Y , d1 , . . . , dn les coefficients diagonaux (positifs) de D. Alors
Xn
t
XAX = t X t P DP X = t Y DY = di yi2 > 0.
i=1
Ainsi A est une matrice symétrique positive.
2. Cette question est très similaire à la précédente, en prenant soin de bien adapter
les inégalités.
puisque c’est une somme de réels positifs non tous nuls. Comme t XBX > 0,
on a λ > 0
Ainsi toutes les valeurs propres de B sont strictement positives.
Soient n ∈ N∗ et A ∈ SOn (R). Montrer qu’il existe P ∈ On (R) telle que A soit
de la forme
t Ir 0
P P,
0 D
où r ∈ N, D est une matrice diagonale par blocs, avec des blocs de la forme
cos θ sin θ
R(θ) = .
− sin θ cos θ
En déduire que SOn (R) est connexe par arcs.
avec r, s ∈ {0, . . . , n} et R une matrice diagonale par blocs, avec des blocs de
la forme R(θ).
Le chemin construit doit rester inclus dans SOn (R), on déforme donc
les matrices R(θ) pour arriver à des matrices I2 en gardant des matrices
de rotation.
et ϕ : [0, 1] → SOn (R) est continue (car chaque coefficient est un polynôme
de fonctions trigonométriques, donc est continu) avec
ϕ(0) = A et ϕ(1) = t P P = In .
Le fait de montrer que tout élément de SOn (R) puisse être relié à In
montre que SOn (R) possède une seule composante connexe par arcs,
donc est connexe par arcs.
On pose
2 2 1
1
A= −2 1 2 .
3
1 −2 2
Montrer que A est une matrice de rotation dont on précisera les éléments carac-
téristiques.
On vérifie que A est une matrice de rotation en montrant que c’est une matrice
orthogonale de déterminant 1. On détermine ensuite l’axe de la rotation en résolvant
le système AX = X, et on peut trouver le cosinus de l’angle en calculant la trace de
A. En effet, la trace de A vaut 1 + 2 cos(θ).
Il faut enfin trouver le signe du sinus de l’angle en calculant Det(k, x, Ax) pour x
un vecteur orthogonal à l’axe et unitaire et k un vecteur directeur unitaire orientant
l’axe.
Notons que les trois colonnes de A forment une famille orthonormée de 3 élé-
ments, donc A ∈ O3 (R). En effectuant L1 ← L1 − 2L3 et L2 ← L2 + 2L3 ,
puis en développant suivant la première colonne, on obtient alors :
0 6 −3
1 1 6 −3
det(A) = 0 −3 6 = = 1.
27 27 −3 6
1 −2 2
Ainsi A est une matrice de rotation. Pour
x
X = y ∈ M3,1 (R),
z
le système AX = X équivaut à
2x + 2y + z = 3x −x + 2y + z = 0
x=z
−2x + y + 2z = 3y i.e. −2x − 2y + 2z = 0 i.e.
y=0
x − 2y + 2z = 3z x − 2y − z = 0
Algèbre 95
donc
1
1
k=√ 0
2 1
est un vecteur dirigeant l’axe de la rotation. On se donne ce vecteur pour orienter
l’axe.
Sous sa forme réduite, la trace d’une matrice de rotation est 1 + 2 cos θ. Comme
5 1
la trace est un invariant de similitude, on a donc 1 + 2 cos θ = donc cos θ =
3 3
1
puis θ ≡ ± arccos [2π]. En prenant
3
0 2
1
x = 1 on obtient Ax = 1 ,
3
0 −2
donc, comme x⊥k et kxk = kkk = 1,
1 0 2
1 1 1 2 4
sin θ = Det(k, x, Ax) = √ 0 1 1 = √ =− √
3 2 3 2 1 −2 3 2
1 0 −2
en développant par rapport à la deuxième colonne.
Ainsi, comme sin θ < 0, A est la matrice de la rotation d’axe
1
1
R 0 et d’angle − arccos .
3
1