cpge-paradise.
com
CORRECTION
CCMP Mathématiques 1
PC et PSI
En cas de questions ou erreurs, merci de me contacter à l’adresse [Link]@[Link].
Partie 1. Polynômes réciproques.
n
X
1 ▷ On remarque que si P (X) = ak X k alors
k=0
n n n
1 X X X
P̃ (X) := X n P ( ) = Xn ak X −k = ak X n−k = an−k X k
X
k=0 k=0 k=0
Par linéarité de la somme.
P est réciproque si et seulement si les polynômes P̃ et P coïncident, id est si leurs coefficients sont
égaux. Ce qui est équivalent à dire que ak = an−k pour k ∈ {0, ..., n}.
n
Y
2 ▷ On a P̃ (X) = ap (1 − λk X)mk .
k=0
n
Y
Si P est réciproque et λj = 0 (par l’absurde), alors 0 = P (0) = P̃ (0) = ap (1 − λk λj )mk = ap .
k=0
Ce qui est absurde puisque le coefficient dominant d’un polynôme non nul est non nul (et ici d ≥ 1).
Donc ces racines sont non nuls et on remarque que pour tout j :
n
Y
0 = P (λj ) = P̃ (λj ) = ap (1 − λk λj )mk
k=0
Comme ap est non nul et que l’on travaille dans un corps intègre, on a λkj λj = 1 pour ou certain
1
kj , ce qui fournit qu’une des racines de P est .
λj
Pour la multiplicité, si par exemple on avait mj > mkj .
P (X)
Posons Q(X) = mkj m (qui est effectivement un polynôme par hypothèse sur
(X − λj ) (X − 1/λj ) kj
les multiplicité) on a Q(λj ) ̸= 0 alors que Q(1/λj ) = 0, or Q est réciproque par construction, ce qui
contredit l’affirmation précédente.
1
[Link]
3 ▷ Si Q est anti réciproque, on vérifie alors Q(1) = −Q(1) donc Q(1) = 0. Ainsi, on peut définir le
p−1 1 X p Q( X1 ) −Q(X)
polynôme P (X) = Q(X)/(X − 1). On remarque alors que X P( ) = 1 = =
X X( X − 1) 1−X
P (X). Donc P est réciproque, d’où le résultat.
4 ▷ Par hypothèse le produit des racines de R est égale à son inverse, donc ce produit vaut 1 ou −1.
5 ▷ On raisonne par récurence forte sur le degré de R, que l’on note n.
Si n = 1, R(X) = X − a a une unique racine complexe a. Dès lors a est égale au produit des
racines de R(X). Ainsi, a ∈ {−1, 1}. Le calcul évident de XR(1/X) montre que si a = 1, R est
réciproque, sinon il est antiréciproque.
Si le résultat est vrai au rang k pour k dans {0, ..., n}, n ≥ 1, on suppose R de degré n + 1, il est
non constant donc admet des racines. Si a est racine de R de multiplicité m > 0, 1/a aussi et avec le
R(X)
même multiplicité, on applique l’hypothèse de récurence à H(X) = de degré
(X − a) (X − 1/a)m
m
strictement inférieur à n + 1 et dont le produit des racines avec multiplicité est toujour 1 ou −1,
car c’est le produit des racines de R quotienté par (a/a)m = 1. Comme (X − a)m (X − 1/a)m est
réciproque (évident), R hérite du caractère réciproque/antiréciproque de H.
D’où le résultat.
Partie 2. Le cas diagonalisable.
1
6 ▷ On a det(xIn −A) = det(A(xA−1 −In )) = det(A) det(xA−1 −In ) = det(A)(−x)n det( In −A−1 )
x
par n−linéarité et multiplicativité du déterminant.
7 ▷ Deux matrices semblables ont le même déterminant. Si A et A−1 le sont, alors det(A) =
det(A−1 ) = 1/ det(A) donc det(A) vaut 1 ou −1. Or (−1)n det(A) est le coefficient de degré 0 de
χA (X), et est donc égal au signe près aux racines de χA (X). Une autre manière de le voir vient du
fait que comme A et A−1 sont semblables, χA (X) = χA−1 (X). Ceci ajouté au résultat de la question
6 donne
χA (X) = (−1)n det(A) × X n χA− 1 (1/X) = (−1)n det(A) × X n χA (1/X)
Ce qui achève la preuve car (−1)n det(A) est dans {−1, 1}.
8 ▷ Si χB (X) est réciproque, comme les valeurs propres de B sont les racines de χB (X), et que B
est diagonalisable, elle est semblable à une matrice de la forme (question 2) :
a1 In1 0 ... ... ...
1
0 In1 0 ... ...
a 1
∆= 0 . .
0 . 0 ...
0 ... 0 ak Ink 0
1
0 ... ... 0 Ink
ak
où les ai sont non nuls, impliquant que δ est inversible, donc que B l’est aussi par similitude.
Or comme B est inversible, on a pour tout i que
Ker(B − ai In ) = Ker(B(In − ai B −1 )) = Ker(In − ai B −1 ) = Ker(B −1 − 1/ai In )
2
[Link]
Du fait que la somme des espaces propres de B est directe et du fait de la diagonalisabilité de B,
on en tire que B −1 est diagonalisable, de mêmes valeurs propres avec même multiplicité (pour tout
i, la dimension de Ker(B − ai In ) est la même que Ker(B − 1/ai In ) par ce qui précède). Donc B −1
est semblable à ∆ donc à B.
SiχB estantiréciproque, la question 3 assure que 1 est valeur propre de B et que B est semblable
1 0
à où χB̃ est réciproque.
0 B̃
B̃ est inversible semblable à soninverse
On conlut par le cas précédent, du fait qu’on en tire que
1 0 1 0
et qu’alors B est inversible d’inverse semblable à qui est lui même semblable à
0 B̃ −1 0 B̃
car B̃ et son inverse le sont.
9 ▷ On a que
1
2 0 0 0
1
B −1 = 0 0 0
2
0 0 2 −4
0 0 0 2
Ainsi, Ker(B − 2I2 ) = Vect(e1 , e2 ) et Ker(B −1 − 2I2 ) = Vect(2e3 − e4 ). Ces espaces n’ont pas
la même dimension alors que cela devrait être le cas si χB était réciproque ou anti-réciproque (car
2 ̸= 1 donc on se ramène au cas χB réciproque et on utilise la question 2).
Partie 3. Produit de matrices de symétries
10 ▷ S1 et S2 sont inversibles (égale à leur inverse par hypothèse) donc par produit A = S1 S2 l’est
aussi et A−1 = S2 S1 . Et on a clairement S1 A−1 S1−1 = S1 A−1 S1 = S1 S2 S1 S1 = S2 S1 = A. D’où le
résultat.
11 ▷ La réponse est oui. Si P est inversible et S1 , S2 deux symétries, alors (P S1 P −1 )(P S1 P −1 ) =
P S1 S1 P −1 = P P −1 = In ainsi P S1 P −1 est toujours une symétrie, idem avec P S2 P −1 . Donc
P S1 S2 P −1 = P S1 P −1 P S2 P −1 est effectivement un produit de deux symétries.
12 ▷ On veut S12 = I2n . À savoir
0n P 0n P P Q 0n
S12 = =
Q 0n Q 0n 0n QP
Ainsi, S1 est une symétrie si et seulement si P Q = QP = In , c’est-à-dire que Q = P −1 .
On veut également que S2 = S1 A, on veut S22 = I2n . Calculons d’abord S2 :
0n P B 0n 0n PC
S2 = =
P −1 0n 0n C P −1 B 0n
Puis calculons S22 :
P CP −1 B
0n PC 0n PC 0n
S22 = =
P −1 B 0n P −1 B 0n 0n P −1 BP C
3
[Link]
Pour que S2 soit une symétrie, il faut donc :
P CP −1 B = In et P −1 BP C = In
Ces deux conditions sont équivalentes à :
B −1 = P CP −1 et B = P C −1 P −1
Ce qui implique que C 2 = In . Dans ce cas, la condition sur B, B −1 se simplifie en B = P C −1 P −1 .
Les conditions P −1 = Q et B = P C −1 P −1 sont donc nécessaires, et on montre aisément quelles
sont suffisantes en remontant les calculs détaillés ici.
−1 −1 0n P
13 ▷ Si on a C = P B P où P ∈ GLn , on a que les matrices S1 := et S2 := S1 A
P −1 0n
sont des matrices de symétrie par la question précédente. Ainsi A = S1−1 S1 A = S1 S2 est un produit
de matrices de symétries.
Partie 4. La matrice Jn (λ)
14 ▷ g n−1 ̸= 0 donc il existe x ∈ E tel que g n−1 (x) ̸= 0. Comme g est linéaire, on a g k (x) ̸= 0 pour
k ∈ {0, ..., n − 1}. Montrons que la famille (x, g(x), ..., g n−1 (x) est libre.
n−1
X
n−1 n
Soit (λk )k=0 ∈ C tel que λk g k (x) = 0 (⋆).
k=0
En appliquant g linéaire n − 1 fois à l’équation (⋆), comme g n = 0 il vient λ0 g n (x) = 0 donc λ0 = 0
car g n−1 (x) ̸= 0. On montre ainsi successivement que pour tout k dans {0, ..., n − 1}, λk = 0, en
réitérent la même méthode (appliquer g n−2 à (⋆), puis g n−3 , etc. jusqu’à g).
S’agissant d’une famille libre maximale (n vecteurs en dimension n), c’est une bien une base de
E. On vérifie alors que la matrice de g dans cette base est bien n (c’est immédiat, pour le dernier
terme, se rappeler que g n (x) = 0).
15 ▷ On a que det(Jn (λ)) = λn ̸= 0 car λ ̸= 0. Donc Jn (λ) est inversible.
Par ailleurs, comme N est nilpotente d’ordre n (car g n−1 ̸= 0 et g n = 0 et N est la matrice de g
dans la base de la question précédente) et que In et N commutent, on peut écrire :
n−1 n−1
(−1)k k X (−1)k k (−1)k k
X
Jn (λ) N = λI n N + N N
λk λk λk
k=0 k=0
n−1
X (−1)k (−1)k k+1
k
= N + N
λk−1 λk
k=0
n−1 n−1
X (−1)k k X (−1)k k+1
= N + N
λk−1 λk
k=0 k=0
n−1 n−2
X (−1)k X (−1)k k+1
= Nk + N (N n = 0)
λk−1 λk
k=0 k=0
n−1 n−1
X (−1)k X (−1)k−1 k
= Nk + N
λk−1 λk−1
k=0 k=1
4
[Link]
n−1
X (−1)k k
D’où Jn (λ) N = λIn
λk
k=0
n−1 n−1
1 X (−1)k k 1 X (−1)k 1
Donc Jn (λ) est inversible d’inverse k
N = I n + k
N k =: In + N ′
λ λ λ λ λ
k=0 k=1
Intuition pour cette question : Comme N est nilpotente, l’idée est de faire comme pour le dévelop-
1
pement en série entière de ... Mais avec des matrices ! La somme infini devient une somme
λ−X
finie car N est nilpotente, et le fait que N et In commutent permet de concrétiser.
n−1 n−1
X (−1)k k X (−1)k
16 ▷ N ′ = N = N N k−1 est le produit de N avec un polynôme en N que l’on
λk λk
k=1 k=1
note P (N ). Comme N et P (N ) commutent, On a que (N ′ )n = N n P (N )n = 0 car N n = 0.
Ainsi, N ′ est nilpotente d’ordre n (on vérifie en effet que (N ′ )n−1 est non nulle, proportionnelle à
N n−1 ). Donc semblable à N .
1 1
On note P ∈ GLn telle que P N P −1 = N ′ , on en tire que Jn (λ)−1 = P ( In +N )P −1 = P Jn ( )P −1 .
λ λ
17 ▷
- On a (−1)2 = 1 donc s21 = Id
- Également, 1 - (1-X) = X donc s22 = Id
- Enfin, pour k ∈ {0, ..., n − 1} (il suffit de regarder une base de l’espace s’agissant d’endomor-
phismes) on a s1 ◦ s2 (X n ) = s1 ((1 − X)n ) = (1 + X)n = g(X n ) + X n .
Donc s1 ◦ s2 = g + Id
18 ▷ g réduit le degré des monômes X k pour tout k ∈ {0, ..., n − 1} de exactement 1 (si on considère
k−1
k k
X k j k
que deg(0) = −1) car (1 + X) = X + X et ̸= 0.
j k−1
j=0
Ainsi par linéarité de g et échelonnage par degré, on en tire que deg(g(P )) = deg(P ) − 1 pour tout
P ∈ Cn−1 [X]
19 ▷ Pour tout k ∈ {0, ..., n − 1}, deg(g k+1 (X k )) = deg(X k ) − (k + 1) = k − (k + 1) = −1 par
la question précédente. En particulier, g n = 0 et g n−1 ̸= 0 (non nulle en X n−1 ). Ainsi, la matrice
de g dans une certaine base est N d’après la question 14. Dans cette même base, la matrice de
s1 ◦ s2 = Id + g est donc Jn (1). Et la question 17 assure que s1 et s2 sont des matrices de symétries.
Partie 5. Une caractérisation des matrices semblables à leur inverse.
20 ▷ D’après le résultat admis, il existe P ∈ GLn tel que P AP −1 = A′ . Ainsi, on a P −1 A−1 P =
(P AP −1 )−1 = (A′ )−1 = Diag(Jn1 (λ1 )−1 , ..., Jnr (λr )−1 ).
Or, la question 16 assure que pour i ∈ {1, ..., r}, il existe Qi ∈ GLni telle que Jni (λi )−1 =
Qi Jni (1/λi )Q−1
i . Posons la matrice diagonale par blocs Q = Diag(Q1, ..., Qr). Q est inversible
car ses blocs diagonaux le sont et on vérifie que
QDiag(Jn1 (λ1 )−1 , ..., Jnr (λr )−1 )Q−1 = Diag(Jn1 (1/λ1 ), ..., Jnr (1/λr ))
On en tire A−1 = P Q−1 Diag(Jn1 (1/λ1 ), ..., Jnr (1/λr ))QP −1 . Ce qui achève la preuve.
5
[Link]
21 ▷ On écrit, quitte à prendre n1 , n2 = 0 et prendre r plus grand que A est semblable à :
Jn1 (1) 0 ··· ··· ··· 0
0
Jn2 (−1) 0 ··· ··· 0
0
0 Jn 3 (λ3 ) 0 ··· 0
. .. .. .. ..
0 . . . 0
0 ··· 0 0 Jnr (λr )
On sait par la question 19 que Jn1 (1) ∼ s1 s2 et Jn1 (−1) ∼ s′1 s′2 produit de matrices de symétries.
Jn3 (λ3 ) 0 0
Reste à regarder la matrice à = 0 ..
0 dont le polynôme caractéristique est
.
0 · · · Jnr (λr )
réciproque (on a enlevé tous les 1) par la question 3 (il ne peut pas être antiréciproque) et 7 (il est
réciproque ou antiréciproque).
Or, quitte à conjugué par une matrice de permutations, on peut regrouper les blocs de Jordan
en prenant d’une part les valeurs propres λ1 , ..., λq et d’autres part leurs inverse qui ont même
multiplicité
(par la similitude obtenues à la question 20). On obtient une matrice de la forme
B 0n
avec B et C −1 semblables. On conclut par la question 13.
0n C
FIN DU PROBLÈME