0% ont trouvé ce document utile (0 vote)
143 vues6 pages

Math 1 PC2025 Cor

Le document présente une correction d'un examen de mathématiques, abordant des concepts tels que les polynômes réciproques, les matrices diagonalisables, et les produits de matrices de symétries. Il détaille des démonstrations et des résultats mathématiques, notamment sur les déterminants et les valeurs propres. La structure est divisée en plusieurs parties, chacune traitant d'un aspect spécifique des mathématiques avancées.

Transféré par

aitlabbadhajar
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
143 vues6 pages

Math 1 PC2025 Cor

Le document présente une correction d'un examen de mathématiques, abordant des concepts tels que les polynômes réciproques, les matrices diagonalisables, et les produits de matrices de symétries. Il détaille des démonstrations et des résultats mathématiques, notamment sur les déterminants et les valeurs propres. La structure est divisée en plusieurs parties, chacune traitant d'un aspect spécifique des mathématiques avancées.

Transféré par

aitlabbadhajar
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

cpge-paradise.

com

CORRECTION
CCMP Mathématiques 1
PC et PSI

En cas de questions ou erreurs, merci de me contacter à l’adresse [Link]@[Link].

Partie 1. Polynômes réciproques.


n
X
1 ▷ On remarque que si P (X) = ak X k alors
k=0

n n n
1 X X X
P̃ (X) := X n P ( ) = Xn ak X −k = ak X n−k = an−k X k
X
k=0 k=0 k=0

Par linéarité de la somme.


P est réciproque si et seulement si les polynômes P̃ et P coïncident, id est si leurs coefficients sont
égaux. Ce qui est équivalent à dire que ak = an−k pour k ∈ {0, ..., n}.
n
Y
2 ▷ On a P̃ (X) = ap (1 − λk X)mk .
k=0
n
Y
Si P est réciproque et λj = 0 (par l’absurde), alors 0 = P (0) = P̃ (0) = ap (1 − λk λj )mk = ap .
k=0
Ce qui est absurde puisque le coefficient dominant d’un polynôme non nul est non nul (et ici d ≥ 1).
Donc ces racines sont non nuls et on remarque que pour tout j :
n
Y
0 = P (λj ) = P̃ (λj ) = ap (1 − λk λj )mk
k=0

Comme ap est non nul et que l’on travaille dans un corps intègre, on a λkj λj = 1 pour ou certain
1
kj , ce qui fournit qu’une des racines de P est .
λj
Pour la multiplicité, si par exemple on avait mj > mkj .
P (X)
Posons Q(X) = mkj m (qui est effectivement un polynôme par hypothèse sur
(X − λj ) (X − 1/λj ) kj
les multiplicité) on a Q(λj ) ̸= 0 alors que Q(1/λj ) = 0, or Q est réciproque par construction, ce qui
contredit l’affirmation précédente.

1
[Link]

3 ▷ Si Q est anti réciproque, on vérifie alors Q(1) = −Q(1) donc Q(1) = 0. Ainsi, on peut définir le
p−1 1 X p Q( X1 ) −Q(X)
polynôme P (X) = Q(X)/(X − 1). On remarque alors que X P( ) = 1 = =
X X( X − 1) 1−X
P (X). Donc P est réciproque, d’où le résultat.
4 ▷ Par hypothèse le produit des racines de R est égale à son inverse, donc ce produit vaut 1 ou −1.
5 ▷ On raisonne par récurence forte sur le degré de R, que l’on note n.
Si n = 1, R(X) = X − a a une unique racine complexe a. Dès lors a est égale au produit des
racines de R(X). Ainsi, a ∈ {−1, 1}. Le calcul évident de XR(1/X) montre que si a = 1, R est
réciproque, sinon il est antiréciproque.
Si le résultat est vrai au rang k pour k dans {0, ..., n}, n ≥ 1, on suppose R de degré n + 1, il est
non constant donc admet des racines. Si a est racine de R de multiplicité m > 0, 1/a aussi et avec le
R(X)
même multiplicité, on applique l’hypothèse de récurence à H(X) = de degré
(X − a) (X − 1/a)m
m
strictement inférieur à n + 1 et dont le produit des racines avec multiplicité est toujour 1 ou −1,
car c’est le produit des racines de R quotienté par (a/a)m = 1. Comme (X − a)m (X − 1/a)m est
réciproque (évident), R hérite du caractère réciproque/antiréciproque de H.
D’où le résultat.

Partie 2. Le cas diagonalisable.


1
6 ▷ On a det(xIn −A) = det(A(xA−1 −In )) = det(A) det(xA−1 −In ) = det(A)(−x)n det( In −A−1 )
x
par n−linéarité et multiplicativité du déterminant.
7 ▷ Deux matrices semblables ont le même déterminant. Si A et A−1 le sont, alors det(A) =
det(A−1 ) = 1/ det(A) donc det(A) vaut 1 ou −1. Or (−1)n det(A) est le coefficient de degré 0 de
χA (X), et est donc égal au signe près aux racines de χA (X). Une autre manière de le voir vient du
fait que comme A et A−1 sont semblables, χA (X) = χA−1 (X). Ceci ajouté au résultat de la question
6 donne
χA (X) = (−1)n det(A) × X n χA− 1 (1/X) = (−1)n det(A) × X n χA (1/X)
Ce qui achève la preuve car (−1)n det(A) est dans {−1, 1}.
8 ▷ Si χB (X) est réciproque, comme les valeurs propres de B sont les racines de χB (X), et que B
est diagonalisable, elle est semblable à une matrice de la forme (question 2) :
 
a1 In1 0 ... ... ...
 1 
 0 In1 0 ... ... 
 a 1 

∆= 0 . .

 0 . 0 ... 
 0 ... 0 ak Ink 0 
 
 1 
0 ... ... 0 Ink
ak
où les ai sont non nuls, impliquant que δ est inversible, donc que B l’est aussi par similitude.
Or comme B est inversible, on a pour tout i que
Ker(B − ai In ) = Ker(B(In − ai B −1 )) = Ker(In − ai B −1 ) = Ker(B −1 − 1/ai In )

2
[Link]

Du fait que la somme des espaces propres de B est directe et du fait de la diagonalisabilité de B,
on en tire que B −1 est diagonalisable, de mêmes valeurs propres avec même multiplicité (pour tout
i, la dimension de Ker(B − ai In ) est la même que Ker(B − 1/ai In ) par ce qui précède). Donc B −1
est semblable à ∆ donc à B.
SiχB estantiréciproque, la question 3 assure que 1 est valeur propre de B et que B est semblable
1 0
à où χB̃ est réciproque.
0 B̃
B̃ est inversible semblable à soninverse
On conlut par le cas précédent, du fait qu’on en tire que  
1 0 1 0
et qu’alors B est inversible d’inverse semblable à qui est lui même semblable à
0 B̃ −1 0 B̃
car B̃ et son inverse le sont.
9 ▷ On a que  
1
2 0 0 0
 1 
B −1 = 0 0 0

 2 

0 0 2 −4
0 0 0 2
Ainsi, Ker(B − 2I2 ) = Vect(e1 , e2 ) et Ker(B −1 − 2I2 ) = Vect(2e3 − e4 ). Ces espaces n’ont pas
la même dimension alors que cela devrait être le cas si χB était réciproque ou anti-réciproque (car
2 ̸= 1 donc on se ramène au cas χB réciproque et on utilise la question 2).

Partie 3. Produit de matrices de symétries

10 ▷ S1 et S2 sont inversibles (égale à leur inverse par hypothèse) donc par produit A = S1 S2 l’est
aussi et A−1 = S2 S1 . Et on a clairement S1 A−1 S1−1 = S1 A−1 S1 = S1 S2 S1 S1 = S2 S1 = A. D’où le
résultat.
11 ▷ La réponse est oui. Si P est inversible et S1 , S2 deux symétries, alors (P S1 P −1 )(P S1 P −1 ) =
P S1 S1 P −1 = P P −1 = In ainsi P S1 P −1 est toujours une symétrie, idem avec P S2 P −1 . Donc
P S1 S2 P −1 = P S1 P −1 P S2 P −1 est effectivement un produit de deux symétries.
12 ▷ On veut S12 = I2n . À savoir
    
0n P 0n P P Q 0n
S12 = =
Q 0n Q 0n 0n QP

Ainsi, S1 est une symétrie si et seulement si P Q = QP = In , c’est-à-dire que Q = P −1 .


On veut également que S2 = S1 A, on veut S22 = I2n . Calculons d’abord S2 :
    
0n P B 0n 0n PC
S2 = =
P −1 0n 0n C P −1 B 0n

Puis calculons S22 :

P CP −1 B
    
0n PC 0n PC 0n
S22 = =
P −1 B 0n P −1 B 0n 0n P −1 BP C

3
[Link]

Pour que S2 soit une symétrie, il faut donc :


P CP −1 B = In et P −1 BP C = In
Ces deux conditions sont équivalentes à :
B −1 = P CP −1 et B = P C −1 P −1
Ce qui implique que C 2 = In . Dans ce cas, la condition sur B, B −1 se simplifie en B = P C −1 P −1 .
Les conditions P −1 = Q et B = P C −1 P −1 sont donc nécessaires, et on montre aisément quelles
sont suffisantes en remontant les calculs détaillés ici.
 
−1 −1 0n P
13 ▷ Si on a C = P B P où P ∈ GLn , on a que les matrices S1 := et S2 := S1 A
P −1 0n
sont des matrices de symétrie par la question précédente. Ainsi A = S1−1 S1 A = S1 S2 est un produit
de matrices de symétries.

Partie 4. La matrice Jn (λ)

14 ▷ g n−1 ̸= 0 donc il existe x ∈ E tel que g n−1 (x) ̸= 0. Comme g est linéaire, on a g k (x) ̸= 0 pour
k ∈ {0, ..., n − 1}. Montrons que la famille (x, g(x), ..., g n−1 (x) est libre.
n−1
X
n−1 n
Soit (λk )k=0 ∈ C tel que λk g k (x) = 0 (⋆).
k=0
En appliquant g linéaire n − 1 fois à l’équation (⋆), comme g n = 0 il vient λ0 g n (x) = 0 donc λ0 = 0
car g n−1 (x) ̸= 0. On montre ainsi successivement que pour tout k dans {0, ..., n − 1}, λk = 0, en
réitérent la même méthode (appliquer g n−2 à (⋆), puis g n−3 , etc. jusqu’à g).
S’agissant d’une famille libre maximale (n vecteurs en dimension n), c’est une bien une base de
E. On vérifie alors que la matrice de g dans cette base est bien n (c’est immédiat, pour le dernier
terme, se rappeler que g n (x) = 0).
15 ▷ On a que det(Jn (λ)) = λn ̸= 0 car λ ̸= 0. Donc Jn (λ) est inversible.
Par ailleurs, comme N est nilpotente d’ordre n (car g n−1 ̸= 0 et g n = 0 et N est la matrice de g
dans la base de la question précédente) et que In et N commutent, on peut écrire :

n−1 n−1 
(−1)k k X (−1)k k (−1)k k
X 
Jn (λ) N = λI n N + N N
λk λk λk
k=0 k=0
n−1
X  (−1)k (−1)k k+1

k
= N + N
λk−1 λk
k=0
n−1 n−1
X (−1)k k X (−1)k k+1
= N + N
λk−1 λk
k=0 k=0
n−1 n−2
X (−1)k X (−1)k k+1
= Nk + N (N n = 0)
λk−1 λk
k=0 k=0
n−1 n−1
X (−1)k X (−1)k−1 k
= Nk + N
λk−1 λk−1
k=0 k=1

4
[Link]

n−1
X (−1)k k
D’où Jn (λ) N = λIn
λk
k=0
n−1 n−1
1 X (−1)k k 1 X (−1)k 1
Donc Jn (λ) est inversible d’inverse k
N = I n + k
N k =: In + N ′
λ λ λ λ λ
k=0 k=1
Intuition pour cette question : Comme N est nilpotente, l’idée est de faire comme pour le dévelop-
1
pement en série entière de ... Mais avec des matrices ! La somme infini devient une somme
λ−X
finie car N est nilpotente, et le fait que N et In commutent permet de concrétiser.
n−1 n−1
X (−1)k k X (−1)k
16 ▷ N ′ = N = N N k−1 est le produit de N avec un polynôme en N que l’on
λk λk
k=1 k=1
note P (N ). Comme N et P (N ) commutent, On a que (N ′ )n = N n P (N )n = 0 car N n = 0.
Ainsi, N ′ est nilpotente d’ordre n (on vérifie en effet que (N ′ )n−1 est non nulle, proportionnelle à
N n−1 ). Donc semblable à N .
1 1
On note P ∈ GLn telle que P N P −1 = N ′ , on en tire que Jn (λ)−1 = P ( In +N )P −1 = P Jn ( )P −1 .
λ λ
17 ▷
- On a (−1)2 = 1 donc s21 = Id
- Également, 1 - (1-X) = X donc s22 = Id
- Enfin, pour k ∈ {0, ..., n − 1} (il suffit de regarder une base de l’espace s’agissant d’endomor-
phismes) on a s1 ◦ s2 (X n ) = s1 ((1 − X)n ) = (1 + X)n = g(X n ) + X n .
Donc s1 ◦ s2 = g + Id
18 ▷ g réduit le degré des monômes X k pour tout k ∈ {0, ..., n − 1} de exactement 1 (si on considère
k−1    
k k
X k j k
que deg(0) = −1) car (1 + X) = X + X et ̸= 0.
j k−1
j=0
Ainsi par linéarité de g et échelonnage par degré, on en tire que deg(g(P )) = deg(P ) − 1 pour tout
P ∈ Cn−1 [X]
19 ▷ Pour tout k ∈ {0, ..., n − 1}, deg(g k+1 (X k )) = deg(X k ) − (k + 1) = k − (k + 1) = −1 par
la question précédente. En particulier, g n = 0 et g n−1 ̸= 0 (non nulle en X n−1 ). Ainsi, la matrice
de g dans une certaine base est N d’après la question 14. Dans cette même base, la matrice de
s1 ◦ s2 = Id + g est donc Jn (1). Et la question 17 assure que s1 et s2 sont des matrices de symétries.

Partie 5. Une caractérisation des matrices semblables à leur inverse.

20 ▷ D’après le résultat admis, il existe P ∈ GLn tel que P AP −1 = A′ . Ainsi, on a P −1 A−1 P =


(P AP −1 )−1 = (A′ )−1 = Diag(Jn1 (λ1 )−1 , ..., Jnr (λr )−1 ).
Or, la question 16 assure que pour i ∈ {1, ..., r}, il existe Qi ∈ GLni telle que Jni (λi )−1 =
Qi Jni (1/λi )Q−1
i . Posons la matrice diagonale par blocs Q = Diag(Q1, ..., Qr). Q est inversible
car ses blocs diagonaux le sont et on vérifie que

QDiag(Jn1 (λ1 )−1 , ..., Jnr (λr )−1 )Q−1 = Diag(Jn1 (1/λ1 ), ..., Jnr (1/λr ))
On en tire A−1 = P Q−1 Diag(Jn1 (1/λ1 ), ..., Jnr (1/λr ))QP −1 . Ce qui achève la preuve.

5
[Link]

21 ▷ On écrit, quitte à prendre n1 , n2 = 0 et prendre r plus grand que A est semblable à :


 
Jn1 (1) 0 ··· ··· ··· 0
 0
 Jn2 (−1) 0 ··· ··· 0

 0
 0 Jn 3 (λ3 ) 0 ··· 0

 . .. .. .. .. 
 0 . . . 0
0 ··· 0 0 Jnr (λr )
On sait par la question 19 que Jn1 (1) ∼ s1 s2 et Jn1 (−1) ∼ s′1 s′2 produit de matrices de symétries.
 
Jn3 (λ3 ) 0 0
Reste à regarder la matrice à =  0 ..
0  dont le polynôme caractéristique est
 
.
0 · · · Jnr (λr )
réciproque (on a enlevé tous les 1) par la question 3 (il ne peut pas être antiréciproque) et 7 (il est
réciproque ou antiréciproque).
Or, quitte à conjugué par une matrice de permutations, on peut regrouper les blocs de Jordan
en prenant d’une part les valeurs propres λ1 , ..., λq et d’autres part leurs inverse qui ont même
multiplicité
  (par la similitude obtenues à la question 20). On obtient une matrice de la forme
B 0n
avec B et C −1 semblables. On conclut par la question 13.
0n C

FIN DU PROBLÈME

Vous aimerez peut-être aussi