0% ont trouvé ce document utile (0 vote)
310 vues6 pages

CCP 2005 MP M2 Corrige

Ce document décrit la détermination des racines carrées de matrices dans différents cas. Dans le premier exemple, la matrice A possède des valeurs propres distinctes et ses racines carrées sont déterminées. Dans le second exemple, A est la matrice nulle et le nombre maximal de ses racines carrées est calculé.

Transféré par

semeh sghaier
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
310 vues6 pages

CCP 2005 MP M2 Corrige

Ce document décrit la détermination des racines carrées de matrices dans différents cas. Dans le premier exemple, la matrice A possède des valeurs propres distinctes et ses racines carrées sont déterminées. Dans le second exemple, A est la matrice nulle et le nombre maximal de ses racines carrées est calculé.

Transféré par

semeh sghaier
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

SESSION 2005

CONCOURS COMMUN POLYTECHNIQUE (ENSI)

FILIERE MP

MATHEMATIQUES 2

I - Détermination de Rac(A) dans quelques exemples


Exemple 1 : Cas où A possède n valeurs propres distinctes
1. Le polynôme caractéristique de A est scindé sur R à racines simples. On sait alors que A est diagonalisable dans R.
Par suite, il existe P ∈ GLn (R) telle que A = PDP−1 où D = diag(λ1 , . . . , λn ).
Soient R ∈ Mn (R) puis S = P−1 RP de sorte que R = PSP−1 . Puisque les matrices P et P−1 sont inversibles, les matrices
P et P−1 sont simplifiables à gauche et à droite et on a

R ∈ Rac(A) ⇔ R2 = A ⇔ (PSP−1 )2 = PDP−1 ⇔ PS2 P−1 = PDP−1 ⇔ S2 = D ⇔ S ∈ Rac(D).

∀R ∈ Mn (R), R ∈ Rac(A) ⇔ P−1 RP ∈ Rac(D).

2. a. Soit S une racine carrée de D.

SD = S × S2 = S3 = S2 × S = DS.

b. Posons S = (si,j )1≤i,j≤n . Le coefficient ligne i colonne j de la matrice SD vaut si,j λj et celui de la matrice DS vaut
λi si,j . Puisque SD = DS, pour tout couple (i, j), on a si,j λj = λi si,j ou encore si,j (λj − λi ) = 0. Quand i 6= j, on a
λj − λi 6= 0 et donc si,j = 0.
Ainsi, si S est une racine carrée de D, alors : ∀(i, j) ∈ J1, nK2 , (i 6= j ⇒ si,j = 0. Ceci montre que la matrice S est une
matrice diagonale.

∀S ∈ Mn (R), S2 = D ⇒ S ∈ Dn (R).

c. L’égalité S2 = D se traduit par ∀i ∈ J1, nK, s2i = λi .


d. Soit i ∈ J1, nK tel que λi < 0. L’équation s2i d’inconnue si n’a pas de solution dans R et donc l’équation S2 = D n’a
pas de solution dans Dn (R) ou finalement l’équation R2 = A n’a pas de solution √ dans Mn (R). Dans ce cas, Rac(A) = ∅.
e. S2 = D ⇔ ∀i ∈ J1, nK, s2i = λi ⇔ ∃(εi )1≤i≤n ∈ {−1, 1}n / ∀i ∈ J1, nK, si = εi λi .

Les racines carrées de D sont les matrices de la forme S = diag(εi λi )1≤i≤n où (εi )1≤i≤n ∈ {−1, 1}n .

3. D’après ce qui précède, si λ1 < 0 (de sorte que ∃i ∈ J1, nK/ λi < 0), Rac(A) est vide.
Si λ1 ≥ 0 (de sorte que ∀i ∈ J1, nK/ λi ≥ 0),

les racines carrées de A sont les matrices de la forme R = PSP−1 où S = diag(εi λi )1≤i≤n , (εi )1≤i≤n ∈ {−1, 1}n .

Il y a au plus 2n telles matrices.


Notons alors que si S et S ′ sont deux matrices diagonales, PSP−1 = PS ′ P−1 ⇔ S = S ′ ce qui montre déjà que
card(Rac(A)) = card(Rac(D)). Ensuite, pour ((εi )1≤i≤n , (εi′ )1≤i≤n ) ∈ ({−1, 1}n )2 ,

p p p p
diag(εi λi )1≤i≤n = diag(εi′ λi )1≤i≤n ⇔ ∀i ∈ J1, nK, εi λi = εi′ λi
p p
⇔ λ1 (ε1 − ε1′ ) = 0 et ∀i ≥ 2, εi = εi′ (car ∀i ≥ 2, λi 6= 0).

http ://www.maths-france.fr 1 c Jean-Louis Rouget, 2007. Tous droits réservés.



Si λ1 > 0, l’égalité λ1 (ε1 − ε1′ ) = 0 est équivalente à ε1 = ε1′√ . Dans ce cas, S = S ′ ⇔ (εi )1≤i≤n = (εi′ )1≤i≤n . Dans ce cas,
il y a 2 matrices deux à deux distinctes de la forme diag(εi λi )1≤i≤n et donc 2n racines carrées deux à deux distinctes
n

de A dans Mn (R). √ √
Si λ1 = 0, les racines carrées de D sont les matrices de la forme diag(0, ε2 λ2 , . . . , εn λn ), (εi )2≤i≤n . Deux telles matrices
S et S ′ sont égales si et seulement si (εi )2≤i≤n = (εi′ )2≤i≤n . Dans ce cas, il y a 2n−1 telles matrices deux à deux distinctes
et donc 2n−1 racines carrées deux à deux distinctes de A dans Mn (R).

• Si λ1 < 0, card(Rac(A)) = 0.
• Si λ1 = 0, card(Rac(A)) = 2n−1 .
• Si λ1 > 0, card(Rac(A)) = 2n .

4. Déterminons le polynôme caractéristique de A.

11 − X −5 5
χA = −5 3−X −3
5 −3 3−X
3−X −3 −5 5 −5 5
= (11 − X) +5 +5
−3 3−X −3 3 − X 3−X −3
= (11 − X)(X2 − 6X) + 5(5X) + 5(5X) = X[(11 − X)(X − 6) + 50] = X(−X2 + 17X − 16)
= −X(X − 1)(X − 16)

χA = −X(X − 1)(X − 16).

La matrice A admet 3 valeurs propres réelles deux à deux distinctes à savoir 0, 1 et 16. D’après la question précédente,
A admet exactement 4 racines carrées à savoir les matrices de la forme Pdiag(0, ±1, ±4)P−1 où P est une matrice carrée
inversible telle que P−1 SP soit une matrice diagonale.
 
x
Déterminons une matrice P. Soit X =  y  ∈ M3,1 (R).
z

 11x − 5y + 5z = 0
11x − 5y + 5z = 0
X ∈ Ker(A) ⇔ −5x + 3y − 3z = 0 ⇔
 5x − 3y + 3z = 0
5x − 3y + 3z = 0
 
 y − z = 11x
  y − z = 11x

5 5 x=0
⇔ 5x ⇔ 11x 5x ⇔ .

 y−z= 
 y −z=0
=
3 5 3
 
0
Ker(A) est la droite vectorielle Vect(e1 ) où e1 =  1 
1
 
 10x − 5y + 5z = 0  z = −2x + y
X ∈ Ker(A − I) ⇔ −5x + 2y − 3z = 0 ⇔ −5x + 2y − 3(−2x + y) = 0
 
5x − 3y + 2z = 0 5x − 3y + 2(−2x + y) = 0
z = −2x + y y=x
⇔ ⇔ .
x−y=0 z = −x
 
1
Ker(A − I3 ) est la droite vectorielle Vect(e2 ) où e2 =  1 
−1
La matrice A est symétrique réelle et on sait en particulier que les sous-espaces propres de A sont orthogonaux. Ainsi,
Ker(A − 16I3 ) est la droite vectorielle Vect(e3 ) où
    
0 1 −2
e3 = e1 ∧ e2 =  1   1  =  1 ,
1 −1 −1
http ://www.maths-france.fr 2 c Jean-Louis Rouget, 2007. Tous droits réservés.
Une matrice P convenable est la matrice
 
0 1 −2
P= 1 1 1 .
1 −1 −1

Exemple 2 : Cas où A est la matrice nulle de Mn (R)


5. a.
n
R2 = 0n ⇒ f ◦ f = 0 ⇒ Im(f) ⊂ Ker(f) ⇒ dim(Im(f)) ≤ dim(Ker(f)) ⇒ r ≤ n − r ⇒ r ≤ .
2
n
Im(f) ⊂ Ker(f) et r ≤ .
2

b. Soit (λ1 , . . . , λn−r , µ1 , . . . , µr ) ∈ Rn .

λ1 e1 + . . . + λn−r en−r + µ1 u1 + . . . + µr ur = 0 ⇒ f(λ1 e1 + . . . + λn−r en−r + µ1 u1 + . . . + µr ur ) = 0


⇒ µ1 e1 + . . . + µr er = 0
⇒ µ1 = . . . = µr = 0 (car la famille (e1 , . . . , er ) est libre).

Il reste λ1 e1 + . . . + λn−r en−r = 0 ce qui impose λ1 = . . . = λn−r = 0 car la famille (e1 , . . . , en−r ) est libre.
Ainsi, la famille (e1 , . . . , en−r , u1 , . . . , ur ) est libre. De plus card(e1 , . . . , en−r , u1 , . . . , ur ) = n = dim(Rn ) < +∞ et donc

la famille (e1 , . . . , en−r , u1 , . . . , ur ) est une base de Rn .

On a alors immédiatement
 
0r,n−r Ir
Mr = ,
0n−r,n−r 0n−r,r

où 0p,q désigne la matrice nulle à p lignes et q colonnes.


6. a. Réciproquement, pour i ∈ J1, n−rK, f(f(ei )) = f(0) = 0 et pour i ∈ J1, rK f(f(ui )) = f(ei ) = 0. Ainsi l’endomorphisme
f2 s’annule sur une base de Rn et donc f2 = 0 ou encore M2r = 0.
Ainsi, A est une racine carrée de 0 dans Mn (R) si et seulement si il existe une base de Rn dans laquelle la matrice de f
est une matrice Mr ou encore

A est une racine carrée de 0 dansMn (R) si et seulement


 si A est semblable à une matrice
0r,n−r Ir n
de la forme ,0≤r≤ .
0n−r,n−r 0n−r,r 2

b. Les racines carrées de la matrice nulle dans M4 (R) sont 0 et les matrices semblables à l’une des deux matrices
   
0 0 1 0 0 0 0 1
 0 0 0 1   0 0 0 0 
  ou  .
 0 0 0 0   0 0 0 0 
0 0 0 0 0 0 0 0

Exemple 3 : Cas où A = In
7. a. Puisque R2 = In , on a 1 = det(In ) = det(R2 ) = (det(R))2 et en particulier, det(R) 6= 0. Ceci montre que R est
inversible.
b. Soit f l’endomorphisme de Rn de matrice R dans la base canonique de Rn . On sait que

http ://www.maths-france.fr 3 c Jean-Louis Rouget, 2007. Tous droits réservés.


R2 = In ⇔ f2 = Id
⇔ f est une symétrie
⇔ il existe une base de Rn dans laquelle la matrice de f est de la forme diag(1, . . . , 1, −1, . . . , −1)
⇔ R est semblable à une matrice de la forme diag(1, . . . , 1, −1, . . . , −1).

8. Rac(In ) est l’ensemble des matrices diagonalisables dans R dont le spectre est contenu dans {−1, 1}.
Exemple 4 : Cas où A est une matrice symétrique réelle
9. La matrice diag(−n, −(n − 1), . . . , −1) est symétrique réelle et n’admet pas de racine carrée dans Mn (R) d’après 2.d.
Donc, une matrice symétrique réelle n’admet pas nécessairement de racine carrée dans M( R).
10. Soit A une matrice symétrique réelle positive. Puisque A est symétrique réelle, il existe une matrice orthogonale P et
une matrice diagonale réelle D = diag(λ1 , . . . , λn ) telle que A = PDP−1 .
Montrons alors que les valeurs propres de A, c’est-à-dire les λi , sont des réels positifs.
Soient i ∈ J1, nK puis X un vecteur propre associé à la valeur propre λi .
t
XAX = t X(AX) = t X(λi X) = λi t XX = λi kXk2 ,

où kXk désigne la norme euclidienne usuelle du vecteur colonne X. Par hypothèse, t XAX ≥ 0 ou encore λi kXk2 ≥ 0 (∗).
Mais X est un vecteur propre et est en particulier non nul. On en déduit que kXk2 > 0 et l’inégalité (∗) fournit λi ≥ 0.

Soit alors D ′ = diag( λi )1≤i≤n puis R = PD ′ P−1 = PD ′t P (puisque P est orthogonale).
• R2 = (PD ′ P−1 )2 = PD ′2 P−1 = PDP−1 = A et donc R est une racine carrée de A dans Mn (R).
• R est orthogonalement semblable à une matrice diagonale réelle et donc R est une matrice symétrique réelle.
• Vérifions enfin que la matrice R est positive. Soit X ∈ Mn,1 (R) puis X ′ = P−1 X = t PX. Posons X ′ = (xi′ )1≤i≤n .
n p
X
t
XRX = t XPD ′t PX = t (t PX)D ′ (t PX) = t X ′ D ′ X ′ = λi xi′2 ≥ 0.
i=1

R = PD ′t P est donc une matrice symétrique positive telle que R2 = A.

II - Etude topologique de Rac(A)


11. La fonction f : Mn (R) → (Mn (R)2 est linéaire et Mn (R) est de dimension finie. f est donc continue sur
M 7−→ (M, M)
Mn (R). La fonction g : (Mn (R))2 → Mn (R) est bilinéaire et (Mn (R))2 est de dimension finie. g est donc continue
(M, N) 7−→ MN
sur (Mn (R))2 . Mais alors, la fonction g ◦ f : Mn (R) → Mn (R) est continue sur Mn (R). Posons h = g ◦ f.
M 7−→ M2
Le singleton {A} est un fermé de Mn (R). Par suite, Rac(A) = h−1 ({A}) est un fermé de Mn (R) en tant qu’image réciproque
d’un fermé par une application continue.

Rac(A) est un fermé de Mn (R).

12. a. Soit q ∈ N.
    
1 0 1 0 1 0
S2q = = = I2 .
q −1 q −1 0 1

Ainsi, ∀q ∈ N, Sq ∈ Rac(I2 ). Mais, pour q ∈ N∗ , N(Sq ) = q. Par suite, {N(R), R ∈ Rac(I2 )} n’est pas majoré ou encore

Rac(I2 ) n’est pas une partie bornée de M2 (R).

http ://www.maths-france.fr 4 c Jean-Louis Rouget, 2007. Tous droits réservés.


... 1 0 ... 0
 
. .. 
 q −1 . . . 

 
 0 0 1 
b. Soit q ∈ N∗ . La matrice Sq =  .  est dans Rac(In ) et vérifie N(Sq ) = q. Donc
 
 .. .. .. .. .
.
 . . . . 
 . .. ..
 ..

. . 0 
0 ... ... 0 1

Rac(In ) n’est pas une partie bornée de Mn (R).

c. Supposons qu’il existe une norme surmultiplicative k k sur GLn (R). Pour R ∈ Rac(In ), on a en particulier R ∈ GLn (R)
et kRk × kRk ≤ kR × Rk = kIn k. Ainsi
p
∀R ∈ Rac(In ), kRk ≤ kIn k.
On en déduit que Rac(In ) est une partie bornée GLn (R) pour la norme k k. Mais Mn (R) est un R-espace de dimension
finie. On en déduit que la norme N est équivalente à la norme k k et donc que Rac(In ) est aussi
p une partie bornée de
Mn (R) pour la norme N (il existe un réel K tel que N ≤ Kk k et donc, ∀R ∈ Rac(In ), N(R) ≤ K kIn k). Ceci n’est pas et
donc
il n’existe pas de norme surmultiplicative sur GLn (R).

I II - Zéros de fonctions polynomiales. Application à la détermination de l’in-


térieur de Rac(A)
13. a. Soit x = (x1 , . . . , xp ) ∈ Rp .
x ∈ B∞ (a, r) ⇔ kx−ak∞ < r ⇔ Max{|xi −ai |, i ∈ J1, pK} < r ⇔ ∀i ∈ J1, pK, |x−ai | < r ⇔ ∀i ∈ J1, pK, ai −r < xi < ai +r.
Par suite,
p
Y
B∞ (a, r) = ]ai − r, ai + r[.
k=1

◦ ◦ ◦
b. Soient F et G deux parties de Rp d’intérieur vide. Puisque F ∩ G ⊂ F, on a (F ∩ G) ⊂ F = ∅ et donc (F ∩ G) = ∅.
14. a. Le polynôme nul a une infinité de racines et un polynôme non nul (d’une variable) a un nombre fini de racines.
Donc
∀P ∈ Γ1 , (Z(P) est infini ⇔ P = 0).

b. Z(P) est la droite d’équation x2 = 2x1 − 1 et Z(Q) est la parabole d’équation x2 = x21 . Z(P) et Z(Q) sont infinis.

x2
5
)
Z(Q

3
)
Z(P

x1
−2 −1 1 2
−1

http ://www.maths-france.fr 5 c Jean-Louis Rouget, 2007. Tous droits réservés.


15. a. Démontrons le résultat par récurrence sur p.
• Si p = 1, on sait qu’un polynôme d’une variable qui s’annule sur une partie infinie I1 de R est nécessairement le
polynôme nul.
• Soit p ∈ N∗ . Supposons qu’un polynôme P ∈ Γp qui s’annule sur une partie de Rp de la forme I1 × . . . × Ip où I1 ,. . . ,
Ip sont des parties infinies de R soit nécessairement le polynôme nul.
Soit alors I1 ,. . . , Ip , Ip+1 , p+1 parties infinies de R puis soit P ∈ Γp+1 un polynôme qui s’annule sur I1 ×. . .×Ip ×Ip+1 .
Le polynôme P peut se décrire sous la forme :

∀(x1 , . . . , xp , xp+1 ) ∈ Rp+1 , P = xq q−1


p+1 λq (x1 , . . . , xp ) + xp+1 λq−1 (x1 , . . . , xp ) + . . . + xp+1 λ1 (x1 , . . . , xp ) + λ0 (x1 , . . . , xp ),

où λ0 ,. . . , λq sont des éléments de Γp .


Soit (x1 , . . . , xp ) un élément fixé de I1 ×. . .×Ip . Le polynôme d’une variable xp+1 7→ P(x1 , . . . , xp , xp+1 ) s’annule sur Ip+1
qui est une partie infinie de R. On en déduit que ces coefficients à savoir λq (x1 , . . . , xp ),. . . , λ1 (x1 , . . . , xp ), λ0 (x1 , . . . , xp )
sont nuls.
Ainsi, ∀(x1 , . . . , xp ) ∈ I1 × . . . × Ip , λ0 (x1 , . . . , xp ) = λ1 (x1 , . . . , xp ) = . . . = λq (x1 , . . . , xp ) = 0. λ0 ,. . . , λq sont donc
q + 1 polynômes éléments de Γp qui s’annulent sur I1 × . . . × Ip où I1 ,. . . , Ip sont des parties infinies de R. L’hypothèse
de récurrence permet alors d’affirmer que les polynômes λ0 ,. . . , λq sont nuls et donc que P est le polynôme nul.
Le résultat est démontré par récurrence.
b. Soit P un élément de Γp s’annulant sur une partie A de R d’intérieur non vide. A contient une boule B∞ (a, r), r > 0.
D’après la question 13.a., cette boule est de la forme I1 × . . . × Ip où I1 ,. . . , Ip sont des parties infinies de R. La question
précédente montre alors que P est nul.
c. Par contraposition, on a


∀P ∈ Γp , (P 6= 0 ⇒ (Z(P)) = ∅).

16. a. Posons R = (ri,j )1≤i,j≤n et A = (ai,j )1≤i,j≤n .


n
X
R2 = A ⇔ ∀(i, j) ∈ J1, nK, ri,k rk,j − ai,j = 0.
k=1

Pour (i, j) ∈ J1, nK, posons


n
X
n2
∀(xu,v )1≤u,v≤n ∈ R , Pi,j ((xu,v )1≤u,v≤n ) = xi,k xk,j − ai,j .
k=1

On a alors :
\
∀R ∈ Mn (R), R ∈ Rac(A) ⇔ ∀(i, j) ∈ J1, nK2 , Pi,j (R) = 0 ⇔ R ∈ Z(Pi,j ).
1≤i,j≤n

b. Aucun des polynômes Pi,j n’est nul


\ et donc, d’après la question 15.c., chaque Z(Pi,j ) est d’intérieur vide. La question
13.b. permet alors d’affirmer que Z(Pi,j ) et donc Rac(A) est d’intérieur vide.
1≤i,j≤n


∀A ∈ Mn (R), (Rac(A)) = ∅.

http ://www.maths-france.fr 6 c Jean-Louis Rouget, 2007. Tous droits réservés.

Vous aimerez peut-être aussi