0% ont trouvé ce document utile (0 vote)
140 vues11 pages

Matrices de permutation et symétriques

Ce document traite de matrices de permutations et de fonctions de matrices symétriques. Il présente plusieurs propriétés et définitions relatives aux matrices de permutations, aux matrices symétriques et aux fonctions polynomiales sur ces matrices. Le document contient de nombreuses démonstrations et calculs mathématiques.

Transféré par

Nassim 1234
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
140 vues11 pages

Matrices de permutation et symétriques

Ce document traite de matrices de permutations et de fonctions de matrices symétriques. Il présente plusieurs propriétés et définitions relatives aux matrices de permutations, aux matrices symétriques et aux fonctions polynomiales sur ces matrices. Le document contient de nombreuses démonstrations et calculs mathématiques.

Transféré par

Nassim 1234
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Mines - MP - 2021 - Sujet 2

Fabrice Castel et Juliette Brun-Leloup ; lycée Fénelon-Sainte-Marie ; Paris 8ème

I Matrices de permutations
1. Pour tout i, j ∈ [[1, n]],
X
n
[ω(σ)ω(σ ′ )]i,j = δi,σ(k) δk,σ′ (j) = δi,σ(σ′ (j)) = [ω(σ ◦ σ ′ )]i,j
(1)
k=1
(1) en ne conservant que le terme en k = σ ′ (j).
Ainsi, ω(σ ◦ σ ′ ) = ω(σ)ω(σ ′ ) .

2. Soit σ ∈ Bn . Pour tout i, j ∈ [[1, n]],


[t ω(σ)]ij = [ω(σ)]ji = δj, σ(i) = δi, σ−1 (j) = [ω(σ −1 )]ij
(1)
(1) car j = σ(i) ⇐⇒ i = σ −1 (j).
Donc : ∀σ ∈ Bn , t ω(σ) = ω(σ −1 ) .

Ceci étant, d’après la question 1, pour tout σ ∈ Bn ,


ω(σ)t ω(σ) = ω(σ)ω(σ −1 ) = ω(id[[1, n]] ) = (δi,j )i,j = In .

Donc ω(σ) ∈ On (R). Ainsi, ω(Bn ) ⊂ On (R).

3. Soient D = Diag(d1 , . . . , dn )ω(σ) et D ′ = ω(σ)Diag(dσ(1) , . . . , dσ(n) ).


Alors, pour tout i, j ∈ [[1, n]],
X
n
[D]ij = (di δi,k )(δk,σ(j) ) = di δi,σ(j)
k=1
Xn
[D ′ ]ij = (δi,σ(k) )(dσ(k) δk,j ) = dσ(j) δi,σ(j)
k=1
Ces deux expressions sont égales, car si i 6= σ(j), elles sont nulles, sinon i = σ(j) et di = dσ(j) .
Donc :
Diag(d1 , . . . , dn )ω(σ) = ω(σ)Diag(dσ(1) , . . . , dσ(n) ) .

4. Soient D = Diag(d1 , . . . , dn ) et D ′ = Diag(d′1 , . . . , d′n ) deux éléments de Dn (R).

(ii) ⇐⇒ ∃M ∈ ω(Bn ) | D ′ = t M DM

⇐⇒ ∃σ ∈ Bn | Diag(d′1 , . . . , d′n ) = t ω(σ)Diag(d1 , . . . , dn )ω(σ)

⇐⇒ ∃σ ∈ Bn | Diag(d′1 , . . . , d′n ) = t ω(σ)ω(σ)Diag(dσ(1) , . . . , dσ(n) )



question 3

⇐⇒ ∃σ ∈ Bn | Diag(d′1 , . . . , d′n )) = Diag(dσ(1) , . . . , dσ(n) )



question 2

⇐⇒ ∃σ ∈ Bn | ∀i ∈ [[1, n]], d′i = dσ(i)

⇐⇒ (i)

Ainsi, (i) ⇐⇒ (ii) .

1
II Fonctions de matrices symétriques
5. D’après le théorème spectral, puisque S est symétrique réelle, il existe O ∈ On (R) tel que
t OSO est une matrice diagonale.

Comme les éléments apparaissant sur la diagonale de t OSO sont les valeurs propres de S, et que
celles-ci sont dans I, il existe (s1 , . . . , sn ) ∈ I n tels que t OSO = Diag(s1 , . . . , sn ).
En prenant Ω = t O, on obtient : t ΩDiag(s1 , . . . , sn )Ω = S .

6. Soit t1 , . . . , tr des réels deux à deux distincts tels que {t1 , . . . , tr } = {s1 , . . . , sn }.
X r Y X − ti
Posons P = f (tk ) (le polynôme interpolateur de Lagrange associé à f en les tk ).
k=1
t − ti
16i6r k
i6=k
Alors par un calcul immédiat, pour tout i ∈ [[1, r]], P (ti ) = f (ti ),
donc pour tout i ∈ [[1, n]], P (si ) = f (si ) .

7. Commençons par remarquer que {s1 , . . . , sn } = Sp(S) = {s′1 , . . . , s′n }.


Par conséquent, en choisissant P ∈ R[X] donné par la question 6 tel que pour tout i, P (si ) =
f (si ), on a également pour tout i, P (s′i ) = f (s′i ). Alors :

t Ω′ Diag(f (s′ ), . . . , f (s′n ))Ω′ = t Ω′ Diag(P (s′ ), . . . , P (s′n ))Ω′


1 1

t Ω′ P Diag(s′ , . . . , s′ ) Ω′
= 1 n

= P t Ω′ Diag(s′1 , . . . , s′n )Ω′
(1)

= P t ΩDiag(s1 , . . . , sn )Ω

= t ΩDiag(P (s
1 ), . . . , P (sn ))Ω

= t Ω Diag(f (s
1 ), . . . , f (sn ))Ω

(1) car la conjugaison dans Mn (R) est un morphisme de R-algèbres.


Ainsi, t Ω′ Diag(f (s′1 ), . . . , f (s′n ))Ω′ = t ΩDiag(f (s1 ), . . . , f (sn ))Ω.

Rem. Sans l’aide de la question 6, une façon « naturelle » de résoudre cette question serait
de raisonner sur les sous-espaces propres. L’astuce consistant à passer par les polynômes est
élégante !

2
8. • Il est clair que RI et Sn (R)Sn (I) sont des R-espaces vectoriels.
Soient f, g ∈ RI et λ ∈ R.
Soient S ∈ Sn (I), puis Ω ∈ On (R) et D = Diag(s1 , . . . , sn ) ∈ Dn (R) tels que S = t ΩDΩ.
u(f + λg)(S) = t ΩDiag((f + λg)(s1 ), . . . , (f + λg)(sn ))Ω

= t ΩDiag(f (s
1) + λg(s1 ), . . . , f (sn ) + λg(sn ))Ω
tΩ

= Diag(f (s1 ), . . . , f (sn )) + λDiag(g(s1 ), . . . , g(sn )) Ω

= t ΩDiag(f (s f (sn ))Ω + λt ΩDiag(g(s1 ), . . . , g(sn ))Ω


1 ), . . . ,

= u(f ) + λu(g) (S)
Ceci étant vrai pour tout S ∈ Sn (I), on en déduit que u(f + λg) = u(f ) + λu(g). Donc :
u est linéaire .

f : Sn (R)Sn (I) → R l’application induite par la trace comme suit :


• Notons Tr
f )(S) = Tr((f (S)).
∀f ∈ Sn (R)Sn (I) , ∀S ∈ Sn (I), Tr(f
f est linéaire car, pour tous f, g ∈ Sn (R)Sn (I) , λ ∈ R et S ∈ Sn (I),
Alors Tr
 
f + λg) (S) = Tr (f + λg)(S)
Tr(f

= Tr f (S) + λg(S)
 
= Tr f (S) + λTr g(S) (par linéairité de Tr : Mn (R) → R)
 
f ) (S) + λ T̃r(f ) (S)
= Tr(f

 
f ∈ L Sn (R)Sn (I) , R ,
Par composition de u ∈ L RI , Sn (R)Sn (I) et de Tr
f ◦ u est linéaire .
l’application v = Tr

• Enfin, xIn = t In Diag(x, . . . , x)In avec In ∈ On (R).


Donc u(ϕ)(xIn ) = t In Diag(ϕ(x), . . . , ϕ(x))In = ϕ(x)In .
Ainsi, ∀ϕ ∈ RI , ∀x ∈ I, u(ϕ)(xIn ) = ϕ(x)In .

9. • Injectivité de u.
Soit ϕ ∈ Ker (u).
Donc u(ϕ) est l’application nulle de Sn (I) dans Sn (R) : ∀S ∈ Sn (I), u(ϕ)(S) = 0n .
En particulier, pour tout x ∈ I, xIn ∈ Sn (I), donc u(ϕ)(xIn ) = 0.
Autrement dit, d’après la question 8, ϕ(x)In = 0n ,
Ainsi, pour tout x ∈ I, ϕ(x) = 0.
Donc Ker (u) = {0(RI ) } et u est injective .

• Surjectivité de u.
Si n = 1, alors Sn (I) et Sn (R) sont canoniquement isomorphes à I et R.
Dans ce cas, l’application u n’est autre que l’identité de RI , surjective.
Si n > 1, d’après la question 8, pour tout ϕ ∈ RI et x ∈ I, u(ϕ)(xIn ) = ϕ(x)In .
Donc Im(u) ne contient pas la fonction constante de Sn (I) −→ Sn (R) .
S 7−→ E11
Ainsi, u n’est pas surjective, sauf si n = 1 .

3
10. • Nous appliquons la même méthode qu’à la question 7.
Soit P ∈ R[X] tel que f est l’application x ∈ I 7→ P (x).
Soient S ∈ Sn (I), puis Ω ∈ On (R) et D = Diag(s1 , . . . , sn ) ∈ Dn (R) tels que S = t ΩDΩ.
Alors :
u(f )(S) = = t ΩDiag(f (s1 ), . . . , f (sn ))Ω

= t ΩDiag(P (s
1 ), . . . ,
P (sn ))Ω

= t ΩP Diag(s1 , . . . , sn ) Ω

= P t ΩDiag(s1 , . . . , sn )Ω
= P (S)

Ainsi, il existe P ∈ R[X] tel que : ∀S ∈ Sn (I), u(f )(S) = P (S) .

• Réciproquement, supposons qu’il existe P ∈ R[X] tel que : ∀S ∈ Sn (I), u(f )(S) = P (S).
Alors pour tout x ∈ I, u(f )(xIn ) = P (xIn ) = P (x)In .
Or d’après la question 8, u(f )(xIn ) = f (x)In .
Donc pour tout x ∈ I, f (x) = P (x).
Ainsi, la réciproque a lieu :
f est polynomiale si et seulement si u(f ) est « polynomiale » .

4
11. • Tout d’abord, pour tous A, B ∈ Mn (R), ||AB|| 6 n||A|| ||B||, car :
X
n X
n
∀i, j ∈ [[1, n]], [AB]i,j = [A]i,k [B]k,i 6 [A]i,k [B]k,i 6 n||A|| ||B||.
k=1 k=1
Comme ||Ω|| 6 1 lorsque Ω ∈ On (R),
l’application CΩ : Mn (R) −→ Mn (R) est n2 -lipschitzienne .
M 7−→ t ΩM Ω

• Supposons que (ϕk )k∈N converge vers ϕ ∈ RI .


Soit ε > 0.
Soient S ∈ Sn (I), puis Ω ∈ On (R) et D = Diag(s1 , . . . , sn ) ∈ Dn (R) tels que S = t ΩDΩ.
Soit N ∈ N tel que ∀k > N, ∀i ∈ [[1, n]], |ϕk (si ) − ϕ(si )| < ε.
Alors, pour tout k > N , Diag(ϕk (s1 ), . . . , ϕk (sn )) − Diag(ϕ(s1 ), . . . , ϕk (sn )) < ε.
Comme CΩ est n2 -lipschitzienne,
t ΩDiag(ϕ (s ), . . . , ϕ (s ))Ω − t ΩDiag(ϕ(s ), . . . , ϕ (s ))Ω < n2 ε,
k 1 k n 1 k n
autrement dit,
|u(ϕk )(S) − u(ϕ)(S)| < n2 ε.

Ceci montre que u(ϕk ) k∈N converge simplement vers u(ϕ) .

Nous venons de montrer que :


∀S ∈ Sn (I), u(ϕk )(S) −−−→ u(ϕ)(S).
k→∞
Par continuité de l’application Tr : Mn (R) → R, linéaire en dimension finie, on en déduit que :
 
∀S ∈ Sn (I), v(ϕk )(S) = Tr u(ϕk )(S) −−−→ Tr u(ϕ)(S) = v(ϕ)(S).
k→∞
Ainsi,

v(ϕk ) k∈N converge simplement vers v(ϕ) .

• Supposons cette fois qu’il y a convergence uniforme de (ϕk )k vers ϕ.


Soit ε > 0.
Alors il existe N ∈ N tel que ∀k > N, ∀x ∈ I, |ϕk (x) − ϕ(x)| < ε.
Soient S ∈ Sn (I), puis Ω ∈ On (R) et D = Diag(s1 , . . . , sn ) ∈ Dn (R) tels que S = t ΩDΩ.
Alors, pour tout k > N , Diag(ϕk (s1 ), . . . , ϕk (sn )) − Diag(ϕ(s1 ), . . . , ϕk (sn )) < ε.
Comme précédemment, il vient :
|u(ϕk )(S) − u(ϕ)(S)| < n2 ε.
Nous avons donc montré :
∀ε > 0, ∃N ∈ N, ∀k > N, ∀S ∈ Sn (I), u(ϕk )(S) − u(ϕ)(S) < n2 ε. (1)
Or Tr : (Mn (R), || ||) → (R, | |) est n-lipschitzienne, donc d’après (1),
 
∀ε > 0, ∃N ∈ N, ∀k > N, ∀S ∈ Sn (I), Tr u(ϕk )(S) − Tr u(ϕ)(S) < n3 ε. (2)
D’après (1) et (2), nous avons établi que :
 
les suites u(ϕk ) k∈N et v(ϕk ) k∈N convergent uniformément .

Rem. Nous avons ainsi prouvé un substitut à la continuité de u, mais pas la continuité de u
elle-même. En effet, pour cela, il aurait fallu normer les espaces RI et Sn (R)Sn (I) et montrer que

la convergence de (ϕk )k au sens de la norme choisie sur RI entraîne la convergence de u(ϕk ) k
au sens de la norme choisie sur Sn (R)Sn (I) .
En fait, dès que I est infini, il n’existe aucune norme sur RI telle que la convergence
simple soit la convergence pour cette norme. En revanche, la convergence uniforme de fonctions
de RI correspond à la convergence en « norme infinie » à condition de se restreindre à B(I, R),
l’espace vectoriel des fonctions bornées.

5
III Norme et convexité
12. Soit S ∈ Sn (R). D’après le théorème spectral, il existe une base orthonormale (b.o.n.)
(V1 , . . . , Vn ) de Mn,1 (R) pour la norme 2 telle que les Vi sont des vecteurs propres de S.
(les Vi sont les colonnes de toute matrice Ω ∈ On (R) telle que t ΩSΩ est diagonale).
Pour tout i, notons λi ∈ R tel que SVi = λi Vi . On peut supposer que :
min(Sp(S)) = λ1 6 · · · 6 λn = max(Sp(S)).
Puisque (V1 , . . . , Vn ) est une b.o.n., on a :
∀i, j ∈ [[1, n]], t Vi SVj = δij λi .
X
n
Soit X ∈ Σ. Notons (x1 , . . . , xn ) ∈ Rn tel que X = xi Vi .
i=1
Par le théorème de Pythagore, les xi sont en valeur absolue inférieurs à 1. Alors :
X X
n
t XSX = xi xj t Vi SVj = λi xi 2 .
16i,j6n i=1
X
n Xn X
n
2
λ1 = λ1 xi 6 λi xi 2 6 λn xi 2 = λn .
i=1 i=1 i=1
Par conséquent, λ1 6 min{t XSX ; X ∈ Σ} 6 max{t XSX ; X ∈ Σ} 6 λn .

Par ailleurs, t V1 SV1 = λ1 , t Vn SVn = λn et V1 , Vn ∈ Σ.


Finalement,
min{t XSX ; X ∈ Σ} = min(Sp(S))
.
max{t XSX ; X ∈ Σ} = max(Sp(S))

13. • Soient S et T dans Sn (I) et λ ∈ [0, 1].


Notons m = min(Sp(S) ∪ Sp(T )) et M = max(Sp(S) ∪ Sp(T )).
Alors, d’après la question 12 :
∀X ∈ Σ, t XSX ∈ [m, M ] et t XT X ∈ [m, M ].
D’où :
∀X ∈ Σ, m 6 t X(λS + (1 − λ)T )X 6 M .
Donc à nouveau d’après la question 12 et parce que λS + (1 − λ)T ∈ Sn (R),

Sp λS + (1 − λ)T ⊂ [m, M ].
Or par définition de m et M , ils appartiennent à I, lequel est convexe,
donc : Sp λS + (1 − λ)T ⊂ I, autrement dit, λS + (1 − λ)T ∈ Sn (I).
Finalement, Sn (I) est une partie convexe de Sn (R) .

• Considérons ρ : S ∈ Sn (R) 7→ max{|λ| ; λ ∈ Sp(M )} ∈ R+ .


(i) Pour tout S ∈ Sn (R) et µ ∈ R, Sp(µS) = {µλ ; λ ∈ Sp(S)}. Donc ρ(µS) = |µ| ρ(S).
(ii) Pour tout S ∈ Sn (R) telle que ρ(S) = 0, alors Sp(S) = 0,
or S est diagonalisable, donc S est semblable à 0n , donc S = 0n .
(iii) Pour tous S, T ∈ Sn (R) et X ∈ Σ,
|t XSX| 6 ρ(S) et |t XT X| 6 ρ(T ), donc |t X(S + T )X| 6 ρ(S) + ρ(T ).
Donc d’après la question 12, Sp(S + T ) ⊂ [−ρ(S) − ρ(T ), ρ(S) + ρ(T )].
Donc ρ(S + T ) = max{|λ| ; λ ∈ Sp(S + T )} 6 ρ(S) + ρ(T ).

Ainsi, ρ est une norme sur Sn (R) .

6
IV Continuité des fonctions de matrices symétriques
14. Nous pouvons décomposer l’application χ ainsi :
 n2
— l’application a : Sn (R) −→ R1 [X]  est continue comme somme d’une
S 7−→ Xδij − [S]ij 16i,j6n
application constante et d’une application linéaire, or dim(Sn (R)) < ∞ ;
 n2 n
— pour tout σ ∈ Bn , l’application bσ : R1 [X] −→ R1 [X] est continue car
(Pi,j )16i,j6n 7−→ (Pi,σ(i) )16i6n
linéaire en dimension finie ;
n
— l’application c : R1 [X] −→ R[X] est continue car n linéaire en dimension finie ;
Y
n
(Pi )16i6n 7−→ Pi
i=1
X
— finalement, l’application χ = ε(σ)c ◦ bσ ◦ a est continue comme somme de composées
σ∈Bn
d’applications continues.
Ainsi, χ : Sn (R) → R[X] est continue .

Rem. On peut aussi expliquer que les coefficients du polynôme caractéristique sont polynômiaux
en les coefficients de la matrice.
Cette question sera pas utile pour la réponse alternative à la question 16.

15. Nous aurons besoin des fonctions continues suivantes :


— a : Mn (R) −→ Rn (linéaire en dimension finie) ;
N 7−→ ([N ]11 , [N ]22 , . . . , [N ]nn )
— f : Mn (R)3 −→ Mn (R) (trilinéaire en dimension finie).
(A, B, C) 7−→ t ABC

Par hypothèse, Mk − → M dans Sn (R).


Soit (Ωk )k ∈ On (R) telle que pour tout k, t Ωk Sk Ωk est diagonale.
N

Pour tout k, on note λ1,k , . . . , λn,k ∈ R tels que t Ωk Sk Ωk = Diag(λ1,k , . . . , λn,k ).


On peut de plus supposer que les Ωk sont tels que pour tout k ∈ N,
λ1,k 6 λ2,k 6 · · · 6 λn,k .
Par compacité de On (R), il existe une sous-suite (Ωα(k) )k et Ω ∈ On (R) telles que Ωα(k) −−−→ Ω.
k→∞
On a également : Mα(k) −−−→ M .
k→∞
On en déduit : (Ωα(k) , Sα(k) , Ωα(k) ) −−−→ (Ω, S, Ω).
k→∞
Par composition par f continue, on obtient : t Ωα(k) Sα(k) Ωα(k) −−−→ t ΩSΩ.
k→∞
Mais Dn (R) est un fermé de Mn (R) comme sous-espace vectoriel en dimension finie,
donc t ΩSΩ ∈ Dn (R) et il existe (λ1 , . . . , λn ) ∈ Rn tel que t ΩSΩ = Diag(λ1 , . . . , λn ).
Autrement dit, Diag(λ1,α(k) , . . . , λn,α(k) −−−→ Diag(λ1 , . . . , λn ).
k→∞
Par composition par a continue, on obtient : (λ1,α(k) , λ2,α(k) , . . . , λn,α(k) ) −−−→ (λ1 , λ2 , . . . , λn ).
k→∞
Or, par passage à la limite d’inégalités larges dans R, on a : λ1 6 λ2 6 · · · 6 λn .
Et comme pour tout k, (λ1,k , λ2,k , . . . , λn,k ) = Sp↑ (Mk ) tandis que Diag(λ1 , . . . , λn ) = t ΩM Ω,
il vient avec λ1 6 λ2 6 · · · 6 λn , on a établi :
la suite (Λk )k∈N admet une valeur d’adhérence croissante, égale à Sp↑ (M ) .

Rem. Cette dernière précision sera utile pour la question 16.


Nous avons utilisé la compacité de On (R), laquelle est à démontrer question 18.

7
Voici dans les grandes lignes une méthode alternative, probablement attendue, pour cette
question : (ρ(Mk ))k est une suite convergente donc bornée. Donc (Λk )k est une suite bornée dans
(Rn )N . Donc on peut en extraire une suite convergente et on passe à la limite dans l’inégalité.
On en déduit que (Λk )k admet une limite croissante, sans pour autant faire le lien avec Sp↑ (M ).

16. Supposons que (Λα(k) )k∈N converge.


Rappelons que Mk −−−→ M , donc Mα(k) −−−→ M .
k→∞ k→∞ 
Alors, en appliquant la question 15 à la suite (Mα (k))k∈N , il vient que Λα(k) k
admet une
sous-suite convergeant vers Sp↑ (M ).
Or par hypothèse, (Λα(k) )k∈N converge, donc ce doit être vers Sp↑ (M ).
Λα(k) −−−→ Sp↑ (M ) .
k→∞

Rem. Avec la méthode alternative de la question 15, on ne savait pas que lim Λk = Sp↑ (M ),
k→∞
mais on peut le déduire à l’aide de la continuité de χ (cf. question 14), sachant que χMk =
Y
n
(X − λi,k ) avec pour tout k, (λ1,k , · · · , λn,k ) = Sp↑ (Mk ).
i=1

17. D’après la question 16, la suite (Λk )k a pour unique valeur d’adhérence Sp↑ (M ).
Or, Mk −−−→ M , donc ρ(Mk ) −−−→ ρ(M ) par continuité de la norme.
k→∞ k→∞
Ainsi, la suite (ρ(Mk ))k∈N est dans un compact K de R.
Donc la suite (Λk )k∈N est à valeurs dans le compact (K n ) de Rn (compact, car produit cartésien
fini de compacts).
Mais d’après une conséquence fameuse du théorème de Weierstrass, toute suite à valeurs dans
un compact et ne possédant qu’une unique valeur d’adhérence converge.
Donc (Sp↑ (Mk ))k converge vers Sp↑ (M ) dans Rn .
Ceci étant vrai pour toute suite (Mk )k tendant vers M , on en déduit la continuité de Sp↑ en M .
Enfin, ceci étant vrai pour tout M ∈ Sn (R), on en déduit la continuité de Sp↑ sur Sn (R) .

18. Puisque toutes les normes sont équivalentes en dimension finie, il suffit de le vérifier pour la
norme || ||.
• On (R) est une partie bornée de Mn (R), puisque les coefficients de toute matrice de On (R)
sont majorés par 1 en valeur absolue.
• Par ailleurs, On (R) = {M ∈ Mn (R) ; t M M = In } = (f ◦ g)−1 ({In }) où :
∗ g : A ∈ Mn (R) 7→ (A, A) est linéaire en dimension finie, donc continue ;
∗ f : (A, B) ∈ Mn (R)2 7→ t AB est bilinéaire en dimension finie, donc continue.
Donc f ◦ g est continue. Or On (R) est l’image réciproque du fermé {In } par f ◦ g, donc est fermé.
• Enfin, Mn (R) est un espace vectoriel de dimension finie, donc les fermés bornés de Mn (R)
sont compacts, donc On (R) est compact .

19. Il semble qu’il faille suivre à nouveau le cheminement des questions 15, 16, 17.
— A nouveau, nous utilisons la caractérisation séquentielle de la continuité : montrons que
pour toute suite convergente Mk −−−→ M dans Sn (R), u(ϕ)(Mk ) −−−→ u(ϕ)(M ).
k→∞ k→∞
— La suite (Mk )k étant convergente, elle[est incluse dans un compact de Sn (R).
— En utilisant la norme ρ, il vient que Sp(Mk ) est inclus dans un compact K de R.
k∈N

8
— Pour tout k, on définit Ωk tel que Mk = t Ωk Diag(Sp↑ (Mk ))Ωk .
— Par compacité de On (R), il existe une injection croissante α de N telle que (Ωα(k) )k
converge vers une matrice Ω ∈ On (R).
— Par ailleurs, d’après la question 17, Sp↑ (Mα(k) ) −−−→ Sp↑ (M ).
k→∞
— Notons Φ : In −→ Rn continue.
(λ1 , . . . , λn ) 7−→ (ϕ(λ1 ), . . . , ϕ(λn ))
Alors Φ(Sp↑ (Mα(k) ) −−−→ Φ(Sp↑ (M )), donc u(ϕ)(Mα(k) ) −−−→ u(ϕ)(M ).
k→∞ k→∞
— Supposons que (u(ϕ)(Mβ(k) ))k converge.
D’après ce qui précède, (u(ϕ)(Mβ(k) ))k admet u(ϕ)(M ) comme valeur d’adhérence.
C’est donc l’unique valeur d’adhérence de la suite (u(ϕ)(Mk ))k .
— Or pour tout k, u(ϕ)(Mk ) appartient aux matrices symétriques dont le spectre est inclus
dans ϕ(K), compact car ϕ est continue. Il s’agit d’une boule fermé pour la norme ρ, donc
c’est un compact de Sn (R). Ainsi, (u(ϕ)(Mk ))k vit dans un compact et ne possède qu’une
seule valeur d’adhérence, donc (u(ϕ)(Mk ))k converge. Et donc, u(ϕ) est continue .
— En composant par la trace (linéaire en dimension finie donc continue), v(ϕ) est continue .

V Convexité des fonctions de matrices symétriques

20. • Soit U ∈ US . Il existe alors Ω ∈ On (R) tel que U = t ΩSΩ.


Pour tout i ∈ [[1, n]], notons Ei le i-ème vecteur élémentaire de Mn,1 (R).
Alors, pour tout k ∈ [[1, n]], [U ]k,k = t Ek t ΩSΩEk = t XSX où X = ΩEk ∈ Σ.
D’après la question 12, on en déduit que t XSX ∈ [min(Sp(S)), max(Sp(S))].
Or I est un intervalle contenant min(Sp(S)) et max(Sp(S)) car S ∈ Sn (I), donc [U ]k,k ∈ I .

X
n
• Notons (λ1 , . . . , λn ) = Sp↑ (S). Alors v(f )(s) = f (λi ).
i=1
X
n X
n
D’une part, la matrice D = Diag(λ1 , . . . , λn ) ∈ US et f ([D]k,k ) = f (λi ) = v(f )(s).
k=1 i=1
D’autre part, soit U ∈ US , puis V ∈ On (R) tel que t V U V = Diag(λ1 , . . . , λn ).
Pour tout i, j ∈ [[1, n]], notons Vj = V Ej et vij = t Ei V Ej de sorte que V = (vij )16i,j6n.
Alors :
Xn Xn

f ([U ]jj ) = f t Vj Diag(λ1 , . . . , λn )Vj
j=1 j=1 Ç
n Xn X
å
= f vij 2 λi
j=1 Ç i=1
Xn X
n
å
6 vij 2 f (λi )
(1) j=1 i=1

6 v(f )(S)
(2)

X
n
(1) a lieu par convexité de f , étant donné que vij 2 = 1, puisque V ∈ On (R) ;
i=1
X
n
(2) a lieu car par interversion des signes somme et car vij 2 = 1, puisque V ∈ On (R).
j=1

X
n
® ´
Ainsi, max f ([Uk,k ]) ; U ∈ US = v(f )(S) .
k=1

9
21. Soient A, B ∈ Sn (I), t ∈ [0, 1].
Soient V ∈ On (R) et (λ1 , . . . , λn ) ∈ I n tels que (1 − t)A + tB = t V Diag(λ1 , . . . , λn )V .
 Xn
v(f ) (1 − t)A + tB = f (λi )
i=1
X
n   
= f V ((1 − t)A + tB)t V i,i
i=1
X
n
    
= f (1 − t) V At V i,i + t V B t V i,i
i=1
X
n Ä      ä
6 (1 − t)f V At V i,i + tf V B t V i,i
(1) i=1
6 (1 − t)v(f )(A) + tv(f )(B)
(2)

(1) par convexité de f entre les points [V At V ]i,i et [V B t V ]i,i , lesquels appartiennent à I d’après
la question 20 ;
Xn    Xn   
t
(2) car d’après la question 20, f V A V i,i 6 v(f )(A) et f V B t V i,i 6 v(f )(B).
i=1 i=1

Nous avons donc montré la convexité de v(f ) sur Sn (I) :


∀(A, B) ∈ Sn (I)2 , ∀t ∈ [0, 1], v(f )((1 − t)A + tB) 6 (1 − t)v(f )(A) + tv(f )(B) .

22. Nous venons de montrer à la question 21 que si f est convexe, alors v(f ) l’est.
Réciproquement, supposons que v(f ) soit convexe sur Sn (I).
Pour tous x, y ∈ I et t ∈ [0, 1], il vient :

v(f ) (1 − t)xIn + tyIn 6 (1 − t) v(f )(xIn ) +t v(f )(yIn ).
| {z } | {z } | {z }
nf ((1−t)x+ty) nf (x) nf (y)

En divisant par n, on obtient la définition de la convexité de f . Ainsi :


f est convexe sur I si et seulement si v(f ) est convexe sur Sn (I) .

10
VI Trois sujets d’oraux proches du thème de ce devoir
Les numéros et années des exercices font références aux livres édités par la RMS :
« 1400 (resp. 1300, 1417) énoncés d’exercices oraux issus des concours d’entrée aux grandes
écoles 2017 (resp. 2018, 2019) »

Mines - MP - 2017 (628)


Soit n ∈ N∗ . Pour A ∈ Sn (R), on note Sp(A) l’ensemble des valeurs propres de A et on pose
N (A) = max{|λ|}λ∈Sp(A) .
1. Montrer que N est une norme sur Sn (R).
2. Soient A et B dans Sn (R) telles que AB = BA. Montrer que AB ∈ Sn (R) et comparer
N (AB) avec N (A)N (B).
3. Soit || || une norme sur Sn (R) telle que : ∀A, B ∈ Sn (R), AB = BA ⇒ ||AB|| 6 ||A|| ||B||.
Montrer que pour toute A ∈ Sn (R), N (A) 6 ||A||.

Mines - MP - 2018 (572)


Soient A et B deux matrices symétriques réelles de taille n.
Etudier la convexité de l’application f : t 7→ max Sp(A + tB).

Centrale - MP - 2017 (1059)


1. Soit S ∈ Sn (R). On note λ1 , . . . , λn les valeurs propres de S.
On pose Ω = {P SP −1 ; P ∈ On (R)}. Soit A = (aij )16i,j6n ∈ Ω.
(i) Montrer que pour tout k ∈ [[1, n]], ak,k ∈ [λ1 , λn ].
™ Xn
P
ß n
(ii) Soit ϕ : R → R convexe. Montrer que max ϕ(akk ) ; A ∈ Ω = ϕ(λk ).
k=1 k=1
2. Soient (E, ( | )) un espace euclidien et f : R → R convexe.
Si u ∈ S(E) et si λX ∈ Sp(u), on note pλ,u le projecteur orthogonal sur Ker (u − λid).
On pose f (u) = f (λ)pλ,u . Soient v, w ∈ S(E) et t ∈ [0, 1]. Montrer :
λ∈Sp(u)

Tr f ((1 − t)v + tw)) 6 (1 − t)Tr(f (v)) + t Tr(f (w)).

11

Vous aimerez peut-être aussi