0% ont trouvé ce document utile (0 vote)
133 vues10 pages

Matrices symétriques et théorème spectral

Transféré par

adolpheireneek
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
133 vues10 pages

Matrices symétriques et théorème spectral

Transféré par

adolpheireneek
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 14

Matrices symétriques et orthogonales

14.1 Définitions

Dans ce chapitre, on ne traitera que des matrices carrées.

Définition 14.1. Une matrice A (n × n) est symétrique si AT = A, c’est-à-dire si

aji = aij ∀i, j = 1, 2, . . . , n .

Donc une matrice symétrique a ses coefficients symétriques par rapport à la diagonale.
Exemple 14.2. ? La matrice identité In est symétrique.
 
1 2 3
? B= 2 0 −5 est symétrique.
3 −5 7
 
1 0 1 1 1
0 0 2 0 1
 
? C= 1 2 2 0 1  n’est pas symétrique.
1 0 0 0 2
1 2 1 2 1


Avant de commencer l’étude des propriétés remarquables des matrices symétriques, in-
troduisons une autre classe de matrices, intimement liées (comme on le verra) aux ma-
trices symétriques :

Définition 14.3. Une matrice A n × n est orthogonale si

AT A = AAT = In .

De par sa définition, une matrice A orthogonale est inversible, et son inverse est égale à
sa transposée :
A−1 = AT .
Aussi, on sait qu’il suffit qu’un des conditions (AT A = In ou AAT = In ) soit satisfaite
pour garantir l’orthogonalité.
De plus, on a déjà vu que si on écrit une matrice carrée à l’aide de ses colonnes, A =
[a1 · · · an ], alors on peut interpréter chaque coefficient du produit AT A comme un produit

NumChap: chap-matrices-symetriques, Dernière compilation: 2022-12-09 06:44:16+01:00. (Version Web: botafogo.saitis.net) 207
14.2. Sur les espaces propres d’une matrice symétrique

scalaire :  
a1 · a1 a1 · a2 · · · a1 · an
 a2 · a1 a2 · a2 · · · a2 · an 
AT A =  .
 
.. .. .. 
 .. . . . 
an · a1 ··· · · · an · an
Ainsi, A est orthogonale (AT A = In ) si et seulement si
(
1 si i = j ,
ai · aj =
0 si i 6= j ,
Autrement dit :
Lemme 20. A = [a1 . . . an ] est orthogonale si et seulement si ses colonnes sont des vecteurs
unitaires (kak k = 1 pour tout k = 1, . . . , n) et orthogonaux deux à deux (ai · aj = 0 si i 6= j).

Il y a donc autant de matrices n × n orthogonales qu’il y a de familles orthonormales de


n vecteurs dans Rn .
 √ √ √ 
1/√3 −1/√ 2 1/√6
Exemple 14.4. A =  1/ √3 1/ 2 1/√6 est orthogonale, puisque ses colonnes
−1/ 3 0 2/ 6
sont unitaires et orthogonales deux-à-deux. Par conséquent, son inverse est donné par
 √ √ √ 
1/ √3 1/√3 −1/ 3
A−1 = AT = −1/√ 2 1/√2 0√  .
1/ 6 1/ 6 2/ 6

Exemple 14.5. La matrice représentant une rotation d’angle θ autour de l’origine (dans
R2 ), relativement à la base canonique,
 
cos(θ) − sin(θ)
A= ,
sin(θ) cos(θ)
est orthogonale :
   
T cos(θ) − sin(θ) cos(θ) sin(θ)
A A= , = I2 .
sin(θ) cos(θ) − sin(θ) cos(θ)

En général, dans le cas n × n, on parle des matrices orthogonales comme des rotations,
puisqu’elles représentent des transformations rigides, qui préservent l’orthogonalité. Nous
reviendrons là-dessus.

14.2 Sur les espaces propres d’une matrice symétrique

Commençons par une propriété élémentaire du produit scalaire :

Lemme 21. Soit B une matrice n × n quelconque. Alors pour tous x, y ∈ Rn ,

(Bx) · y = x · (B T y) .

En particulier, si B est symétrique, alors

(Bx) · y = x · (By) .

208 NumChap: chap-matrices-symetriques, Dernière compilation: 2022-12-09 06:44:16+01:00. (Version Web: botafogo.saitis.net)
14.2. Sur les espaces propres d’une matrice symétrique

Preuve: Par l’interprétation matricielle du produit scalaire,


(Bx) · y = (Bx)T y = xT B T y = xT (B T y) = x · (B T y) .

Une conséquence immédiate :

Corollaire 7. Soit G une matrice n × n orthogonale. Alors pour tous x, y ∈ Rn ,


? (Gx) · (Gy) = x · y,
? kGxk = kxk.

Preuve: Supposons que G est orthogonale. Par le lemme précédent,


(Gx) · (Gy) = x · (GT Gy) = x · y .

La deuxième identité s’obtient en prenant y = x.


Remarque 14.6. La deuxième propriété montre qu’une application linéaire définie par
une matrice orthogonale est une isométrie, c’est-à-dire qu’elle ne change pas la longueur
d’un vecteur (seulement sa direction). 
Exemple 14.7. Un exemple typique d’isométrie est la rotation d’angle θ dans le plan :

Rappelons que relativement à la base canonique, la matrice de cette rotation est donnée
par  
cos(θ) − sin(θ)
[rotθ ]Bcan = .
sin(θ) cos(θ)
Cette matrice est orthogonale puisque ses colonnes sont unitaires et perpendiculaires
entre elles :
  
T cos(θ) sin(θ) cos(θ) − sin(θ)
[rotθ ]Bcan [rotθ ]Bcan =
− sin(θ) cos(θ) sin(θ) cos(θ)
= I2 .

On sait que pour une matrice quelconque, des vecteurs propres associés à des valeurs
propres distinctes sont indépendants. Pour une matrice symétrique, cette propriété est
vérifiée dans un sens plus fort :

Corollaire 8. Soit A une matrice n × n symétrique. Si v1 et v2 sont deux vecteurs propres de A


associés à des valeurs propres distinctes, alors v1 ⊥ v2 .

NumChap: chap-matrices-symetriques, Dernière compilation: 2022-12-09 06:44:16+01:00. (Version Web: botafogo.saitis.net) 209
14.2. Sur les espaces propres d’une matrice symétrique

Preuve: Si Av1 = λ1 v1 , Av2 = λ2 v2 , alors


λ1 (v1 · v2 ) = (λ1 v1 ) · v2 = (Av1 ) · v2
= v1 · (Av2 ) = v1 · (λ2 v2 ) = λ2 (v1 · v2 ) ,
qui implique (λ1 − λ2 )(v1 · v2 ) = 0. Donc si λ1 6= λ2 , on a forcément que v1 · v2 = 0.
Dans l’exemple suivant, nous vérifierons ce résultat sur un exemple concret, et nous ob-
serverons encore une propriété qui sera énoncée comme un résultat général dans la pro-
chaine section.
Exemple 14.8. Étudions les espaces propres de la matrice symétrique
 
3 −2 4
A = −2 6 2 .
4 2 3
On calcule son polynôme caractéristique,
 
3 − λ −2 4
PA (λ) = det  −2 6 − λ 2 
4 2 3−λ
 
7 − λ −2 4
= det  0 6−λ 2 
7−λ 2 3−λ
 
7 − λ −2 4
= det  0 6−λ 2 
0 4 −1 − λ
= −(λ + 2)(λ − 7)2 .
Donc A possède deux valeurs propres, λ1 = −2 et λ2 = 7. Les espaces propres associés
se calculent facilement :  
2
? E−2 = Vect{v}, où v =  1 ,
−2
   
1 −1
? E7 = Vect{w1 , w2 }, où w1 = 0 , w2 =
   2 .
1 0
On remarque qu’effectivement, v ⊥ w1 , et v ⊥ w2 , et donc n’importe quel vecteur de
E−2 est orthogonal à n’importe quel autre vecteur de E7 . En d’autres termes :
E−2 ⊥ = E7 , E7 ⊥ = E−2 .
(Pourtant, w1 et w2 ne sont pas orthogonaux entre eux.)

210 NumChap: chap-matrices-symetriques, Dernière compilation: 2022-12-09 06:44:16+01:00. (Version Web: botafogo.saitis.net)
14.3. Théorème et décomposition spectrale

Remarquons aussi que


2
X
multg (λk ) = 1 + 2 = 3 ,
k=1

ce qui implique que A est diagonalisable. En prenant par exemple


   
−2 0 0 1 1 −1/2
D =  0 7 0 , P = [v w1 w2 ] = 1/2 0 1 ,
0 0 7 −1 1 0

on obtient la diagonalisation A = P DP −1 .
Mais rappelons que l’on peut former la matrice de changement de base en choisissant les
vecteurs propres que l’on veut, tant qu’ils forment une base des espaces propres concer-
nés, et que l’on respecte l’ordre des valeurs propres dans la matrice diagonale D.
Donc on peut très bien, si on veut, commencer par orthogonaliser la base de E7 avant de
mettre en place P :

w10 := w1 ,
 
−1/2
w20 := w2 − projw1 (w2 ) =  2 
1/2

Ainsi, une autre diagonalisation de A serait A = QDQ−1 , avec la même matrice D


qu’avant, et  
1 1 −1/2
Q = [v w10 w20 ] = 1/2 0 2 .
−1 1 1/2
Cette fois, les colonnes de Q sont orthogonales deux à deux. Or rien ne nous empêche de les
normaliser avant de définir Q :

v w10 w20
 
R= ,
kvk kw10 k kw20 k

qui donne une troisième diagonalisation de A : A = RDR−1 (avec D la même matrice


qu’avant). Mais ici, R étant orthogonale, son inverse est R−1 = RT , et donc le changement
de base devient
A = RDRT .
On a donc pu diagonaliser A dans une base orthonormée de R3 . 

Nous verrons, dans la section suivante, que ce que nous avons fait sur ce dernier exemple
peut se faire avec n’importe quelle matrice symétrique.

14.3 Théorème et décomposition spectrale


Le Théorème Spectral

Un des résultats importants de l’algèbre linéaire :

Théorème 14.9. (Théorème spectral) Soit A une matrice n × n. Alors A symétrique si et seule-
ment si elle peut se diagonaliser à l’aide d’une matrice de changement de base orthogonale.

NumChap: chap-matrices-symetriques, Dernière compilation: 2022-12-09 06:44:16+01:00. (Version Web: botafogo.saitis.net) 211
14.3. Théorème et décomposition spectrale

On dit que les matrices symétriques sont orthogonalement diagonalisables.


Preuve: ⇐ : Supposons que A peut se diagonaliser à l’aide d’une matrice de changement de base
G orthogonale : A = GDGT . Alors

AT = (GDGT )T = (GT )T DT GT = GDGT = A ,

donc A est symétrique.


⇒ : Donnons la preuve dans le cas n = 2. Soit A une matrice 2 × 2 symétrique, que l’on écrit
comme suit :  
a b
A= .
b c
Montrons que A est toujours diagonalisable, quelles que soient les valeurs de a, b, c ∈ R. Com-
mençons donc par calculer les valeurs propres, à l’aide du polynôme caractéristique :
 
a−λ b
PA (λ) = det
b c−λ
= (a − λ)(c − λ) − b2
= λ2 − (a + c)λ + (ac − b2 ) .

Calculons le discriminant

∆ = (a + c)2 − 4(ac − b2 ) = (a − c)2 + 4b2 .

Cette dernière ligne montre que l’on a toujours ∆ > 0, et donc toujours au moins une valeur
propre. Distinguons les cas.
a) ∆ = (a − c)2 + 4b2 = 00. Ceci signifie que a = c et b = 0, et donc que A est en fait la matrice
 
a 0
A= ,
0 a

qui est déjà diagonale ! On peut évidemment l’écrire comme A = I2 AI2T .


b) ∆ > 0. Dans ce cas, PA possède deux racines distinctes

a+c± ∆
λ± = .
2
Si on considère un vecteur propre quelconque v+ associé à λ+ , et un vecteur propre quel-
conque v− associé à λ− , on sait par le corollaire de la section précédente que v+ ⊥ v− .
Ainsi, la matrice  
v+ v−
G=
kv+ k kv− k
est orthogonale, et permet de diagonaliser A : A = GDGT , où D = diag(λ+ , λ− ).
La preuve du cas général n > 3 est plus compliquée, nous ne la donnons pas ici.
Exemple 14.10. La matrice
 √ √ √ √ √ √ 
1
√ 2 3 5 7 8 11
 2 √π π π 2 π 3 π 2 π 
√ 
 3
√ π −1 e −e e −e 

2
 √5 π e 0 0 0 0 
 
 √7 π 3 −e 0 1 1 1 
 
 8 π2
 
√ e 0 1 2 2 
11 π −e 0 1 2 3

étant symétrique, le Théorème Spectral s’applique : elle est diagonalisable. Il existe une
matrice diagonale D et une matrice orthogonale G telles que A = GDGT . 

212 NumChap: chap-matrices-symetriques, Dernière compilation: 2022-12-09 06:44:16+01:00. (Version Web: botafogo.saitis.net)
14.3. Théorème et décomposition spectrale

Décomposition spectrale

Voyons comment le Théorème Spectral permet de représenter l’application linéaire T :


Rn → Rn associée à une matrice n × n symétrique A,

x 7→ T (x) := Ax .

En effet, le Théorème Spectral garantit que A peut être diagonalisée à l’aide d’une matrice
de changement de base orthogonale :

A = GDG−1 = GDGT

Ici, D = diag(λ1 , . . . , λn ) est formée de valeurs propres de A (pas forcément distinctes),


et G est formée de vecteurs propres associés, formant une base orthonormale (u1 · · · un )
de Rn :  
G = u1 · · · un ,
On peut donc écrire, pour un x ∈ Rn quelconque,
 T 
u x
T
   1. 
T (x) = Ax = GDG x = u1 · · · un D  .. 
uTn x
 T 
u x
   1. 
= λ1 u1 · · · λn un  .. 
uTn x
n
X
= λk uk uTk x
k=1
n
!
X
= λk uk uTk x.
k=1

On peut donc écrire A comme une combinaison linéaire de matrices :

n
X
A= λk uk uTk .
k=1

On sait que chaque uk uTk est une matrice n × n, et représente le projecteur sur uk . En
effet, puisque chaque uk est unitaire,
x · uk
uk uTk x = (x · uk )uk = uk = projuk (x) .
kuk k2

On a donc pu récrire l’applications linéaire T comme la combinaison linéaire de projec-


teurs :
Xn
T = λk projuk .
k=1

Définition 14.11. Les représentations de A et T à l’aide de projecteurs sur les espaces


propres de A sont appelées décompositions spectrales.

NumChap: chap-matrices-symetriques, Dernière compilation: 2022-12-09 06:44:16+01:00. (Version Web: botafogo.saitis.net) 213
14.3. Théorème et décomposition spectrale

Remarque 14.12. La représentation spectrale dépend bien-sûr du choix des vecteurs propres
pour la matrice ; elle n’est donc pas unique. 

Une décomposition spectrale fournit une interprétation très géométrique de comment A


agit sur un vecteur x.

En effet, l’expression
n
X
Ax = λk projuk (x)
k=1

montre que Ax est une somme vectorielle, dans laquelle chaque terme, λk projuk (x), a
une interprétion très claire :

a) Projeter x sur uk .
b) Amplifier cette projection par la valeur propre λk .

L’intérêt est que l’on peut travailler indépendamment pour chaque k = 1, 2, . . . , n, puis
les sommer.

Voyons comment réaliser concrètement cette décomposition, dans des cas particuliers.
Exemple 14.13. Considérons la matrice symétrique
 
1 2
A= .
2 1

On vérifie facilement que les valeurs propres de A sont λ1 = −1, λ2 = 3, et que leurs
espaces propres associés sont
 
1
? E−1 = Vect{v}, où v = .
−1
 
1
? E3 = Vect{w}, où w = .
1

(On observe à nouveau, comme on sait, que ces espaces sont orthogonaux.) Pour faire la
décomposition spectrale, on a besoin de vecteurs propres unitaires. On peut par exemple
prendre
 √   √ 
v 1/ √2 w 1/√2
u1 := = , u2 := = .
kvk −1/ 2 kwk 1/ 2

Maintenant, la décomposition spectrale de A est donnée par

2
X
Ax = λk uk uTk x
k=1
= (−1)u1 uT1 + 3u2 uT2
= (−1)proju1 (x) + 3proju2 (x) .

L’interprétation géométrique de la transformation x 7→ Ax devient limpide :

214 NumChap: chap-matrices-symetriques, Dernière compilation: 2022-12-09 06:44:16+01:00. (Version Web: botafogo.saitis.net)
14.3. Théorème et décomposition spectrale

Vérifions encore, pourquoi pas :

(−1)u1 uT1 + 3u2 uT2 =


! !
√1   √1  
2 √1 −1
√ 2 √1 √1
= (−1) √ −1 2 2
+3 √1 2 2
2 2
1
− 12
  1 1

= (−1) 2 +3 2 2
1
2 − 12 1
2
1
2
 
1 2
= = A.
2 1

Exemple 14.14. Considérons la matrice symétrique déjà étudiée plus haut :
 
3 −2 4
A = −2 6 2
4 2 3

A possède deux valeurs propres, λ1 = −2 et λ2 = 7, et nous avions appliqué le procédé


de Gram-Schmidt pour trouver
 
1
? E−2 = Vect{v}, où v = 1/2,

−1
   
1 −1/2
? E7 = Vect{w1 , w2 }, où w10 = 0, w20 =  2 .
1 1/2
En normalisant ces vecteurs,

v w10 w20
u1 := , u2 := u3 :=
kvk kw10 k kw20 k

on a obtenu une matrice de changement de base, orthogonale,

R = [u1 u2 u3 ] ,

NumChap: chap-matrices-symetriques, Dernière compilation: 2022-12-09 06:44:16+01:00. (Version Web: botafogo.saitis.net) 215
14.3. Théorème et décomposition spectrale

qui donne A = RDRT .


Donc la décomposition spectrale obtenue est

A = (−2)u1 uT1 + 7u2 uT2 + 7u3 uT3 .

216 NumChap: chap-matrices-symetriques, Dernière compilation: 2022-12-09 06:44:16+01:00. (Version Web: botafogo.saitis.net)

Vous aimerez peut-être aussi