0% ont trouvé ce document utile (0 vote)
23 vues28 pages

Chap1 Rappels

Ce cours d'analyse matricielle et d'optimisation à l'Université Paris-Saclay couvre la résolution de systèmes d'équations linéaires et le calcul de valeurs propres, ainsi qu'une introduction à l'optimisation numérique. Il met l'accent sur l'efficacité des algorithmes pour résoudre ces problèmes, en tenant compte des erreurs de calcul lors de l'implémentation sur ordinateur. Le cours inclut également des rappels sur les concepts fondamentaux des matrices, y compris les matrices inversibles et les propriétés des matrices triangulaires et diagonales.

Transféré par

hugodurieux8
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
23 vues28 pages

Chap1 Rappels

Ce cours d'analyse matricielle et d'optimisation à l'Université Paris-Saclay couvre la résolution de systèmes d'équations linéaires et le calcul de valeurs propres, ainsi qu'une introduction à l'optimisation numérique. Il met l'accent sur l'efficacité des algorithmes pour résoudre ces problèmes, en tenant compte des erreurs de calcul lors de l'implémentation sur ordinateur. Le cours inclut également des rappels sur les concepts fondamentaux des matrices, y compris les matrices inversibles et les propriétés des matrices triangulaires et diagonales.

Transféré par

hugodurieux8
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université Paris-Saclay

L3 EU

Analyse matricielle et optimisation

Notes de cours - 2022/2023


Filipa Caetano

Ce cours est divisé en deux parties.

L’objectif de la première est d’étudier deux des problèmes principaux de l’analyse numérique
matricielle :

• la résolution de systèmes de n équations linéaires à n inconnues : étant donnés A ∈ Mn (K)


une matrice inversible et b ∈ Kn , où K = R ou K = C, trouver x ∈ Kn tel que Ax = b ;
• le calcul de valeurs et vecteurs propres d’une matrice : étant donnée A ∈ Mn (K), où
K = R ou K = C, trouver λ ∈ C et u ∈ Cn \{0} tel que Au = λu.

La deuxième partie du cours consiste en une introduction à l’optimisation numérique. L’objectif


de cette deuxième partie est d’étudier des problèmes d’optimisation sur Rn : étant donnée une
fonction f : Ω −→ R définie dans un ouvert Ω de Rn ,

• trouver xm ∈ Ω tel que f (xm ) = min f (x), si un tel xm existe (si f est bornée inférieurement
x∈Ω
dans Ω et atteint sa borne inférieure sur Ω),

ou

• trouver xC C
m ∈ C tel que f (xm ) = min f (x), où C ⊂ Ω est un ensemble de contrainte donné,
x∈C
si un tel xC
m existe.

Nous allons étudier des algorithmes permettant le calcul effectif des solutions de ces deux
problèmes à l’aide d’un ordinateur. Nous cherchons des algorithmes efficaces, rapides et peu
coûteux en nombre d’opérations, et stables, peu influencés par les erreurs sur les données (no-
tamment car lorsque l’on cherche à les implémenter sur ordinateur, des erreurs d’arrondi sont
commises).

On utilise le calcul numérique dans la simulation de modèles issus d’autres disciplines, telles que
la physique, la biologie, la mécanique, l’économie,... La simulation numérique de ces modèles
conduit souvent à des modèles discrets correspondant à des systèmes linéaires ou à des problèmes
d’optimisation de grande taille. Il est alors important d’avoir des algorithmes robustes pour leur
résolution, ce qui est un des objectifs de l’analyse numérique matricielle et de l’optimisation
numérique.

1
CHAPITRE 1

Rappels de calcul matriciel

Contents
1.1 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Matrices triangulaires et matrices diagonales . . . . . . . . . . . . . 5
1.3 Matrice transposée et matrice adjointe. . . . . . . . . . . . . . . . . 6
1.4 Produit scalaire et produit hermitien. . . . . . . . . . . . . . . . . . 7
1.4.1 Produit scalaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.2 Produit hermitien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.3 Quelques propriétés des matrices en lien avec le produit scalaire et
hermitien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 Matrices définies positives. . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 Théorie spectrale des matrices. Vecteurs propres et valeurs propres. 19
1.6.1 Triangularisation et diagonalisation. . . . . . . . . . . . . . . . . . . . 21
1.6.2 Matrices positives et définies positives et valeurs propres . . . . . . . . 26

Ce chapitre est un rappel, ou un approfondissement, de certaines notions et de certains résultats


d’analyse matricielle qu’il est indispensable de connaı̂tre.

Dans toute la suite K désigne le corps R des nombres réelles ou le corps C des nombres com-
plexes.

Soient n, m ∈ N∗ . On note Mn,m (K), ou Mn (K) si n = m, l’ensemble des matrices à n lignes


et m colonnes, à coefficients dans le corps K.

L’ensemble Mn,m (K) muni des opérations usuelles d’addition de matrice et de produit d’une
matrice par un scalaire, (Mn,m (K), +, ·), est un espace vectoriel sur K, de dimension n × m.

2
Si A ∈ Mn,m (K), on note A = [Aij ]i∈{1,...,n}, j∈{1,...,n} , Aij étant le coefficient de la ligne i et de
la colonne j de A. On notera parfois la matrice A en considérant la famille de vecteurs de Kn
correspondant à ses lignes et à ses colonnes : si l1 , . . . , ln ∈ Kn sont les lignes de la matrice A
et c1 , . . . , cn ∈ Kn sont les colonnes de la matrice A, on notera
  
l1

..
A=  = c1 · · · cn  .
  
.
ln

Produit matriciel.
Soient n, m, p ∈ N∗ , A ∈ Mn,m (K) et B ∈ Mm,p (K). Le produit de A par B est la matrice
AB ∈ Mn,p (K) définie par
m
X
(AB)ij = Aik Bkj , ∀ i ∈ {1, . . . , n}, ∀ j ∈ {1, . . . , p}.
k=1

Quelques rappels de base sur les nombres complexes.


Soit z ∈ C, z = a + bi, avec a, b ∈ R et i2 = −1. On appelle a la partie réelle de z (a = Re(z))
et b la partie imaginaire de z (b = Im(z)).
Le nombre complexe z̄ = a − bi est le conjugué de z.

Le module de z est le nombre réel positif |z| = a2 + b2 .
On a :
|z̄| = |z| ;
z z̄ = |z|2 ;

Re(z) ≤ |Re(z)| ≤ |z| (car a2 ≤ a2 + b2 donc |a| ≤ a2 + b 2 ) ;
Im(z) ≤ |Im(z)| ≤ |z| ;
z + z̄ = 2Re(z) ;
z − z̄ = 2Im(z).

1.1 Matrices inversibles

Soit n ∈ N∗ .

On dit qu’une matrice A ∈ Mn (K) est inversible s’il existe une matrice B ∈ Mn (K) tel que
AB = BA = In . Dans ce cas la matrice B s’appelle matrice inverse de A et est notée A−1 .

Pour A ∈ Mn (K), on note :

• Ker(A) = {u ∈ Kn | Au = 0} le noyau de A ;
• Im(A) = {Au | u ∈ Kn } l’image de A.

3
On a alors que A est inversible
ssi Ker(A) = {0Kn }
ssi Im(A) = Kn
ssi det(A) = 0
ssi la famille (c1 , . . . , cn ) formée des colonnes de A est une famille libre de Kn
ssi la famille (l1 , . . . , ln ) formée des lignes de A est une famille libre de Kn .

Il existe un autre critère utile pour savoir si une matrice est inversible.

Définition. Matrice à diagonale strictement dominante.


On dit qu’une matrice A ∈ Mn (K) est à diagonale strictement dominante si pour tout
i ∈ {1, . . . , n},
n
X
|Aii | > |Aij |.
j=1
j̸=i

Une matrice à diagonale strictement dominante est alors une matrice telle que sur chaque ligne,
l’élément diagonal en valeur absolue est supérieur à la somme des valeurs absolues des éléments
non diagonaux.

Proposition.
Soit A ∈ Mn (K) une matrice à diagonale strictement dominante. Alors A est inversible.

Démonstration. Montrons que ker(A) = {0K n }.

Soit x ∈ Kn tel que Ax = 0. Soit i0 ∈ {1, . . . , n} tel que xi0 = max |xi |. Nous allons montrer
i∈{1,...,n}
que |xi0 | = 0. On aura alors que |xj | = 0, pour tout j ∈ {1, . . . , n}, et donc que x = 0.

On a (Ax)i0 = 0, et donc |(Ax)i0 | = 0, c’est-à-dire que


n
X n
X
0= Ai0 j xj = Ai0 i0 xi0 + A i 0 j xj .
j=1 j=1
j̸=i0

En appliquant deux fois l’inégalité triangulaire, on obtient


n
X n
X
0 ≥ Ai0 i0 xi0 − Ai0 j xj ≥ Ai0 i0 xi0 − A i 0 j xj .
j=1 j=1
j̸=i0 j̸=i0

4
Comme |xi0 | ≥ |xj |, pour tout j ∈ {1, . . . , n}, on obtient
n
X  n
X 
0 ≥ Ai0 i0 xi0 − A i 0 j xi 0 = Ai0 i0 − Ai0 j xi 0 .
j=1 j=1
j̸=i0 j̸=i0

Comme A est à diagonale strictement dominante, on a


n
X
|Ai0 i0 | > |Ai0 j |,
j=1
j̸=i0

c’est-à-dire que
 n
X 
Ai0 i0 − Ai0 j > 0.
j=1
j̸=i0

De l’inégalité
 n
X 
Ai0 i0 − Ai0 j xi 0 ≤ 0
j=1
j̸=i0

on déduit alors que xi0 = 0.

On finit cette section en rappelant la notion de matrices semblables.

Définition. Matrices semblables.


Deux matrices A ∈ Mn (K) et B ∈ Mn (K) sont dites semblables s’il existe une matrice
P ∈ Mn (K) inversible tel que A = P BP −1 .

1.2 Matrices triangulaires et matrices diagonales

Soit D ∈ Mn (K). On dit que D est diagonale si pour tous i, j ∈ {1, . . . , n} tels que i ̸= j,
Dij = 0.

Notation : Si d1 , . . . , dn ∈ K, on note par diag(d1 , . . . , dn ) la matrice diagonale D ∈ Mn (K)


telle que Dii = di , pour tout i ∈ {1, . . . , n}, et Dij = 0, pour tous i, j ∈ {1, . . . , n}, i ̸= j.

Soit T ∈ Mn (K). On dit que :


T est triangulaire supérieure (stricte) si Tij = 0 pour tous i, j ∈ {1, . . . , n} tels que i > j
(i ≥ j) ;
T est triangulaire inférieure (stricte) si Tij = 0 pour tous i, j ∈ {1, . . . , n} tels que i < j
(i ≤ j).

5
n
Y
Si M ∈ Mn (K) est diagonale ou triangulaire, on a det(M ) = Mii = M11 × · · · × Mnn .
i=1

On montrera comme exercice en Td que l’inverse d’une matrice triangulaire inférieure (supéri-
eure) inversible est encore une matrice triangulaire inférieure (supérieure), et que le produit de
deux matrices triangulaires inférieures (supérieures) est aussi une matrice triangulaire inférieure
(supérieure).

1.3 Matrice transposée et matrice adjointe.

Soient n, m, p ∈ N∗ .

Soit A ∈ Mn,m (K). La matrice transposée de A est la matrice de Mm,n (K), que l’on note AT
(ou At , T A ou t A), définie par

AT ij = Aji , i ∈ {1, . . . , m}, j ∈ {1, . . . , n}.

Ainsi, les lignes de AT sont les colonnes de A et les colonnes de AT sont les lignes de A.

Si A ∈ Mn,p (K), B ∈ Mp,m (K), on a AT ∈ Mp,n (K), B T ∈ Mm,p (K) et :


T
(AT ) = A;
(AB)T = B T AT .

Soit A ∈ Mn,m (K). La matrice adjointe de A est la matrice de Mm,n (K), que l’on note A∗ ,
définie par

A∗ ij = Aji , i ∈ {1, . . . , m}, j ∈ {1, . . . , n}.

Les coefficients de A∗ sont alors les conjugués des coefficients de AT . On remarque que si
A ∈ Mn,m (R), alors A∗ = AT .

Si A ∈ Mn,p (K), B ∈ Mp,m (K) et λ ∈ C, on a :


(λA)∗ = λA∗ ;
(A∗ )∗ = A;
(AB)∗ = B ∗ A∗ .
Exercice. Montrer les trois propriétés précédentes.

Notation. Si x = (x1 , . . . , xn ) ∈ Kn , on identifie le vecteur x à la matrice colonne


 
x1
x =  ...  ∈ Mn,1 (K)
 
xn

6
et on note alors xT la matrice ligne

xT = [x1 · · · xn ] ∈ M1,n (K).

De même, si x ∈ K est un scalaire, on identifie x à la matrice de taille 1 × 1, [x] ∈ M1,1 (K).

1.4 Produit scalaire et produit hermitien.

1.4.1 Produit scalaire.

Définition. Produit scalaire.


Soit E un espace vectoriel sur R.

On appelle produit scalaire sur E une application

(·|·) : E × E −→ R
(x, y) 7→ (x|y)

vérifiant :
(·|·) est bilinéaire : pour tous α, β, γ, δ ∈ R, pour tous x, y, w, z ∈ E,
(αx + βy|z) = α(x|z) + β(y|z),
(x|γw + δz) = γ(x|w) + δ(x|z) ;
(·|·) est symétrique : pour tous x, y ∈ E, (x|y) = (y|x) ;
(·|·) est définie positive : pour tout x ∈ E, x ̸= 0, (x|x) > 0.

Exemple. Le produit scalaire euclidien.


Le produit scalaire euclidien sur Rn est l’application (·|·) : Rn × Rn −→ R définie par
n
X
(x|y) = xi yi = x1 y1 + · · · + xn yn ,
i=1

pour tous x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ Rn .


Remarque.
En utilisant les identifications et notations introduites à la section 1.3, entre les vecteurs de Rn
et les matrices ligne ou colonne à coefficients dans R, on a, pour tous x = (x1 , . . . , xn ), y =
(y1 , . . . , yn ) ∈ Rn ,
 
x
T
   .1 
(x|y) = y x = y1 · · · yn  ..  = [x1 y1 + · · · + xn yn ] ∈ M1 (R) ≡ R.
xn

7
1.4.2 Produit hermitien.

Dans toute cette section on considère des espaces vectoriels sur le corps C.

Définition. Produit scalaire complexe ou produit hermitien.


Soit E un espace vectoriel sur C.

On appelle produit hermitien (ou produit scalaire complexe) sur E une application

(·|·) : E × E −→ C
(x, y) 7→ (x|y)

vérifiant :
(·|·) est sesqui-linéaire : pour tous α, β, γ, δ ∈ C, pour tous x, y, w, z ∈ E,
(αx + βy|z) = α(x|z) + β(y|z),
(x|γw + δz) = γ(x|w) + δ(x|z) ;
(·|·) est hermitienne : pour tous x, y ∈ E, (x|y) = (y|x) ;
(·|·) est définie positive : pour tout x ∈ E, x ̸= 0, (x|x) > 0.

Remarque.
Si (·|·) est un produit hermitien sur un espace vectoriel complexe E, alors pour tout x ∈ E,
on a (x|x) = (x|x) (d’après la propriété (x|y) = (y|x), pour tous x, y ∈ E). On a donc que
(x|x) ∈ R, pour tout x ∈ E.
Exemple. Le produit hermitien canonique sur Cn .
Le produit hermitien canonique sur Cn est l’application (·|·)C : Cn × Cn −→ C définie par
n
X
(x|y)C = xi yi = x1 y1 + · · · + xn yn ,
i=1

pour tous x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ Cn .


Exercice. Vérifier que l’application (x, y) ∈ Cn × Cn 7→ (x|y)C est un produit hermitien sur
Cn .
Remarque.
Si on note, pour x = (x1 , . . . , xn ) ∈ Cn , x̄ le vecteur de Cn (x1 , . . . , xn ), que l’on identifie à la
matrice de Mn,1 (C)  
x1
 .. 
x̄ =  .  ,
xn
on a, pour tous x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ Cn ,
 
x
T
   .1 
(x|y)C = ȳ x = y1 · · · yn  ..  = [x1 y1 + · · · + xn yn ] ∈ M1 (C) ≡ C.
xn

8
On remarque que si E est un espace vectoriel sur K = R, les trois propriétés que le produit
hermitien vérifie correspondent aux trois propriétés d’un produit scalaire. On peut donc, pour
un espace vectoriel sur K = R ou K = C, parler sans ambiguité de produit hermitien, car dans
le cas K = R les deux produits sont définis de la même manière.

On rappelle maintenant de norme induite par un produit hermitien (ou scalaire) dans un espace
vectoriel complexe (ou réel).

Définition - proposition. Norme induite par un poduit scalaire ou hermitien.


Soit E un espace vectoriel surK et soit (·|·) : E × E −→ K un produit hermitien sur E
(et donc un produit scalaire si K = R, d’après ma remarque ci-dessus). Alors l’application
∥ · ∥ : E −→ R+ définie par
p
∥x∥ = (x|x), pour tout x ∈ E,

est une norme sur E. On a en plus l’inégalité de Cauchy-Schwarz :

|(x|y)| ≤ ∥x∥∥y∥, pour tous x, y ∈ E,

et |(x|y)| = ∥x∥∥y∥ si et seulement si x et y sont colinéaires.

Démonstration. On a d’abord, pour x ∈ E,

∥x∥ = 0 ssi (x|x) = 0 ssi x = 0.

Ensuite, si λ ∈ K et x ∈ E,
p q p
∥λx∥ = (λx|λx) = λλ̄(x|x) = |λ|2 (x|x) = |λ|∥x∥.

Pour montrer que l’application ∥·∥ vérifie l’inégalité triangulaire, on utilise l’inégalité de Cauchy-
Schwarz, que l’on montrera ensuite. Supposons alors que l’inégalité de Cauchy-Schwarz est
vérifiée pour tous x, y ∈ E. On a alors, si x, y ∈ E,

∥x + y∥2 = (x + y|x + y)
= (x|x) + (x|y) + (y|x) + (y|y)
= (x|x) + (x|y) + (x|y) + (y|y)

= (x|x) + 2Re (x|y) + (y|y), car z + z̄ = 2Re(z), pour tout z ∈ C,
≤ ∥x∥2 + 2|(x|y)| + ∥y∥2 , car Re(z) ≤ |z|, pour tout z ∈ C,
≤ ∥x∥2 + 2∥x∥∥y∥ + ∥y∥2 , par l’inégalité de Cauchy-Schwarz,
2
= ∥x∥ + ∥y∥ ,

et donc ∥x + y∥ ≤ ∥x∥ + ∥y∥.

9
Preuve de l’inégalité de Cauchy-Schwarz.

Soient x, y ∈ E. Si x = 0, il est immédiat que l’inégalité est vérifiée (car (x|y) = 0 et


∥x∥∥y∥ = 0).
Supposons ainsi que x ̸= 0. On a, quelque soit α ∈ K,

y = αx + (y − αx).

On cherche α ∈ K tel que z = y − αx vérifie (z|x) = 0 (on cherche alors à écrire y comme
combinaison linéaire d’un vecteur αx, colinéaire à x, et d’un vecteur z ∈ E tel que (z|x) = 0).
(y|x)
On doit alors avoir (y − αx|x) = 0, c’est-à-dire (y|x) − α(x|x) = 0 et on obtient α = =
(x|x)
(y|x)
. On a alors y = αx + z avec
∥x∥2

(y|x) (y|x)
α= 2
, z=y− x vérifiant (z|x) = 0.
∥x∥ ∥x∥2

On en déduit que

∥y∥2 = (αx + z|αx + z)


= αᾱ∥x∥2 + α(x|z) + ᾱ(z|x) + ∥z∥2
= |α|2 ∥x∥2 + ∥z∥2 , car (z|x) = 0 et (x|z) = (z|x) = 0,
≥ |α|2 ∥x∥2

(avec égalité si et seulement si ∥z∥ = 0). On a donc que

∥y∥2
|α|2 ≤ ,
∥x∥2

c’est-à-dire que
|(y|x)|2 ∥y∥2
≤ ,
∥x∥4 ∥x∥2
c’est-à-dire que
|(y|x)|2 ≤ ∥y∥2 ∥x∥2 ,
et donc |(y|x)| ≤ ∥y∥∥x∥. On a par ailleurs que l’égalité est obtenue si et seulement si z = 0,
c’est-à-dire si et seulement si y = αx c’est à dire si et seulement si y et x sont colinéaires.

Définition. Vecteurs orthogonaux et famille orthonormale.


Soit E un espace vectoriel sur K et (·|·) un produit hermitien (scalaire si K = R) sur E. On
dit que deux vecteurs x, y ∈ E sont orthogonaux par rapport au produit (·|·) si (x|y) = 0.
On dit qu’une famille (x1 , . . . , xp ), p ∈ N, p ≥ 2, de vecteurs de E, est orthonormale si
pour tous i, j ∈ {1, . . . , p}, i ̸= j, (xi |xj ) = 0 et (xi |xi ) = 1.

10
Exercice. Soit E un espace vectoriel sur K, (·|·) un produit hermitien sur E et x, y ∈ E deux
vecteurs orthogonaux non nuls. Montrer que la famille (x, y) est libre. Conclure que dans un
espace vectoriel E de dimension finie égale à n ∈ N, toute famille orthonormale de n vecteurs
est une base de E.

Pour finir cette section, on rappelle le procédé de Gram-Schmidt permettant d’obtenir une
famille de vecteurs orthonormale dans un espace E muni d’un produit hermitien.

Proposition. Procédé d’orthonormalisation de Gram-Schmidt.

Soit E un espace vectoriel sur K muni d’un produit hermitien (·|·) et ∥ · ∥ la norme induite
par ce produit hermitien.

Soit (x1 , . . . , xn ) une famille libre de E.

Soit (y1 , . . . , yn ) la famille de vecteurs de E définie par récurrence par :


x1
y1 = ,
∥x1 ∥
ỹi
pour i ∈ {2, . . . , n}, yi = , où
∥ỹi ∥

ỹi = xi − (xi |y1 )y1 + · · · + (xi |yi−1 )yi−1 .

Alors la famille (y1 , . . . , yn ) est une famille orthonormale de vecteurs de E.

La preuve est laissée comme exercice.

1.4.3 Quelques propriétés des matrices en lien avec le produit sca-


laire et hermitien.

Dans toute la suite, (·|·) désigne le produit scalaire euclidien sur Rn et (·|·)C le produit hermitien
canonique sur Cn .

Nous allons montrer un résultat qui donne une caractérisation équivalente de la transposée
d’une matrice réelle et de l’adjointe d’une matrice complexe.

11
Proposition. Caractérisation de la tranposée par le produit scalaire, de l’adjointe par le
produit hermitien.

Cas réel.
Soit A ∈ Mn (R) et AT ∈ Mn (R) sa transposée, définie par AT i,j = Aj,i , pour tous
i, j ∈ {1, . . . , n}.
Soit (·|·) le produit scalaire euclidien sur Rn . Alors on a

(Au|v) = (u|AT v), pour tous u, v ∈ Rn ,

et la matrice AT est l’unique matrice B ∈ Mn (R) tel que

(Au|v) = (u|Bv), pour tous u, v ∈ Rn .

Cas complexe.
Soit A ∈ Mn (C) et A∗ ∈ Mn (C) son adjointe, définie par A∗ i,j = Aj,i , pour tous
i, j ∈ {1, . . . , n}.
Soit (·|·)C le produit hermitien canonique sur Cn . Alors on a

(Au|v)C = (u|A∗ v)C , pour tous u, v ∈ Cn ,

et la matrice A∗ est l’unique matrice B ∈ Mn (C) tel que

(Au|v)C = (u|Bv)C , pour tous u, v ∈ Cn .

Démonstration. On va faire la preuve dans le cas complexe, le cas réel étant une conséquence
immédiate du fait que si A ∈ Mn (R), alors A∗ = AT et si u, v ∈ Rn alors (u|v)C = (u|v).

Soient u = (u1 , . . . , un ) ∈ Cn et v = (v1 , . . . , vn ) ∈ Cn . On a


n
X n X
X n
(Au|v)C = (Au)i vi = Ai,j uj vi .
i=1 i=1 j=1

D’autre part,

12
n
X n
X n
X

(u|A v)C = uj (A∗ v) j = uj A∗ j,i vi
j=1 j=1 i=1
Xn n
X
= uj A∗ j,i vi
j=1 i=1
n
XX n
= uj Ai,j vi
j=1 i=1
Xn X n
= Ai,j uj vi .
i=1 j=1

On a donc (Au|v)C = (u|A∗ v)C .

Soit maintenant B ∈ Mn (C) une matrice telle que

(Au|v)C = (u|Bv)C , pour tous u, v ∈ Cn .

Montrons que B = A∗ , c’est-à-dire que Bi,j = A∗ i,j = Aj,i , pour tous i, j ∈ {1, . . . , n}.

Soient i, j ∈ {1, . . . , n} et ei et ej respectivement les ième et jème vecteurs de la base canonique


de Cn , définis respectivement par (ei )k = 0, si k ̸= i, (ei )i = 1, et par (ej )k = 0, si k ̸= j,
(ej )j = 1. On a alors
(Aei |ej )C = (ei |Bej )C .
Or
n
X
(Aei |ej )C = (Aei )k (ej )k
k=1
= (Aei )j , car (ej )k = 0 si k ̸= j et (ej )j = 1,
Xn
= Aj,k (ei )k
k=1
= Aj,i , car (ei )k = 0 si k ̸= i et (ei )i = 1,

et
n
X
(ei |Bej )C = (ei )k (Bej )k
k=1

= (Bej )i
n
X
= Bi,k (ej )k
k=1
= Bi,j .

On conclut que Aj,i = Bi,j et donc que Bi,j = Aj,i .

13
La proposition précédente montre que l’on peut définir la transposée d’une matrice réelle A
comme étant l’unique matrice B vérifiant (Au|v) = (u|Bv), pour tous u, v ∈ Rn . De même,
l’adjointe d’une matrice complexe A est l’unique matrice B vérifiant (Au|v)C = (u|Bv)C , pour
tous u, v ∈ Cn .

On donne maintenant quelques définitions pour lesquelles on peut aussi donner une caractérisation
par le produit scalaire ou hermitien. On commence par le cas réel.

Définition.
Soit A ∈ Mn (R).
— On dit que A est symétrique si AT = A, autrement dit si Ai,j = Aj,i , pour tous
i, j ∈ {1, . . . , n}.
— On dit que A est orthogonale, ou unitaire, si AT A = AAT = In , autrement dit si
A est inversible et A−1 = AT .
— On dit que A est normale si AAT = AT A.

Supposons A ∈ Mn (R) une matrice symétrique. On a alors A = AT et, d’après la proposition


précédente,
(Au|v) = (u|Av), pour tous u, v ∈ Rn .

D’autre part, si A ∈ Mn (R) vérifie


(Au|v) = (u|Av), pour tous u, v ∈ Rn ,
comme AT est l’unique matrice B vérifiant
(Au|v) = (u|Bv), pour tous u, v ∈ Rn ,
on conclut que A = AT .

On a alors le résultat suivant, qui donne une autre caractérisation possible pour les matrices
symétriques réelles.

Proposition.
Soit A ∈ Mn (R). Alors A est symétrique si et seulement si

(Au|v) = (u|Av), pour tous u, v ∈ Rn .

Supposons maintenant A ∈ Mn (R). Soient l1 , . . . , ln ∈ Rn les lignes de la matrice A et


c1 , . . . , cn ∈ Rn les colonnes de la matrice A :
  
l1

..
A=  = c1 · · · cn  .
  
.
ln

14
On a
   
l1

1 0
AAT = In ⇐⇒  .. ...
 l1 · · · ln  = 
   
. 
ln 0 1

et
   
c1

1 0
AT A = In ⇐⇒  .. ..
 c1 · · · cn  =  .
   
. .
cn 0 1

On a donc que
(
T T 1, i = j,
AA = In ⇐⇒ pour tous i, j ∈ {1, . . . , n}, (AA )i,j =
0, i ̸= j
n
(
X 1, i = j,
⇐⇒ pour tous i, j ∈ {1, . . . , n}, (li )k (lj )k =
k=1
0, i ̸= j
(
1, i = j,
⇐⇒ pour tous i, j ∈ {1, . . . , n}, (li |lj ) =
0, i ̸= j

et
(
1, i = j,
AT A = In ⇐⇒ pour tous i, j ∈ {1, . . . , n}, (AT A)i,j =
0, i ̸= j
n
(
X 1, i = j,
⇐⇒ pour tous i, j ∈ {1, . . . , n}, (ci )k (cj )k =
k=1
0, i ̸= j
(
1, i = j,
⇐⇒ pour tous i, j ∈ {1, . . . , n}, (ci |cj ) = .
0, i ̸= j

On conclut ainsi la caractérisation suivante des matrices orthogonales.

Proposition.
Soit A ∈ Mn (R). Alors A est orthogonale, c’est-à-dire que AAT = AT A = In , si et seule-
ment si la famille (l1 , . . . , ln ) de vecteurs de Rn formée par les lignes de A est une famille
orthonormale de Rn , et donc une base de Rn , si et seulement si la famille (c1 , . . . , cn ) de
vecteurs de Rn formée par les colonnes de A est une famille orthonormale de Rn , et donc
une base de Rn .

Donnons maintenant les définitions et propriétés analogues pour les matrices complexes.

15
Définition.
Soit A ∈ Mn (C).
— On dit que A est hermitienne ou auto-adjointe si A∗ = A, autrement dit si Ai,j =
Aj,i , pour tous i, j ∈ {1, . . . , n}.
— On dit que A est unitaire, si A∗ A = AA∗ = In , autrement dit si A est inversible et
A−1 = A∗ .
— On dit que A est normale si AA∗ = A∗ A.

On peut argumenter comme dans le cas réel pour conclure le résultat suivant, qui donne une
autre caractérisation possible pour les matrices complexes hermitiennes.

Proposition.
Soit A ∈ Mn (C). Alors A est hermitienne si et seulement si

(Au|v)C = (u|Av)C , pour tous u, v ∈ Cn .

Supposons maintenant A ∈ Mn (C) et notons à nouveau l1 , . . . , ln ∈ Cn les lignes de la matrice


A et c1 , . . . , cn ∈ Cn les colonnes de la matrice A.

On a
   
l1

1 0
AA∗ = In ⇐⇒  .. ..
 l1 · · · ln  = 
   
. . 
ln 0 1
et
   
c1

1 0
A∗ A = In ⇐⇒  .. ..
 c1 · · · cn  =  ,
   
. .
cn 0 1
où l’on rappelle que pour un vecteur x = (x1 , . . . , xn ) ∈ Cn , x dénote le vecteur (x1 , . . . , xn ).

On a donc que
(
1, i = j,
AA∗ = In ⇐⇒ pour tous i, j ∈ {1, . . . , n}, (AA∗ )i,j =
0, i ̸= j
n
(
X 1, i = j,
⇐⇒ pour tous i, j ∈ {1, . . . , n}, (li )k (lj )k =
k=1
0, i ̸= j
(
1, i = j,
⇐⇒ pour tous i, j ∈ {1, . . . , n}, (li |lj )C =
0, i ̸= j

16
et, de manière analogue,
(
1, i = j,
A∗ A = In ⇐⇒ pour tous i, j ∈ {1, . . . , n}, (cj |ci )C = .
0, i ̸= j

On conclut ainsi la caractérisation suivante des matrices unitaires complexes.

Proposition.
Soit A ∈ Mn (C). Alors A est unitaire, c’est-à-dire que AA∗ = A∗ A = In , si et seulement si la
famille (l1 , . . . , ln ) de vecteurs de Cn formée par les lignes de A est une famille orthonormale
de Cn , si et seulement si la famille (c1 , . . . , cn ) de vecteurs de Cn formée par les colonnes de
A est une famille orthonormale de Rn (et donc une base de Cn ).

1.5 Matrices définies positives.

On rappelle dans cette section la définition de matrice symétrique réelle définie positive et de
matrice hermitienne complexe définie positive.

Définition. Matrice définie positive - cas réel.


Soit A ∈ Mn (R) une matrice symétrique réelle.
On dit que A est définie positive si

pour tout x ∈ Rn , x ̸= 0, xT Ax > 0.

On dit que A est positive si

pour tout x ∈ Rn , xT Ax ≥ 0.

Soit x = (x1 , . . . , xn ) ∈ Rn et (·|·) le produit scalaire euclidien sur Rn . Alors


   
x1 (Ax)1

xT Ax = x1 · · · xn  A   ...  = x1 · · · xn  ... 
      
xn (Ax)n
X n
= xi (Ax)i
i=1
= (Ax|x).

17
On a ainsi qu’une matrice symétrique A ∈ Mn (R) est définie positive (resp. positive) si et
seulement si

(Ax|x) > 0, pour tout x ∈ Rn , x ̸= 0, resp. (Ax|x) ≥ 0, pour tout x ∈ Rn .




La définie positivité des matrices à coefficients complexes se définit de la même manière, mais
justifions d’abord que si A ∈ Mn (C) est une matrice hermitienne, c’est-à-dire telle que A∗ = A,
alors pour tout x ∈ Cn , x̄T Ax ∈ R.

Soit (·|·)C le produit hermitien canonique sur Cn et x ∈ Cn . On a


   
x1 (Ax)1

x̄T Ax = x1 · · · xn  A   ...  = x1 · · · xn  ... 


      
xn (Ax)n
X n
= xi (Ax)i
i=1
= (Ax|x)C = (x|A∗ x)C
= (x|Ax)C , car A est hermitienne,
= (Ax|x)C = x̄T Ax.

On a alors que x̄T Ax est égal à son conjugué et donc x̄T Ax ∈ R.

Définition. Matrice définie positive - cas complexe.


Soit A ∈ Mn (C) une matrice complexe hermitienne.
On dit que A est définie positive si

pour tout x ∈ Cn , x ̸= 0, x̄T Ax > 0.

On dit que A est positive si

pour tout x ∈ Cn , x̄T Ax ≥ 0.

On vient de montrer plus haut que pour tout x ∈ Cn , x̄T Ax = (Ax|x)C . On a donc qu’une
matrice A ∈ Mn (C) hermitienne est définie positive (resp. positive) si et seulement si

(Ax|x)C > 0, pour tout x ∈ Cn , x ̸= 0, resp. (Ax|x)C ≥ 0, pour tout x ∈ Cn .




18
1.6 Théorie spectrale des matrices. Vecteurs propres et
valeurs propres.

Dans cette section on considère toute matrice à coefficients réels ou complexes comme un
élément de Mn (C).

Définition. Valeurs propres, vecteurs propres, spectre, rayon spectral et polynôme ca-
ractéristique.
Soit A ∈ Mn (C).
On dit que λ ∈ C est une valeur propre de A s’il existe u ∈ Cn , u ̸= 0, tel que Au = λu.
Le vecteur u s’appelle vecteur propre associé à la valeur propre λ.
On appelle spectre de A l’ensemble des valeurs propres de A, et on le note spec(A) ou
σ(A) :
spec(A) = {λ ∈ C | ∃u ∈ Cn , u ̸= 0, Au = λu}.
On appelle rayon spectral de A le plus grand module des valeurs propres de A, et on le
note ρ(A) :
ρ(A) = max{|λ| | λ valeur propre de A}.
On appelle polynôme caractéristique de A le polynôme PA ∈ Cn [λ] défini par

PA (λ) = det(A − λIn ).

On remarque que l’on a

λ est valeur propre de A ssi ∃u ∈ Cn , u ̸= 0, Au = λu


ssi ∃u ∈ Cn , u ̸= 0, (A − λIn )u = 0
ssi ker(A − λIn ) ̸= {0}
ssi A − λIn n’est pas inversible
ssi det(A − λIn ) = 0
ssi λ est une racine du polynôme PA , i. e. PA (λ) = 0.

Les valeurs propres d’une matrice A ∈ Mn (C) sont alors les n racines complexes du polynôme
caractéristique de A, comptées avec sa multiplicité en tant que racines de PA (λ) : toute matrice
A ∈ Mn (C) admet n valeurs propres dans C, non nécessairement distinctes.
Remarque.
Si A ∈ Mn (R), on pourrait chercher les valeurs propres de A dans R comme les réels λ pour
lesquels il existe un vecteur u ∈ Rn non nul tel que Au = λu (et donc les racines réelles du
polynôme à coefficients réels PA (λ) ∈ Rn [λ]). Mais une matrice A ∈ Mn (R) peut ne pas avoir
de valeurs propres dans R. Par exemple la matrice
 
0 −1
A=
1 0

19
a comme valeurs propres i et −i ; on a donc spec(A) ⊆ C\R.

On va par la suite montrer deux propriétés que l’on utilisera régulièrement dans la suite du
cours.

Proposition. Deux matrices semblables ont les mêmes valeurs propres.


Soient A ∈ Mn (K) et B ∈ Mn (K) tel qu’il existe P ∈ Mn (K) inversible tel que B =
P −1 AP . Alors A et B ont les mêmes valeurs propres.

Démonstration. Soit λ ∈ C et u ∈ Cn , u ̸= 0. Alors on a, puisque P est inversible,

Au = λu ssi AP P −1 u = λP P −1 u
ssi P −1 AP P −1 u = λP −1 P P −1 u
ssi P −1 AP (P −1 u) = λP −1 u.

On a donc que λ ∈ C est une valeur propre de A, et u ∈ Cn , u ̸= 0, un vecteur propre de


A associé à la valeur propre λ, si et seulement si λ est une valeur propre de B = P −1 AP , et
v = P −1 u ∈ Cn \{0} est un vecteur propre de B associé à la valeur propre λ (comme P −1 est
une matrice inversible, on a v ̸= 0 ssi u ̸= 0).

Proposition. Les valeurs propres d’une matrice symétrique ou d’une matrice hermitienne
sont réelles.
Soit A ∈ Mn (R) une matrice symétrique (c’est-à-dire telle que A = AT ) ou A ∈ Mn (C)
une matrice hermitienne (c’est-à-dire telle que A = A∗ ). Alors spec(A) ⊆ R, autrement dit
les valeurs propres de A sont réelles.

Démonstration. Supposons A ∈ Mn (K) une telle matrice. Soit λ ∈ C une valeur propre de A.
Montrons que λ = λ̄, ce qui prouve que λ ∈ R.

Il existe u ∈ Cn , u ̸= 0, tel que Au = λu. On a alors, d’une part,

(Au|u)C = (λu|u)C = λ(u|u)C ,

et, d’autre part,


(Au|u)C = (u|A∗ u)C = (u|λu)C = λ̄(u|u)C .
On conclut que
λ(u|u)C = λ̄(u|u)C ,
et, comme u ̸= 0, on a (u|u)C > 0 et donc on obtient λ = λ̄.

20
1.6.1 Triangularisation et diagonalisation.

Définition.
Soit A ∈ Mn (K).
On dit que A est triangulisable s’il existe une matrice P ∈ Mn (K) inversible et une
matrice T ∈ Mn (K) triangulaire tel que A = P T P −1 , autrement dit si A est semblable
à une matrice triangulaire.
On dit que A est diagonalisable s’il existe une matrice P ∈ Mn (K) inversible et une
matrice D ∈ Mn (K) diagonale tel que A = P DP −1 , autrement dit si A est semblable
à une matrice diagonale.

Remarque.
Si une matrice A ∈ Mn (K) est traingulisable et semblable à la matrice traingulaire T ∈ Mn (K),
alors les valeurs propres de A et de T sont les mêmes, et donc les valeurs propres de A sont
Yn
les éléments diagonaux de la matrice T (car si T est triangulaire, on a PT (λ) = (λ − Tii )).
i=1
De même, si une matrice A ∈ Mn (K) est diagonalisable et semblable à la matrice diagonale
D ∈ Mn (K), alors les valeurs propres de A et de D sont les mêmes, et donc les valeurs propres
de A sont les éléments diagonaux de la matrice D.

On a que toute matrice A est triangulisable dans C :

Proposition.
Toute matrice A ∈ Mn (C) est triangulisable : pour tout A ∈ Mn (C), il existe P ∈ Mn (C)
inversible, T ∈ Mn (C) triangulaire, tel que A = P T P −1 .

Démonstration. Le résultat de ce théorème est admis. Vous pouvez trouver une preuve dans le
livre Algèbre linéaire numérique, de G. Allaire et S. M. Kaber, Editions Ellipses, 2002.

Attention, il n’est pas vrai que toute matrice est diagonalisable. Par exemple la matrice
 
0 1
A=
0 0

n’est semblable à aucune matrice diagonale D, car si elle l’était, cette matrice diagonale D ne
pourrait être que la matrice nulle (car D contiendrait dans la diagonale les valeurs propres de
A et la valeur propre double 0 est l’unique valeur propre de A) ; on aurait alors que A serait
semblable à la matrice nulle et A serait alors elle même la matrice nulle, ce qui n’est pas le cas.

21
Nous verrons par la suite que les matrices symétriques réelles et hermitiennes complexes, et plus
généralement les matrices normales, sont diagonalisables. Mais d’abord, faisons le lien entre la
matrice de passage P et les vecteurs propres d’une matrice diagonalisable A.

Soient λ1 , . . . , λn ∈ C et D ∈ Mn (C) la matrice diagonale telle que Dii = λi . Soit P ∈ Mn (C)


une matrice inversible et notons u1 , . . . , un ∈ Cn les n colonnes de la matrice P . Comme P est
inversible, la famille (u1 , . . . , un ) est une base de Cn . Soit A ∈ Mn (C) la matrice A = P DP −1 .
On a que

A = P DP −1 ⇐⇒ AP = P D
 
   
λ1 0
⇐⇒  A   u1 · · · un  =  u1 · · · un  
 ... 

0 λn
   

⇐⇒  Au1 · · · Aun  =  λ1 u1 · · · λn u n  ,

car chaque colonne j de la matrice AP , avec j ∈ {1, . . . , n}, est obtenue en multipliant la
matrice A par la colonne j de la matrice P , et chaque colonne j de la matrice P D est obtenue
en multipliant λj par la colonne j de P .

On conclut ainsi que

A = P DP −1 ssi Aui = λi ui , pour tout i ∈ {1, . . . , n},

où, pour chaque i ∈ {1, . . . , n}, λi est le ième coefficient diagonal de la matrice D et ui la
ième colonne de P . Autrement dit, A = P DP −1 si et seulement si les coefficients de D sont
des valeurs propres de la matrice A et les colonnes de P des vecteurs propres de A, associés,
respectivement pour chaque i ∈ {1, . . . , n}, à la valeur propre λi = Dii . On a ainsi la propriété
suivante.

Proposition. Diagonalisation et base de vecteurs propres.


Soit A ∈ Mn (C). Alors A est diagonalisable si et seulement si il existe (u1 , . . . , un ) base de
Cn formée de vecteurs propres de A. Dans ce cas, si λ1 , . . . , λn sont les valeur propres de
A associées respectivement aux vecteurs propres u1 , . . . , un , on a A = P DP −1 , avec P ∈
Mn (C) la matrice inversible dont les colonnes sont les vecteurs u1 , . . . , un , et D ∈ Mn (C)
la matrice diagonale telle que Dii = λi .

Le résultat ci-dessus montre qu’être diagonalisable, pour une matrice A ∈ Mn (C),


équivaut à l’existence d’une base de Cn constituée de vecteurs propres de A.

Remarque.
Supposons que A ∈ Mn (C) est diagonalisable et que A = QDQ−1 avec D matrice diagonale

22
et Q unitaire (c’est-à-dire inversible et vérifiant Q−1 = Q∗ ). Alors d’après ce que l’on vient de
voir les colonnes de Q sont des vecteurs propres de A qui forment une base de Cn . Comme en
plus Q est unitaire cette base de vecteurs propres est orthonormale (cf. la section 1.4.3).

Réciproquement, s’il existe une base orthonormale (u1 , . . . , un ) de Cn constituée de vecteurs


propres de A, alors en définissant Q la matrice de Mn (C) dont les colonnes sont les vecteurs
u1 , . . . , un , on a d’une part que Q est une matrice unitaire, d’après la section 1.4.3 car la famille
(u1 , . . . , un ) est orthonormale, et d’autre part que A = QDQ−1 = QDQ∗ , avec D la matrice
diagonale dont les éléments diagonaux sont les valeurs propres de A associées respectivement
aux vecteurs u1 , . . . , un .

On a ainsi que :

A ∈ Mn (C) est diagonalisable avec A = QDQ∗ , D ∈ Mn (C) matrice diagonale et Q ∈


Mn (C) matrice unitaire (i. e. vérifiant QQ∗ = Q∗ Q = In ) si et seulement si il existe une
base orthonormale (u1 , . . . , un ) de Cn formée de vecteurs propres de A.

On dit dans ce cas que A est diagonalisable dans une base orthonormale (de vec-
teurs propres).

Le théorème suivant donne des cas particuliers de matrices diagonalisable.

Théorème. Théorème spectral - version matricielle.

Soit A ∈ Mn (R) une matrice symétrique (c’est-à-dire telle que A = AT ). Alors les
valeurs propres de A sont réelles et A est diagonalisable dans une base
orthonormale de vecteurs propres réels, c’est-à-dire qu’il existe une base or-
thonormale de Rn constituée de vecteurs propres de A. De manière équivalente, il
existe D ∈ Mn (R) matrice diagonale, Q ∈ Mn (R) matrice orthogonale (i. e. vérifiant
QQT = QT Q = In ), tel que A = QDQT .
Soit A ∈ Mn (C) une matrice hermitienne (c’est-à-dire telle que A = A∗ ). Alors les
valeurs propres de A sont réelles et A est diagonalisable dans une base
orthonormale de vecteurs propres complexes, c’est-à-dire qu’il existe une base
orthonormale de Cn constituée de vecteurs propres de A. De manière équivalente, il
existe D ∈ Mn (R) matrice diagonale, Q ∈ Mn (C) matrice unitaire (i. e. vérifiant
QQ∗ = Q∗ Q = In ), tel que A = QDQ∗ .
Soit A ∈ Mn (K) une matrice normale (c’est-à-dire telle que AA∗ = A∗ A = In ). Alors
les valeurs propres de A appartiennent à C et A est diagonalisable dans une
base orthonormale de vecteurs propres complexes, c’est-à-dire qu’il existe une
base orthonormale de Cn constituée de vecteurs propres de A. De manière équivalente,
il existe D ∈ Mn (C) matrice diagonale, Q ∈ Mn (C) matrice unitaire tel que A =
QDQ∗ .

23
Démonstration. (Cas des matrices symétriques réelles).

Nous allons faire la preuve du théorème pour les matrices symétriques réelles. Le cas des matrices
hermitiennes complexes est une simple adaptation de la preuve au cas complexe. Le cas général
des matrices normales est aussi une adaptation, mais ce résultat est admis ici. On pourra
trouver une preuve, par d’autres arguments que ceux utilisés ici, dans la référence Algèbre
linéaire numérique, de G. Allaire et S. M. Kaber, Editions Ellipses, 2002.

Nous avons déjà montré que les n valeurs propres d’une matrice symétrique réelle sont réelles.
On remarque d’abord qu’une matrice réelle ayant une valeur propre réelle admet obligatoirement
un vecteur propre dans Rn associé à cette valeur propre : en effet si Au = λu, avec A matrice à
coefficients réelles, λ ∈ R et u = (u1 , . . . , un ) ∈ Cn , il est immédiat de voir que les vecteurs de
Rn donnés par (Re(u1 ), . . . , Re(un )) et par (Im(u1 ), . . . , Im(un )) sont aussi des vecteurs propres
de A.

On va montrer par induction sur n ∈ N∗ que pour toute matrice A ∈ Mn (R) symétrique, il
existe Q ∈ Mn (R) matrice orthogonale et D ∈ Mn (R) matrice diagonale tel que A = QDQT .

Si n = 1 le résultat est vrai : si A = [a] ∈ M1 (R), avec a ∈ R, on a A = QDQT , avec Q = [1]


matrice orthogonale et D = [a] matrice diagonale.

Supposons que le résultat est vrai pour toute matrice symétrique A ∈ Mn−1 (R), avec
n ∈ N, n ≥ 2. Montrons qu’il est vrai pour toute matrice symétrique A ∈ Mn (R).

Soit λ ∈ R une valeur propre de A et u ∈ Rn un vecteur propre de A associé à la valeur propre


λ tel que ∥u∥ = 1. Soit
E = ⟨u⟩⊥ := {v ∈ Rn | (v|u) = 0}.
E est un sous-espace vectoriel de Rn de dimension n − 1, soient u2 , . . . , un ∈ Rn tel que
(u2 , . . . , un ) est une base orthonormale de E. Alors la famille (u, u2 , . . . , un ) est une base de
Rn , car il s’agit d’une famille de n vecteurs linéairement indépendants (car orthogonaux deux à
deux entre eux). En plus la base (u, u2 , . . . , un ) est orthonormale ; il en découle que la matrice
U ∈ Mn (R) définie par  

U =  u u2 · · · un 

est orthogonale, c’est-à-dire que U U T = U T U = In .

On a d’autre part que l’espace E est stable par A, c’est-à-dire que si v ∈ E, alors Av ∈ E. En
effet, si v ∈ E, on a (v|u) = 0. Or la matrice A étant symétrique, on a

(Av|u) = (v|Au) = (v|λu) = λ(v|u) = 0,

et donc Av ∈ E. On a alors que, u2 , . . . , un étant des vecteurs de E, Au2 , . . . , Aun appartiennent


aussi à E. On a donc, d’une part,

Au = λu

24
et, d’autre part, comme Au2 , . . . , Aun ∈ E = ⟨u2 , . . . , un ⟩, il existe µi,j ∈ R, i, j ∈ {2, . . . , n},
tel que

Au2 = µ2,2 u2 + · · · + µ2,n un


..
.
Aun = µn,2 u2 + · · · + µn,n un ,

autrement dit, on a la relation


     
λ 0
     µ2,2 ··· µn,2 
A   u u2 · · · un  =  u u2 · · · un   ,
     
 .. ..
     0 . . 
2,n
µ ··· µn,n

que l’on peut écrire " #


λ 0
AU = U ,
0 C
où C ∈ Mn−1 (R) est la matrice
 
µ2,2 · · · µn,2
C =  ... ..  .

. 
µ2,n · · · µn,n

Montrons que C est une matrice symétrique. On note M ∈ Mn (R) la matrice


" #
λ 0
M= .
0 C

On a AU = U M et donc, U étant orthogonale, A = U M U T . Comme A est symétrique, on a


A = AT et donc
UMUT = UMT UT .
La matrice U étant inversible on en déduit que M = M T . Comme
" #
T
λ 0
M = ,
0 CT

on conclut que C = C T .

La matrice C est alors une matrice symétrique réelle de dimension n−1. Par hypothèse d’induc-
tion, il existe une matrice Q̃ ∈ Mn−1 (R) orthogonale et une matrice D̃ ∈ Mn−1 (R) diagonale
tel que C = Q̃D̃Q̃T . On en déduit que
" #
λ 0
A=U UT .
0 Q̃D̃Q̃T

25
Mais on remarque que
" # " #" #" #
λ 0 1 0 λ 0 1 0
=
0 Q̃D̃Q̃T 0 Q̃ 0 D̃ 0 Q̃T

et on a donc
" #! " # " # !
1 0 λ 0 1 0
A= U UT
T
0 Q̃ 0 D̃ 0 Q̃
" #! " # " #T 
1 0 λ 0 1 0
= U  UT 
0 Q̃ 0 D̃ 0 Q̃
= QDQT ,

où " #
1 0
Q=U
0 Q̃
et " #
λ 0
D= .
0 D̃
La matrice D est une matrice de Mn (R) diagonale car la matrice D̃ est une matrice de Mn−1 (R)
diagonale. La matrice Q est une matrice de Mn (R) orthogonale car
" #" #
1 0 1 0
QQT = U UT
T
0 Q̃ 0 Q̃
" #
1 0
=U UT
T
0 Q̃Q̃
" #
1 0
=U UT , car Q̃ est orthogonale,
0 In
= U In U T
= In , car U est orthogonale.

1.6.2 Matrices positives et définies positives et valeurs propres.

On va dans cette section montrer qu’une matrice hermitienne ou symétrique (ayant donc des
valeurs propres réelles) définie positive a des valeurs propres strictement positives, et qu’une
matrice hermitienne ou symétrique positive a des valeurs propres positives. On montrera que
la réciproque est aussi vraie : si une matrice hermitienne ou symétrique a des valeurs propres
réelles strictement positives (positives), alors elle est définie positive (positive).

26
Proposition.
Soit A ∈ Mn (C) une matrice hermitienne, i. e. vérifiant A = A∗ . Alors A est définie posi-
tive (respectivement positive) si et seulement si toutes ses valeurs propres sont strictement
positives (respectivement positives).

En particulier, une matrice A ∈ Mn (R) symétrique est définie positive (respectivement


positive) si et seulement si ses valeurs propres sont strictement positives (respectivement
positives).

Démonstration. On montre l’équivalence entre matrice définie positive et valeurs propres stric-
tement positives. La preuve dans le cas seulement positif est analogue.

Supposons d’abord A ∈ Mn (C) hermitienne définie positive. A étant hermitienne, on a déjà


montré que les valeurs propres de A sont réelles, montrons qu’elles sont strictement positives.
Soit λ ∈ R valeur propre de A. Il existe alors u ∈ Cn , u ̸= 0, tel que Au = λu. On a alors

(Au|u)C = (λu|u)C = λ(u|u)C .

Comme A est définie positive et u ̸= 0, on a (Au|u)C > 0. Comme u ̸= 0, on a aussi (u|u)C > 0.
On conclut que
(Au|u)C
λ= > 0.
(u|u)C

Supposons maintenant que A est une matrice hermitienne telle que toutes ses valeurs propres
sont strictement positives. Montrons que A est définie positive, en montrant que (Ax|x)C > 0,
pour tout x ∈ Cn , x ̸= 0.

On note λ1 , . . . , λn les n valeurs propres de A (non nécessairement distinctes), vérifiant λi > 0,


pour tout i ∈ {1, . . . , n}. Comme la matrice A est hermitienne, il existe une base orthonormale
de Cn constituée de vecteurs propres de A. Soit (u1 , . . . , un ) une telle base, avec ui vecteur
propre associé à la valeur propre λi , pour tout i ∈ {1, . . . , n}.

Soit x ∈ Cn , x ̸= 0. Comme (u1 , . . . , un ) est une base de Cn , il existe α1 , . . . , αn ∈ C tel que

27
x = α1 u1 + · · · + αn un . Puisque x ̸= 0, il existe i ∈ {1, . . . , n} tel que αi ̸= 0. On a alors

(Ax|x)C = A(α1 u1 + · · · + αn un )|α1 u1 + · · · + αn un C

= α1 Au1 + · · · + αn Aun |α1 u1 + · · · + αn un C

= α1 λ1 u1 + · · · + αn λn un |α1 u1 + · · · + αn un C
X n X n 
= αi λi ui αj uj
C
i=1 j=1
n
XX n
= αi λi αj (ui |uj )C
i=1 j=1
Xn
= αi λi αi ,
i=1

car les vecteurs u1 , . . . , un sont de norme égale à un et deux à deux orthogonaux. On conclut
alors que
(Ax|x)C = |α1 |2 λ1 + · · · + |αn |2 λn ≥ 0.
Comme il existe i ∈ {1, . . . , n} tel que αi > 0 et donc tel que |αi | > 0 et comme pour tout
i ∈ {1, . . . , n}, λi > 0, on en déduit que (Ax|x)C > 0.

28

Vous aimerez peut-être aussi