Chap1 Rappels
Chap1 Rappels
L3 EU
L’objectif de la première est d’étudier deux des problèmes principaux de l’analyse numérique
matricielle :
• trouver xm ∈ Ω tel que f (xm ) = min f (x), si un tel xm existe (si f est bornée inférieurement
x∈Ω
dans Ω et atteint sa borne inférieure sur Ω),
ou
• trouver xC C
m ∈ C tel que f (xm ) = min f (x), où C ⊂ Ω est un ensemble de contrainte donné,
x∈C
si un tel xC
m existe.
Nous allons étudier des algorithmes permettant le calcul effectif des solutions de ces deux
problèmes à l’aide d’un ordinateur. Nous cherchons des algorithmes efficaces, rapides et peu
coûteux en nombre d’opérations, et stables, peu influencés par les erreurs sur les données (no-
tamment car lorsque l’on cherche à les implémenter sur ordinateur, des erreurs d’arrondi sont
commises).
On utilise le calcul numérique dans la simulation de modèles issus d’autres disciplines, telles que
la physique, la biologie, la mécanique, l’économie,... La simulation numérique de ces modèles
conduit souvent à des modèles discrets correspondant à des systèmes linéaires ou à des problèmes
d’optimisation de grande taille. Il est alors important d’avoir des algorithmes robustes pour leur
résolution, ce qui est un des objectifs de l’analyse numérique matricielle et de l’optimisation
numérique.
1
CHAPITRE 1
Contents
1.1 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Matrices triangulaires et matrices diagonales . . . . . . . . . . . . . 5
1.3 Matrice transposée et matrice adjointe. . . . . . . . . . . . . . . . . 6
1.4 Produit scalaire et produit hermitien. . . . . . . . . . . . . . . . . . 7
1.4.1 Produit scalaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.2 Produit hermitien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.3 Quelques propriétés des matrices en lien avec le produit scalaire et
hermitien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 Matrices définies positives. . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 Théorie spectrale des matrices. Vecteurs propres et valeurs propres. 19
1.6.1 Triangularisation et diagonalisation. . . . . . . . . . . . . . . . . . . . 21
1.6.2 Matrices positives et définies positives et valeurs propres . . . . . . . . 26
Dans toute la suite K désigne le corps R des nombres réelles ou le corps C des nombres com-
plexes.
L’ensemble Mn,m (K) muni des opérations usuelles d’addition de matrice et de produit d’une
matrice par un scalaire, (Mn,m (K), +, ·), est un espace vectoriel sur K, de dimension n × m.
2
Si A ∈ Mn,m (K), on note A = [Aij ]i∈{1,...,n}, j∈{1,...,n} , Aij étant le coefficient de la ligne i et de
la colonne j de A. On notera parfois la matrice A en considérant la famille de vecteurs de Kn
correspondant à ses lignes et à ses colonnes : si l1 , . . . , ln ∈ Kn sont les lignes de la matrice A
et c1 , . . . , cn ∈ Kn sont les colonnes de la matrice A, on notera
l1
..
A= = c1 · · · cn .
.
ln
Produit matriciel.
Soient n, m, p ∈ N∗ , A ∈ Mn,m (K) et B ∈ Mm,p (K). Le produit de A par B est la matrice
AB ∈ Mn,p (K) définie par
m
X
(AB)ij = Aik Bkj , ∀ i ∈ {1, . . . , n}, ∀ j ∈ {1, . . . , p}.
k=1
Soit n ∈ N∗ .
On dit qu’une matrice A ∈ Mn (K) est inversible s’il existe une matrice B ∈ Mn (K) tel que
AB = BA = In . Dans ce cas la matrice B s’appelle matrice inverse de A et est notée A−1 .
• Ker(A) = {u ∈ Kn | Au = 0} le noyau de A ;
• Im(A) = {Au | u ∈ Kn } l’image de A.
3
On a alors que A est inversible
ssi Ker(A) = {0Kn }
ssi Im(A) = Kn
ssi det(A) = 0
ssi la famille (c1 , . . . , cn ) formée des colonnes de A est une famille libre de Kn
ssi la famille (l1 , . . . , ln ) formée des lignes de A est une famille libre de Kn .
Il existe un autre critère utile pour savoir si une matrice est inversible.
Une matrice à diagonale strictement dominante est alors une matrice telle que sur chaque ligne,
l’élément diagonal en valeur absolue est supérieur à la somme des valeurs absolues des éléments
non diagonaux.
Proposition.
Soit A ∈ Mn (K) une matrice à diagonale strictement dominante. Alors A est inversible.
Soit x ∈ Kn tel que Ax = 0. Soit i0 ∈ {1, . . . , n} tel que xi0 = max |xi |. Nous allons montrer
i∈{1,...,n}
que |xi0 | = 0. On aura alors que |xj | = 0, pour tout j ∈ {1, . . . , n}, et donc que x = 0.
4
Comme |xi0 | ≥ |xj |, pour tout j ∈ {1, . . . , n}, on obtient
n
X n
X
0 ≥ Ai0 i0 xi0 − A i 0 j xi 0 = Ai0 i0 − Ai0 j xi 0 .
j=1 j=1
j̸=i0 j̸=i0
c’est-à-dire que
n
X
Ai0 i0 − Ai0 j > 0.
j=1
j̸=i0
De l’inégalité
n
X
Ai0 i0 − Ai0 j xi 0 ≤ 0
j=1
j̸=i0
Soit D ∈ Mn (K). On dit que D est diagonale si pour tous i, j ∈ {1, . . . , n} tels que i ̸= j,
Dij = 0.
5
n
Y
Si M ∈ Mn (K) est diagonale ou triangulaire, on a det(M ) = Mii = M11 × · · · × Mnn .
i=1
On montrera comme exercice en Td que l’inverse d’une matrice triangulaire inférieure (supéri-
eure) inversible est encore une matrice triangulaire inférieure (supérieure), et que le produit de
deux matrices triangulaires inférieures (supérieures) est aussi une matrice triangulaire inférieure
(supérieure).
Soient n, m, p ∈ N∗ .
Soit A ∈ Mn,m (K). La matrice transposée de A est la matrice de Mm,n (K), que l’on note AT
(ou At , T A ou t A), définie par
Ainsi, les lignes de AT sont les colonnes de A et les colonnes de AT sont les lignes de A.
Soit A ∈ Mn,m (K). La matrice adjointe de A est la matrice de Mm,n (K), que l’on note A∗ ,
définie par
Les coefficients de A∗ sont alors les conjugués des coefficients de AT . On remarque que si
A ∈ Mn,m (R), alors A∗ = AT .
6
et on note alors xT la matrice ligne
(·|·) : E × E −→ R
(x, y) 7→ (x|y)
vérifiant :
(·|·) est bilinéaire : pour tous α, β, γ, δ ∈ R, pour tous x, y, w, z ∈ E,
(αx + βy|z) = α(x|z) + β(y|z),
(x|γw + δz) = γ(x|w) + δ(x|z) ;
(·|·) est symétrique : pour tous x, y ∈ E, (x|y) = (y|x) ;
(·|·) est définie positive : pour tout x ∈ E, x ̸= 0, (x|x) > 0.
7
1.4.2 Produit hermitien.
Dans toute cette section on considère des espaces vectoriels sur le corps C.
On appelle produit hermitien (ou produit scalaire complexe) sur E une application
(·|·) : E × E −→ C
(x, y) 7→ (x|y)
vérifiant :
(·|·) est sesqui-linéaire : pour tous α, β, γ, δ ∈ C, pour tous x, y, w, z ∈ E,
(αx + βy|z) = α(x|z) + β(y|z),
(x|γw + δz) = γ(x|w) + δ(x|z) ;
(·|·) est hermitienne : pour tous x, y ∈ E, (x|y) = (y|x) ;
(·|·) est définie positive : pour tout x ∈ E, x ̸= 0, (x|x) > 0.
Remarque.
Si (·|·) est un produit hermitien sur un espace vectoriel complexe E, alors pour tout x ∈ E,
on a (x|x) = (x|x) (d’après la propriété (x|y) = (y|x), pour tous x, y ∈ E). On a donc que
(x|x) ∈ R, pour tout x ∈ E.
Exemple. Le produit hermitien canonique sur Cn .
Le produit hermitien canonique sur Cn est l’application (·|·)C : Cn × Cn −→ C définie par
n
X
(x|y)C = xi yi = x1 y1 + · · · + xn yn ,
i=1
8
On remarque que si E est un espace vectoriel sur K = R, les trois propriétés que le produit
hermitien vérifie correspondent aux trois propriétés d’un produit scalaire. On peut donc, pour
un espace vectoriel sur K = R ou K = C, parler sans ambiguité de produit hermitien, car dans
le cas K = R les deux produits sont définis de la même manière.
On rappelle maintenant de norme induite par un produit hermitien (ou scalaire) dans un espace
vectoriel complexe (ou réel).
Ensuite, si λ ∈ K et x ∈ E,
p q p
∥λx∥ = (λx|λx) = λλ̄(x|x) = |λ|2 (x|x) = |λ|∥x∥.
Pour montrer que l’application ∥·∥ vérifie l’inégalité triangulaire, on utilise l’inégalité de Cauchy-
Schwarz, que l’on montrera ensuite. Supposons alors que l’inégalité de Cauchy-Schwarz est
vérifiée pour tous x, y ∈ E. On a alors, si x, y ∈ E,
∥x + y∥2 = (x + y|x + y)
= (x|x) + (x|y) + (y|x) + (y|y)
= (x|x) + (x|y) + (x|y) + (y|y)
= (x|x) + 2Re (x|y) + (y|y), car z + z̄ = 2Re(z), pour tout z ∈ C,
≤ ∥x∥2 + 2|(x|y)| + ∥y∥2 , car Re(z) ≤ |z|, pour tout z ∈ C,
≤ ∥x∥2 + 2∥x∥∥y∥ + ∥y∥2 , par l’inégalité de Cauchy-Schwarz,
2
= ∥x∥ + ∥y∥ ,
9
Preuve de l’inégalité de Cauchy-Schwarz.
y = αx + (y − αx).
On cherche α ∈ K tel que z = y − αx vérifie (z|x) = 0 (on cherche alors à écrire y comme
combinaison linéaire d’un vecteur αx, colinéaire à x, et d’un vecteur z ∈ E tel que (z|x) = 0).
(y|x)
On doit alors avoir (y − αx|x) = 0, c’est-à-dire (y|x) − α(x|x) = 0 et on obtient α = =
(x|x)
(y|x)
. On a alors y = αx + z avec
∥x∥2
(y|x) (y|x)
α= 2
, z=y− x vérifiant (z|x) = 0.
∥x∥ ∥x∥2
On en déduit que
∥y∥2
|α|2 ≤ ,
∥x∥2
c’est-à-dire que
|(y|x)|2 ∥y∥2
≤ ,
∥x∥4 ∥x∥2
c’est-à-dire que
|(y|x)|2 ≤ ∥y∥2 ∥x∥2 ,
et donc |(y|x)| ≤ ∥y∥∥x∥. On a par ailleurs que l’égalité est obtenue si et seulement si z = 0,
c’est-à-dire si et seulement si y = αx c’est à dire si et seulement si y et x sont colinéaires.
10
Exercice. Soit E un espace vectoriel sur K, (·|·) un produit hermitien sur E et x, y ∈ E deux
vecteurs orthogonaux non nuls. Montrer que la famille (x, y) est libre. Conclure que dans un
espace vectoriel E de dimension finie égale à n ∈ N, toute famille orthonormale de n vecteurs
est une base de E.
Pour finir cette section, on rappelle le procédé de Gram-Schmidt permettant d’obtenir une
famille de vecteurs orthonormale dans un espace E muni d’un produit hermitien.
Soit E un espace vectoriel sur K muni d’un produit hermitien (·|·) et ∥ · ∥ la norme induite
par ce produit hermitien.
Dans toute la suite, (·|·) désigne le produit scalaire euclidien sur Rn et (·|·)C le produit hermitien
canonique sur Cn .
Nous allons montrer un résultat qui donne une caractérisation équivalente de la transposée
d’une matrice réelle et de l’adjointe d’une matrice complexe.
11
Proposition. Caractérisation de la tranposée par le produit scalaire, de l’adjointe par le
produit hermitien.
Cas réel.
Soit A ∈ Mn (R) et AT ∈ Mn (R) sa transposée, définie par AT i,j = Aj,i , pour tous
i, j ∈ {1, . . . , n}.
Soit (·|·) le produit scalaire euclidien sur Rn . Alors on a
Cas complexe.
Soit A ∈ Mn (C) et A∗ ∈ Mn (C) son adjointe, définie par A∗ i,j = Aj,i , pour tous
i, j ∈ {1, . . . , n}.
Soit (·|·)C le produit hermitien canonique sur Cn . Alors on a
Démonstration. On va faire la preuve dans le cas complexe, le cas réel étant une conséquence
immédiate du fait que si A ∈ Mn (R), alors A∗ = AT et si u, v ∈ Rn alors (u|v)C = (u|v).
D’autre part,
12
n
X n
X n
X
∗
(u|A v)C = uj (A∗ v) j = uj A∗ j,i vi
j=1 j=1 i=1
Xn n
X
= uj A∗ j,i vi
j=1 i=1
n
XX n
= uj Ai,j vi
j=1 i=1
Xn X n
= Ai,j uj vi .
i=1 j=1
Montrons que B = A∗ , c’est-à-dire que Bi,j = A∗ i,j = Aj,i , pour tous i, j ∈ {1, . . . , n}.
et
n
X
(ei |Bej )C = (ei )k (Bej )k
k=1
= (Bej )i
n
X
= Bi,k (ej )k
k=1
= Bi,j .
13
La proposition précédente montre que l’on peut définir la transposée d’une matrice réelle A
comme étant l’unique matrice B vérifiant (Au|v) = (u|Bv), pour tous u, v ∈ Rn . De même,
l’adjointe d’une matrice complexe A est l’unique matrice B vérifiant (Au|v)C = (u|Bv)C , pour
tous u, v ∈ Cn .
On donne maintenant quelques définitions pour lesquelles on peut aussi donner une caractérisation
par le produit scalaire ou hermitien. On commence par le cas réel.
Définition.
Soit A ∈ Mn (R).
— On dit que A est symétrique si AT = A, autrement dit si Ai,j = Aj,i , pour tous
i, j ∈ {1, . . . , n}.
— On dit que A est orthogonale, ou unitaire, si AT A = AAT = In , autrement dit si
A est inversible et A−1 = AT .
— On dit que A est normale si AAT = AT A.
On a alors le résultat suivant, qui donne une autre caractérisation possible pour les matrices
symétriques réelles.
Proposition.
Soit A ∈ Mn (R). Alors A est symétrique si et seulement si
14
On a
l1
1 0
AAT = In ⇐⇒ .. ...
l1 · · · ln =
.
ln 0 1
et
c1
1 0
AT A = In ⇐⇒ .. ..
c1 · · · cn = .
. .
cn 0 1
On a donc que
(
T T 1, i = j,
AA = In ⇐⇒ pour tous i, j ∈ {1, . . . , n}, (AA )i,j =
0, i ̸= j
n
(
X 1, i = j,
⇐⇒ pour tous i, j ∈ {1, . . . , n}, (li )k (lj )k =
k=1
0, i ̸= j
(
1, i = j,
⇐⇒ pour tous i, j ∈ {1, . . . , n}, (li |lj ) =
0, i ̸= j
et
(
1, i = j,
AT A = In ⇐⇒ pour tous i, j ∈ {1, . . . , n}, (AT A)i,j =
0, i ̸= j
n
(
X 1, i = j,
⇐⇒ pour tous i, j ∈ {1, . . . , n}, (ci )k (cj )k =
k=1
0, i ̸= j
(
1, i = j,
⇐⇒ pour tous i, j ∈ {1, . . . , n}, (ci |cj ) = .
0, i ̸= j
Proposition.
Soit A ∈ Mn (R). Alors A est orthogonale, c’est-à-dire que AAT = AT A = In , si et seule-
ment si la famille (l1 , . . . , ln ) de vecteurs de Rn formée par les lignes de A est une famille
orthonormale de Rn , et donc une base de Rn , si et seulement si la famille (c1 , . . . , cn ) de
vecteurs de Rn formée par les colonnes de A est une famille orthonormale de Rn , et donc
une base de Rn .
Donnons maintenant les définitions et propriétés analogues pour les matrices complexes.
15
Définition.
Soit A ∈ Mn (C).
— On dit que A est hermitienne ou auto-adjointe si A∗ = A, autrement dit si Ai,j =
Aj,i , pour tous i, j ∈ {1, . . . , n}.
— On dit que A est unitaire, si A∗ A = AA∗ = In , autrement dit si A est inversible et
A−1 = A∗ .
— On dit que A est normale si AA∗ = A∗ A.
On peut argumenter comme dans le cas réel pour conclure le résultat suivant, qui donne une
autre caractérisation possible pour les matrices complexes hermitiennes.
Proposition.
Soit A ∈ Mn (C). Alors A est hermitienne si et seulement si
On a
l1
1 0
AA∗ = In ⇐⇒ .. ..
l1 · · · ln =
. .
ln 0 1
et
c1
1 0
A∗ A = In ⇐⇒ .. ..
c1 · · · cn = ,
. .
cn 0 1
où l’on rappelle que pour un vecteur x = (x1 , . . . , xn ) ∈ Cn , x dénote le vecteur (x1 , . . . , xn ).
On a donc que
(
1, i = j,
AA∗ = In ⇐⇒ pour tous i, j ∈ {1, . . . , n}, (AA∗ )i,j =
0, i ̸= j
n
(
X 1, i = j,
⇐⇒ pour tous i, j ∈ {1, . . . , n}, (li )k (lj )k =
k=1
0, i ̸= j
(
1, i = j,
⇐⇒ pour tous i, j ∈ {1, . . . , n}, (li |lj )C =
0, i ̸= j
16
et, de manière analogue,
(
1, i = j,
A∗ A = In ⇐⇒ pour tous i, j ∈ {1, . . . , n}, (cj |ci )C = .
0, i ̸= j
Proposition.
Soit A ∈ Mn (C). Alors A est unitaire, c’est-à-dire que AA∗ = A∗ A = In , si et seulement si la
famille (l1 , . . . , ln ) de vecteurs de Cn formée par les lignes de A est une famille orthonormale
de Cn , si et seulement si la famille (c1 , . . . , cn ) de vecteurs de Cn formée par les colonnes de
A est une famille orthonormale de Rn (et donc une base de Cn ).
On rappelle dans cette section la définition de matrice symétrique réelle définie positive et de
matrice hermitienne complexe définie positive.
pour tout x ∈ Rn , xT Ax ≥ 0.
xT Ax = x1 · · · xn A ... = x1 · · · xn ...
xn (Ax)n
X n
= xi (Ax)i
i=1
= (Ax|x).
17
On a ainsi qu’une matrice symétrique A ∈ Mn (R) est définie positive (resp. positive) si et
seulement si
La définie positivité des matrices à coefficients complexes se définit de la même manière, mais
justifions d’abord que si A ∈ Mn (C) est une matrice hermitienne, c’est-à-dire telle que A∗ = A,
alors pour tout x ∈ Cn , x̄T Ax ∈ R.
On vient de montrer plus haut que pour tout x ∈ Cn , x̄T Ax = (Ax|x)C . On a donc qu’une
matrice A ∈ Mn (C) hermitienne est définie positive (resp. positive) si et seulement si
18
1.6 Théorie spectrale des matrices. Vecteurs propres et
valeurs propres.
Dans cette section on considère toute matrice à coefficients réels ou complexes comme un
élément de Mn (C).
Définition. Valeurs propres, vecteurs propres, spectre, rayon spectral et polynôme ca-
ractéristique.
Soit A ∈ Mn (C).
On dit que λ ∈ C est une valeur propre de A s’il existe u ∈ Cn , u ̸= 0, tel que Au = λu.
Le vecteur u s’appelle vecteur propre associé à la valeur propre λ.
On appelle spectre de A l’ensemble des valeurs propres de A, et on le note spec(A) ou
σ(A) :
spec(A) = {λ ∈ C | ∃u ∈ Cn , u ̸= 0, Au = λu}.
On appelle rayon spectral de A le plus grand module des valeurs propres de A, et on le
note ρ(A) :
ρ(A) = max{|λ| | λ valeur propre de A}.
On appelle polynôme caractéristique de A le polynôme PA ∈ Cn [λ] défini par
Les valeurs propres d’une matrice A ∈ Mn (C) sont alors les n racines complexes du polynôme
caractéristique de A, comptées avec sa multiplicité en tant que racines de PA (λ) : toute matrice
A ∈ Mn (C) admet n valeurs propres dans C, non nécessairement distinctes.
Remarque.
Si A ∈ Mn (R), on pourrait chercher les valeurs propres de A dans R comme les réels λ pour
lesquels il existe un vecteur u ∈ Rn non nul tel que Au = λu (et donc les racines réelles du
polynôme à coefficients réels PA (λ) ∈ Rn [λ]). Mais une matrice A ∈ Mn (R) peut ne pas avoir
de valeurs propres dans R. Par exemple la matrice
0 −1
A=
1 0
19
a comme valeurs propres i et −i ; on a donc spec(A) ⊆ C\R.
On va par la suite montrer deux propriétés que l’on utilisera régulièrement dans la suite du
cours.
Au = λu ssi AP P −1 u = λP P −1 u
ssi P −1 AP P −1 u = λP −1 P P −1 u
ssi P −1 AP (P −1 u) = λP −1 u.
Proposition. Les valeurs propres d’une matrice symétrique ou d’une matrice hermitienne
sont réelles.
Soit A ∈ Mn (R) une matrice symétrique (c’est-à-dire telle que A = AT ) ou A ∈ Mn (C)
une matrice hermitienne (c’est-à-dire telle que A = A∗ ). Alors spec(A) ⊆ R, autrement dit
les valeurs propres de A sont réelles.
Démonstration. Supposons A ∈ Mn (K) une telle matrice. Soit λ ∈ C une valeur propre de A.
Montrons que λ = λ̄, ce qui prouve que λ ∈ R.
20
1.6.1 Triangularisation et diagonalisation.
Définition.
Soit A ∈ Mn (K).
On dit que A est triangulisable s’il existe une matrice P ∈ Mn (K) inversible et une
matrice T ∈ Mn (K) triangulaire tel que A = P T P −1 , autrement dit si A est semblable
à une matrice triangulaire.
On dit que A est diagonalisable s’il existe une matrice P ∈ Mn (K) inversible et une
matrice D ∈ Mn (K) diagonale tel que A = P DP −1 , autrement dit si A est semblable
à une matrice diagonale.
Remarque.
Si une matrice A ∈ Mn (K) est traingulisable et semblable à la matrice traingulaire T ∈ Mn (K),
alors les valeurs propres de A et de T sont les mêmes, et donc les valeurs propres de A sont
Yn
les éléments diagonaux de la matrice T (car si T est triangulaire, on a PT (λ) = (λ − Tii )).
i=1
De même, si une matrice A ∈ Mn (K) est diagonalisable et semblable à la matrice diagonale
D ∈ Mn (K), alors les valeurs propres de A et de D sont les mêmes, et donc les valeurs propres
de A sont les éléments diagonaux de la matrice D.
Proposition.
Toute matrice A ∈ Mn (C) est triangulisable : pour tout A ∈ Mn (C), il existe P ∈ Mn (C)
inversible, T ∈ Mn (C) triangulaire, tel que A = P T P −1 .
Démonstration. Le résultat de ce théorème est admis. Vous pouvez trouver une preuve dans le
livre Algèbre linéaire numérique, de G. Allaire et S. M. Kaber, Editions Ellipses, 2002.
Attention, il n’est pas vrai que toute matrice est diagonalisable. Par exemple la matrice
0 1
A=
0 0
n’est semblable à aucune matrice diagonale D, car si elle l’était, cette matrice diagonale D ne
pourrait être que la matrice nulle (car D contiendrait dans la diagonale les valeurs propres de
A et la valeur propre double 0 est l’unique valeur propre de A) ; on aurait alors que A serait
semblable à la matrice nulle et A serait alors elle même la matrice nulle, ce qui n’est pas le cas.
21
Nous verrons par la suite que les matrices symétriques réelles et hermitiennes complexes, et plus
généralement les matrices normales, sont diagonalisables. Mais d’abord, faisons le lien entre la
matrice de passage P et les vecteurs propres d’une matrice diagonalisable A.
A = P DP −1 ⇐⇒ AP = P D
λ1 0
⇐⇒ A u1 · · · un = u1 · · · un
...
0 λn
⇐⇒ Au1 · · · Aun = λ1 u1 · · · λn u n ,
car chaque colonne j de la matrice AP , avec j ∈ {1, . . . , n}, est obtenue en multipliant la
matrice A par la colonne j de la matrice P , et chaque colonne j de la matrice P D est obtenue
en multipliant λj par la colonne j de P .
où, pour chaque i ∈ {1, . . . , n}, λi est le ième coefficient diagonal de la matrice D et ui la
ième colonne de P . Autrement dit, A = P DP −1 si et seulement si les coefficients de D sont
des valeurs propres de la matrice A et les colonnes de P des vecteurs propres de A, associés,
respectivement pour chaque i ∈ {1, . . . , n}, à la valeur propre λi = Dii . On a ainsi la propriété
suivante.
Remarque.
Supposons que A ∈ Mn (C) est diagonalisable et que A = QDQ−1 avec D matrice diagonale
22
et Q unitaire (c’est-à-dire inversible et vérifiant Q−1 = Q∗ ). Alors d’après ce que l’on vient de
voir les colonnes de Q sont des vecteurs propres de A qui forment une base de Cn . Comme en
plus Q est unitaire cette base de vecteurs propres est orthonormale (cf. la section 1.4.3).
On a ainsi que :
On dit dans ce cas que A est diagonalisable dans une base orthonormale (de vec-
teurs propres).
Soit A ∈ Mn (R) une matrice symétrique (c’est-à-dire telle que A = AT ). Alors les
valeurs propres de A sont réelles et A est diagonalisable dans une base
orthonormale de vecteurs propres réels, c’est-à-dire qu’il existe une base or-
thonormale de Rn constituée de vecteurs propres de A. De manière équivalente, il
existe D ∈ Mn (R) matrice diagonale, Q ∈ Mn (R) matrice orthogonale (i. e. vérifiant
QQT = QT Q = In ), tel que A = QDQT .
Soit A ∈ Mn (C) une matrice hermitienne (c’est-à-dire telle que A = A∗ ). Alors les
valeurs propres de A sont réelles et A est diagonalisable dans une base
orthonormale de vecteurs propres complexes, c’est-à-dire qu’il existe une base
orthonormale de Cn constituée de vecteurs propres de A. De manière équivalente, il
existe D ∈ Mn (R) matrice diagonale, Q ∈ Mn (C) matrice unitaire (i. e. vérifiant
QQ∗ = Q∗ Q = In ), tel que A = QDQ∗ .
Soit A ∈ Mn (K) une matrice normale (c’est-à-dire telle que AA∗ = A∗ A = In ). Alors
les valeurs propres de A appartiennent à C et A est diagonalisable dans une
base orthonormale de vecteurs propres complexes, c’est-à-dire qu’il existe une
base orthonormale de Cn constituée de vecteurs propres de A. De manière équivalente,
il existe D ∈ Mn (C) matrice diagonale, Q ∈ Mn (C) matrice unitaire tel que A =
QDQ∗ .
23
Démonstration. (Cas des matrices symétriques réelles).
Nous allons faire la preuve du théorème pour les matrices symétriques réelles. Le cas des matrices
hermitiennes complexes est une simple adaptation de la preuve au cas complexe. Le cas général
des matrices normales est aussi une adaptation, mais ce résultat est admis ici. On pourra
trouver une preuve, par d’autres arguments que ceux utilisés ici, dans la référence Algèbre
linéaire numérique, de G. Allaire et S. M. Kaber, Editions Ellipses, 2002.
Nous avons déjà montré que les n valeurs propres d’une matrice symétrique réelle sont réelles.
On remarque d’abord qu’une matrice réelle ayant une valeur propre réelle admet obligatoirement
un vecteur propre dans Rn associé à cette valeur propre : en effet si Au = λu, avec A matrice à
coefficients réelles, λ ∈ R et u = (u1 , . . . , un ) ∈ Cn , il est immédiat de voir que les vecteurs de
Rn donnés par (Re(u1 ), . . . , Re(un )) et par (Im(u1 ), . . . , Im(un )) sont aussi des vecteurs propres
de A.
On va montrer par induction sur n ∈ N∗ que pour toute matrice A ∈ Mn (R) symétrique, il
existe Q ∈ Mn (R) matrice orthogonale et D ∈ Mn (R) matrice diagonale tel que A = QDQT .
Supposons que le résultat est vrai pour toute matrice symétrique A ∈ Mn−1 (R), avec
n ∈ N, n ≥ 2. Montrons qu’il est vrai pour toute matrice symétrique A ∈ Mn (R).
U = u u2 · · · un
On a d’autre part que l’espace E est stable par A, c’est-à-dire que si v ∈ E, alors Av ∈ E. En
effet, si v ∈ E, on a (v|u) = 0. Or la matrice A étant symétrique, on a
Au = λu
24
et, d’autre part, comme Au2 , . . . , Aun ∈ E = ⟨u2 , . . . , un ⟩, il existe µi,j ∈ R, i, j ∈ {2, . . . , n},
tel que
on conclut que C = C T .
La matrice C est alors une matrice symétrique réelle de dimension n−1. Par hypothèse d’induc-
tion, il existe une matrice Q̃ ∈ Mn−1 (R) orthogonale et une matrice D̃ ∈ Mn−1 (R) diagonale
tel que C = Q̃D̃Q̃T . On en déduit que
" #
λ 0
A=U UT .
0 Q̃D̃Q̃T
25
Mais on remarque que
" # " #" #" #
λ 0 1 0 λ 0 1 0
=
0 Q̃D̃Q̃T 0 Q̃ 0 D̃ 0 Q̃T
et on a donc
" #! " # " # !
1 0 λ 0 1 0
A= U UT
T
0 Q̃ 0 D̃ 0 Q̃
" #! " # " #T
1 0 λ 0 1 0
= U UT
0 Q̃ 0 D̃ 0 Q̃
= QDQT ,
où " #
1 0
Q=U
0 Q̃
et " #
λ 0
D= .
0 D̃
La matrice D est une matrice de Mn (R) diagonale car la matrice D̃ est une matrice de Mn−1 (R)
diagonale. La matrice Q est une matrice de Mn (R) orthogonale car
" #" #
1 0 1 0
QQT = U UT
T
0 Q̃ 0 Q̃
" #
1 0
=U UT
T
0 Q̃Q̃
" #
1 0
=U UT , car Q̃ est orthogonale,
0 In
= U In U T
= In , car U est orthogonale.
On va dans cette section montrer qu’une matrice hermitienne ou symétrique (ayant donc des
valeurs propres réelles) définie positive a des valeurs propres strictement positives, et qu’une
matrice hermitienne ou symétrique positive a des valeurs propres positives. On montrera que
la réciproque est aussi vraie : si une matrice hermitienne ou symétrique a des valeurs propres
réelles strictement positives (positives), alors elle est définie positive (positive).
26
Proposition.
Soit A ∈ Mn (C) une matrice hermitienne, i. e. vérifiant A = A∗ . Alors A est définie posi-
tive (respectivement positive) si et seulement si toutes ses valeurs propres sont strictement
positives (respectivement positives).
Démonstration. On montre l’équivalence entre matrice définie positive et valeurs propres stric-
tement positives. La preuve dans le cas seulement positif est analogue.
Comme A est définie positive et u ̸= 0, on a (Au|u)C > 0. Comme u ̸= 0, on a aussi (u|u)C > 0.
On conclut que
(Au|u)C
λ= > 0.
(u|u)C
Supposons maintenant que A est une matrice hermitienne telle que toutes ses valeurs propres
sont strictement positives. Montrons que A est définie positive, en montrant que (Ax|x)C > 0,
pour tout x ∈ Cn , x ̸= 0.
27
x = α1 u1 + · · · + αn un . Puisque x ̸= 0, il existe i ∈ {1, . . . , n} tel que αi ̸= 0. On a alors
(Ax|x)C = A(α1 u1 + · · · + αn un )|α1 u1 + · · · + αn un C
= α1 Au1 + · · · + αn Aun |α1 u1 + · · · + αn un C
= α1 λ1 u1 + · · · + αn λn un |α1 u1 + · · · + αn un C
X n X n
= αi λi ui αj uj
C
i=1 j=1
n
XX n
= αi λi αj (ui |uj )C
i=1 j=1
Xn
= αi λi αi ,
i=1
car les vecteurs u1 , . . . , un sont de norme égale à un et deux à deux orthogonaux. On conclut
alors que
(Ax|x)C = |α1 |2 λ1 + · · · + |αn |2 λn ≥ 0.
Comme il existe i ∈ {1, . . . , n} tel que αi > 0 et donc tel que |αi | > 0 et comme pour tout
i ∈ {1, . . . , n}, λi > 0, on en déduit que (Ax|x)C > 0.
28