0% ont trouvé ce document utile (0 vote)
38 vues22 pages

Classique 1

Ce document traite des propriétés de la matrice 𝑡𝐴𝐴, en mettant en avant sa symétrie et sa positivité, ainsi que son orthogonalement diagonalisable. Il aborde divers théorèmes et décompositions matricielles, notamment la décomposition polaire et celle de Cholesky, et présente des applications pratiques, notamment dans la résolution de systèmes linéaires. Le document sert de complément aux cours d'algèbre bilinéaire pour les classes préparatoires.

Transféré par

mohamomo4321
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
38 vues22 pages

Classique 1

Ce document traite des propriétés de la matrice 𝑡𝐴𝐴, en mettant en avant sa symétrie et sa positivité, ainsi que son orthogonalement diagonalisable. Il aborde divers théorèmes et décompositions matricielles, notamment la décomposition polaire et celle de Cholesky, et présente des applications pratiques, notamment dans la résolution de systèmes linéaires. Le document sert de complément aux cours d'algèbre bilinéaire pour les classes préparatoires.

Transféré par

mohamomo4321
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Stage de Fevrier

Annexe
Autour de
la matrice 𝑡𝐴𝐴

Classes MP*
Annexe Table des matières

1.3 Théorème : théorème spectral . . . . . . . . . . . . . . . . . . . . 11


1.8 Théorème : réduction comparée de 𝑡𝐴𝐴 et de 𝐴𝑡𝐴 . . . . . . . . . . 15
1.10 Théorème : de décomposition en valeurs singulières . . . . . . . . 17
1.11 Théorème : application à la résolution d’un système linéaire . . . 19
Table des matières 1.14 Théorème : de la décomposition polaire . . . . . . . . . . . . . . . 21
1.1 Exercice : d’après Centrale 2013, maths 2, mp . . . . . . . . . . . . 22
1.15 Théorème : décomposition de Cholesky . . . . . . . . . . . . . . . 22
1.16 Théorème : Décomposition 𝑄𝑅 . . . . . . . . . . . . . . . . . . . . 23
1.12 Remarque : Une relation d’équivalence . . . . . . . . . . . . . . . 25
1.17 Théorème : maximum de la trace sur une orbite . . . . . . . . . . 26
1.18 Théorème : caractérisation d’une matrice symétrique positive . . 26
1 À propos de la matrice 𝑡 𝐴𝐴 5 1.19 Théorème : d’existence et d’unicité du pseudo-inverse . . . . . . . 28
I Conventions et extensions . . . . . . . . . . . . . . . . . . . . . . 5 1.21 Proposition : pseudo-inverse et valeurs singulières . . . . . . . . . 29
II Les résultats de cours . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.22 Théorème : Une solution du problème aux moindres carrés . . . . 29
1 Le procédé de Gram-Schmidt . . . . . . . . . . . . . . . . 8 1.27 Théorème : conditionnement partiel d’un système linéaire . . . . 33
2 Le théorème spectral . . . . . . . . . . . . . . . . . . . . . 11 1.28 Théorème : conditionnement général d’un système de Cramer . . 33
III Décomposition de 𝐴 en fonction de celles de 𝑡𝐴𝐴 ou de 𝐴𝑡𝐴 . . . . 12
1 Réduction comparée des matrices 𝑡𝐴𝐴 et 𝐴𝑡𝐴 . . . . . . . . 12
2 Décomposition en valeurs singulières de 𝐴 . . . . . . . . . 16
IV Les décompositions matricielles . . . . . . . . . . . . . . . . . . . 20
1 Racine carrée d’une matrice symétrique positive . . . . . 20
2 Décomposition polaire . . . . . . . . . . . . . . . . . . . . 21
3 Décomposition de Cholesky . . . . . . . . . . . . . . . . . 22
4 Décomposition 𝑄𝑅 . . . . . . . . . . . . . . . . . . . . . . 23
5 Une application des décompositions matricielles . . . . . 25
V Application à la notion de pseudo-inverse . . . . . . . . . . . . . . 27
1 Définition, existence et unicité . . . . . . . . . . . . . . . 27
2 Application au problème des moindres carrés . . . . . . . 29
VI Normes de matrices et conditionnement . . . . . . . . . . . . . . . 30
1 Des normes de M𝑛,𝑝 (R) . . . . . . . . . . . . . . . . . . . 30
2 Conditionnement d’une matrice . . . . . . . . . . . . . . . 32
VII Démonstrations des théorèmes . . . . . . . . . . . . . . . . . . . . 35

Liste des résultats remarquables

1.1 Remarques pratiques : sur le calcul de bases orthonormales . . . . 9

page 2 / 43 Classes MP* page 3 / 43 Stage de Fevrier


Annexe À propos de la matrice 𝑡 𝐴𝐴

de 𝐴, 𝐴𝑖 désignera son 𝑖 eme colonne. Dans le cas d’un vecteur colonne 𝑋 , on


notera 𝑥𝑖 son 𝑖 eme coefficient.
M𝑝,𝑛 (R) sera munis de son produit scalaire canonique :
À propos de la matrice 𝑡 𝐴𝐴 ∀(𝐴, 𝐵) ∈ M𝑝,𝑛 (R) 2, h𝐴, 𝐵i𝑝,𝑛 = Tr(𝑡𝐴𝐵) =
∑︁
𝑎𝑖,𝑗 𝑏𝑖,𝑗
16𝑖 6𝑝
16 𝑗 6𝑛
chapitre 1 Et de la norme canonique associée
√︁  ∑︁  1/2
∀𝐴 ∈ M𝑝,𝑛 (R), k𝐴k 𝑝,𝑛
2
= Tr(𝑡 𝐴𝐴) = 2
𝑎𝑖,𝑗
16𝑖 6𝑝
16 𝑗 6𝑛
Introduction Noter que lorsque 𝑋, 𝑌 ∈ M𝑛,1 (R) on a
𝑛
Ce document se propose de présenter certaines des propriétés de la matrice 𝑡𝐴𝐴 ∑︁
h𝑋, 𝑌 i𝑛,1 = 𝑡 𝑋𝑌 = 𝑡 𝑌𝑋 = 𝑥𝑖 𝑦𝑖
lorsque 𝐴 est une matrice réelle, carrée ou non. Il est notable que la matrice 𝑡𝐴𝐴, 𝑖=1
du fait de sa symétrie et de sa positivité, est orthogonalement diagonalisable  ∑︁  1/2
et ses valeurs propres sont positives ou nulles. Le programme officiel n’exploite k𝑋 k𝑛,1 = 𝑥𝑖2
16𝑖 6𝑛
pas à fond ce résultat sachant que c’est un thème très fertile et a de nombreuses
applications. Les poseurs de sujets de concours ne manquent d’ailleurs pas d’en Pour alléger les écritures on utilisera parfois la notation h, i et k.k pour désigner
explorer les moindres recoins. respectivement l’un quelconque des produits scalaires h, i𝑝,𝑛 ou des normes
Ce cours donnera un complément d’informations sur les notions d’algèbre bili- k.k 𝑝,𝑛 . Le contexte décidera en général des valeurs de 𝑛 et 𝑝.
néaire telles que délimitées par le programme officiel des classes préparatoires.
On peut constater que si 𝐴 ∈ M𝑝,𝑛 (R) alors pour tout 𝑋 ∈ M𝑝,1 (R) et pour
Informations recueillies sur divers sujets de concours ainsi que sur certains cours
tout 𝑌 ∈ M𝑛,1 (R),
des niveaux supérieures. Il aidera à apporter un nouveau regard sur des propriétés
telle que la décomposition polaire ou celle de Cholesky. h𝑋, 𝐴𝑌 i = h𝑡𝐴𝑋, 𝑌 i = 𝑡 𝑋𝐴𝑌 (1.2.1)
Le produit scalaire du membre de gauche étant en fait h, i𝑝,1 et celui du membre
de droite étant h, i𝑛,1 .
I En particulier lorsque 𝐴 ∈ M𝑝,𝑛 (R) et 𝑋, 𝑌 ∈ M𝑛,1 (R)
Conventions et extensions h𝑋, 𝑡𝐴𝐴𝑌 i = h𝐴𝑋, 𝐴𝑌 i = h𝑡𝐴𝐴𝑋, 𝑌 i
h𝑋, 𝑡𝐴𝐴𝑋 i = k𝐴𝑋 k 2
Conventions de notation Toujours grâce à la relations (1.2.1)
𝑛 et 𝑝 désigneront des entiers naturels non nuls.
𝑋 ∈ Ker 𝑡𝐴 ⇐⇒ ∀𝑌 ∈ M𝑛,1 (R), h𝑡𝐴𝑋, 𝑌 i = 0
Une matrice 𝐴 ∈ M𝑝,𝑛 (R) sera confondue avec l’application linéaire de
M𝑛,1 (R) dans M𝑝,1 (R) qui lui est canoniquement associée : 𝑋 ↦−→ 𝐴𝑋 . En ⇐⇒ ∀𝑌 ∈ M𝑛,1 (R), h𝑋, 𝐴𝑌 i = 0
particulier Ker 𝐴 et Im 𝐴 désigneront le noyau et l’image de cette dernière ⇐⇒ 𝑋 ∈ (Im 𝐴) ⊥
application.
Pour une matrice notée 𝐴, 𝐴𝑖,𝑗 ou 𝑎𝑖,𝑗 désigneront le coefficient d’indice (𝑖, 𝑗) et donc Ker 𝑡𝐴 = (Im 𝐴) ⊥ et Im 𝑡𝐴 = (Ker 𝐴) ⊥

page 4 / 43 Classes MP* page 5 / 43 Stage de Fevrier


Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

Introduction
Ker 𝐴 et donc on a 𝐴𝑋 1 = 𝐴𝑋 2 . Ce qui confirme que toutes les solutions 𝑋 de
Historiquement l’intérêt très particulier portée aux matrices 𝑡 𝐴𝐴 est lié
(SN) donnent le même vecteur 𝑌 = 𝐴𝑋 .
aux tentatives d’apporter des réponses à une question centrale : étant donné
Notons en plus que si jamais le système original 𝐴𝑋 = 𝑏 est compatible et
un système linéaire 𝐴𝑋 = 𝑏 non compatible (n’admet pas de solutions),
𝑋 0 en est une solution alors son ensemble des solutions est
quelle “pseudo-solution” peut-on adopter ? Y compris dans le cas de systèmes
linéaires avec beaucoup plus d’équations que d’inconnues. Une réponse a été 𝑆 = 𝑋 0 + Ker 𝐴 = 𝑋 0 + Ker(𝑡 𝐴𝐴)
de prendre les vecteurs 𝑋 pour lesquels la norme k𝐴𝑋 − 𝑏 k 2 est minimale. Sachant que 𝑋 0 est aussi une solution de (SN) cela signifie que lorsque 𝐴𝑋 = 𝑏
Ces vecteurs sont dit les solutions au sens des moindres carrés du système. est compatible alors il admet exactement les mêmes solutions que son sytème
Étudions ce problème de façon élémentaire en attendant d’y apporter des normal (SN). Résumons dans le résultat suivant
solutions mieux construites tout au long des sections de ce cours. Il s’agit
de calculer la distance du vecteur 𝑏 au sev =𝑏 en précisant en quels points Théorème 1.1
ce maximum est atteint. Ce sont des notions relativement simples et traitées
convenablement par le programme officiel. Le cours affirme en effet que cette Soit un système linéaire à 𝑛 inconnues et 𝑝 équations
distance est atteinte en un point unique de =𝐴 qui n’est autre que la projection 𝐴𝑋 = 𝑏 (S)
orthogonale 𝑌 de 𝑏 sur Im 𝐴. Ce qui ne veut pas dire qu’il y a une unique et son système normal (carré, à 𝑛 inconnues et à matrice symétrique)
solution 𝑋 du problème de départ puisque si 𝑌 = 𝐴𝑋 0 ∈ Im 𝐴 alors tous les 𝑡
𝐴𝐴𝑋 = 𝑡 𝐴𝑏 (SN)
points de 𝑋 0 + Ker 𝐴 vont vérifier 𝐴𝑋 = 𝑌 . Maintenant quelle est l’expression
de 𝑌 en fonction de 𝐴 et 𝑏 ? Et quels sont les vecteurs 𝑋 qui vont ensuite Si (S) admet des solutions alors ce sont les mêmes que celle de (SN). En outre
vérifier 𝐴𝑋 = 𝑌 ? (SN) admet toujours des solutions. Ce sont les vecteurs pour lesquels la norme
Supposons que 𝐴 ∈ M𝑝,𝑛 (R). Le vecteurs 𝑌 , projection orthogonale de 𝑏 k𝐴𝑋 − 𝑏 k est minimale.
sur Im 𝐴, est entièrement déterminé par les conditions 𝑌 ∈ Im 𝐴 et 𝑌 − 𝑏 ∈
(Im 𝐴) ⊥ . Ce qui revient à
(
𝑌 = 𝐴𝑋
∃𝑋 ∈ M𝑛,1 (R), II
∀𝐻 ∈ M𝑛,1 (R), h𝐴𝑋 − 𝑏, 𝐴𝐻 i𝑝 = 0
Les résultats de cours
Mais comme h𝐴𝑋 −𝑏, 𝐴𝐻 i𝑝 = h𝑡 𝐴𝐴𝑋 − 𝑡 𝐴𝑏, 𝐻 i𝑛 la deuxième condition revient
à 𝑡 𝐴𝐴𝑋 − 𝑡 𝐴𝑏 = 0. Et ainsi 𝑌 est entièrement déterminé par les équations
( Objectifs
𝑌 = 𝐴𝑋
𝑡 Cette section rappellera les résultats de cours qui jouerons un rôle essentiel
𝐴𝐴𝑋 = 𝑡 𝐴𝑏
dans le reste de ce document.
Ce qui signifie que 𝑌 est de la forme 𝐴𝑋 pour n’importe quel vecteur 𝑋 qui
est solution du nouveau système linéaire
𝑡
𝐴𝐴𝑋 = 𝑡 𝐴𝑏 (SN) II.1 Le procédé de Gram-Schmidt
Ce système est dit système normal du système linéaire 𝐴𝑋 = 𝑏. À la différence Théorème 1.2
du système original, le système linéaire (SN) est un système carré qui est
toujours compatible car comme on va le voir Im(𝑡 𝐴𝐴) = Im 𝑡 𝐴 (et donc Soit (𝑥 1, . . . , 𝑥 𝑝 ) une famille libre de vecteurs d’un espace préhilbertien 𝐸. Il
𝑡𝐴𝑏 ∈ Im(𝑡𝐴𝐴)). Par ailleurs si 𝑋 et 𝑋 sont des solutions de (SN) alors existe une famille orthonormale (𝑒 1, . . . , 𝑒𝑝 ) telle que
1 2
𝑡𝐴𝐴(𝑋 −𝑋 ) = 0, et là une autre propriété élémentaire affirme que Ker(𝑡 𝐴𝐴) =
1 2 ∀𝑖 ∈ [[1, 𝑝]] , 𝑥𝑖 ∈ Vect{𝑒 1, . . . , 𝑒𝑖 }

Classes MP* page 6 / 43 Stage de Fevrier Classes MP* page 7 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

Méthode procédé de Gram-Schmidt remarques pratiques 1.1 (sur le calcul de bases orthonormales) (suite)

On construit les vecteurs 𝑒𝑖 par récurrence en posant 1.1.1 Pour éviter l’apparition inutile de racines carrées dans les calculs inter-
médiaires du procédé de Gram-Schmidt on pourrait calculer tous les vecteurs
𝑢1
𝑢1 = 𝑥1 𝑒1 = 𝑢𝑖 et ne les normaliser qu’à la fin du procédé en utilisant les formulations :
k𝑢 1 k
𝑖
𝑖
∑︁ h𝑢𝑘 , 𝑥𝑖+1 i
∑︁ 𝑢𝑖+1 𝑢 1 = 𝑥 1, et ∀𝑖 ∈ [[1, 𝑝 − 1]] , 𝑢𝑖+1 = 𝑥𝑖+1 − 𝑢𝑘
𝑢𝑖+1 = 𝑥𝑖+1 − h𝑒𝑘 , 𝑥𝑖+1 i𝑒𝑘 𝑒𝑖+1 = pour 𝑖 = 1, 2, . . . , 𝑝 − 1 𝑘=1 k𝑢𝑘 k
2
𝑘=1 k𝑢𝑖+1 k
1.1.2 Si 𝑉 est un vecteur non nul de M𝑛,1 (R) alors 𝐻 = (R𝑉 ) ⊥ est l’hyper-
Discussion plan de M𝑛,1 (R) d’équation cartésienne 𝑣 1𝑥 1 + . . . + 𝑣𝑛 𝑥𝑛 = 0.
1.1.3 Soit 𝐹 l’ensemble des solutions d’un système linéaire homogène :
1.6.1 Une fois les vecteurs 𝑒 1, . . . , 𝑒𝑖 construits, 𝑢𝑖+1 = 𝑥𝑖+1 − 𝑝𝑖 (𝑥𝑖+1 ) où 𝑝𝑖
est la projection orthogonale de 𝐸 sur le sous-espace vectoriel 𝐴𝑋 = 0 (S)
𝐹𝑖 = Vect{𝑒 1, . . . , 𝑒𝑖 } = Vect{𝑥 1, . . . , 𝑥𝑖 } Pour donner une bon de 𝐹 , il peut être plus rapide, lorsqu’il est de petite
dimension, de donner d’abords une solution 𝑉1 de (S), ensuite une deuxième
Ce qui explique que la famille (𝑢 1, . . . , 𝑢𝑝 ) est orthogonale.
solution 𝑉2 orthogonale à 𝑉1 en ajoutant à (S) l’équation h𝑉1, 𝑋 i = 0 et ainsi
1.6.2 𝑥𝑖 est une combinaison linéaire des vecteurs 𝑒 1, . . . , 𝑒𝑖 . Ce constat nous de suite. On ne normalise les vecteurs qu’une fois les calculs achevés.
sera essentiel dans ce document. Il implique que la matrice de (𝑥 1, . . . , 𝑥 𝑝 ) Sans oublier que pour déterminer visuellement une solution de (S), il suffit
dans la bon (𝑒 1, . . . , 𝑒𝑝 ) de 𝐹𝑝 est triangulaire supérieure. de trouver une combinaison linéaire nulle des vecteurs colonnes de 𝐴 :
Du fait que h𝑢𝑖 , 𝑥𝑖 i = h𝑢𝑖 , 𝑢𝑖 + 𝑥𝑖 − 𝑢𝑖 i = k𝑢𝑖 k 2 , les coefficients diagonaux de 𝑥
cette matrice sont les scalaires positifs © .1 ª
­ . ® ∈ Ker 𝐴 ⇐⇒ 𝑥 1𝐴1 + 𝑥 2𝐴2 + . . . + 𝑥𝑛 𝐴𝑛 = 0
h𝑢𝑖 , 𝑥𝑖 i ­.®
h𝑒𝑖 , 𝑥𝑖 i = = k𝑢𝑖 k «𝑥𝑛 ¬
k𝑢𝑖 k
par exemple Lorsque on considère la matrice symétrique
1.6.3 Le procédé fournit de lui même un moyen de contrôler si la famille
(𝑥 1, . . . , 𝑥 𝑝 ) est bien libre. En effet ; si elle est liée alors il existe 𝑖 tel que 2 1 1
𝐴 = ­1 2 1 ®
© ª
𝑥𝑖+1 ∈ Vect{𝑥 1, . . . , 𝑥𝑖 }. On aura donc 𝑢𝑖+1 = 𝑥𝑖+1 − 𝑝𝑖 (𝑥𝑖+1 ) = 0𝐸 . 1 1 2
« ¬
1.6.4 Si jamais pour un 𝑟 6 𝑝 la famille (𝑥 1, . . . , 𝑥𝑟 ) est une famille orthogo- Pour donner une bon de son sous-espace propre associé à 1 qui a pour équation
nale, on aura pour tout 𝑖 6 𝑟 , 𝑢𝑖 = 𝑥𝑖 . Cette observation permet de compléter cartésienne 𝑥 + 𝑦 + 𝑧 = 0, il suffit de prendre 𝑉1 = 𝑡 1 −1 0 et pour chercher
un vecteur 𝑉2 orthogonal à 𝑉1 il suffit de donner une solution du système formé des
une famille orthonormale (𝑒 1, . . . , 𝑒𝑟 ) en une bon (𝑒 1, . . . , 𝑒𝑟 , . . . , 𝑒𝑛 ) de 𝐸 en
équations 𝑥 + 𝑦 + 𝑧 = 0 et 𝑥 − 𝑦 = 0. Le vecteur 𝑉2 = 𝑡 1 1 −2 conviendrait.
complétant d’abords en une base quelconque (𝑒 1, . . . , 𝑒𝑟 , 𝑥𝑟 +1, . . . , 𝑥𝑛 ) et en
appliquant ensuite le procédé à cette base. 1.1.4 Lorsque on veut compléter une famille orthogonale (𝑉1, . . . , 𝑉𝑟 ) en
une base orthogonale, on peut utiliser l’équation de l’orthogonal de 𝐹 =
Remarques pratiques 1.1 (sur le calcul de bases orthonormales) Vect{𝑉1, . . . , 𝑉𝑟 } obtenue en écrivant h𝑉𝑖 , 𝑋 i = 0 pour 𝑖 ∈ [[1, 𝑟 ]]. On peut
ainsi calculer une bon de 𝐹 ⊥ en utilisant les indications précédentes.
Dans beaucoup de problèmes on a besoin de calculer une bon d’un sous-
espace vectoriel de M𝑛,1 (R) (le noyau d’une matrice par exemple, ses sous-
Application inégalité de Hadammard
espaces propres, . . . ) ou de compléter une famille orthonormale en une bon.
Ces remarques aideront à s’en acquitter plus efficacement quand les calculs Soient 𝑥 1, . . . , 𝑥𝑛 𝑛 vecteurs d’un espace euclidien 𝐸 de dimension 𝑛. Alors
sont menés à la main

Classes MP* page 8 / 43 Stage de Fevrier Classes MP* page 9 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

remarque 1.2 (suite)

pour toute bon B de 𝐸 est une forme bilinéaire symétrique de M𝑛,1 (R). Ce qui explique le vocabu-
| detB (𝑥 1, 𝑥 2, . . . , 𝑥𝑛 )| 6 k𝑥 1 k k𝑥 2 k · · · k𝑥𝑛 k laire précédent. En particulier, 𝐴 est définie positive si et seulement si Φ𝐴
avec égalité si et seulement si la famille (𝑥 1, 𝑥 2, . . . , 𝑥𝑛 ) est orthogonale. est un produit scalaire de M𝑛,1 (R).

dem Si (𝑥 1, . . . , 𝑥𝑛 ) est liée alors l’inégalité est triviale. Théorème 1.4


Supposons donc que (𝑥 1, . . . , 𝑥𝑛 ) est libre et soit B0 = (𝑒 1, . . . , 𝑒𝑛 ) son orthonormalisée
par le procédé de Gram-Schmidt. La matrice de (𝑥 1, . . . , 𝑥𝑛 ) dans B0 est triangulaire Une matrice symétrique réelle est positive (resp. définie positive) si et seule-
supérieure. Son 𝑖 eme coefficient diagonal est h𝑒𝑖 , 𝑥𝑖 i. Alors ment si toutes ses va.p sont positives ou nulles (resp. Strictement positives).
𝑛
Y
detB0 (𝑥 1, 𝑥 2, . . . , 𝑥𝑛 ) = h𝑒𝑖 , 𝑥𝑖 i
𝑖=1
Si maintenant B est une bon quelconque de 𝐸 alors detB (B0 ) = ±1 et donc
𝑛
Y
III
| detB (𝑥 1, 𝑥 2, . . . , 𝑥𝑛 )| = | detB0 (𝑥 1, 𝑥 2, . . . , 𝑥𝑛 )| = |h𝑒𝑖 , 𝑥𝑖 i|
𝑖=1
Décomposition de 𝐴 en fonc-
L’inégalité voulue découle de l’inégalité de Cauchy-Schwarz : |h𝑒𝑖 , 𝑥𝑖 i| 6 k𝑥𝑖 k pour tout tion de celles de 𝑡𝐴𝐴 ou de 𝐴𝑡𝐴
𝑖.
L’égalité se réalise si et seulement si pour tout 𝑖, |h𝑒𝑖 , 𝑥𝑖 i| = k𝑥𝑖 k, ce qui n’est possible
que lorsque 𝑥𝑖 est colinéaire à 𝑒𝑖 . Ainsi L’égalité équivaut à l’orthogonalité de la famille Objectifs
(𝑥 1, . . . , 𝑥𝑝 ).
C’est dans cette section que nous allons étudier l’impact sur la matrice 𝐴 de
l’application du théorème spectral à la matrice symétrique positive 𝑡𝐴𝐴. La
II.2 Le théorème spectral conclusion de cette étude sera d’énoncer le théorème de décomposition aux
valeurs singulière qui donne justement une décomposition de 𝐴 utilisant les
Théorème 1.3 théorème spectral éléments propres des matrices 𝑡𝐴𝐴 et 𝐴𝑡𝐴.
Toute matrice réelle symétrique 𝐴 ∈ M𝑛 (R) est orthogonalement diagona-
lisable. C’est-à-dire qu’il existe une matrice diagonale 𝐷 ∈ M𝑛 (R) et une III.1 Réduction comparée des matrices 𝑡𝐴𝐴 et 𝐴𝑡𝐴
matrice orthogonale 𝑈 ∈ O(𝑛) telles que
Objectif
𝐴 = 𝑈 𝐷𝑡𝑈
Résultat important démonstration 1.3, page 35 Cette sous-section propose d’étudier comment on peut passer de la réduction
de la matrice symétrique 𝑡𝐴𝐴 à celle de 𝐴𝑡𝐴 sans refaire tous les calculs.
Définition 1.1
Répondre à cette question permettra de réduire le travail nécessaire pour
Une matrice réelle symétrique 𝐴 de M𝑛 (R) est dite positive (resp. définie réduire simultanément 𝑡𝐴𝐴 et 𝐴𝑡𝐴 si par exemple 𝐴 contient beaucoup plus
positive) si et seulement si de colonnes que de lignes.
∀𝑋 ∈ M𝑛,1 (R), 𝑡 𝑋𝐴𝑋 > 0 (resp. ∀𝑋 ∈ M𝑛,1 (R) r{0}, 𝑡 𝑋𝐴𝑋 > 0) exemple
 
1 1 0 −1
Si par exemple 𝐴=
Remarque 1.2 0 −1 1 1

Si 𝐴 est une matrice symétrique réelle d’ordre 𝑛 alors l’application


Φ𝐴 : (𝑋, 𝑌 ) ↦−→ h𝑋, 𝐴𝑌 i = 𝑡 𝑋𝐴𝑌

Classes MP* page 10 / 43 Stage de Fevrier Classes MP* page 11 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

1 1 0 −1   Noter que du fait de la positivité de la matrice 𝑡𝐴𝐴 on a toujours


­1 2 −1 −2® 3 −2
© ª
𝑡
alors 𝐴𝐴 = ­ ® 𝐴𝑡𝐴 = Gram(𝑥 1, . . . , 𝑥 𝑝 ) > 0
­ 0 −1 1 1® −2 3
« −1 −2 1 2 ¬ et que lorsque 𝑝 = 𝑛 (𝐴 est une matrice carrée) alors
(Nous verrons que 𝑡𝐴𝐴 est la matrice de Gram des colonnes de 𝐴 et 𝐴𝑡𝐴 celle de ses lignes,
Gram(𝑥 1, . . . , 𝑥𝑛 ) = det(𝐴) 2 = (detB (𝑥 1, . . . , 𝑥𝑛 )) 2
ce qui permet d’aller plus vite dans le calcul de 𝑡𝐴𝐴 et 𝐴𝑡𝐴)
B étant, on le rappelle, une bon quelconque de 𝐸.
Propriétés 1.5
Remarques 1.3
Soit une matrice rectangle réelle 𝐴 ∈ M𝑝,𝑛 (R).
Si on note 𝐴1, . . . , 𝐴𝑝 les vecteurs colonnes de la matrice 𝐴 ∈ M𝑛,𝑝 (R), alors
1.5.1 𝑡𝐴𝐴 et 𝐴𝑡𝐴 sont des matrices symétriques positives. h𝐴𝑖 , 𝐴 𝑗 i = 𝑡𝐴𝑖 𝐴 𝑗 est le coefficient d’indice (𝑖, 𝑗) de la matrice 𝑡𝐴𝐴.
dem La symétrie est immédiate. La positivtité découle des égalités 𝑡 𝑋 𝑡𝐴𝐴𝑋 = k𝐴𝑋 k𝑛2 Ainsi 𝑡𝐴𝐴 est la matrice de Gram des vecteurs colonnes de 𝐴. 𝐴𝑡𝐴 est la
2
et 𝑡 𝑌 𝐴𝑡𝐴𝑌 = 𝑡𝐴𝑌 𝑝 . matrice de Gram des vecteurs lignes de 𝐴.
1.5.2 Ker 𝑡𝐴𝐴 = Ker 𝐴 et Im 𝑡𝐴𝐴 = Im 𝑡𝐴. En particulier rg 𝑡𝐴𝐴 = rg 𝐴.
Proposition 1.6
dem De façon naturelle Ker 𝐴 ⊂ Ker 𝑡𝐴𝐴. Réciproquement, si 𝑋 ∈ Ker 𝑡𝐴𝐴 alors 𝑡𝐴𝐴𝑋 =
0 et donc 𝑡 𝑋 𝑡𝐴𝐴𝑋 = k𝐴𝑋 k𝑛2 = 0. Par suite 𝐴𝑋 = 0, c’est-à-dire 𝑋 ∈ Ker 𝐴. Alors Soit une matrice 𝐴 ∈ M𝑛,𝑝 (R). Pour toute valeur propre non nulle 𝜆 de 𝑡𝐴𝐴,
Ker 𝑡𝐴𝐴 ⊂ Ker 𝐴 et donc Ker 𝑡𝐴𝐴 = Ker 𝐴. l’application 𝑋 ↦−→ 𝐴𝑋 induit un isomorphisme de 𝐸𝜆 (𝑡𝐴𝐴) sur 𝐸𝜆 (𝐴𝑡𝐴). De
1.5.3 est définie positive si et seulement si rg 𝐴 = 𝑛 (𝑛 est le nombre de
𝑡𝐴𝐴
plus
colonnes de 𝐴). √
1 pour tout 𝑋 ∈ 𝐸𝜆 (𝑡𝐴𝐴), k𝐴𝑋 k = 𝜆 k𝑋 k.
dem 𝑡𝐴𝐴 étant positive, elle est définie positive ssi 0 n’en est pas une va.p, ie ssi elle
est inversible. Comme elle carré d’ordre 𝑛, elle est inversible ssi rg 𝑡𝐴𝐴 = 𝑛, soit rg 𝐴 = 𝑛.
2 pour tous 𝑋, 𝑌 ∈ 𝐸𝜆 (𝑡𝐴𝐴), h𝑋, 𝑌 i = 0 =⇒ h𝐴𝑋, 𝐴𝑌 i = 0.
Ainsi si (𝑉1, . . . , 𝑉𝛼 ) est une bon de 𝐸𝜆 (𝑡𝐴𝐴) alors ( √1 𝐴𝑉1 , √1 𝐴𝑉2, . . . , √1 𝐴𝑉𝛼 )
𝜆 𝜆 𝜆
Application matrice et déterminant de Gram est une bon de 𝐸𝜆 (𝐴𝑡𝐴).
démonstration 1.6, page 35
On considére un espace euclidien 𝐸 et des vecteurs 𝑥 1, . . . , 𝑥 𝑝 de 𝐸. On appelle
matrice de Gram du système de vecteurs (𝑥 1, . . . , 𝑥 𝑝 ) la matrice Corollaire 1.7

𝐺 = h𝑥𝑖 , 𝑥 𝑗 i 16𝑖,𝑗 6𝑝 Soit 𝐴 ∈ M𝑝,𝑛 (R). Alors
Le déterminant de 𝐺, noté Gram(𝑥 1, . . . , 𝑥 𝑝 ), est appelé déterminant de Gram 𝑋 𝑝 𝜒 𝑡𝐴𝐴 (𝑋 ) = 𝑋 𝑛 𝜒 𝐴𝑡𝐴 (𝑋 ) (1.7.2)
de (𝑥 1, . . . , 𝑥𝑛 ). Soit B = (𝑒 1, . . . , 𝑒𝑛 ) une bon de 𝐸. Si on note 𝐴 = (𝑎𝑖,𝑗 ) la démonstration 1.7, page 36
matrice 𝑛 × 𝑝 du système de vecteurs (𝑥 1, . . . , 𝑥 𝑝 ) dans B alors pour tous
𝑖, 𝑗 ∈ [[1, 𝑝]], h𝑥𝑖 , 𝑥 𝑗 i = 𝑛𝑘=1 𝑎𝑘,𝑖 𝑎𝑘,𝑗 . Ce qui signifie que
P Remarques 1.4

𝐺 = 𝑡𝐴𝐴 1.4.1 Si 𝐴 est une matrice carrée alors 𝜒 𝑡𝐴𝐴 = 𝜒 𝐴𝑡𝐴 .


On en déduit alors que 1.4.2 Si 𝑛 ≠ 𝑝, selon que 𝑛 > 𝑝 ou 𝑛 < 𝑝, on peut simplifier par 𝑋 𝑝 ou par
rg 𝐺 = rg 𝐴 = rg(𝑥 1, . . . , 𝑥 𝑝 ) 𝑋𝑛 dans la relation (1.7.2). Dans les deux cas, l’une au moins des matrices,
𝑡𝐴𝐴 ou 𝐴𝑡𝐴, aura 0 comme va.p. Ce qui est normal puisque l’une au moins
Et en particulier la famille (𝑥 1, . . . , 𝑥 𝑝 ) est libre si et seulement si son détermi- des deux matrices 𝑡𝐴𝐴 ou 𝐴𝑡𝐴 aura un rang inférieur strictement à sa taille.
nant de Gram est non nul.

Classes MP* page 12 / 43 Stage de Fevrier Classes MP* page 13 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

remarques 1.4 (suite) III.2 Décomposition en valeurs singulières de 𝐴


1.4.3 Le corollaire se généralise de la façon suivante :
Notations
∀𝐴 ∈ M𝑝,𝑛 (K), ∀𝐵 ∈ M𝑛,𝑝 (K), 𝑋 𝑛 𝜒 𝐴𝐵 (𝑋 ) = 𝑋 𝑝 𝜒 𝐵𝐴 (𝑋 )
Soient des scalaires non nuls 𝜎1, . . . , 𝜎𝑟 . À condition de préciser sa taille, on
dem Soient donc 𝐴 ∈ M𝑝,𝑛 (K) et 𝐵 ∈ M𝑛,𝑝 (K) et considérons pour tout 𝜆 ∈ K la notera diag(𝜎1, . . . , 𝜎𝑟 , 0, . . . , 0) la matrice Σ (non forcément carrée) telle que
matrice carrée d’ordre 𝑝 + 𝑛 Σ𝑖,𝑖 = 𝜎𝑖 pour 𝑖 6 𝑟 , tous les autres coefficients étant nuls.
 
𝜆𝐼𝑛 −𝜆𝐵
−𝐴 𝜆𝐼𝑝 Remarques 1.5
les opérations par blocs 𝐶 2 ← 𝐶 2 + 𝐶 1 𝐵 et 𝐿1 ← 𝐿1 + 𝐵𝐿1 sur cette matrice aboutissent
aux matrices Soit Σ = diag(𝜎1, . . . , 𝜎𝑟 , 0 . . . , 0) de taille 𝑛 × 𝑝.
   
𝑀 (𝜆) =
𝜆𝐼𝑛 0
et 𝑁 (𝜆) =
𝜆𝐼𝑛 − 𝐵𝐴 0 1 rg(Σ) = 𝑟 ;
−𝐴 𝜆𝐼𝑝 − 𝐴𝐵 −𝐴 𝜆𝐼𝑝 𝑡 ΣΣ
2 = diag(𝜎12, . . . , 𝜎𝑟2, 0 . . . , 0) ∈ M𝑝 (R) ;
Ces deux opérations conservent le déterminant donc det(𝑀 (𝜆)) = det(𝑁 (𝜆)).
Or det(𝑀 (𝜆)) = 𝜆𝑛 𝜒 𝐴𝐵 (𝜆) et det(𝑁 (𝜆)) = 𝜆𝑝 𝜒 𝐵𝐴 (𝜆)
3 Σ𝑡 Σ = diag(𝜎12, . . . , 𝜎𝑟2, 0 . . . , 0) ∈ M𝑛 (R).
ce résultat étant valable pour tout 𝜆 ∈ K, on en déduit le résultat voulu.
Vocabulaire

Soit une matrice 𝐴 ∈ M𝑛,𝑝 (R). On appelle valeurs singulières de 𝐴 les racines
Rappel carrées des valeurs propres de 𝑡𝐴𝐴. La multiplicité d’une valeur singulière 𝜎
de 𝐴 est par définition la multiplicité de la valeur propre 𝜎 2 de 𝑡𝐴𝐴.
Pour toute matrice diagonalisable 𝐵 ∈ M𝑛 (K),
M
Im 𝐵 = 𝐸𝜆 (𝐵) Remarques 1.6
𝜆 ∈Sp(𝐴)r{0}
dem chacun des sous-espaces propres de 𝐵 associé à une valeur propre non nulle est 1.6.1 Les matrices 𝐴 et 𝑡𝐴 ont les mêmes valeurs singulières non nulles, et
contenu dans Im 𝐵 donc leurs somme 𝐹 l’est aussi. En outre, M𝑛,1 (K) = Ker 𝐵 ⊕ 𝐹 et avec les mêmes multiplicités.
donc dim 𝐹 = 𝑛 − dim Ker 𝐵 = dim Im 𝐵. Alors 𝐹 = Im 𝐵.
1.6.2 0 est une valeur singuliére de 𝐴 si et seulement si rg 𝐴 < 𝑝, donc si
et seulement si les vecteurs colonnes de 𝐴 forment une famille liée. Dans
ce cas sa multiplicité est égale à dim Ker 𝑡𝐴𝐴 = dim Ker 𝐴. Le scalaire 0 peut
Théorème 1.8 réduction comparée de 𝑡𝐴𝐴 et de 𝐴𝑡𝐴
très bien être une valeur singulière de 𝐴 sans l’être pour 𝑡𝐴.
Soit 𝐴 ∈ M𝑝,𝑛 (R). On note 𝜆1, . . . , 𝜆𝑛 les valeurs propres de 𝑡𝐴𝐴 ordonnées
dans un sens décroissant. Ainsi si rg 𝐴 = 𝑟 et si 𝑟 < 𝑛 alors 𝜆𝑟 +1 = · · · = 𝜆𝑛 = 0. Lemme 1.9
On se donne une bon (𝑉1, . . . , 𝑉𝑛 ) formées de vecteurs propres de 𝑡𝐴𝐴 associés
Soient deux matrices 𝐴, 𝐵 ∈ M𝑝,𝑛 (R). Alors
dans le même ordre à 𝜆1, . . . , 𝜆𝑛 . Alors
𝐴𝐴 = 𝑡𝐵𝐵 ⇐⇒ ∃𝑄 ∈ O(𝑝) ; 𝐵 = 𝑄𝐴
𝑡
1 en posant 𝑊𝑖 = √1𝜆 𝐴𝑉𝑖 pour tout 𝑖 ∈ [[1, 𝑟 ]], (𝑊1, . . . ,𝑊𝑟 ) est une famille Résultat important démonstration 1.9, page 36
𝑖
orthormale formée de vecteurs propres de 𝐴𝑡𝐴 ;
Remarques 1.7
2 on complète cette famille en une bon de diagonalisation (𝑊1, . . . ,𝑊𝑝 )
de 𝐴𝑡𝐴 en ajoutant les vecteurs d’une bon (𝑊𝑟 +1, . . . ,𝑊𝑝 ) de Ker 𝑡𝐴. 1.7.1 Ce lemme est important. En dehors de son utilisation dans la démons-
démonstration 1.8, page 36 tration du théorème suivant, il sera souvent mis à contribution dans la suite

Classes MP* page 14 / 43 Stage de Fevrier Classes MP* page 15 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

remarques 1.7 (suite)

de ce document. 1 Selon que 𝑝 6 𝑛 ou 𝑛 6 𝑝, on calcule les valeurs propres de 𝑡𝐴𝐴


(d’ordre 𝑝) ou de 𝐴𝑡𝐴 (d’ordre 𝑛). Dans la suite on suppose que 𝑝 6 𝑛
1.7.2 Il signifie par exemple que dans un espace euclidien, deux familles
et on notera 𝑟 = rg(𝐴) et 𝜎1 > · · · > 𝜎𝑟 > 0 les valeurs singulières
de vecteurs (𝑥 1, . . . , 𝑥 𝑝 ) et (𝑦1, . . . , 𝑦𝑝 ) ont la même matrice de Gram si et non nulles de 𝐴 ;
seulement il existe une isométrie 𝑢 de 𝐸 telle que 𝑢 (𝑥𝑖 ) = 𝑦𝑖 pour tout
𝑖 ∈ [[1, 𝑝]]. 2 On détermine une bon (𝑉1, . . . , 𝑉𝑟 , . . . , 𝑉𝑝 ) formée de vecteurs propres
de 𝑡𝐴𝐴, (𝑉1, . . . , 𝑉𝑟 ) constituant une bon de Im 𝑡𝐴𝐴 et (𝑉𝑟 +1, . . . , 𝑉𝑝 )
de décomposition en valeurs singulières
une bon de Ker 𝑡𝐴𝐴 = Ker 𝐴. On forme la matrice 𝑃 avec ces vecteurs.
Théorème 1.10
3 On cherche une bon (𝑊𝑟 +1, . . . ,𝑊𝑛 ) de Ker 𝑡𝐴, la famille
Soit 𝐴 ∈ M𝑝,𝑛 (R). Il existe des matrices 𝑄 ∈ O(𝑝) et 𝑃 ∈ O(𝑛) telles que
1 1
𝐴 = 𝑄 Σ𝑡 𝑃 ( 𝐴𝑉1 . . . , 𝐴𝑉𝑟 ,𝑊𝑟 +1, . . . ,𝑊𝑛 )
𝜎1 𝜎𝑟
où Σ = diag(𝜎1, . . . , 𝜎𝑟 , 0, . . . , 0) est de même taille que 𝐴 où 𝑟 = rg 𝐴 et est alors une bon formée de vecteurs propres de 𝐴𝑡𝐴, 𝜎𝑖2 étant la va.p de
𝜎1, . . . , 𝜎𝑟 sont les valeurs singulières non nulles de 𝐴. Cette décomposition 𝑡𝐴𝐴 à laquelle est associé 𝑉 . On forme la matrice 𝑄 avec ces vecteurs
𝑖
est appelée décomposition en valeurs singulières de 𝐴.
démonstration 1.10, page 37
4 On peut maintenant écrire 𝐴 = 𝑄 Σ𝑡 𝑃 ou 𝑡𝐴 = 𝑃 𝑡 Σ𝑡 𝑄 selon le problème
fixé au départ, sachant que Σ est la matrice aux valeurs singulière de
Remarques 1.8 𝐴, avec les valeurs diagonales non nulles 𝜎1, . . . , 𝜎𝑟 .
Supposons 𝐴 = 𝑄 Σ𝑡 𝑃 où 𝑃 ∈ O(𝑛), 𝑄 ∈ O(𝑝) et Σ = (𝜎𝑖,𝑗 ) ∈ M𝑝,𝑛 (R) telle 1.12.2 Un exemple
que 𝜎𝑖,𝑖 = 𝜎𝑖 > 0 si 𝑖 6 𝑟 = rg(𝐴), et 𝜎𝑖,𝑗 = 0 dans les autres cas. Avec
1.8.1Alors 𝑡𝐴𝐴= 𝑃 𝑡 ΣΣ𝑡 𝑃,
avec 𝑡 ΣΣ
= diag(𝜎12, . . . , 𝜎𝑟2, 0, . . . , 0).
Donc les   1 1 0 −1  
éléments 𝜎𝑖 de Σ sont forcément des valeurs singulières de 𝐴 et les vecteurs 1 1 0 −1 ­1 2 −1 −2® 3 −2
© ª
𝑡
𝐴= 𝐴𝐴 = ­ ® 𝐴𝑡𝐴 =
colonnes de 𝑃 constituent une bon de diagonalisation de 𝑡𝐴𝐴. 0 −1 1 1 ­ 0 −1 1 1® −2 3
−1 −2 1 2
1.8.2D’autre part 𝑡𝐴 = 𝑃 𝑡 Σ𝑡 𝑄, donc les vecteurs colonnes de 𝑄 forment « ¬
une bon de diagonalisation de 𝐴𝑡𝐴. Le théorème de la réduction comparée Les valeurs propres de 𝐴 𝑡𝐴 sont 5 et 1, celles de 𝑡𝐴𝐴 sont (pas besoin de calcul)
1
de 𝑡𝐴𝐴 et 𝐴𝑡𝐴, fournit ainsi une méthode de construction simultanée des 5, 1, 0, 0. Le vecteur −1 est un ve.p de 𝐴𝑡𝐴 associé à la va.p 5. Le vecteur qui
1
matrices 𝑃 et 𝑄. lui est orthogonal 1 dirige donc le se.p associé à 1. Avec ces informations
   
1.8.3 L’égalité 𝐴𝑃 = 𝑄 Σ confirme le lien entre les matrices 𝑃 et 𝑄 puisque 𝑡 𝑡 5 0 1 1 1
𝐴 𝐴 = 𝑄𝐷 𝑄 avec 𝐷 = et 𝑄 = √
si 𝑉1, . . . , 𝑉𝑝 sont les vecteurs colonnes de 𝑃 et 𝑊1, . . . ,𝑊𝑛 ceux de 𝑄 alors 0 1 2 −1 1
∀𝑖 ∈ [[1, 𝑟 ]] , 𝐴𝑉𝑖 = 𝜎𝑖𝑊𝑖 et ∀𝑖 ∈ [[𝑟 + 1, 𝑝]] , 𝐴𝑉𝑖 = 0 Si on note 𝑊1 et 𝑊2 les vecteurs colonnes de 𝑄 alors

et en écrivant 𝑡𝐴𝑄 = 𝑃 𝑡 Σ, 1 1
1 𝑡 1 ­ 2 ª® 1𝑡 1 ­0ª®
© ©
∀𝑖 ∈ [[1, 𝑟 ]] , 𝑡𝐴𝑊𝑖 = 𝜎𝑖 𝑉𝑖 et ∀𝑖 ∈ [[𝑟 + 1, 𝑛]] , 𝑡𝐴𝑊𝑖 = 0 𝑉1 = √ 𝐴𝑊1 = √ ­ ® 𝑉2 = 𝐴𝑊2 = √ ­ ®
5 10 ­−1® 1 2 ­1®
−2
« ¬ «0¬
Méthode de calcul d’une décomposition en valeurs singulière
sont des ve.p de 𝑡𝐴𝐴 associés respectivement à 5 et à 1. Il ne reste qu’à com-
1.12.1 description

Classes MP* page 16 / 43 Stage de Fevrier Classes MP* page 17 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

pléter en une bon de ve.p en ajoutant une bon de Ker 𝐴, soit IV


0 2 Les décompositions matricielles
1 ­1ª® 1 ­−1ª®
© ©
𝑉3 = √ ­ ® 𝑉4 = √ ­ ®
2 ­0® 10 ­−2®
1
« ¬ «1¬ objectifs
𝑉3 est choisi car dans 𝐴 la somme des colonnes 2 et 4 est nulle. 𝑉4 est obtenu Dans cette section on passe en revue les résultats sur les décompo-
en écrivant les équations de Ker 𝐴 et en y ajoutant 𝑦 +𝑡 = 0 qui exprime que 𝑉4 sitions matricielles. Certaines sont des conséquences de la décom-
est orthogonal à 𝑉3 ou, ce qui revient au même, d’écrire que 𝑉4 est orthogonal position en valeurs singulières. On les traitera toutefois de façon
à 𝑉1, 𝑉2 et 𝑉3 . En conclusion indépendante et on soulignera les liens existants après. Cela ne veut
pas dire pour autant que dans la pratique il est plus facile pour ces
𝐴𝐴 = 𝑃𝐷 0𝑡𝑃
𝑡
𝐴𝑡𝐴 = 𝑄𝐷 𝑡𝑄 𝐴 = 𝑄Δ𝑡𝑃 décompositions de passer pas la svd. Les calculs qui mènent à la svd
  5 0 0 0   ne sont pas triviaux puisqu’ils exigent, entre autre, la connaissance
5 0 0 1 0 0® 5 0 0 0 des va.p de 𝑡 𝐴𝐴.
© ª
avec 𝐷= 𝐷0 = ­ Δ=
­
0 1 ­0 0 0 0® 0 1 0 0
®

«0 0 0 0¬

© 1 5 √0 2ª
 
1 1 1 1 ­­ 2 0 5 −1®
et 𝑄=√ 𝑃=√ ­ √ ® IV.1 Racine carrée d’une matrice symétrique positive
2 −1 1 10 ­−1 5 √0 −2®®
«−2 0 5 1¬
Théorème 1.12

Soit 𝑆 une matrice symétrique réelle positive. Il existe une matrice réelle

Théorème 1.11 application à la résolution d’un système linéaire symétrique positive 𝑇 unique telle que 𝑇 2 = 𝑆. La matrice 𝑇 sera notée 𝑆.
√ √
n.b. C’est la positivité de 𝑆 qui assure son unicité. Par exemple − 𝑆 est symétrique et
Soit un système linéaire son carré est 𝑆, mais elle n’est pas positive.
𝐴𝑋 = 𝑏 (S) démonstration 1.12, page 37

où 𝐴 ∈ M𝑝,𝑛 (R) et 𝑏 ∈ M𝑝,1 (R). Soit 𝐴 = 𝑄 Σ𝑡𝑃


la décomposition en valeurs
singulières de 𝐴. On note 𝜎1 > . . . > 𝜎𝑟 > 0 les valeurs singulières non nulles Proposition 1.13
de 𝐴, (𝑉1, . . . , 𝑉𝑛 ) les vecteurs colonnes de 𝑃 et 𝑊1, . . . ,𝑊𝑝 ceux de 𝑄. Alors √
les solutions au sens des moindres carrés de (S) sont les vecteurs Soit 𝑆 une matrice réelle symétrique positive. Alors la matrice 𝑆 est un
𝑟 𝑛 polynôme en 𝑆.
∑︁ 1 𝑡 ∑︁
démonstration 1.13, page 38
𝑋 = ( 𝑊𝑖 𝑏) 𝑉𝑖 + 𝑦𝑖 𝑉𝑖
𝑖=1 𝜎𝑖 𝑖=𝑟 +1
𝑦𝑟 +1, . . . , 𝑦𝑛 étant des réels quelconques. La solution de norme minimale étant Remarque 1.9
celle obtenu pour 𝑦𝑟 +1 = · · · = 𝑦𝑛 = 0. √ √
n.b. Si (S) est compatible alors ces vecteurs sont les solutions de (S). Puisque 𝑆 est une polynôme en 𝑆 et d’un autre côté 𝑆 = ( 𝑆) 2 , alors toute

démonstration 1.11, page 37 matrice donnée commute avec 𝑆 si et seulement si elle commute avec 𝑆.

Classes MP* page 18 / 43 Stage de Fevrier Classes MP* page 19 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

IV.2 Décomposition polaire Exercice 1.1 d’après Centrale 2013, maths 2, mp


On note S𝑛+ (R)
(resp. S𝑛++ (R)) l’ensemble des matrices symétriques réelles
Théorème 1.14 de la décomposition polaire
positives (resp. définies positives) d’ordre 𝑛. Démontrer que
Soit une matrice carrée 𝐴 ∈ M𝑛 (R). Il existe une matrice symétrique réelle 1 O(𝑛) est un compact.
(unique) 𝑆 et une matrice orthogonale (non forcément unique) 𝑄 telle que
2 Montrer que S𝑛+ (R) est un fermé et que S𝑛++ (R) est dense dans S𝑛+ (R).
𝐴 = 𝑄𝑆 3 Montrer que l’application Φ : O(𝑛) × 𝑆𝑛++ (R) −→ GL𝑛 (R) définie par
Cette écriture est dite une décomposition polaire de 𝐴.
démonstration 1.14, page 38
∀(𝑄, 𝑆) ∈ O(𝑛) × 𝑆𝑛++ (R), Φ(𝑄, 𝑆) = 𝑄𝑆
est une bijection bicontinue (ie Φ et Φ−1 sont continues).
Remarques 1.10

Soit 𝐴 = 𝑄𝑆 une décomposition polaire de 𝐴.


IV.3 Décomposition de Cholesky
1.10.1 𝑆 est unique.

dem Elle est définie par 𝑆 = 𝑡𝐴𝐴. Théorème 1.15 décomposition de Cholesky
1.10.2 On a rg 𝐴 = rg 𝑆, Ker 𝑆 = Ker 𝐴 et Im 𝑆 = Im 𝑡𝐴 = (Ker 𝐴) ⊥ . Soit 𝐴 ∈ M𝑛 (R) une matrice symétrique définie positive. Alors il existe une
dem 𝑄 est inversible donc rg 𝐴 = rg 𝑆. Toujours grâce à l’inversibilité de 𝑄, Ker 𝐴 = unique matrice triangulaire supérieure à coefficients diagonaux strictement
Ker 𝑆. Ensuite Im 𝑆 = (Ker 𝑡𝑆) ⊥ = (Ker 𝑆) ⊥ = (Ker 𝐴) ⊥ . positifs 𝑇 telle que 𝐴 = 𝑡 𝑇𝑇
1.10.3 Si 𝐴 est inversible alors 𝑄 est également unique démonstration 1.15, page 38

dem puisque dans ce cas 𝑆 sera aussi inversible et donc forcément 𝑄 = 𝐴𝑆 −1 . Méthodes de calcul de la décomposition de Cholesky
1.10.4 Si 𝐴 est non inversible alors 𝑄 n’est pas unique
1.14.1 Méthode de Gram-Schmidt
dem si 𝑃 est une matrice orthogonale
𝐴 étant une matrice symétrique définie positive, l’application
𝐴 = 𝑃𝑆 ⇐⇒ 𝑄𝑆 = 𝑃𝑆 ⇐⇒ (𝐼𝑛 − 𝑡 𝑄𝑃)𝑆 = 0 ⇐⇒ Im 𝑆 ⊂ Ker(𝐼𝑛 − 𝑡 𝑄𝑃)
Supposons que 𝐴 n’est pas inversible (et donc aussi 𝑆) et posons 𝑟 = rg 𝑆. Considérons
Φ : (𝑋, 𝑌 ) ∈ M𝑛,1 (R) 2 ↦−→ 𝑡 𝑋𝐴𝑌

une bon adaptée à la décomposition M𝑛,1 (R) = Im 𝑆 ⊕ Ker 𝑆 et la matrice de passage 𝑈 est un produit scalaire de M𝑛,1 (R) et sa matrice dans la base canonique est
 base dans la base canonique de M𝑛,1 (R). Soit 𝑊 ∈ O(𝑛 − 𝑟 ) et posons
de cette nouvelle
 𝐴. Soit B = (𝑉1, . . . , 𝑉𝑛 ) l’orthormalisée par le procédé de Gram-Schimdt
𝑃 = 𝑄 𝑡 𝑈 𝐼0𝑟 𝑊0 𝑈 . 𝑃 est orthogonale comme produit de matrices orthogonales et on a de la base canonique E = (𝐸 1, . . . , 𝐸𝑛 ) de M𝑛,1 (R) en utilisant ce produit
  scalaire. La matrice𝑇 = 𝑃 B E est triangulaire supérieure à coefficients diagonaux
0 0
𝐼𝑛 − 𝑡 𝑄𝑃 = 𝑡 𝑈 𝑈 strictement positifs. Pour tout (𝑋, 𝑌 ) ∈ M𝑛,1 (R) les vecteurs 𝑇 𝑋 et 𝑇𝑌 sont
0 𝐼𝑛−𝑟 − 𝑊
de telle sorte qu’on ait bien Im 𝑆 ⊂ Ker(𝐼𝑛 − 𝑡 𝑄𝑃). Ceci pour toute matrice 𝑊 ∈ O(𝑛 −𝑟 ). les vecteurs colonnes des coordonnées de 𝑋 et 𝑌 dans la Φ-bon B donc
1.10.5 La décomposition polaire découle de la décomposition aux valeurs Φ(𝑋, 𝑌 ) = 𝑡 (𝑇 𝑋 ) (𝑇𝑌 )
singulières. Ce qui nous mène à
dem si 𝐴 est une matrice carrée réelle et 𝐴 = 𝑃 Σ𝑡 𝑄 en est une décomposition en ∀(𝑋, 𝑌 ) ∈ M𝑛,1 (R) 2, 𝑡 𝑋𝐴𝑌 = 𝑡 𝑋 (𝑡 𝑇𝑇 )𝑌
valeurs singulières alors on peut écrire
𝐴 = (𝑃 𝑡 𝑄)(𝑄 Σ𝑡 𝑄) = 𝑈 𝑆 Et donc 𝐴 = 𝑡 𝑇𝑇 . Ainsi, 𝑇 peut être obtenue en appliquant le procédé de Gram-
où 𝑈 = 𝑃 𝑡 𝑄 est bien orthogonale et 𝑆 = 𝑄 Σ𝑡 𝑄 est symétrique positive. La décomposition Schmidt pour orthormaliser la base canonique de M𝑛,1 (R) pour le produit
en valeurs singulière peut être ainsi vue comme une généralisation de la décomposition scalaire (𝑋, 𝑌 ) ↦→ 𝑡 𝑋𝐴𝑌 .
polaire, valable même pour des matrices non carrées.

Classes MP* page 20 / 43 Stage de Fevrier Classes MP* page 21 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

1.14.2 Calcul direct des coefficients de 𝑇 1  𝑘−1


∑︁  𝑘−1
∑︁
On peut toutefois construire 𝑇 par calcul direct selon la technique préconisée 𝑉𝑘 = 𝐴𝑘 − 𝑟𝑖𝑘 𝑉𝑖 𝑟𝑖𝑘 = h𝐴𝑘 , 𝑉𝑖 i 16𝑖<𝑘 𝑟𝑘𝑘 = k𝐴𝑘 − 𝑟𝑖𝑘 𝑉𝑖 k
𝑟𝑘𝑘 𝑖=1 𝑖=1
par Cholesky lui même. L’existence et l’unicté de 𝑇 étant acquise on pose .. .. ..
𝐴 = (𝑎𝑖,𝑗 ) et 𝑇 = (𝑡𝑖,𝑗 ) avec 𝑡𝑖,𝑗 = 0 si 𝑖 > 𝑗. On calcule les coefficients de 𝑇 . . .
colonne après colonne en résolvant les sytèmes d’équations (qui proviennent,
pour la 𝑗 eme colonne, des égalités h𝑇𝑖 ,𝑇 𝑗 i = 𝑎𝑖,𝑗 pour tout 𝑖 ∈ [[1, 𝑗]])
Soient 𝑄 la matrice orthogonale dont les vecteurs colonnes sont 𝑉1, 𝑉2, · · · , 𝑉𝑛
2
𝑡 11 = 𝑎 11 et 𝑅 la matrice triangulaire supérieures dont les colonnes sont les vecteurs
2 2

𝑡 11𝑡 12 = 𝑎 12 𝑡 12 + 𝑡 22 = 𝑎 22 𝑅𝑘 = 𝑡 𝑟 1𝑘 · · · 𝑟𝑘𝑘 0 · · · 0
.. .. 𝑘
∑︁
. . on a ∀𝑘 ∈ [[1, 𝑛]] 𝐴𝑘 = 𝑟𝑖𝑘 𝑉𝑖 = 𝑄𝑅𝑘
2 2
𝑡 11𝑡 1𝑛 = 𝑎 1𝑛 𝑡 12𝑡 1𝑛 + 𝑡 22𝑡 2𝑛 = 𝑎 2𝑛 ··· 𝑡 1𝑛 + · · · + 𝑡𝑛𝑛 = 𝑎𝑛𝑛 𝑖=1
donc 𝐴 = 𝑄𝑅
Voilà ! la décomposition 𝑄𝑅 est l’exacte traduction matricielle du procédé de
IV.4 Décomposition 𝑄𝑅 Gram-Schmidt.
1.15.2 Méthode de Householder
Théorème 1.16 Décomposition 𝑄𝑅
On peut construire les matrices 𝑄 et 𝑇 par récurrence, selon un schéma qui
Pour toute matrice carrée réelle inversible 𝐴 il existe une matrice orthogonale rappelle la méthode des éliminations de Gauss.
𝑄 et une matrice triangulaire supérieure 𝑅 telles que 𝐴 = 𝑄𝑅. En outre 𝑄 et 𝑅 La méthode repose sur le résultat selon lequel, pour tout couple (𝑉 ,𝑊 ) de
sont uniques si on suppose que les coefficients diagonaux de 𝑅 sont positifs. vecteurs non nuls de M𝑛,1 (R) tels que k𝑉 k = k𝑊 k, il existe une matrice
démonstration 1.16, page 39
orthogonale 𝑄 telle que 𝑄𝑉 = 𝑊 .
Remarques 1.11 dem dans le cas où 𝑉 = 𝑊 on prend 𝑄 = 𝐼𝑛 . Si 𝑉 ≠ 𝑊 on pose 𝐶 = 𝑉 − 𝑊 et on prend
𝑄 = 𝐼𝑛 − 2 2 𝐶 𝑡 𝐶 ce qui donne pour tout vecteur 𝑋 ∈ M𝑛,1 (R)
k𝐶 k
Si 𝐴 = 𝑄𝑅 alors 𝑡𝐴𝐴 = 𝑡𝑅𝑅. Ainsi 𝑅 est la matrice qui apparait dans la
h𝐶, 𝑋 i
décomposition de Cholesky de la matrice symétrique définie positive 𝑡𝐴𝐴. 𝑄𝑋 = 𝑋 − 2 𝐶
k𝐶 k 2
1 𝐶𝑡 𝐶 est la matrice de la projection orthogonale sur la droite R𝐶 donc 𝑄 est la matrice
Méthodes de calcul de la décomposition 𝑄𝑅 k𝐶 k 2
de la symétrie orthogonale d’axe 𝐻 = (R𝐶) ⊥ . On vérifie qu’on a bien 𝑄𝑉 = 𝑊 .
1.15.1 Méthode de Gram-Schmidt
Notons 𝑉 le premier
 vecteur colonne de 𝐴 et considérons le vecteur 𝑊 =
Notons 𝐴1, 𝐴2, · · · , 𝐴𝑛 les vecteurs colonnes de 𝐴 et appliquons leurs le pro- 𝑡 k𝑉 k 0 · · · 0 . On a k𝑉 k = k𝑊 k, soit donc une matrice orthogonale 𝑄 1
cédé de Gram-Schmidt :
telle que 𝑄 1𝑉 = 𝑊 . On se ramène donc à
1 (1)
k𝑉 k 𝑎 1,2 (1)
· · · 𝑎 1,𝑛
𝑉1 = 𝐴1 𝑟 11 = k𝐴1 k
𝑟 11 ©
­ 0
ª
®
1   𝑄 1𝐴 = ­­ .. ®
𝑉2 = 𝐴2 − 𝑟 12𝑉1 𝑟 12 = h𝐴2, 𝑉1 i 𝑟 22 = k𝐴2 − 𝑟 12𝑉1 k . 𝐵
®
𝑟 22 ­ ®
.. .. .. « 0 ¬
. . . (1)
où 𝐵 = (𝑎𝑖,𝑗 )26𝑖,𝑗 6𝑛 ∈ M𝑛−1 (R) est une matrice inversible. Plus exactement,

Classes MP* page 22 / 43 Stage de Fevrier Classes MP* page 23 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

remarques 1.13 (suite)

si 𝑉 ≠ 𝑊 , en notant 𝐶 = 𝑉 − 𝑊 et 𝑟 = k𝐶 k alors le 𝑗 eme vecteur colonne de que puisque 𝐴 R 𝑆 alors 𝑂 (𝐴) = 𝑂 (𝑆).
𝑄 1𝐴 est donnée par
1.13.2 Si 𝐴 est inversible, la décomposition 𝑄𝑅 prouve que 𝑂 (𝐴) contient
2
𝑄 1𝐴 𝑗 = 𝐴 𝑗 − 2 h𝐶, 𝐴 𝑗 i𝐶 une et une seule matrice triangulaire supérieure à coefficients diagonaux
𝑟
Et coefficient par coefficient par les formules positifs. Par ailleurs 𝑂 (𝐴) = 𝑂 (𝑅).
(1) 𝑠𝑗
𝑎𝑖,𝑗 = 𝑎𝑖,𝑗 − 2 2 𝑐𝑖 (𝑠 𝑗 = h𝐶, 𝐴 𝑗 i)
𝑟 Théorème 1.17 maximum de la trace sur une orbite
On continue le procédé en appliquant la même technique au premier vecteur √
colonne de 𝐵, sachant que si 𝑄 20 et la matriceorthogonale d’ordre 𝑛 − 1 par Soit 𝐴 ∈ M𝑛 (R) et soit 𝑆 = 𝑡𝐴𝐴. Alors
∀𝑈 ∈ O(𝑛), Tr(𝑈 𝐴) 6 Tr(𝑆)

1 0
laquelle on doit multiplier 𝐵, en posant 𝑄 2 = 0 𝑄 20 on aura
(1) (1) Ce qui signifie que l’application Tr atteint son maximum sur 𝑂 (𝐴) en 𝑆.
k𝑉 k 𝑎 1,2 · · · 𝑎 1,𝑛 démonstration 1.17, page 39
© ª
­ 0 ®
𝑄 2𝑄 1𝐴 = ­­ . ®
­ .. 𝑄 20 𝐵 Remarques 1.14
®
®
« 0 ¬ O(𝑛) est un compact donc pour tout 𝐴 ∈ M𝑛 (R), 𝑂 (𝐴) est un compact
Pour récupérer les matrices 𝑄 et 𝑅 finales on part d’une écriture (𝐴 | 𝐼𝑛 ) comme image de O(𝑛) par l’application continue 𝑀 ↦−→ 𝑀𝐴. Ceci justifie
et on multiplie à chaque fois simultanément les deux blocs par la matrice de façon intrinsèque l’existence d’un maximum de la trace sur l’orbite 𝑂 (𝐴).
orthogonale 𝑄𝑖 formée. Le but étant de faire apparaître dans le bloc de gauche
une matrice triangulaire supérieure. Le bloc de droite contiendrait alors la Théorème 1.18 caractérisation d’une matrice symétrique positive
matrice 𝑄.
Soit 𝐴 ∈ M𝑛 (R). Alors
𝐴 ∈ S𝑛+ (R) ⇐⇒ ∀𝑈 ∈ O(𝑛), Tr(𝑈 𝐴) 6 Tr(𝐴)
IV.5 Une application des décompositions matricielles démonstration 1.18, page 39

Remarque 1.12 (Une relation d’équivalence)


Remarques 1.15
On définit dans M𝑛 (R) la relation binaire R par √
Soit 𝐴 ∈ M𝑛 (R). Soit 𝑆 = 𝑡𝐴𝐴.
∀(𝐴, 𝐵) ∈ M𝑛 (R), 𝐴 R 𝐵 ⇐⇒ 𝐴𝐴 = 𝐵𝐵𝑡 𝑡

De façon évidente, R est une relation d’équivalence de M𝑛 (R). On notera 1.15.1 Nous venons de montrer, dans les deux dernières applications, que
𝑂 (𝐴), et on appelera orbite de 𝐴, la classe d’équivalence d’une matrice ∀𝑈 ∈ O(𝑛), Tr(𝑈 𝐴) 6 Tr(𝑆)
𝐴 ∈ M𝑛 (R). Le lemme 1.9 démontre que pour tout 𝐴 ∈ M𝑛 (R) avec égalité si et seulement si 𝑈 𝐴 = 𝑆.
𝑂 (𝐴) = {𝐵 ∈ M𝑛 (R) / 𝑡𝐴𝐴 = 𝑡 𝐵𝐵} = 𝑈 𝐴 / 𝑈 ∈ O(𝑛)

1.15.2 On obtient en particulier, lorsque 𝜎1, . . . , 𝜎𝑛 sont les valeurs singu-
lières de 𝐴 (les valeurs propres de 𝑆)
Remarques 1.13 𝑛
∑︁
Tr(𝐴) 6 𝜎𝑖
1.13.1 La décomposition polaire implique que 𝑂 (𝐴) √ contient une et une 𝑖=1
seule matrice symétrique positive. C’est la matrice 𝑆 = 𝑡𝐴𝐴. Noter en outre avec égalité si et seulement si 𝐴 est symétrique positive.

Classes MP* page 24 / 43 Stage de Fevrier Classes MP* page 25 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

remarques 1.16 (suite)


V 𝑡𝐴𝐴𝐵𝐴 𝑡𝐴𝐴
3 𝑆𝑅𝑆 = 𝑆𝐵𝐴 = = =𝑆;
Application à la notion de pseudo-inverse 4 𝑅𝑆𝑅 = 𝐵𝐴𝑅 = 𝐵𝐴𝐵𝑡 𝐵 = 𝐵𝑡 𝐵 = 𝑅.

V.1 Définition, existence et unicité


Théorème 1.19 d’existence et d’unicité du pseudo-inverse
Définition 1.4
Toute matrice 𝐴 ∈ M𝑛,𝑝 (R) admet un unique un pseudo-inverse. Plus pré-
Soit 𝐴 une matrice réelle de taille 𝑛 × 𝑝. On appelle pseudo-inverse de 𝐴 toute cisément, il existe des matrices orthogonales 𝑃 ∈ O(𝑛), 𝑄 ∈ O(𝑝) telles
matrice réelle 𝐵 de taille 𝑝 × 𝑛 telle que que
 
𝐴𝐵𝐴 = 𝐴 ; 𝐴 0 𝑡
𝐴=𝑃 1


 𝑄
0 0


𝐵𝐴𝐵 = 𝐵 ;
où 𝐴1 ∈ GL𝑟 (R) avec 𝑟 = rg 𝐴, et dans ce cas la matrice

𝐴𝐵 et 𝐵𝐴 sont symétriques.

  −1 
𝐴 0 𝑡
n.b. Il existe plusieurs variantes de la notion de pseudo-inverse. On adopte ici la défini- 𝐵 =𝑄 1 𝑃
tion de Moore-Penrose. Celle qui est la plus en adéquation avec le thème de ce document 0 0
est l’unique pseudo-inverse de 𝐴. On le note 𝐴+ .
Remarques 1.16 démonstration 1.19, page 39

Soit 𝐴 ∈ M𝑛,𝑝 (R). On suppose que 𝐴 admet un pseudo-inverse 𝐵.


1.16.1 𝐴𝐵 est la projection orthogonale de M𝑛,1 (R) sur Im 𝐴. 𝐵𝐴 est la Remarques 1.17
projection orthogonale de M𝑝,1 (R) sur Im 𝐵. Selon le schémas mis en place par la démonstration précédente il suffit de
dem On a 𝐴𝐵𝐴𝐵 = 𝐴𝐵 et 𝐵𝐴𝐵𝐴 = 𝐵𝐴, donc 𝐴𝐵 et 𝐵𝐴 sont des matrices de projections. déterminer des bases B et B0, de former ensuite les matrices 𝑃, 𝑄 et 𝐴1 et
Elles sont symétriques donc ce sont des projections orthogonales. de calculer 𝐴−1
1 .
On a Im 𝐴𝐵 ⊂ Im 𝐴. En outre (𝐴𝐵)𝐴 = 𝐴 donc Im 𝐴 ⊂ Im 𝐴𝐵 et par suite Im 𝐴𝐵 = Im 𝐴.
De même Im 𝐵𝐴 = Im 𝐵. Alors 𝐴𝐵 est la projection orthogonale sur Im 𝐴 et 𝐵𝐴 est la 1.17.1On détermine une bon (𝑉𝑟 +1, . . . , 𝑉𝑝 ) de Ker 𝐴 et on la complète en
projection orthogonale sur Im 𝐵 une bon B = (𝑉1, . . . , 𝑉𝑟 , . . . , 𝑉𝑝 ) de M𝑝,1 (R).
1.16.2 Ker 𝐵 = (Im 𝐴) ⊥ = Ker 𝑡𝐴 et Im 𝐵 = (Ker 𝐴) ⊥ = Im 𝑡𝐴. 1.17.2 (𝐴𝑉1, . . . , 𝐴𝑉𝑟 ) est une base de Im 𝐴. On peut l’orthonormaliser pour

dem On a Ker 𝐴 ⊂ Ker 𝐵𝐴 et comme 𝐴 = 𝐴(𝐵𝐴) alors Ker 𝐵𝐴 ⊂ Ker 𝐴. Par suite former une bon (𝑊1, . . . ,𝑊𝑟 ) de Im 𝐴. Les expressions de 𝐴𝑉1, . . . , 𝐴𝑉𝑟 dans
Ker 𝐵𝐴 = Ker 𝐴. Puisque 𝐵𝐴 est une projection orthogonale alors Im 𝐵 = Im 𝐵𝐴 = (𝑊1, . . . ,𝑊𝑟 ) permettront de former la matrice 𝐴1 (qui sera ici triangulaire
(Ker 𝐵𝐴) ⊥ = (Ker 𝐴) ⊥ . 𝐴 est un pseudo-inverse de 𝐵 donc Im 𝐴 = (Ker 𝐵) ⊥ . supérieure et tant mieux pour le calcul de son inverse).
1.16.3 rg 𝐵 = rg 𝐴. 1.17.3 On compléte (𝑊1, . . . ,𝑊𝑟 ) en une bon B0 = (𝑊1, . . . ,𝑊𝑟 , . . . ,𝑊𝑛 ) de
dem Découle de l’égalité Im 𝐵 = (Ker 𝐴) ⊥ . M𝑛,1 (R).
1.16.4 𝐵𝑡 𝐵 est un pseudo inverse de 𝑡𝐴𝐴.
dem Posons 𝑆 = 𝑡𝐴𝐴 et 𝑅 = 𝐵𝑡 𝐵. Les matrices 𝐴𝐵 et 𝐵𝐴 sont symétriques donc Proposition 1.20
1 𝑆𝑅 = (𝑡𝐴𝐴) (𝐵𝑡 𝐵) = 𝑡𝐴(𝐴𝐵)𝑡 𝐵 = 𝑡 (𝐵(𝐴𝐵)𝐴) = 𝑡 (𝐵𝐴) = 𝐵𝐴 ;
2 𝑅𝑆 = (𝐵𝑡 𝐵) (𝑡𝐴𝐴) = 𝐵𝑡 (𝐴𝐵)𝐴 = 𝐵𝐴𝐵𝐴 = 𝐵𝐴. Ainsi 𝑆𝑅 = 𝑅𝑆 = 𝐵𝐴 est une Soit 𝐴 ∈ M𝑛,𝑝 (R). Pour tout 𝑈 ∈ O(𝑛) et 𝑉 ∈ O(𝑝)
matrice symétrique. Les autres conditions suivent : (𝑈 𝐴𝑉 ) + = 𝑡 𝑉 𝐴+ 𝑡 𝑈
démonstration 1.20, page 40

Classes MP* page 26 / 43 Stage de Fevrier Classes MP* page 27 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

VI
Exercice 1.2
Soit 𝐴 ∈ M𝑛,𝑝 (R). Montrer que Normes de matrices et conditionnement
1 si rg 𝐴 = 𝑝 alors 𝑡𝐴𝐴 est inversible et 𝐴+ = (𝑡𝐴𝐴) −1 𝑡𝐴 ;
VI.1 Des normes de M𝑛,𝑝 (R)
2 si rg 𝐴 = 𝑛 alors 𝐴𝑡𝐴 est inversible et 𝐴+ = 𝑡𝐴(𝐴𝑡𝐴) −1 .
Normes de M𝑛,𝑝 (R)
Proposition 1.21 pseudo-inverse et valeurs singulières
On notera (𝐸 1(𝑛) , (𝐸 2(𝑛) , . . . , 𝐸𝑛(𝑛) ) la base canonique de M𝑛,1 (R).
Soit 𝐴 ∈ M𝑛,𝑝 (R). Soit une décomposition aux valeurs singulières de 𝐴, On munit M𝑛,𝑝 (R) des normes |||.|||, dite norme spectrale, et k.k 𝐹 dite norme
𝐴 = 𝑃 Σ𝑡 𝑄 avec Σ = diag(𝜎1, . . . , 𝜎𝑟 , 0 . . . , 0) où 𝜎!, . . . , 𝜎𝑟 sont les valeurs de Frobenius, définies par :
singulières non nulles de 𝐴. Alors k𝐴𝑋 k𝑛
  ∀𝐴 ∈ M𝑛,𝑝 (R), |||𝐴||| = sup = sup k𝐴𝑋 k𝑛
1 1 𝑋 ≠0 k𝑋 k 𝑝
𝐴 = 𝑄 Σ 𝑃 où Σ = diag
+ +𝑡 +
, . . . , , 0 . . . , 0 de taille 𝑝 × 𝑛 k𝑋 k 𝑝 =1
𝜎1 𝜎𝑟  1/2  ∑︁ 2  1/2
En particulier les valeurs singulières non nulles de 𝐴+ sont 1 1
. ∀𝐴 ∈ M𝑛,𝑝 (R), k𝐴k 𝐹 = Tr(𝑡 𝐴𝐴) = 𝑎𝑖,𝑗
𝜎1 , . . . , 𝜎𝑟 𝑖,𝑗
démonstration 1.21, page 40
Attention il s’agit ici d’une généralisation des mêmes notions vues dans le
cours mais réservées aux matrices carrées. Cela n’a pas de sens, par exemple,
de qualifier ces normes de normes d’algèbres dans le cas où 𝑝 ≠ 𝑛.
V.2 Application au problème des moindres carrés |||.||| est la norme de M𝑛,𝑝 (R) subordonnée aux normes euclidiennes cano-
niques de M𝑝,1 (R) et de M𝑛,1 (R). Une conséquence immédiate de sa définition
Théorème 1.22 Une solution du problème aux moindres carrés
est que
Considérons un système linéaire ∀𝑋 ∈ M𝑝,1 (R), k𝐴𝑋 k 6 |||𝐴||| k𝑋 k
𝐴𝑋 = 𝑏 (S) On notera aussi que
𝑝
(𝑝) 2
k𝐴k 2𝐹 =
∑︁
avec 𝐴 ∈ M𝑛,𝑝 (R) et 𝑏 ∈ M𝑛,1 (R). Alors le vecteur 𝐴+𝑏
minimise la fonction 𝐴𝐸 𝑗
𝑓 : 𝑋 ↦−→ k𝐴𝑋 − 𝑏 k 2 . De plus 𝐴+𝑏 est le vecteur de norme minimale parmi
𝑗=1

tous les vecteurs qui minimisent 𝑓


démonstration 1.22, page 40
Notations

On notera pour une matrice 𝐴 ∈ M𝑛,𝑝 (R), VS(𝐴) l’ensemble des valeurs
Corollaire 1.23
singulières non nulles de 𝐴.

Soit 𝐴 ∈ M𝑛,𝑝 (R). Pour tout 𝑌 ∈ M𝑛,1 (R) r{0}. Quand 𝐴 est non nulle on a VS(𝐴) ⊂ R∗+ .

n.b. VS(𝐴) = Sp 𝑡 𝐴𝐴

𝑌 ∈ Im 𝐴 ⇐⇒ 𝐴𝐴+𝑌 = 𝑌
Propriétés 1.24
et dans ce cas 𝐴+𝑌 et le vecteur 𝑋 de norme minimale tel que 𝐴𝑋 = 𝑌 .
démonstration 1.23, page 41 Soient 𝐴 ∈ M𝑛,𝑝 (R) et 𝐵 ∈ M𝑝,𝑞 (R).
1.24.1 |||𝐴||| = sup |h𝑋, 𝐴𝑌 i|.
k𝑋 k=1, k𝑌 k=1

Classes MP* page 28 / 43 Stage de Fevrier Classes MP* page 29 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

propriétés 1.24 (suite) VI.2 Conditionnement d’une matrice

1.24.2 |||𝑡 𝐴||| = |||𝐴||| et


𝐹
= k𝐴k 𝐹 .
𝑡𝐴
À propos de conditionnement

1.24.3 |||𝐴||| 6 k𝐴k 𝐹 6 𝑝 |||𝐴|||.
Considérons un système linéaire
1.24.4 |||𝐴𝐵||| 6 |||𝐴||||||𝐵|||.
1.24.5 k𝐴𝐵k 𝐹 6 |||𝐴||| k𝐵k 𝐹 6 k𝐴k 𝐹 k𝐵k 𝐹 𝐴𝑋 = 𝑏 (S)

1.24.6 Pour toutes matrices orthogonales 𝑈 ∈ O(𝑛) et 𝑉 ∈ O(𝑝) Les techniques de résolution des systèmes linéaires se divisent majoritaire-
ment en deux catégories. Les méthodes dite exactes, qui reposent en général
k𝑈 𝐴𝑉 k 𝐹 = k𝐴k 𝐹 |||𝑈 𝐴𝑉 ||| = |||𝐴||| sur une décomposition matricielle, et les techniques itératives qui s’efforcent
démonstration 1.24, page 41
de calculer une valeur approchée de la (ou de l’une des) solution(s) avec une
Remarques 1.18
erreur maitrisée en créant par exemple une suite récurrente qui converge vers
l’une des solutions.
1.18.1 Dans le cas où 𝑛 = 𝑝 = 𝑞 les propriétés 1.24.4 et 1.24.5 démontrent Nous nous intéressons ici à la première catégorie. Un phénomène commun
que |||.||| et k.k 𝐹 sont des normes d’algèbres de M𝑛 (R). à toutes les techniques de calcul exact est, dans certains cas, la sensitivité
1.18.2 La propriété 1.24.6 est remarquable du fait qu’elle signifie que les exagérée aux perturbations des données d’entrée (les coefficients de 𝐴 et de
deux normes |||.||| et k.k 𝐹 sont invariables par multiplication à gauche ou à 𝑏). Il s’agit alors d’étudier dans quelles proportions l’erreur de mesure des
droite par des matrices orthogonales. données d’entrée va influer sur le calcul de solutions du système. Il est en
effet connu que, dans certains cas, de petites variations dans les coefficients
Théorème 1.25 de 𝑏 et/ou de 𝐴 peut générer des variations relativement très grandes pour
les solutions. De tels systèmes sont dit mal conditionnés.
Soit 𝐴 ∈ M𝑛,𝑝 (R) une matrice non nulle, Notons 𝑟 = rg 𝐴 et 𝜎1 > · · · > 𝜎𝑟 > 0 Le conditionnement d’un sytème linéaire est une constante numérique qui
ses valeurs singulières non nulles. Alors peut rendre prévisible les variations relatives des solutions en fonction de
𝑟
 ∑︁  1/2 celles des données d’entrée du système.
|||𝐴||| 𝐹 = 𝜎𝑖2 |||𝐴||| = max 𝜎𝑖
𝑖=1 𝑖
démonstration 1.25, page 42
Définition 1.6
Remarques 1.19
Soit une matrice 𝐴 ∈ M𝑛,𝑝 (R). |||.||| étant la norme spectrale de M𝑛,𝑝 (R), on
|||𝐴||| = 𝜌 (𝑡 𝐴𝐴) 1/2 et k𝐴k 𝐹 = Tr(𝑡 𝐴𝐴)
 1/2
. appelle conditionnement de 𝐴 le réel
cond(𝐴) = |||𝐴||||||𝐴+ |||
Exemples 1.1 n.b. Dans un soucis d’homogéinité dans ce cours, cond(𝐴) est définie ici avec la norme
spectrale |||.|||. Il peut toutefois être défini avec n’importe quelle norme subordonnée. Bien
Soit une matrice carrée 𝐴 ∈ M𝑛 (R). sûr le conditionnement dépendra de la norme utilisée.
1 Si 𝐴 est symétrique alors |||𝐴||| = 𝜌 (𝐴).
2 Si 𝐴 est orthogonale alors |||𝐴||| = 1.
Remarques 1.20
3 Si 𝐴 est la matrice d’une projection alors |||𝐴||| > 1 avec égalité si et
seulement si 𝐴 est une projection orthogonale. Si 𝐴 est une matrice carrée inversible alors cond(𝐴) = |||𝐴||||||𝐴−1 |||.

Classes MP* page 30 / 43 Stage de Fevrier Classes MP* page 31 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

Propriétés 1.26 Propriétés 1.29

Soit 𝐴 ∈ M𝑛,𝑝 (R). Soit 𝐴 ∈ M𝑛,𝑝 (R) une matrice non nulle.
1 cond 𝐴 > 1. max VS(𝐴)
1 cond(𝐴) = .
2 Pour tout matrice orthogonale 𝑈 ∈ O(𝑛), cond(𝑈 ) = 1. min VS(𝐴)
2 cond(𝐴) > 1 avec égalité si et seulement si 𝐴 admet une seule valeur
3 cond(𝐴) = cond(𝐴+ ) et pour tout 𝛼 ∈ R∗ , cond(𝛼𝐴) = cond(𝐴).
singulière non nulle.
4 Pour tous 𝑈 ∈ O(𝑛) et 𝑉 ∈ O(𝑝) on a cond(𝑈 𝐴𝑉 ) = cond(𝐴)
démonstration 1.26, page 43
3 Si 𝐴 est une matrice carrée alors cond 𝐴 = 1 si et seulement s’il existe
𝛼 > 0 tel que :
∀𝑋 ∈ M𝑛,1 (R), k𝐴𝑋 k = 𝛼 k𝑋 k
Théorème 1.27 conditionnement partiel d’un système linéaire
ie que 𝛼1 𝐴 est une matrice orthogonale.
On considère un système linèaire

𝐴𝑋 = 𝑏 (S)

où 𝐴 ∈ M𝑛,𝑝 (R) et 𝑏 ∈ M𝑛,1 (R).


1 Si 𝛿𝑋 est l’erreur de norme minimale induite sur une solution 𝑋 de (S)
par une perturbation 𝛿𝑏 de 𝑏. Alors
k𝛿𝑋 k k𝛿𝑏 k
6 cond(𝐴)
k𝑋 k k𝑏 k
2 Si 𝛿𝑋 est l’erreur de norme minimale induite sur une solution 𝑋 de (S)
par une perturbation 𝛿𝐴 de 𝐴. Alors
k𝛿𝑋 k |||𝛿𝐴|||
6 cond(𝐴)
k𝑋 + 𝛿𝑋 k |||𝐴|||
démonstration 1.27, page 43

Théorème 1.28 conditionnement général d’un système de Cramer

On considère un système de Cramer d’ordre 𝑛

𝐴𝑋 = 𝑏 (S)

Soit 𝛿𝑋 l’erreur induite sur la solution 𝑋 de (S) par des perturbations simulta-
nées 𝛿𝑏 de 𝑏 et 𝛿𝐴 de 𝐴. Alors
k𝛿𝑋 k cond 𝐴  k𝛿𝑏 k |||𝛿𝐴||| 
6 +
k𝑋 k 1 − cond(𝐴) |||𝛿𝐴 ||| k𝑏 k
|||𝐴 |||
|||𝐴|||
démonstration 1.28, page 44

Classes MP* page 32 / 43 Stage de Fevrier Classes MP* page 33 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

Démonstration du corollaire 1.7


VII Les matrices 𝑡𝐴𝐴 et 𝐴𝑡𝐴 sont diagonalisables. La proposition prédente indique
Démonstrations des théorèmes qu’elles ont les mêmes valeurs propres non nulles et avec les mêmes multiplicités
puisque les sous-espaces propres associés ont les même dimensions. À ce stade,
Démonstration du théorème 1.3
si 𝛼 et 𝛽 désignent les multiplicités (éventuellement nulle(s)) de 0 en tant que
racine de 𝜒 𝑡𝐴𝐴 et de 𝜒 𝐴𝑡𝐴 , on a
On démontre d’abords que 𝜒 𝐴 est scindé sur R. Soit en effet 𝜆 ∈ SpC (𝐴) et 𝜒 𝑡𝐴𝐴 (𝑋 ) 𝜒 𝐴𝑡𝐴 (𝑋 )
soit 𝑋 ∈ M𝑛,1 (C) non nul tel que 𝐴𝑋 = 𝜆𝑋 . On a alors 𝐴𝑋 = 𝜆𝑋 . L’égalité =
𝑡 𝑋𝐴𝑋 = 𝑡 (𝑡 𝑋𝐴𝑋 ) = 𝑡 𝑋𝐴𝑋 donne ensuite, 𝜆𝑡 𝑋𝑋 = 𝜆𝑋𝑋 . Comme 𝑡 𝑋𝑋 = 𝑡 𝑋𝑋 = 𝑋𝛼 𝑋𝛽
On conclu en comparant les degrés des deux polynômes.
|𝑥 | 2 est un scalaire non nul alors 𝜆 = 𝜆, soit 𝜆 ∈ R.
P𝑛
𝑘=1 𝑘
Soit maintenant 𝐹 = 𝜆 ∈Sp(𝐴) 𝐸𝜆 (𝐴) la somme de tous les sous-espaces propres
P
de 𝐴. 𝐹 est stable par 𝐴 donc 𝐹 ⊥ est stable par 𝑡𝐴, soit par 𝐴. L’endomorphisme Démonstration du théorème 1.8
induit par 𝐴 sur 𝐹 ⊥ est auto-adjoint donc son polynôme caractéristique est L’essentiel a été démontré dans la proprosition précédente. Les vecteurs 𝑊𝑖 , 𝑖 =
scindé sur R. Si jamais 𝐹 ⊥ est non nul alors 𝐴 admettra des vecteurs propres 1, . . . , 𝑟 sont des vecteurs propres de 𝐴𝑡𝐴. Ils sont unitaires, ceux associés à une
dans 𝐹 ⊥ . Ce qui est impossible car, justement, tous les vecteurs propres de 𝐴 même valeurs propre sont orthogonaux, et ceux associés à des valeurs propres
sont dans 𝐹 . Ainsi 𝐹 ⊥ = {0} et donc 𝐹 = 𝐸. On vient de démontrer que 𝐴 est distinctes sont orthogonaux de façon naturelle puisque 𝐴𝑡𝐴 est symétrique. On
diagonalisable. Elle est symétrique donc ses sous-espaces propres sont deux n’a plus qu’à compléter avec une bon de Ker 𝐴𝑡𝐴 = Ker 𝑡𝐴 pour former une bon
à deux orthogonaux. Ce qui donne la possibilité de former une bon avec des de diagonalisation de 𝐴𝑡𝐴
vecteurs propres de 𝐴. 𝐴 est donc orthogonalement diagonalisable.

Démonstration du lemme 1.9


Démonstration de la proposition 1.6
Si 𝐵 = 𝑈 𝐴 avec 𝑈 ∈ O(𝑝) alors il est clair que 𝑡𝐴𝐴 = 𝑡𝐵𝐵. Réciproquement ;
Soit 𝑋 ∈ 𝐸𝜆 (𝑡𝐴𝐴). 𝑡𝐴𝐴𝑋
= 𝜆𝑋 donc 𝐴𝑡𝐴(𝐴𝑋 )
= 𝜆𝐴𝑋 et donc 𝐴𝑋 ∈ 𝐸𝜆 En (𝐴𝑡𝐴). supposons que 𝑡𝐴𝐴 = 𝑡𝐵𝐵. D’après le théorème spectral, il existe une matrice
outre, du fait de l’égalité 𝑡𝐴𝐴𝑋 = 𝜆𝑋 , si 𝑋 est non nul alors forcément 𝐴𝑋 est orthogonale 𝑃 ∈ O(𝑛) telle que 𝑡𝑃 𝑡𝐴𝐴𝑃 = 𝑡𝑃 𝑡𝐵𝐵𝑃 soit une matrice diagonale
non nul. 𝐷 = diag(𝜆1, . . . , 𝜆𝑛 ). En posant 𝑟 = rg 𝑡𝐴𝐴, quite à permuter les colonnes de la
n.b. cela signifie que si 𝑋 est un vecteur propre de 𝑡𝐴𝐴 associé à 𝜆 ≠ 0 alors 𝐴𝑋 est un matrice 𝑃 on peut supposer que 𝜆𝑟 +1 = 𝜆𝑛 = 0 et 𝜆𝑖 ≠ 0 si 𝑖 6 𝑟 .
vecteur propre de 𝐴𝑡𝐴 associé à la même valeur propre.
Posons 𝐴 0 = 𝐴𝑃 et 𝐵 0 = 𝐵𝑃. Alors 𝑡𝐴 0𝐴 0 = 𝑡𝐵 0𝐵 0 = 𝐷 ou encore
Ainsi l’application 𝑋 ↦−→ 𝐴𝑋 induit une injection de 𝐸𝜆 (𝑡𝐴𝐴) dans 𝐸𝜆 (𝐴𝑡𝐴). Par
∀(𝑖, 𝑗) ∈ [[1, 𝑛]] 2 , 𝑡𝑉𝑖 𝑉𝑗 = 𝑡𝑊𝑖𝑊 𝑗 = 𝜆𝑖 𝛿𝑖,𝑗
suite dim 𝐸𝜆 (𝑡𝐴𝐴) 6 dim 𝐸𝜆 (𝐴𝑡𝐴). On obtient l’inégalité dans le sens inverse en
appliqaunt le même raisonnement à l’application 𝑌 ↦−→ 𝑡𝐴𝑌 . Ainsi où 𝑉1, 𝑉2, . . . , 𝑉𝑛 sont les vecteurs colonnes de 𝐴 0 et 𝑊1, . . . ,𝑊𝑛 ceux de 𝐵 0 (noter
que ces vecteurs sont dans l’espace M𝑝,1 (R)). Cela implique que 𝑉𝑖 = 𝑊𝑖 =
dim 𝐸𝜆 (𝐴𝑡𝐴) = dim 𝐸𝜆 (𝑡𝐴𝐴) 0 si 𝑖 > 𝑟 et que les familles ( √1𝜆 𝑉1, . . . , √1𝜆 𝑉𝑟 ) et ( √1𝜆 𝑊1, . . . , √1𝜆 𝑊𝑟 ) sont
1 𝑟 1 𝑟
Alors 𝑋 ↦−→ 𝐴𝑋 induit un isomorphisme de 𝐸𝜆 (𝑡𝐴𝐴) sur 𝐸𝜆 (𝐴𝑡𝐴). Ensuite : orthonormales. Complétons les respectivement en des bon V 0 et W 0 de M𝑝,1 (R)
1 pour tout 𝑋 ∈ 𝐸𝜆 (𝑡𝐴𝐴), k𝐴𝑋 k 2 = h𝐴𝑋, 𝐴𝑋 i = h𝑡𝐴𝐴𝑋, 𝑋 i = 𝜆 k𝑋 k 2 . 𝜆 et considèrons l’endomorphisme qui à chaque vecteur 𝑉𝑖0 associe le vecteur 𝑊𝑖0.
est positive du fait de la positivité de la matrice 𝑡𝐴𝐴 donc Cet endomorphisme transforme une bon en une bon donc il est une isométrie
√ et par suite sa matrice 𝑄 dans la base canonique M𝑝,1 (R) est orthogonale et
k𝐴𝑋 k = 𝜆 k𝑋 k elle vérifie
2 si 𝑋, 𝑌 ∈ 𝐸𝜆 (𝑡𝐴𝐴) tels que 𝑋 ⊥𝑌 alors ∀𝑖 ∈ [[𝑖, 𝑟 ]] , 𝑄𝑉𝑖 = 𝑊𝑖
𝑡
h𝐴𝑋, 𝐴𝑌 i = h 𝐴𝐴𝑋, 𝑌 i = 𝜆h𝑋, 𝑌 i = 0. Ces égalités s’étendent aussi aux indices 𝑖 > 𝑟 puisque dans ce cas 𝑉𝑖 = 𝑊𝑖 = 0.

Classes MP* page 34 / 43 Stage de Fevrier Classes MP* page 35 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

Elles signifient alors que 𝑄𝐴 0 = 𝐵 0. Soit 𝑄𝐴𝑃 = 𝐵𝑃 ou encore 𝐵 = 𝑄𝐴. Démonstration de la proposition 1.13
soient 𝜇1, 𝜇2, . . . , 𝜇𝑝 les valeurs propres distinctes de 𝑆 et considérons le poly-

Démonstration du théorème 1.10 nôme 𝑃 de degré 6 𝑝 − 1 tel que 𝑃 (𝜇𝑖 ) = 𝜇𝑖 pour tout 𝑖 ∈ [[1, 𝑝]].
𝑡𝐴𝐴est une matrice symétrique positive (carrée d’ordre 𝑛), il existe donc une
𝑟
∑︁ √ Y 𝑋 − 𝜇𝑖
𝑃= 𝜇𝑗
matrice orthogonale 𝑃 ∈ O(𝑛) telle que 𝑗=1 𝑖≠𝑗 𝜇 𝑗 − 𝜇𝑖
√ √
𝑡 𝑡
𝑃 𝐴𝐴𝑃 = Δ2 Pour tout 𝑖 ∈ [[1, 𝑝]] et pour tout 𝑋 ∈ 𝐸 𝜇𝑖 (𝑆), 𝑃 (𝑆)𝑋 = 𝑃 (𝜇𝑖 )𝑋 = 𝜇𝑖 𝑋 = 𝑆𝑋 .

où Δ = diag(𝜎1, . . . , 𝜎𝑟 , 0, . . . , 0) est une matrice diagonale carrée, 𝜎1, . . . , 𝜎𝑟 Comme M𝑛,1 (R) = ⊕𝑖 𝐸 𝜇𝑖 (𝑆) alors 𝑃 (𝑆) = 𝑆.
étant les valeurs singulières non nulles de 𝐴.
On considère la matrice de même taille que 𝐴, Σ = diag(𝜎1, . . . , 𝜎𝑟 , 0, . . . , 0). On
a 𝑡ΣΣ = 𝐷 2 donc 𝑡(𝐴𝑃)(𝐴𝑃) = 𝑡ΣΣ. D’après le lemme il existe 𝑄 ∈ O(𝑝) telle
Démonstration du théorème 1.14

que 𝐴𝑃 = 𝑄 Σ. Ce qui permet de conclure. est une matrice symétrique positive, donc il existe une matrice symétrique
𝑡𝐴𝐴

positive unique 𝑆 telle que 𝑡𝐴𝐴 = 𝑆 2 .


On peut alors écrire 𝑡𝐴𝐴 = 𝑡 𝑆𝑆, et donc d’après le lemme 1.9, il existe 𝑄 ∈ O(𝑛)
Démonstration du théorème 1.11 telle que 𝐴 = 𝑄𝑆.
P𝑛
Posons 𝑌 = 𝑡 𝑃𝑋 . Alors 𝑋 = 𝑃𝑌 ou encore 𝑋 = 𝑖=1 𝑦𝑖 𝑉𝑖 . Ensuite
2 2
k𝐴𝑋 − 𝑏 k 2 = 𝑄 Σ𝑡𝑃𝑋 − 𝑏 = Σ𝑌 − 𝑡𝑄𝑏 Démonstration du théorème 1.15

𝑟 𝑝 𝐴 étant une matrice symétrique définie positive, il existe 𝐵 symétrique définie


(𝜎𝑖 𝑦𝑖 − 𝑡𝑊𝑖 𝑏) 2 + (𝑡𝑊𝑖 𝑏) 2
∑︁ ∑︁
= positive telle 𝐴 = 𝐵 2 = 𝑡 𝐵𝐵. 𝐴 est alors la matrice de Gram de la famille
𝑖=1 𝑟 +1 des vecteurs colonnes (𝐵 1, . . . , 𝐵𝑛 ) de 𝐵. Soit alors C = (𝐶 1, . . . , 𝐶𝑛 ) la bon
de M𝑛,1 (R) obtenue par application du procédé de Gram-Schmidt à la base
k𝐴𝑋 − 𝑏 k 2 atteint donc son minimum lorsque
(𝐵 1, . . . , 𝐵𝑛 ). Les conditions
1
∀𝑖 ∈ [[1, 𝑟 ]] , 𝑦𝑖 = 𝑡𝑊𝑖 𝑏 ∀𝑖 ∈ [[1, 𝑛]] , 𝐵𝑖 ∈ Vect{𝐶 1, . . . , 𝐶𝑖 }
𝜎𝑖
inhérentes à ce procédé, impliquent que la matrice 𝑇 = Mat C (𝐵 1, . . . , 𝐵𝑛 ) est
triangulaire supérieure. En outre le fait que C soit une bon implique que
Démonstration du théorème 1.12
𝐴 = 𝑡 𝑇𝑇 . Quitte à remplacer 𝑇 par 𝐷𝑇 où 𝐷 = diag(sign(𝑡 1,1 ), . . . , sign(𝑡𝑛,𝑛 ))
Soit 𝑆 ∈ M𝑛 (R) une matrice symétrique positive. Il existe une matrice ortho- on peut supposer que les coefficients diagonaux de 𝑇 sont positifs.
gonale 𝑃 ∈ O(𝑛) et une matrice diagonale 𝐷 à coefficients diagonaux positifs n.b. En fait les coefficients diagonaux de la matrice𝑇 associée au procédé de Gram-Schmidt
telles que 𝑆 = 𝑃𝐷 2𝑡 𝑃. En posant 𝑇 = 𝑃𝐷 𝑡 𝑃, 𝑇 est symétrique positive et 𝑇 2 = 𝑆. sont strictement positifs.
Noter que cette définiton de 𝑇 implique que les valeurs propres de 𝑇 sont les Soit maintenant une matrice 𝑇 0 triangulaire supérieure à coefficients diagonaux
racines carrées des valeurs propres de 𝑆 et que pour toute valeur propre 𝜆 de 𝑇 , positifs telle que 𝑡 𝑇 0𝑇 0 = 𝑡 𝑇𝑇 = 𝐴. Il existe donc une matrice orthogonale 𝑈
𝐸𝜆 (𝑇 ) = 𝐸𝜆2 (𝑆). telle que 𝑇 0 = 𝑈𝑇 . Mais alors 𝑈 = 𝑇 0𝑇 −1 est à la fois triangulaire supérieure
Pour l’unicité, considérons une matrice symétrique positive 𝑅 telle que 𝑅 2 = 𝑆. et orthogonale. Son inverse est lui à la fois triangulaire supérieur et inférieur
Soit 𝜆 une valeur propre de 𝑅 et soit 𝑋 un vecteur propre qui lui est associé. puisque 𝑡 𝑈 = 𝑈 −1 . On en déduit que 𝑈 est diagonale. Son orthogonalité implique
𝑆𝑋 = 𝑅 2𝑋 = 𝜆 2𝑋 donc 𝜆 2 est une valeur propre de 𝑆 et 𝐸𝜆 (𝑅) ⊂ 𝐸𝜆2 (𝑆). Ainsi que ses coefficients diagonaux valent 1 ou −1. La positivité de ses coefficients
Sp(𝑅) ⊂ Sp(𝑇 ) et ∀𝜆 ∈ Sp(𝑅), 𝐸𝜆 (𝑅) ⊂ 𝐸𝜆 (𝑇 ) diagonaux implique finalement que 𝑈 = 𝐼𝑛 . Alors 𝑇 0 = 𝑇 .
Les matrices 𝑅 et 𝑇 étant diagonalisables cela implique que 𝑅 = 𝑇 .

Classes MP* page 36 / 43 Stage de Fevrier Classes MP* page 37 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

Démonstration du théorème 1.16 (Ker 𝐴) ⊥ est un supplémentaire de Ker 𝐴 donc 𝐴 induit un isomorphisme de
Si 𝐴 est inversible alors 𝑡𝐴𝐴 est symétrique définie positive et donc selon le (Ker 𝐴) ⊥ sur Im 𝐴. Alors la matrice de l’application linéaire canoniquement
associée à 𝐴 relativement aux bases B et B0 est de la forme 𝐴01 00 où 𝐴1 est

théorème de Cholesky, il existe une matrice triangualire supérieure 𝑅 à coeffi-
cents diagonaux positifs telle que 𝑡𝐴𝐴 = 𝑡 𝑅𝑅. Le lemme 1.9 implique alors qu’il une matrice carrée d’ordre 𝑟 inversible.
E0 𝐴𝑃 B =
Notons E et E 0 les bases canoniques de M𝑝,1 (R) et de M𝑛,1 (R). Alors 𝑃 B
existe une matrice orthogonale 𝑄 telle que 𝐴 = 𝑄𝑅. 0 E
𝐴1 0 B0 et 𝑄 = 𝑃 B sont orthogonales puisque E, E 0 , B et

L’unicité de 𝑅 découle de l’unicité de la décompostion de Cholesky 𝑡𝐴𝐴 = 𝑡 𝑅𝑅. 0 0 . Les matrices 𝑃 = 𝑃 E0 E
B0 sont des bases orthonormales et on a 𝐴 = 𝑃 𝐴01 00 𝑡 𝑄.

L’unicité de 𝑄 découle de l’égalité 𝑄 = 𝐴𝑅 −1 .
Supposons maintenant que 𝐴 admet un pseudo-inverse 𝐵. Ker 𝐵 = (Im 𝐴) ⊥ et
Im 𝐵 = (Ker 𝐴) ⊥ donc, vu la manière dont sont formées les bases B et B0,
Démonstration du théorème 1.17  
𝑡 𝐵1 0
On a 𝑂 (𝐴) = 𝑂 (𝑆), il suffit donc de montrer que max Tr(𝑈 𝑆) = Tr(𝑆). 𝑄𝐵𝑃 =
𝑈 ∈O(𝑛) 0 0
Soit donc 𝑈 quelconque dans O(𝑛) et considérons 𝑃 ∈ O(𝑛) et 𝐷 diagonale où 𝐵 1 ∈ M𝑟 (R). 𝐴𝐵 est la projection orthogonale sur Im 𝐴, on a donc−1 𝑃𝐴𝐵𝑃 =
𝑡
telles que 𝑆 = 𝑃𝐷 𝑡 𝑃. Tr(𝑈 𝑆) = Tr(𝑈 𝑃𝐷 𝑡 𝑃) = Tr (𝑡 𝑃𝑈 𝑃)𝐷 . L’application 𝐼𝑟 0 𝐴1 0 𝐵1 0 𝐼𝑟 0

0 0 . Par suite 0 0 0 0 = 0 0 , soit 𝐴1 𝐵 1 = 𝐼𝑟 et donc 𝐵 1 = 𝐴 .
𝑈 ↦−→ 𝑡 𝑃𝑈 𝑃 est une bijection de O(𝑛) sur lui même. On se ramène donc au Résumons, si 𝐵 est un pseudo inverse de 𝐴 alors forcément
calcul de max𝑈 ∈O(𝑛) Tr(𝑈 𝐷).  −1 
𝐴 0 𝑡
Or si 𝑈 = (𝛼𝑖,𝑗 ) et 𝐷 = diag(𝜎1, . . . , 𝜎𝑛 ) alors Tr(𝑈 𝐷) = 𝑛𝑖=1 𝜎𝑖 𝛼𝑖,𝑖 . Comme les 𝐵 =𝑄 1
P
𝑃
0 0
vecteurs colonnes de 𝑈 sont unitaires alors |𝛼𝑖,𝑖 | 6 1 pour tout 𝑖. En outre les
valeurs propres 𝜎𝑖 de 𝑆 sont positives donc Réciproquement, on vérifie aisément que 𝐵 est bien un pseudo-inverse de 𝐴.
𝑛
∑︁
Tr(𝑈 𝐷) 6 | Tr(𝑈 𝐷)| 6 𝜎𝑖 = Tr(𝑆)
𝑖=1
Démonstration de la proposition 1.20

D’où le résultat. Noter en outre que Tr(𝑈 𝐷) = Tr(𝑆) si et seulement si Posons 𝐵 = 𝑈 𝐴𝑉 et 𝐶 = 𝑡 𝑉 𝐴+ 𝑡 𝑈 . Alors
𝑛
∑︁ 𝑛
∑︁ 𝑛
∑︁ 1 𝐵𝐶 = 𝑈 𝐴𝐴+ 𝑡 𝑈 et 𝐶𝐵 = 𝑡 𝑉 𝐴+𝐴𝑉 . Ce sont des matrices symétriques ;
𝜎𝑖 𝛼𝑖,𝑖 = 𝜎𝑖 𝛼𝑖,𝑖 = 𝜎𝑖
𝑖=1 𝑖=1 𝑖=1 2 𝐵𝐶𝐵 = 𝑈 𝐴𝐴+𝐴𝑉 = 𝑈 𝐴𝑉 = 𝐵 ;
Ce n’est possible que si 𝛼𝑖,𝑖 = 1 pour tout 𝑖. Les vecteurs colonnes de 𝑈 sont 3 𝐶𝐵𝐶 = 𝑡 𝑉 𝐴+𝐴𝐴+ 𝑡 𝑈 = 𝑡 𝑉 𝐴+ 𝑡 𝑈 = 𝐶.
unitaires ceci est en fait équivalent à 𝑈 = 𝐼𝑛 . Ce qui veut dire que la maximum
Ainsi 𝐶 = 𝐵 + .
de Tr(𝑈 𝑆) ne peut être atteint qu’en 𝑆.

Démonstration de la proposition 1.21


Démonstration du théorème 1.18
Il suffit d’appliquer le théorème d’existence et d’unicité avec 𝐴1 =
Posons 𝐴 = 𝑈 𝑆 où 𝑈 ∈ O(𝑛). Selon la note à la fin de la démonstration diag(𝜎1, . . . , 𝜎𝑟 ).
précédente, si Tr(𝐴) = Tr(𝑆) alors Tr(𝑈 𝑆) = Tr(𝑆) et donc 𝑈 = 𝐼𝑛 . Soit 𝐴 = 𝑆.
Ainsi Tr(𝐴) = Tr(𝑆) si et seulement si 𝐴 est symétrique positive.
Démonstration du théorème 1.22

Démonstration du théorème 1.19


Pour tout vecteur 𝐻 ∈ M𝑝,1 (R)
2 2
Soient B et B0 des bon adaptées respectivement aux décompositions 𝐴(𝐴+𝑏 + 𝐻 ) − 𝑏 = 𝐴𝐴+𝑏 − 𝑏 + 2h𝐴𝐴+𝑏 − 𝑏, 𝐴𝐻 i + k𝐴𝐻 k 2
M𝑝,1 (R) = (Ker 𝐴) ⊥ ⊕ Ker 𝐴 et M𝑛,1 (R) = Im 𝐴 ⊕ (Im 𝐴) ⊥

Classes MP* page 38 / 43 Stage de Fevrier Classes MP* page 39 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

h𝐴𝐴+𝑏 − 𝑏, 𝐴𝐻 i = h𝑡𝐴𝐴𝐴+𝑏 − 𝑡𝐴𝑏, 𝐻 i et on a (𝑝) 2


k𝐴k 2𝐹 = |||𝐴||| 2 = 𝑝 |||𝐴||| 2 . Donc
P P
1.24.3 𝐴𝐸 𝑗 6
𝑡 + 𝑡 𝑡 + 𝑡 +  𝑡
𝐴𝐴𝐴 = 𝐴 (𝐴𝐴 ) = (𝐴𝐴 )𝐴 = 𝐴 𝑗 𝑗

donc 𝑡𝐴𝐴𝐴+𝑏 − 𝑡𝐴𝑏 = 0 et par suite k𝐴k 𝐹 6 𝑝 |||𝐴|||

𝑓 (𝐴+𝑏 + 𝐻 ) = 𝑓 (𝐴+𝑏) + k𝐴𝐻 k 2 |||.||| atteint son maximum sur la sphère unité (un compact) de M𝑝,1 (R) donc
il existe 𝑋 ∈ M𝑝,1 (R) tel que k𝑋 k = 1 et k𝐴𝑋 k = |||𝐴|||. On a alors en utilisant
La fonction 𝑓 admet bien un minimum global en 𝐴+𝑏. De plus ce minimum est l’inégalité de Cauchy-Schwarz
atteint en 𝐴+𝑏 + 𝐻 si et seulement si 𝐴𝐻 = 0.  2 ∑︁ ∑︁ 2 ∑︁ 2
|||𝐴||| 2 = k𝐴𝑋 k 2 = ( 𝑎𝑖,𝑗 ) ( 𝑥 𝑗 ) = k𝑋 k 2 k𝐴k 2𝐹 = k𝐴k 2𝐹
∑︁ ∑︁
Maintenant pour tout 𝐻 ∈ Ker 𝐴, sachant que 𝐴+𝑏 ∈ Im 𝐴+ = (Ker 𝐴) ⊥ , on a 𝑎𝑖,𝑗 𝑥 𝑗 6
𝑖 𝑗 𝑖 𝑗 𝑗
selon l’identité de Pythagore, k𝐴+𝑏 + 𝐻 k 2 = k𝐴+𝑏 k + k𝐻 k 2 . Donc 𝐴+𝑏 est le
vecteur de norme minimale en lequel 𝑓 atteint son minimum. et donc |||𝐴||| 6 k𝐴k 𝐹 .
n.b. On aurait pu aussi procéder comme suit. min 𝑓 = inf k𝐴𝑋 − 𝑏 k2 = d(𝑏, Im 𝐴) 2 . n.b. On a montré ici que les normes |||.||| et k.k 𝐹 sont équivalentes. Ceci est normal puisque
𝑋
d(𝑏, Im 𝐴) est atteinte en un point unique de Im 𝐴 qui est le projecté orthogonal de 𝑏 M𝑛,𝑝 (R) est de dimension fini. L’intérêt est d’avoir calculé ici dans quels rapports. On peut
sur Im 𝐴. Ce projeté est 𝐴𝐴+𝑏. Alors min 𝑓 est atteint en tout point 𝑋 tel que 𝐴𝑋 = 𝐴𝐴+𝑏. justifier que les deux inégalités peuvent être des égalités pour certaines matrices, ce sont
Ces points sont ceux du sous-espace affine 𝐴+𝑏 + Ker 𝐴. donc les meilleurs rapports.

1.24.4 Découle de l’inégalité k𝐴𝐵𝑋 k 6 |||𝐴||||||𝐵||| k𝑋 k valable pour tout 𝑋 ∈


M𝑞,1 (R).
Démonstration du corollaire 1.23
(𝑞) 2 (𝑞) 2
𝐴𝐴+ est la projection orthogonale sur Im 𝐴. L’équivalence du corollaire en k𝐴𝐵k 2𝐹 = 6 |||𝐴||| 2 = |||𝐴||| 2 k𝐵k 2𝐹 . Donc
P P
1.24.5 𝑖 𝐴𝐵𝐸𝑖 𝑖 𝐵𝐸𝑖
découle. Ensuite si 𝑌 ∈ Im 𝐴 alors le système linéaire 𝐴𝑋 = 𝑌 est compatible. k𝐴𝐵k 𝐹 6 |||𝐴||| k𝐵k 𝐹 6 k𝐴k 𝐹 k𝐵k 𝐹
Sa solution de norme minimale est 𝑋 = 𝐴+𝑌 .
1.24.6 k𝑈 𝐴𝑉 k 2𝐹 = Tr( 𝑉 𝑡 𝐴𝑡 𝑈 𝑈 𝐴𝑉 )
𝑡 = Tr(𝑡 𝑉 𝑡 𝐴𝐴𝑉 ) = Tr(𝑡 𝐴𝐴) = k𝐴k 2𝐹 , donc

Démonstration des propriétés 1.24


k𝑈 𝐴𝑉 k 𝐹 = k𝐴k 𝐹
ensuite
1.24.1 si 𝑋 ∈ M𝑛,1 (R) et 𝑌 ∈ M𝑝,1 (R) sont des vecteurs tels que k𝑋 k = 1 et
k𝑌 k = 1 alors |h𝑋, 𝐴𝑌 i| 6 k𝑋 k k𝐴𝑌 k 6 |||𝐴||| k𝑋 k k𝑌 k = |||𝐴|||. Donc |||𝑈 𝐴𝑉 ||| = max k𝑈 𝐴𝑉 𝑋 k = max k𝐴𝑉 𝑋 k
k𝑋 k=1 k𝑋 k=1
sup |h𝑋, 𝐴𝑌 i| 6 |||𝐴||| 𝑉 est orthogonale donc l’application 𝑋 ↦−→ 𝑉 𝑋 induit une bijection de la sphère
k𝑋 k=1, k𝑌 k=1 unité de M𝑝,1 (R) sur elle même et par suite
Réciproquement, pour tout 𝑋 ∈ M𝑝,1 (R) tel que k𝑋 k = 1, si 𝐴𝑋 ≠ 0 alors
|||𝑈 𝐴𝑉 ||| = max k𝐴𝑌 k = |||𝐴|||
𝐴𝑋 k𝑌 k=1
k𝐴𝑋 k = h𝐴𝑋, i6 sup |h𝑋, 𝐴𝑌 i|
k𝐴𝑋 k k𝑋 k=1, k𝑌 k=1
et donc |||𝐴||| 6 sup k𝑋 k=1, k𝑌 k=1 |h𝑋, 𝐴𝑌 i|. Ainsi Démonstration du théorème 1.25
|||𝐴||| = sup |h𝑋, 𝐴𝑌 i| Soit 𝑄 une matrice orthogonale de diagonalisation de 𝑡 𝐴𝐴 :
k𝑋 k=1, k𝑌 k=1
𝐴 = 𝑄𝐷 𝑡 𝑄 avec 𝐷 = diag(𝜎12, . . . , 𝜎𝑟2, 0, . . . , 0)
1.24.2 𝑡𝐴 2 = Tr(𝐴𝑡 𝐴) = Tr(𝑡 𝐴𝐴) = k𝐴k 2𝐹 donc 𝑡𝐴 = k𝐴k 𝐹 . Ensuite
Alors k𝐴k = Tr(𝑡 𝐴𝐴) 1/2 = Tr(𝐷) 1/2 = 2 1/2 .
𝐹 𝐹
P𝑟 
𝑖=1 𝜎𝑖
|||𝐴||| = sup |h𝑋, 𝐴𝑌 i| = sup |h 𝐴𝑋, 𝑌 i| = |||𝑡 𝐴|||
𝑡
Ensuite ; pour tout 𝑋 ∈ M𝑛,1 (R) tel que k𝑋 k = 1, on a
k𝑋 k=1, k𝑌 k=1 k𝑋 k=1, k𝑌 k=1
k𝐴𝑋 k 2 = h𝐴𝑋, 𝐴𝑋 i = h𝑋, 𝑡 𝐴𝐴𝑋 i 6 |||𝑡 𝐴𝐴|||

Classes MP* page 40 / 43 Stage de Fevrier Classes MP* page 41 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴

donc |||𝐴||| 2 6 |||𝑡 𝐴𝐴||| et inversement |||𝑡 𝐴𝐴||| 6 |||𝑡 𝐴||||||𝐴||| = |||𝐴||| 2 . Alors 2 Cette fois
|||𝐴||| 2 = |||𝑡 𝐴𝐴|||
(
𝐴𝑋 = 𝑏
⇐⇒ 𝐴(𝛿𝑋 ) = −(𝛿𝐴) (𝑋 + 𝛿𝑋 )
Et en utilisant la décomposition de 𝑡 𝐴𝐴 et la propriété 1.24.6 on a |||𝑡 𝐴𝐴||| = |||𝐷 |||. (𝐴 + 𝛿𝐴) (𝑋 + 𝛿𝑋 ) = 𝑏
Il est maintenant aisé de voir que |||𝐷 ||| = sup k𝐷𝑋 k = max 𝜎𝑖2 . Finalement
k𝑋 k=1 𝑖 Comme 𝛿𝑋 est de norme minimale alors 𝛿𝑋 = −𝐴+ (𝛿𝐴)(𝑋 + 𝛿𝑋 ). Ce
|||𝐴||| = max 𝜎𝑖 qui donne
𝑖
k𝛿𝑋 k 6 |||𝐴+ ||||||𝛿𝐴||| k𝑋 + 𝛿𝑋 k
Justifions maintenant ces résultats en utilisant la décomposition en valeurs
singulières de A : 𝐴 = 𝑃 Σ𝑡 𝑄. Sur la foi de la propriété 1.24.6 on a ou encore
k𝐴k 𝐹 = kΣk 𝐹 et |||𝐴||| = |||Σ||| k𝛿𝑋 k |||𝛿𝐴|||
6 cond(𝐴)
k𝑋 + 𝛿𝑋 k |||𝐴|||
kΣk 2𝐹 = Tr(𝑡 ΣΣ) = 𝑖 𝜎𝑖2 .
P
Ensuite, pour tout 𝑋 ∈ M𝑝,1 (R) tel que k𝑋 k = 1
kΣ𝑋 k 2 =
∑︁ 2 2
𝜎𝑖 𝑥𝑖 6 max 𝜎𝑖2 Démonstration du théorème 1.28
𝑖
𝑖
On rappelle que lorsque 𝐵 est une matrice carrée telle que |||𝐵||| < 1 alors 𝐼𝑛 − 𝐵
avec égalité si 𝑋 = 𝐸𝑘 , 𝑘 étant un indice tel que 𝜎𝑘 = max 𝜎𝑖 . Alors est inversible et
𝑖
+∞
|||𝐴||| = |||Σ||| = max kΣ𝑋 k = max 𝜎𝑖 (𝐼𝑛 − 𝐵) −1 =
∑︁
k𝑋 k=1 𝑖 𝐴𝑘
𝑘=0
On peut écrire 𝐴 + 𝛿𝐴 = 𝐼𝑛 + (𝛿𝐴)𝐴−1 𝐴. Donc si |||𝛿𝐴||| < 1/|||𝐴−1 ||| alors
Démonstration des propriétés 1.26 |||(𝛿𝐴)𝐴−1 ||| < 1 et donc 𝐴 + 𝛿𝐴 est inversible et
 −1 +∞
(𝐴 + 𝛿𝐴) −1 = 𝐴−1 𝐼𝑛 + (𝛿𝐴)𝐴−1 = 𝐴−1 (−1)𝑘 (𝛿𝐴)𝐴−1
∑︁ 𝑘
1 𝐴𝐴+ est une projection orthogonale donc |||𝐴𝐴+ ||| = 1. Par suite 1 6
|||𝐴||||||𝐴+ ||| = cond(𝐴). 𝑘=0
On en déduit la majoration
2 Pour toute matrice orthogonale 𝑈 , k𝑈 k = 𝑈 −1 = 1 donc cond 𝑈 = 1.
|||𝐴−1 |||
3 On a (𝐴+ ) +
= 𝐴 donc cond(𝐴) = cond(𝐴+ ). |||(𝐴 + 𝛿𝐴) −1 ||| 6
1 − |||𝐴−1 ||||||𝛿𝐴|||
Pour tout 𝛼 ∈ R∗ , (𝛼𝐴) + = (1/𝛼)𝐴+ donc cond(𝛼𝐴) = cond(𝐴) On a (
𝐴𝑋 = 𝑏
Démonstration du théorème 1.27 (𝐴 + 𝛿𝐴) (𝑋 + 𝛿𝑋 ) = 𝑏 + 𝛿𝑏
donc
1 on a
( 𝛿𝑋 = (𝐴 + 𝛿𝐴) −1 (𝑏 + 𝛿𝑏) − 𝐴−1𝑏
𝐴𝑋 = 𝑏
⇐⇒ 𝐴(𝛿𝑋 ) = 𝛿𝑏 = (𝐴 + 𝛿𝐴) −1 𝑏 + 𝛿𝑏 − (𝐴 + 𝛿𝐴)𝐴−1𝑏)
𝐴(𝑋 + 𝛿𝑋 ) = 𝑏 + 𝛿𝑏
= (𝐴 + 𝛿𝐴) −1 𝛿𝑏 − (𝛿𝐴)𝐴−1𝑏

On sait que 𝐴+𝑏 est la solution de norme minimale du système 𝐴𝑌 = 𝛿𝑏,
donc 𝛿𝑋 = 𝐴+𝑏 et par suite k𝛿𝑋 k 6 |||𝐴+ ||| k𝛿𝑏 k donc
|||𝐴−1 |||
Ensuite 𝐴𝑋 = 𝑏 donne k𝑏 k 6 |||𝐴||| k𝑋 k et donc k𝑋1 k 6 |||𝐴 |||
k𝛿𝑏 k + |||𝛿𝐴||||||𝐴−1 ||| k𝑏 k

k𝑏 k Alors k𝛿𝑋 k 6 −1
1 − |||𝐴 ||||||𝛿𝐴|||
k𝛿𝑋 k k𝛿𝑏 k 1 |||𝐴 |||
6 |||𝐴||||||𝐴+ ||| on conclut en utilisant l’ inégalité k𝑋 k 6 k𝑏 k .
k𝑋 k k𝑏 k
Classes MP* page 42 / 43 Stage de Fevrier Classes MP* page 43 / 43 Stage de Fevrier

Vous aimerez peut-être aussi