Classique 1
Classique 1
Annexe
Autour de
la matrice 𝑡𝐴𝐴
Classes MP*
Annexe Table des matières
Introduction
Ker 𝐴 et donc on a 𝐴𝑋 1 = 𝐴𝑋 2 . Ce qui confirme que toutes les solutions 𝑋 de
Historiquement l’intérêt très particulier portée aux matrices 𝑡 𝐴𝐴 est lié
(SN) donnent le même vecteur 𝑌 = 𝐴𝑋 .
aux tentatives d’apporter des réponses à une question centrale : étant donné
Notons en plus que si jamais le système original 𝐴𝑋 = 𝑏 est compatible et
un système linéaire 𝐴𝑋 = 𝑏 non compatible (n’admet pas de solutions),
𝑋 0 en est une solution alors son ensemble des solutions est
quelle “pseudo-solution” peut-on adopter ? Y compris dans le cas de systèmes
linéaires avec beaucoup plus d’équations que d’inconnues. Une réponse a été 𝑆 = 𝑋 0 + Ker 𝐴 = 𝑋 0 + Ker(𝑡 𝐴𝐴)
de prendre les vecteurs 𝑋 pour lesquels la norme k𝐴𝑋 − 𝑏 k 2 est minimale. Sachant que 𝑋 0 est aussi une solution de (SN) cela signifie que lorsque 𝐴𝑋 = 𝑏
Ces vecteurs sont dit les solutions au sens des moindres carrés du système. est compatible alors il admet exactement les mêmes solutions que son sytème
Étudions ce problème de façon élémentaire en attendant d’y apporter des normal (SN). Résumons dans le résultat suivant
solutions mieux construites tout au long des sections de ce cours. Il s’agit
de calculer la distance du vecteur 𝑏 au sev =𝑏 en précisant en quels points Théorème 1.1
ce maximum est atteint. Ce sont des notions relativement simples et traitées
convenablement par le programme officiel. Le cours affirme en effet que cette Soit un système linéaire à 𝑛 inconnues et 𝑝 équations
distance est atteinte en un point unique de =𝐴 qui n’est autre que la projection 𝐴𝑋 = 𝑏 (S)
orthogonale 𝑌 de 𝑏 sur Im 𝐴. Ce qui ne veut pas dire qu’il y a une unique et son système normal (carré, à 𝑛 inconnues et à matrice symétrique)
solution 𝑋 du problème de départ puisque si 𝑌 = 𝐴𝑋 0 ∈ Im 𝐴 alors tous les 𝑡
𝐴𝐴𝑋 = 𝑡 𝐴𝑏 (SN)
points de 𝑋 0 + Ker 𝐴 vont vérifier 𝐴𝑋 = 𝑌 . Maintenant quelle est l’expression
de 𝑌 en fonction de 𝐴 et 𝑏 ? Et quels sont les vecteurs 𝑋 qui vont ensuite Si (S) admet des solutions alors ce sont les mêmes que celle de (SN). En outre
vérifier 𝐴𝑋 = 𝑌 ? (SN) admet toujours des solutions. Ce sont les vecteurs pour lesquels la norme
Supposons que 𝐴 ∈ M𝑝,𝑛 (R). Le vecteurs 𝑌 , projection orthogonale de 𝑏 k𝐴𝑋 − 𝑏 k est minimale.
sur Im 𝐴, est entièrement déterminé par les conditions 𝑌 ∈ Im 𝐴 et 𝑌 − 𝑏 ∈
(Im 𝐴) ⊥ . Ce qui revient à
(
𝑌 = 𝐴𝑋
∃𝑋 ∈ M𝑛,1 (R), II
∀𝐻 ∈ M𝑛,1 (R), h𝐴𝑋 − 𝑏, 𝐴𝐻 i𝑝 = 0
Les résultats de cours
Mais comme h𝐴𝑋 −𝑏, 𝐴𝐻 i𝑝 = h𝑡 𝐴𝐴𝑋 − 𝑡 𝐴𝑏, 𝐻 i𝑛 la deuxième condition revient
à 𝑡 𝐴𝐴𝑋 − 𝑡 𝐴𝑏 = 0. Et ainsi 𝑌 est entièrement déterminé par les équations
( Objectifs
𝑌 = 𝐴𝑋
𝑡 Cette section rappellera les résultats de cours qui jouerons un rôle essentiel
𝐴𝐴𝑋 = 𝑡 𝐴𝑏
dans le reste de ce document.
Ce qui signifie que 𝑌 est de la forme 𝐴𝑋 pour n’importe quel vecteur 𝑋 qui
est solution du nouveau système linéaire
𝑡
𝐴𝐴𝑋 = 𝑡 𝐴𝑏 (SN) II.1 Le procédé de Gram-Schmidt
Ce système est dit système normal du système linéaire 𝐴𝑋 = 𝑏. À la différence Théorème 1.2
du système original, le système linéaire (SN) est un système carré qui est
toujours compatible car comme on va le voir Im(𝑡 𝐴𝐴) = Im 𝑡 𝐴 (et donc Soit (𝑥 1, . . . , 𝑥 𝑝 ) une famille libre de vecteurs d’un espace préhilbertien 𝐸. Il
𝑡𝐴𝑏 ∈ Im(𝑡𝐴𝐴)). Par ailleurs si 𝑋 et 𝑋 sont des solutions de (SN) alors existe une famille orthonormale (𝑒 1, . . . , 𝑒𝑝 ) telle que
1 2
𝑡𝐴𝐴(𝑋 −𝑋 ) = 0, et là une autre propriété élémentaire affirme que Ker(𝑡 𝐴𝐴) =
1 2 ∀𝑖 ∈ [[1, 𝑝]] , 𝑥𝑖 ∈ Vect{𝑒 1, . . . , 𝑒𝑖 }
Classes MP* page 6 / 43 Stage de Fevrier Classes MP* page 7 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
Méthode procédé de Gram-Schmidt remarques pratiques 1.1 (sur le calcul de bases orthonormales) (suite)
On construit les vecteurs 𝑒𝑖 par récurrence en posant 1.1.1 Pour éviter l’apparition inutile de racines carrées dans les calculs inter-
médiaires du procédé de Gram-Schmidt on pourrait calculer tous les vecteurs
𝑢1
𝑢1 = 𝑥1 𝑒1 = 𝑢𝑖 et ne les normaliser qu’à la fin du procédé en utilisant les formulations :
k𝑢 1 k
𝑖
𝑖
∑︁ h𝑢𝑘 , 𝑥𝑖+1 i
∑︁ 𝑢𝑖+1 𝑢 1 = 𝑥 1, et ∀𝑖 ∈ [[1, 𝑝 − 1]] , 𝑢𝑖+1 = 𝑥𝑖+1 − 𝑢𝑘
𝑢𝑖+1 = 𝑥𝑖+1 − h𝑒𝑘 , 𝑥𝑖+1 i𝑒𝑘 𝑒𝑖+1 = pour 𝑖 = 1, 2, . . . , 𝑝 − 1 𝑘=1 k𝑢𝑘 k
2
𝑘=1 k𝑢𝑖+1 k
1.1.2 Si 𝑉 est un vecteur non nul de M𝑛,1 (R) alors 𝐻 = (R𝑉 ) ⊥ est l’hyper-
Discussion plan de M𝑛,1 (R) d’équation cartésienne 𝑣 1𝑥 1 + . . . + 𝑣𝑛 𝑥𝑛 = 0.
1.1.3 Soit 𝐹 l’ensemble des solutions d’un système linéaire homogène :
1.6.1 Une fois les vecteurs 𝑒 1, . . . , 𝑒𝑖 construits, 𝑢𝑖+1 = 𝑥𝑖+1 − 𝑝𝑖 (𝑥𝑖+1 ) où 𝑝𝑖
est la projection orthogonale de 𝐸 sur le sous-espace vectoriel 𝐴𝑋 = 0 (S)
𝐹𝑖 = Vect{𝑒 1, . . . , 𝑒𝑖 } = Vect{𝑥 1, . . . , 𝑥𝑖 } Pour donner une bon de 𝐹 , il peut être plus rapide, lorsqu’il est de petite
dimension, de donner d’abords une solution 𝑉1 de (S), ensuite une deuxième
Ce qui explique que la famille (𝑢 1, . . . , 𝑢𝑝 ) est orthogonale.
solution 𝑉2 orthogonale à 𝑉1 en ajoutant à (S) l’équation h𝑉1, 𝑋 i = 0 et ainsi
1.6.2 𝑥𝑖 est une combinaison linéaire des vecteurs 𝑒 1, . . . , 𝑒𝑖 . Ce constat nous de suite. On ne normalise les vecteurs qu’une fois les calculs achevés.
sera essentiel dans ce document. Il implique que la matrice de (𝑥 1, . . . , 𝑥 𝑝 ) Sans oublier que pour déterminer visuellement une solution de (S), il suffit
dans la bon (𝑒 1, . . . , 𝑒𝑝 ) de 𝐹𝑝 est triangulaire supérieure. de trouver une combinaison linéaire nulle des vecteurs colonnes de 𝐴 :
Du fait que h𝑢𝑖 , 𝑥𝑖 i = h𝑢𝑖 , 𝑢𝑖 + 𝑥𝑖 − 𝑢𝑖 i = k𝑢𝑖 k 2 , les coefficients diagonaux de 𝑥
cette matrice sont les scalaires positifs © .1 ª
. ® ∈ Ker 𝐴 ⇐⇒ 𝑥 1𝐴1 + 𝑥 2𝐴2 + . . . + 𝑥𝑛 𝐴𝑛 = 0
h𝑢𝑖 , 𝑥𝑖 i .®
h𝑒𝑖 , 𝑥𝑖 i = = k𝑢𝑖 k «𝑥𝑛 ¬
k𝑢𝑖 k
par exemple Lorsque on considère la matrice symétrique
1.6.3 Le procédé fournit de lui même un moyen de contrôler si la famille
(𝑥 1, . . . , 𝑥 𝑝 ) est bien libre. En effet ; si elle est liée alors il existe 𝑖 tel que 2 1 1
𝐴 = 1 2 1 ®
© ª
𝑥𝑖+1 ∈ Vect{𝑥 1, . . . , 𝑥𝑖 }. On aura donc 𝑢𝑖+1 = 𝑥𝑖+1 − 𝑝𝑖 (𝑥𝑖+1 ) = 0𝐸 . 1 1 2
« ¬
1.6.4 Si jamais pour un 𝑟 6 𝑝 la famille (𝑥 1, . . . , 𝑥𝑟 ) est une famille orthogo- Pour donner une bon de son sous-espace propre associé à 1 qui a pour équation
nale, on aura pour tout 𝑖 6 𝑟 , 𝑢𝑖 = 𝑥𝑖 . Cette observation permet de compléter cartésienne 𝑥 + 𝑦 + 𝑧 = 0, il suffit de prendre 𝑉1 = 𝑡 1 −1 0 et pour chercher
un vecteur 𝑉2 orthogonal à 𝑉1 il suffit de donner une solution du système formé des
une famille orthonormale (𝑒 1, . . . , 𝑒𝑟 ) en une bon (𝑒 1, . . . , 𝑒𝑟 , . . . , 𝑒𝑛 ) de 𝐸 en
équations 𝑥 + 𝑦 + 𝑧 = 0 et 𝑥 − 𝑦 = 0. Le vecteur 𝑉2 = 𝑡 1 1 −2 conviendrait.
complétant d’abords en une base quelconque (𝑒 1, . . . , 𝑒𝑟 , 𝑥𝑟 +1, . . . , 𝑥𝑛 ) et en
appliquant ensuite le procédé à cette base. 1.1.4 Lorsque on veut compléter une famille orthogonale (𝑉1, . . . , 𝑉𝑟 ) en
une base orthogonale, on peut utiliser l’équation de l’orthogonal de 𝐹 =
Remarques pratiques 1.1 (sur le calcul de bases orthonormales) Vect{𝑉1, . . . , 𝑉𝑟 } obtenue en écrivant h𝑉𝑖 , 𝑋 i = 0 pour 𝑖 ∈ [[1, 𝑟 ]]. On peut
ainsi calculer une bon de 𝐹 ⊥ en utilisant les indications précédentes.
Dans beaucoup de problèmes on a besoin de calculer une bon d’un sous-
espace vectoriel de M𝑛,1 (R) (le noyau d’une matrice par exemple, ses sous-
Application inégalité de Hadammard
espaces propres, . . . ) ou de compléter une famille orthonormale en une bon.
Ces remarques aideront à s’en acquitter plus efficacement quand les calculs Soient 𝑥 1, . . . , 𝑥𝑛 𝑛 vecteurs d’un espace euclidien 𝐸 de dimension 𝑛. Alors
sont menés à la main
Classes MP* page 8 / 43 Stage de Fevrier Classes MP* page 9 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
pour toute bon B de 𝐸 est une forme bilinéaire symétrique de M𝑛,1 (R). Ce qui explique le vocabu-
| detB (𝑥 1, 𝑥 2, . . . , 𝑥𝑛 )| 6 k𝑥 1 k k𝑥 2 k · · · k𝑥𝑛 k laire précédent. En particulier, 𝐴 est définie positive si et seulement si Φ𝐴
avec égalité si et seulement si la famille (𝑥 1, 𝑥 2, . . . , 𝑥𝑛 ) est orthogonale. est un produit scalaire de M𝑛,1 (R).
Classes MP* page 10 / 43 Stage de Fevrier Classes MP* page 11 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
Classes MP* page 12 / 43 Stage de Fevrier Classes MP* page 13 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
Soit une matrice 𝐴 ∈ M𝑛,𝑝 (R). On appelle valeurs singulières de 𝐴 les racines
Rappel carrées des valeurs propres de 𝑡𝐴𝐴. La multiplicité d’une valeur singulière 𝜎
de 𝐴 est par définition la multiplicité de la valeur propre 𝜎 2 de 𝑡𝐴𝐴.
Pour toute matrice diagonalisable 𝐵 ∈ M𝑛 (K),
M
Im 𝐵 = 𝐸𝜆 (𝐵) Remarques 1.6
𝜆 ∈Sp(𝐴)r{0}
dem chacun des sous-espaces propres de 𝐵 associé à une valeur propre non nulle est 1.6.1 Les matrices 𝐴 et 𝑡𝐴 ont les mêmes valeurs singulières non nulles, et
contenu dans Im 𝐵 donc leurs somme 𝐹 l’est aussi. En outre, M𝑛,1 (K) = Ker 𝐵 ⊕ 𝐹 et avec les mêmes multiplicités.
donc dim 𝐹 = 𝑛 − dim Ker 𝐵 = dim Im 𝐵. Alors 𝐹 = Im 𝐵.
1.6.2 0 est une valeur singuliére de 𝐴 si et seulement si rg 𝐴 < 𝑝, donc si
et seulement si les vecteurs colonnes de 𝐴 forment une famille liée. Dans
ce cas sa multiplicité est égale à dim Ker 𝑡𝐴𝐴 = dim Ker 𝐴. Le scalaire 0 peut
Théorème 1.8 réduction comparée de 𝑡𝐴𝐴 et de 𝐴𝑡𝐴
très bien être une valeur singulière de 𝐴 sans l’être pour 𝑡𝐴.
Soit 𝐴 ∈ M𝑝,𝑛 (R). On note 𝜆1, . . . , 𝜆𝑛 les valeurs propres de 𝑡𝐴𝐴 ordonnées
dans un sens décroissant. Ainsi si rg 𝐴 = 𝑟 et si 𝑟 < 𝑛 alors 𝜆𝑟 +1 = · · · = 𝜆𝑛 = 0. Lemme 1.9
On se donne une bon (𝑉1, . . . , 𝑉𝑛 ) formées de vecteurs propres de 𝑡𝐴𝐴 associés
Soient deux matrices 𝐴, 𝐵 ∈ M𝑝,𝑛 (R). Alors
dans le même ordre à 𝜆1, . . . , 𝜆𝑛 . Alors
𝐴𝐴 = 𝑡𝐵𝐵 ⇐⇒ ∃𝑄 ∈ O(𝑝) ; 𝐵 = 𝑄𝐴
𝑡
1 en posant 𝑊𝑖 = √1𝜆 𝐴𝑉𝑖 pour tout 𝑖 ∈ [[1, 𝑟 ]], (𝑊1, . . . ,𝑊𝑟 ) est une famille Résultat important démonstration 1.9, page 36
𝑖
orthormale formée de vecteurs propres de 𝐴𝑡𝐴 ;
Remarques 1.7
2 on complète cette famille en une bon de diagonalisation (𝑊1, . . . ,𝑊𝑝 )
de 𝐴𝑡𝐴 en ajoutant les vecteurs d’une bon (𝑊𝑟 +1, . . . ,𝑊𝑝 ) de Ker 𝑡𝐴. 1.7.1 Ce lemme est important. En dehors de son utilisation dans la démons-
démonstration 1.8, page 36 tration du théorème suivant, il sera souvent mis à contribution dans la suite
Classes MP* page 14 / 43 Stage de Fevrier Classes MP* page 15 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
et en écrivant 𝑡𝐴𝑄 = 𝑃 𝑡 Σ, 1 1
1 𝑡 1 2 ª® 1𝑡 1 0ª®
© ©
∀𝑖 ∈ [[1, 𝑟 ]] , 𝑡𝐴𝑊𝑖 = 𝜎𝑖 𝑉𝑖 et ∀𝑖 ∈ [[𝑟 + 1, 𝑛]] , 𝑡𝐴𝑊𝑖 = 0 𝑉1 = √ 𝐴𝑊1 = √ ® 𝑉2 = 𝐴𝑊2 = √ ®
5 10 −1® 1 2 1®
−2
« ¬ «0¬
Méthode de calcul d’une décomposition en valeurs singulière
sont des ve.p de 𝑡𝐴𝐴 associés respectivement à 5 et à 1. Il ne reste qu’à com-
1.12.1 description
Classes MP* page 16 / 43 Stage de Fevrier Classes MP* page 17 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
«0 0 0 0¬
√
© 1 5 √0 2ª
1 1 1 1 2 0 5 −1®
et 𝑄=√ 𝑃=√ √ ® IV.1 Racine carrée d’une matrice symétrique positive
2 −1 1 10 −1 5 √0 −2®®
«−2 0 5 1¬
Théorème 1.12
Soit 𝑆 une matrice symétrique réelle positive. Il existe une matrice réelle
√
Théorème 1.11 application à la résolution d’un système linéaire symétrique positive 𝑇 unique telle que 𝑇 2 = 𝑆. La matrice 𝑇 sera notée 𝑆.
√ √
n.b. C’est la positivité de 𝑆 qui assure son unicité. Par exemple − 𝑆 est symétrique et
Soit un système linéaire son carré est 𝑆, mais elle n’est pas positive.
𝐴𝑋 = 𝑏 (S) démonstration 1.12, page 37
Classes MP* page 18 / 43 Stage de Fevrier Classes MP* page 19 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
dem puisque dans ce cas 𝑆 sera aussi inversible et donc forcément 𝑄 = 𝐴𝑆 −1 . Méthodes de calcul de la décomposition de Cholesky
1.10.4 Si 𝐴 est non inversible alors 𝑄 n’est pas unique
1.14.1 Méthode de Gram-Schmidt
dem si 𝑃 est une matrice orthogonale
𝐴 étant une matrice symétrique définie positive, l’application
𝐴 = 𝑃𝑆 ⇐⇒ 𝑄𝑆 = 𝑃𝑆 ⇐⇒ (𝐼𝑛 − 𝑡 𝑄𝑃)𝑆 = 0 ⇐⇒ Im 𝑆 ⊂ Ker(𝐼𝑛 − 𝑡 𝑄𝑃)
Supposons que 𝐴 n’est pas inversible (et donc aussi 𝑆) et posons 𝑟 = rg 𝑆. Considérons
Φ : (𝑋, 𝑌 ) ∈ M𝑛,1 (R) 2 ↦−→ 𝑡 𝑋𝐴𝑌
⊥
une bon adaptée à la décomposition M𝑛,1 (R) = Im 𝑆 ⊕ Ker 𝑆 et la matrice de passage 𝑈 est un produit scalaire de M𝑛,1 (R) et sa matrice dans la base canonique est
base dans la base canonique de M𝑛,1 (R). Soit 𝑊 ∈ O(𝑛 − 𝑟 ) et posons
de cette nouvelle
𝐴. Soit B = (𝑉1, . . . , 𝑉𝑛 ) l’orthormalisée par le procédé de Gram-Schimdt
𝑃 = 𝑄 𝑡 𝑈 𝐼0𝑟 𝑊0 𝑈 . 𝑃 est orthogonale comme produit de matrices orthogonales et on a de la base canonique E = (𝐸 1, . . . , 𝐸𝑛 ) de M𝑛,1 (R) en utilisant ce produit
scalaire. La matrice𝑇 = 𝑃 B E est triangulaire supérieure à coefficients diagonaux
0 0
𝐼𝑛 − 𝑡 𝑄𝑃 = 𝑡 𝑈 𝑈 strictement positifs. Pour tout (𝑋, 𝑌 ) ∈ M𝑛,1 (R) les vecteurs 𝑇 𝑋 et 𝑇𝑌 sont
0 𝐼𝑛−𝑟 − 𝑊
de telle sorte qu’on ait bien Im 𝑆 ⊂ Ker(𝐼𝑛 − 𝑡 𝑄𝑃). Ceci pour toute matrice 𝑊 ∈ O(𝑛 −𝑟 ). les vecteurs colonnes des coordonnées de 𝑋 et 𝑌 dans la Φ-bon B donc
1.10.5 La décomposition polaire découle de la décomposition aux valeurs Φ(𝑋, 𝑌 ) = 𝑡 (𝑇 𝑋 ) (𝑇𝑌 )
singulières. Ce qui nous mène à
dem si 𝐴 est une matrice carrée réelle et 𝐴 = 𝑃 Σ𝑡 𝑄 en est une décomposition en ∀(𝑋, 𝑌 ) ∈ M𝑛,1 (R) 2, 𝑡 𝑋𝐴𝑌 = 𝑡 𝑋 (𝑡 𝑇𝑇 )𝑌
valeurs singulières alors on peut écrire
𝐴 = (𝑃 𝑡 𝑄)(𝑄 Σ𝑡 𝑄) = 𝑈 𝑆 Et donc 𝐴 = 𝑡 𝑇𝑇 . Ainsi, 𝑇 peut être obtenue en appliquant le procédé de Gram-
où 𝑈 = 𝑃 𝑡 𝑄 est bien orthogonale et 𝑆 = 𝑄 Σ𝑡 𝑄 est symétrique positive. La décomposition Schmidt pour orthormaliser la base canonique de M𝑛,1 (R) pour le produit
en valeurs singulière peut être ainsi vue comme une généralisation de la décomposition scalaire (𝑋, 𝑌 ) ↦→ 𝑡 𝑋𝐴𝑌 .
polaire, valable même pour des matrices non carrées.
Classes MP* page 20 / 43 Stage de Fevrier Classes MP* page 21 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
Classes MP* page 22 / 43 Stage de Fevrier Classes MP* page 23 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
si 𝑉 ≠ 𝑊 , en notant 𝐶 = 𝑉 − 𝑊 et 𝑟 = k𝐶 k alors le 𝑗 eme vecteur colonne de que puisque 𝐴 R 𝑆 alors 𝑂 (𝐴) = 𝑂 (𝑆).
𝑄 1𝐴 est donnée par
1.13.2 Si 𝐴 est inversible, la décomposition 𝑄𝑅 prouve que 𝑂 (𝐴) contient
2
𝑄 1𝐴 𝑗 = 𝐴 𝑗 − 2 h𝐶, 𝐴 𝑗 i𝐶 une et une seule matrice triangulaire supérieure à coefficients diagonaux
𝑟
Et coefficient par coefficient par les formules positifs. Par ailleurs 𝑂 (𝐴) = 𝑂 (𝑅).
(1) 𝑠𝑗
𝑎𝑖,𝑗 = 𝑎𝑖,𝑗 − 2 2 𝑐𝑖 (𝑠 𝑗 = h𝐶, 𝐴 𝑗 i)
𝑟 Théorème 1.17 maximum de la trace sur une orbite
On continue le procédé en appliquant la même technique au premier vecteur √
colonne de 𝐵, sachant que si 𝑄 20 et la matriceorthogonale d’ordre 𝑛 − 1 par Soit 𝐴 ∈ M𝑛 (R) et soit 𝑆 = 𝑡𝐴𝐴. Alors
∀𝑈 ∈ O(𝑛), Tr(𝑈 𝐴) 6 Tr(𝑆)
1 0
laquelle on doit multiplier 𝐵, en posant 𝑄 2 = 0 𝑄 20 on aura
(1) (1) Ce qui signifie que l’application Tr atteint son maximum sur 𝑂 (𝐴) en 𝑆.
k𝑉 k 𝑎 1,2 · · · 𝑎 1,𝑛 démonstration 1.17, page 39
© ª
0 ®
𝑄 2𝑄 1𝐴 = . ®
.. 𝑄 20 𝐵 Remarques 1.14
®
®
« 0 ¬ O(𝑛) est un compact donc pour tout 𝐴 ∈ M𝑛 (R), 𝑂 (𝐴) est un compact
Pour récupérer les matrices 𝑄 et 𝑅 finales on part d’une écriture (𝐴 | 𝐼𝑛 ) comme image de O(𝑛) par l’application continue 𝑀 ↦−→ 𝑀𝐴. Ceci justifie
et on multiplie à chaque fois simultanément les deux blocs par la matrice de façon intrinsèque l’existence d’un maximum de la trace sur l’orbite 𝑂 (𝐴).
orthogonale 𝑄𝑖 formée. Le but étant de faire apparaître dans le bloc de gauche
une matrice triangulaire supérieure. Le bloc de droite contiendrait alors la Théorème 1.18 caractérisation d’une matrice symétrique positive
matrice 𝑄.
Soit 𝐴 ∈ M𝑛 (R). Alors
𝐴 ∈ S𝑛+ (R) ⇐⇒ ∀𝑈 ∈ O(𝑛), Tr(𝑈 𝐴) 6 Tr(𝐴)
IV.5 Une application des décompositions matricielles démonstration 1.18, page 39
De façon évidente, R est une relation d’équivalence de M𝑛 (R). On notera 1.15.1 Nous venons de montrer, dans les deux dernières applications, que
𝑂 (𝐴), et on appelera orbite de 𝐴, la classe d’équivalence d’une matrice ∀𝑈 ∈ O(𝑛), Tr(𝑈 𝐴) 6 Tr(𝑆)
𝐴 ∈ M𝑛 (R). Le lemme 1.9 démontre que pour tout 𝐴 ∈ M𝑛 (R) avec égalité si et seulement si 𝑈 𝐴 = 𝑆.
𝑂 (𝐴) = {𝐵 ∈ M𝑛 (R) / 𝑡𝐴𝐴 = 𝑡 𝐵𝐵} = 𝑈 𝐴 / 𝑈 ∈ O(𝑛)
1.15.2 On obtient en particulier, lorsque 𝜎1, . . . , 𝜎𝑛 sont les valeurs singu-
lières de 𝐴 (les valeurs propres de 𝑆)
Remarques 1.13 𝑛
∑︁
Tr(𝐴) 6 𝜎𝑖
1.13.1 La décomposition polaire implique que 𝑂 (𝐴) √ contient une et une 𝑖=1
seule matrice symétrique positive. C’est la matrice 𝑆 = 𝑡𝐴𝐴. Noter en outre avec égalité si et seulement si 𝐴 est symétrique positive.
Classes MP* page 24 / 43 Stage de Fevrier Classes MP* page 25 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
dem On a Ker 𝐴 ⊂ Ker 𝐵𝐴 et comme 𝐴 = 𝐴(𝐵𝐴) alors Ker 𝐵𝐴 ⊂ Ker 𝐴. Par suite former une bon (𝑊1, . . . ,𝑊𝑟 ) de Im 𝐴. Les expressions de 𝐴𝑉1, . . . , 𝐴𝑉𝑟 dans
Ker 𝐵𝐴 = Ker 𝐴. Puisque 𝐵𝐴 est une projection orthogonale alors Im 𝐵 = Im 𝐵𝐴 = (𝑊1, . . . ,𝑊𝑟 ) permettront de former la matrice 𝐴1 (qui sera ici triangulaire
(Ker 𝐵𝐴) ⊥ = (Ker 𝐴) ⊥ . 𝐴 est un pseudo-inverse de 𝐵 donc Im 𝐴 = (Ker 𝐵) ⊥ . supérieure et tant mieux pour le calcul de son inverse).
1.16.3 rg 𝐵 = rg 𝐴. 1.17.3 On compléte (𝑊1, . . . ,𝑊𝑟 ) en une bon B0 = (𝑊1, . . . ,𝑊𝑟 , . . . ,𝑊𝑛 ) de
dem Découle de l’égalité Im 𝐵 = (Ker 𝐴) ⊥ . M𝑛,1 (R).
1.16.4 𝐵𝑡 𝐵 est un pseudo inverse de 𝑡𝐴𝐴.
dem Posons 𝑆 = 𝑡𝐴𝐴 et 𝑅 = 𝐵𝑡 𝐵. Les matrices 𝐴𝐵 et 𝐵𝐴 sont symétriques donc Proposition 1.20
1 𝑆𝑅 = (𝑡𝐴𝐴) (𝐵𝑡 𝐵) = 𝑡𝐴(𝐴𝐵)𝑡 𝐵 = 𝑡 (𝐵(𝐴𝐵)𝐴) = 𝑡 (𝐵𝐴) = 𝐵𝐴 ;
2 𝑅𝑆 = (𝐵𝑡 𝐵) (𝑡𝐴𝐴) = 𝐵𝑡 (𝐴𝐵)𝐴 = 𝐵𝐴𝐵𝐴 = 𝐵𝐴. Ainsi 𝑆𝑅 = 𝑅𝑆 = 𝐵𝐴 est une Soit 𝐴 ∈ M𝑛,𝑝 (R). Pour tout 𝑈 ∈ O(𝑛) et 𝑉 ∈ O(𝑝)
matrice symétrique. Les autres conditions suivent : (𝑈 𝐴𝑉 ) + = 𝑡 𝑉 𝐴+ 𝑡 𝑈
démonstration 1.20, page 40
Classes MP* page 26 / 43 Stage de Fevrier Classes MP* page 27 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
VI
Exercice 1.2
Soit 𝐴 ∈ M𝑛,𝑝 (R). Montrer que Normes de matrices et conditionnement
1 si rg 𝐴 = 𝑝 alors 𝑡𝐴𝐴 est inversible et 𝐴+ = (𝑡𝐴𝐴) −1 𝑡𝐴 ;
VI.1 Des normes de M𝑛,𝑝 (R)
2 si rg 𝐴 = 𝑛 alors 𝐴𝑡𝐴 est inversible et 𝐴+ = 𝑡𝐴(𝐴𝑡𝐴) −1 .
Normes de M𝑛,𝑝 (R)
Proposition 1.21 pseudo-inverse et valeurs singulières
On notera (𝐸 1(𝑛) , (𝐸 2(𝑛) , . . . , 𝐸𝑛(𝑛) ) la base canonique de M𝑛,1 (R).
Soit 𝐴 ∈ M𝑛,𝑝 (R). Soit une décomposition aux valeurs singulières de 𝐴, On munit M𝑛,𝑝 (R) des normes |||.|||, dite norme spectrale, et k.k 𝐹 dite norme
𝐴 = 𝑃 Σ𝑡 𝑄 avec Σ = diag(𝜎1, . . . , 𝜎𝑟 , 0 . . . , 0) où 𝜎!, . . . , 𝜎𝑟 sont les valeurs de Frobenius, définies par :
singulières non nulles de 𝐴. Alors k𝐴𝑋 k𝑛
∀𝐴 ∈ M𝑛,𝑝 (R), |||𝐴||| = sup = sup k𝐴𝑋 k𝑛
1 1 𝑋 ≠0 k𝑋 k 𝑝
𝐴 = 𝑄 Σ 𝑃 où Σ = diag
+ +𝑡 +
, . . . , , 0 . . . , 0 de taille 𝑝 × 𝑛 k𝑋 k 𝑝 =1
𝜎1 𝜎𝑟 1/2 ∑︁ 2 1/2
En particulier les valeurs singulières non nulles de 𝐴+ sont 1 1
. ∀𝐴 ∈ M𝑛,𝑝 (R), k𝐴k 𝐹 = Tr(𝑡 𝐴𝐴) = 𝑎𝑖,𝑗
𝜎1 , . . . , 𝜎𝑟 𝑖,𝑗
démonstration 1.21, page 40
Attention il s’agit ici d’une généralisation des mêmes notions vues dans le
cours mais réservées aux matrices carrées. Cela n’a pas de sens, par exemple,
de qualifier ces normes de normes d’algèbres dans le cas où 𝑝 ≠ 𝑛.
V.2 Application au problème des moindres carrés |||.||| est la norme de M𝑛,𝑝 (R) subordonnée aux normes euclidiennes cano-
niques de M𝑝,1 (R) et de M𝑛,1 (R). Une conséquence immédiate de sa définition
Théorème 1.22 Une solution du problème aux moindres carrés
est que
Considérons un système linéaire ∀𝑋 ∈ M𝑝,1 (R), k𝐴𝑋 k 6 |||𝐴||| k𝑋 k
𝐴𝑋 = 𝑏 (S) On notera aussi que
𝑝
(𝑝) 2
k𝐴k 2𝐹 =
∑︁
avec 𝐴 ∈ M𝑛,𝑝 (R) et 𝑏 ∈ M𝑛,1 (R). Alors le vecteur 𝐴+𝑏
minimise la fonction 𝐴𝐸 𝑗
𝑓 : 𝑋 ↦−→ k𝐴𝑋 − 𝑏 k 2 . De plus 𝐴+𝑏 est le vecteur de norme minimale parmi
𝑗=1
On notera pour une matrice 𝐴 ∈ M𝑛,𝑝 (R), VS(𝐴) l’ensemble des valeurs
Corollaire 1.23
singulières non nulles de 𝐴.
√
Soit 𝐴 ∈ M𝑛,𝑝 (R). Pour tout 𝑌 ∈ M𝑛,1 (R) r{0}. Quand 𝐴 est non nulle on a VS(𝐴) ⊂ R∗+ .
n.b. VS(𝐴) = Sp 𝑡 𝐴𝐴
𝑌 ∈ Im 𝐴 ⇐⇒ 𝐴𝐴+𝑌 = 𝑌
Propriétés 1.24
et dans ce cas 𝐴+𝑌 et le vecteur 𝑋 de norme minimale tel que 𝐴𝑋 = 𝑌 .
démonstration 1.23, page 41 Soient 𝐴 ∈ M𝑛,𝑝 (R) et 𝐵 ∈ M𝑝,𝑞 (R).
1.24.1 |||𝐴||| = sup |h𝑋, 𝐴𝑌 i|.
k𝑋 k=1, k𝑌 k=1
Classes MP* page 28 / 43 Stage de Fevrier Classes MP* page 29 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
1.24.6 Pour toutes matrices orthogonales 𝑈 ∈ O(𝑛) et 𝑉 ∈ O(𝑝) Les techniques de résolution des systèmes linéaires se divisent majoritaire-
ment en deux catégories. Les méthodes dite exactes, qui reposent en général
k𝑈 𝐴𝑉 k 𝐹 = k𝐴k 𝐹 |||𝑈 𝐴𝑉 ||| = |||𝐴||| sur une décomposition matricielle, et les techniques itératives qui s’efforcent
démonstration 1.24, page 41
de calculer une valeur approchée de la (ou de l’une des) solution(s) avec une
Remarques 1.18
erreur maitrisée en créant par exemple une suite récurrente qui converge vers
l’une des solutions.
1.18.1 Dans le cas où 𝑛 = 𝑝 = 𝑞 les propriétés 1.24.4 et 1.24.5 démontrent Nous nous intéressons ici à la première catégorie. Un phénomène commun
que |||.||| et k.k 𝐹 sont des normes d’algèbres de M𝑛 (R). à toutes les techniques de calcul exact est, dans certains cas, la sensitivité
1.18.2 La propriété 1.24.6 est remarquable du fait qu’elle signifie que les exagérée aux perturbations des données d’entrée (les coefficients de 𝐴 et de
deux normes |||.||| et k.k 𝐹 sont invariables par multiplication à gauche ou à 𝑏). Il s’agit alors d’étudier dans quelles proportions l’erreur de mesure des
droite par des matrices orthogonales. données d’entrée va influer sur le calcul de solutions du système. Il est en
effet connu que, dans certains cas, de petites variations dans les coefficients
Théorème 1.25 de 𝑏 et/ou de 𝐴 peut générer des variations relativement très grandes pour
les solutions. De tels systèmes sont dit mal conditionnés.
Soit 𝐴 ∈ M𝑛,𝑝 (R) une matrice non nulle, Notons 𝑟 = rg 𝐴 et 𝜎1 > · · · > 𝜎𝑟 > 0 Le conditionnement d’un sytème linéaire est une constante numérique qui
ses valeurs singulières non nulles. Alors peut rendre prévisible les variations relatives des solutions en fonction de
𝑟
∑︁ 1/2 celles des données d’entrée du système.
|||𝐴||| 𝐹 = 𝜎𝑖2 |||𝐴||| = max 𝜎𝑖
𝑖=1 𝑖
démonstration 1.25, page 42
Définition 1.6
Remarques 1.19
Soit une matrice 𝐴 ∈ M𝑛,𝑝 (R). |||.||| étant la norme spectrale de M𝑛,𝑝 (R), on
|||𝐴||| = 𝜌 (𝑡 𝐴𝐴) 1/2 et k𝐴k 𝐹 = Tr(𝑡 𝐴𝐴)
1/2
. appelle conditionnement de 𝐴 le réel
cond(𝐴) = |||𝐴||||||𝐴+ |||
Exemples 1.1 n.b. Dans un soucis d’homogéinité dans ce cours, cond(𝐴) est définie ici avec la norme
spectrale |||.|||. Il peut toutefois être défini avec n’importe quelle norme subordonnée. Bien
Soit une matrice carrée 𝐴 ∈ M𝑛 (R). sûr le conditionnement dépendra de la norme utilisée.
1 Si 𝐴 est symétrique alors |||𝐴||| = 𝜌 (𝐴).
2 Si 𝐴 est orthogonale alors |||𝐴||| = 1.
Remarques 1.20
3 Si 𝐴 est la matrice d’une projection alors |||𝐴||| > 1 avec égalité si et
seulement si 𝐴 est une projection orthogonale. Si 𝐴 est une matrice carrée inversible alors cond(𝐴) = |||𝐴||||||𝐴−1 |||.
Classes MP* page 30 / 43 Stage de Fevrier Classes MP* page 31 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
Soit 𝐴 ∈ M𝑛,𝑝 (R). Soit 𝐴 ∈ M𝑛,𝑝 (R) une matrice non nulle.
1 cond 𝐴 > 1. max VS(𝐴)
1 cond(𝐴) = .
2 Pour tout matrice orthogonale 𝑈 ∈ O(𝑛), cond(𝑈 ) = 1. min VS(𝐴)
2 cond(𝐴) > 1 avec égalité si et seulement si 𝐴 admet une seule valeur
3 cond(𝐴) = cond(𝐴+ ) et pour tout 𝛼 ∈ R∗ , cond(𝛼𝐴) = cond(𝐴).
singulière non nulle.
4 Pour tous 𝑈 ∈ O(𝑛) et 𝑉 ∈ O(𝑝) on a cond(𝑈 𝐴𝑉 ) = cond(𝐴)
démonstration 1.26, page 43
3 Si 𝐴 est une matrice carrée alors cond 𝐴 = 1 si et seulement s’il existe
𝛼 > 0 tel que :
∀𝑋 ∈ M𝑛,1 (R), k𝐴𝑋 k = 𝛼 k𝑋 k
Théorème 1.27 conditionnement partiel d’un système linéaire
ie que 𝛼1 𝐴 est une matrice orthogonale.
On considère un système linèaire
𝐴𝑋 = 𝑏 (S)
𝐴𝑋 = 𝑏 (S)
Soit 𝛿𝑋 l’erreur induite sur la solution 𝑋 de (S) par des perturbations simulta-
nées 𝛿𝑏 de 𝑏 et 𝛿𝐴 de 𝐴. Alors
k𝛿𝑋 k cond 𝐴 k𝛿𝑏 k |||𝛿𝐴|||
6 +
k𝑋 k 1 − cond(𝐴) |||𝛿𝐴 ||| k𝑏 k
|||𝐴 |||
|||𝐴|||
démonstration 1.28, page 44
Classes MP* page 32 / 43 Stage de Fevrier Classes MP* page 33 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
Classes MP* page 34 / 43 Stage de Fevrier Classes MP* page 35 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
Elles signifient alors que 𝑄𝐴 0 = 𝐵 0. Soit 𝑄𝐴𝑃 = 𝐵𝑃 ou encore 𝐵 = 𝑄𝐴. Démonstration de la proposition 1.13
soient 𝜇1, 𝜇2, . . . , 𝜇𝑝 les valeurs propres distinctes de 𝑆 et considérons le poly-
√
Démonstration du théorème 1.10 nôme 𝑃 de degré 6 𝑝 − 1 tel que 𝑃 (𝜇𝑖 ) = 𝜇𝑖 pour tout 𝑖 ∈ [[1, 𝑝]].
𝑡𝐴𝐴est une matrice symétrique positive (carrée d’ordre 𝑛), il existe donc une
𝑟
∑︁ √ Y 𝑋 − 𝜇𝑖
𝑃= 𝜇𝑗
matrice orthogonale 𝑃 ∈ O(𝑛) telle que 𝑗=1 𝑖≠𝑗 𝜇 𝑗 − 𝜇𝑖
√ √
𝑡 𝑡
𝑃 𝐴𝐴𝑃 = Δ2 Pour tout 𝑖 ∈ [[1, 𝑝]] et pour tout 𝑋 ∈ 𝐸 𝜇𝑖 (𝑆), 𝑃 (𝑆)𝑋 = 𝑃 (𝜇𝑖 )𝑋 = 𝜇𝑖 𝑋 = 𝑆𝑋 .
√
où Δ = diag(𝜎1, . . . , 𝜎𝑟 , 0, . . . , 0) est une matrice diagonale carrée, 𝜎1, . . . , 𝜎𝑟 Comme M𝑛,1 (R) = ⊕𝑖 𝐸 𝜇𝑖 (𝑆) alors 𝑃 (𝑆) = 𝑆.
étant les valeurs singulières non nulles de 𝐴.
On considère la matrice de même taille que 𝐴, Σ = diag(𝜎1, . . . , 𝜎𝑟 , 0, . . . , 0). On
a 𝑡ΣΣ = 𝐷 2 donc 𝑡(𝐴𝑃)(𝐴𝑃) = 𝑡ΣΣ. D’après le lemme il existe 𝑄 ∈ O(𝑝) telle
Démonstration du théorème 1.14
que 𝐴𝑃 = 𝑄 Σ. Ce qui permet de conclure. est une matrice symétrique positive, donc il existe une matrice symétrique
𝑡𝐴𝐴
Classes MP* page 36 / 43 Stage de Fevrier Classes MP* page 37 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
Démonstration du théorème 1.16 (Ker 𝐴) ⊥ est un supplémentaire de Ker 𝐴 donc 𝐴 induit un isomorphisme de
Si 𝐴 est inversible alors 𝑡𝐴𝐴 est symétrique définie positive et donc selon le (Ker 𝐴) ⊥ sur Im 𝐴. Alors la matrice de l’application linéaire canoniquement
associée à 𝐴 relativement aux bases B et B0 est de la forme 𝐴01 00 où 𝐴1 est
théorème de Cholesky, il existe une matrice triangualire supérieure 𝑅 à coeffi-
cents diagonaux positifs telle que 𝑡𝐴𝐴 = 𝑡 𝑅𝑅. Le lemme 1.9 implique alors qu’il une matrice carrée d’ordre 𝑟 inversible.
E0 𝐴𝑃 B =
Notons E et E 0 les bases canoniques de M𝑝,1 (R) et de M𝑛,1 (R). Alors 𝑃 B
existe une matrice orthogonale 𝑄 telle que 𝐴 = 𝑄𝑅. 0 E
𝐴1 0 B0 et 𝑄 = 𝑃 B sont orthogonales puisque E, E 0 , B et
L’unicité de 𝑅 découle de l’unicité de la décompostion de Cholesky 𝑡𝐴𝐴 = 𝑡 𝑅𝑅. 0 0 . Les matrices 𝑃 = 𝑃 E0 E
B0 sont des bases orthonormales et on a 𝐴 = 𝑃 𝐴01 00 𝑡 𝑄.
L’unicité de 𝑄 découle de l’égalité 𝑄 = 𝐴𝑅 −1 .
Supposons maintenant que 𝐴 admet un pseudo-inverse 𝐵. Ker 𝐵 = (Im 𝐴) ⊥ et
Im 𝐵 = (Ker 𝐴) ⊥ donc, vu la manière dont sont formées les bases B et B0,
Démonstration du théorème 1.17
𝑡 𝐵1 0
On a 𝑂 (𝐴) = 𝑂 (𝑆), il suffit donc de montrer que max Tr(𝑈 𝑆) = Tr(𝑆). 𝑄𝐵𝑃 =
𝑈 ∈O(𝑛) 0 0
Soit donc 𝑈 quelconque dans O(𝑛) et considérons 𝑃 ∈ O(𝑛) et 𝐷 diagonale où 𝐵 1 ∈ M𝑟 (R). 𝐴𝐵 est la projection orthogonale sur Im 𝐴, on a donc−1 𝑃𝐴𝐵𝑃 =
𝑡
telles que 𝑆 = 𝑃𝐷 𝑡 𝑃. Tr(𝑈 𝑆) = Tr(𝑈 𝑃𝐷 𝑡 𝑃) = Tr (𝑡 𝑃𝑈 𝑃)𝐷 . L’application 𝐼𝑟 0 𝐴1 0 𝐵1 0 𝐼𝑟 0
0 0 . Par suite 0 0 0 0 = 0 0 , soit 𝐴1 𝐵 1 = 𝐼𝑟 et donc 𝐵 1 = 𝐴 .
𝑈 ↦−→ 𝑡 𝑃𝑈 𝑃 est une bijection de O(𝑛) sur lui même. On se ramène donc au Résumons, si 𝐵 est un pseudo inverse de 𝐴 alors forcément
calcul de max𝑈 ∈O(𝑛) Tr(𝑈 𝐷). −1
𝐴 0 𝑡
Or si 𝑈 = (𝛼𝑖,𝑗 ) et 𝐷 = diag(𝜎1, . . . , 𝜎𝑛 ) alors Tr(𝑈 𝐷) = 𝑛𝑖=1 𝜎𝑖 𝛼𝑖,𝑖 . Comme les 𝐵 =𝑄 1
P
𝑃
0 0
vecteurs colonnes de 𝑈 sont unitaires alors |𝛼𝑖,𝑖 | 6 1 pour tout 𝑖. En outre les
valeurs propres 𝜎𝑖 de 𝑆 sont positives donc Réciproquement, on vérifie aisément que 𝐵 est bien un pseudo-inverse de 𝐴.
𝑛
∑︁
Tr(𝑈 𝐷) 6 | Tr(𝑈 𝐷)| 6 𝜎𝑖 = Tr(𝑆)
𝑖=1
Démonstration de la proposition 1.20
D’où le résultat. Noter en outre que Tr(𝑈 𝐷) = Tr(𝑆) si et seulement si Posons 𝐵 = 𝑈 𝐴𝑉 et 𝐶 = 𝑡 𝑉 𝐴+ 𝑡 𝑈 . Alors
𝑛
∑︁ 𝑛
∑︁ 𝑛
∑︁ 1 𝐵𝐶 = 𝑈 𝐴𝐴+ 𝑡 𝑈 et 𝐶𝐵 = 𝑡 𝑉 𝐴+𝐴𝑉 . Ce sont des matrices symétriques ;
𝜎𝑖 𝛼𝑖,𝑖 = 𝜎𝑖 𝛼𝑖,𝑖 = 𝜎𝑖
𝑖=1 𝑖=1 𝑖=1 2 𝐵𝐶𝐵 = 𝑈 𝐴𝐴+𝐴𝑉 = 𝑈 𝐴𝑉 = 𝐵 ;
Ce n’est possible que si 𝛼𝑖,𝑖 = 1 pour tout 𝑖. Les vecteurs colonnes de 𝑈 sont 3 𝐶𝐵𝐶 = 𝑡 𝑉 𝐴+𝐴𝐴+ 𝑡 𝑈 = 𝑡 𝑉 𝐴+ 𝑡 𝑈 = 𝐶.
unitaires ceci est en fait équivalent à 𝑈 = 𝐼𝑛 . Ce qui veut dire que la maximum
Ainsi 𝐶 = 𝐵 + .
de Tr(𝑈 𝑆) ne peut être atteint qu’en 𝑆.
Classes MP* page 38 / 43 Stage de Fevrier Classes MP* page 39 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
𝑓 (𝐴+𝑏 + 𝐻 ) = 𝑓 (𝐴+𝑏) + k𝐴𝐻 k 2 |||.||| atteint son maximum sur la sphère unité (un compact) de M𝑝,1 (R) donc
il existe 𝑋 ∈ M𝑝,1 (R) tel que k𝑋 k = 1 et k𝐴𝑋 k = |||𝐴|||. On a alors en utilisant
La fonction 𝑓 admet bien un minimum global en 𝐴+𝑏. De plus ce minimum est l’inégalité de Cauchy-Schwarz
atteint en 𝐴+𝑏 + 𝐻 si et seulement si 𝐴𝐻 = 0. 2 ∑︁ ∑︁ 2 ∑︁ 2
|||𝐴||| 2 = k𝐴𝑋 k 2 = ( 𝑎𝑖,𝑗 ) ( 𝑥 𝑗 ) = k𝑋 k 2 k𝐴k 2𝐹 = k𝐴k 2𝐹
∑︁ ∑︁
Maintenant pour tout 𝐻 ∈ Ker 𝐴, sachant que 𝐴+𝑏 ∈ Im 𝐴+ = (Ker 𝐴) ⊥ , on a 𝑎𝑖,𝑗 𝑥 𝑗 6
𝑖 𝑗 𝑖 𝑗 𝑗
selon l’identité de Pythagore, k𝐴+𝑏 + 𝐻 k 2 = k𝐴+𝑏 k + k𝐻 k 2 . Donc 𝐴+𝑏 est le
vecteur de norme minimale en lequel 𝑓 atteint son minimum. et donc |||𝐴||| 6 k𝐴k 𝐹 .
n.b. On aurait pu aussi procéder comme suit. min 𝑓 = inf k𝐴𝑋 − 𝑏 k2 = d(𝑏, Im 𝐴) 2 . n.b. On a montré ici que les normes |||.||| et k.k 𝐹 sont équivalentes. Ceci est normal puisque
𝑋
d(𝑏, Im 𝐴) est atteinte en un point unique de Im 𝐴 qui est le projecté orthogonal de 𝑏 M𝑛,𝑝 (R) est de dimension fini. L’intérêt est d’avoir calculé ici dans quels rapports. On peut
sur Im 𝐴. Ce projeté est 𝐴𝐴+𝑏. Alors min 𝑓 est atteint en tout point 𝑋 tel que 𝐴𝑋 = 𝐴𝐴+𝑏. justifier que les deux inégalités peuvent être des égalités pour certaines matrices, ce sont
Ces points sont ceux du sous-espace affine 𝐴+𝑏 + Ker 𝐴. donc les meilleurs rapports.
Classes MP* page 40 / 43 Stage de Fevrier Classes MP* page 41 / 43 Stage de Fevrier
Annexe À propos de la matrice 𝑡 𝐴𝐴 Annexe À propos de la matrice 𝑡 𝐴𝐴
donc |||𝐴||| 2 6 |||𝑡 𝐴𝐴||| et inversement |||𝑡 𝐴𝐴||| 6 |||𝑡 𝐴||||||𝐴||| = |||𝐴||| 2 . Alors 2 Cette fois
|||𝐴||| 2 = |||𝑡 𝐴𝐴|||
(
𝐴𝑋 = 𝑏
⇐⇒ 𝐴(𝛿𝑋 ) = −(𝛿𝐴) (𝑋 + 𝛿𝑋 )
Et en utilisant la décomposition de 𝑡 𝐴𝐴 et la propriété 1.24.6 on a |||𝑡 𝐴𝐴||| = |||𝐷 |||. (𝐴 + 𝛿𝐴) (𝑋 + 𝛿𝑋 ) = 𝑏
Il est maintenant aisé de voir que |||𝐷 ||| = sup k𝐷𝑋 k = max 𝜎𝑖2 . Finalement
k𝑋 k=1 𝑖 Comme 𝛿𝑋 est de norme minimale alors 𝛿𝑋 = −𝐴+ (𝛿𝐴)(𝑋 + 𝛿𝑋 ). Ce
|||𝐴||| = max 𝜎𝑖 qui donne
𝑖
k𝛿𝑋 k 6 |||𝐴+ ||||||𝛿𝐴||| k𝑋 + 𝛿𝑋 k
Justifions maintenant ces résultats en utilisant la décomposition en valeurs
singulières de A : 𝐴 = 𝑃 Σ𝑡 𝑄. Sur la foi de la propriété 1.24.6 on a ou encore
k𝐴k 𝐹 = kΣk 𝐹 et |||𝐴||| = |||Σ||| k𝛿𝑋 k |||𝛿𝐴|||
6 cond(𝐴)
k𝑋 + 𝛿𝑋 k |||𝐴|||
kΣk 2𝐹 = Tr(𝑡 ΣΣ) = 𝑖 𝜎𝑖2 .
P
Ensuite, pour tout 𝑋 ∈ M𝑝,1 (R) tel que k𝑋 k = 1
kΣ𝑋 k 2 =
∑︁ 2 2
𝜎𝑖 𝑥𝑖 6 max 𝜎𝑖2 Démonstration du théorème 1.28
𝑖
𝑖
On rappelle que lorsque 𝐵 est une matrice carrée telle que |||𝐵||| < 1 alors 𝐼𝑛 − 𝐵
avec égalité si 𝑋 = 𝐸𝑘 , 𝑘 étant un indice tel que 𝜎𝑘 = max 𝜎𝑖 . Alors est inversible et
𝑖
+∞
|||𝐴||| = |||Σ||| = max kΣ𝑋 k = max 𝜎𝑖 (𝐼𝑛 − 𝐵) −1 =
∑︁
k𝑋 k=1 𝑖 𝐴𝑘
𝑘=0
On peut écrire 𝐴 + 𝛿𝐴 = 𝐼𝑛 + (𝛿𝐴)𝐴−1 𝐴. Donc si |||𝛿𝐴||| < 1/|||𝐴−1 ||| alors
Démonstration des propriétés 1.26 |||(𝛿𝐴)𝐴−1 ||| < 1 et donc 𝐴 + 𝛿𝐴 est inversible et
−1 +∞
(𝐴 + 𝛿𝐴) −1 = 𝐴−1 𝐼𝑛 + (𝛿𝐴)𝐴−1 = 𝐴−1 (−1)𝑘 (𝛿𝐴)𝐴−1
∑︁ 𝑘
1 𝐴𝐴+ est une projection orthogonale donc |||𝐴𝐴+ ||| = 1. Par suite 1 6
|||𝐴||||||𝐴+ ||| = cond(𝐴). 𝑘=0
On en déduit la majoration
2 Pour toute matrice orthogonale 𝑈 , k𝑈 k = 𝑈 −1 = 1 donc cond 𝑈 = 1.
|||𝐴−1 |||
3 On a (𝐴+ ) +
= 𝐴 donc cond(𝐴) = cond(𝐴+ ). |||(𝐴 + 𝛿𝐴) −1 ||| 6
1 − |||𝐴−1 ||||||𝛿𝐴|||
Pour tout 𝛼 ∈ R∗ , (𝛼𝐴) + = (1/𝛼)𝐴+ donc cond(𝛼𝐴) = cond(𝐴) On a (
𝐴𝑋 = 𝑏
Démonstration du théorème 1.27 (𝐴 + 𝛿𝐴) (𝑋 + 𝛿𝑋 ) = 𝑏 + 𝛿𝑏
donc
1 on a
( 𝛿𝑋 = (𝐴 + 𝛿𝐴) −1 (𝑏 + 𝛿𝑏) − 𝐴−1𝑏
𝐴𝑋 = 𝑏
⇐⇒ 𝐴(𝛿𝑋 ) = 𝛿𝑏 = (𝐴 + 𝛿𝐴) −1 𝑏 + 𝛿𝑏 − (𝐴 + 𝛿𝐴)𝐴−1𝑏)
𝐴(𝑋 + 𝛿𝑋 ) = 𝑏 + 𝛿𝑏
= (𝐴 + 𝛿𝐴) −1 𝛿𝑏 − (𝛿𝐴)𝐴−1𝑏
On sait que 𝐴+𝑏 est la solution de norme minimale du système 𝐴𝑌 = 𝛿𝑏,
donc 𝛿𝑋 = 𝐴+𝑏 et par suite k𝛿𝑋 k 6 |||𝐴+ ||| k𝛿𝑏 k donc
|||𝐴−1 |||
Ensuite 𝐴𝑋 = 𝑏 donne k𝑏 k 6 |||𝐴||| k𝑋 k et donc k𝑋1 k 6 |||𝐴 |||
k𝛿𝑏 k + |||𝛿𝐴||||||𝐴−1 ||| k𝑏 k
k𝑏 k Alors k𝛿𝑋 k 6 −1
1 − |||𝐴 ||||||𝛿𝐴|||
k𝛿𝑋 k k𝛿𝑏 k 1 |||𝐴 |||
6 |||𝐴||||||𝐴+ ||| on conclut en utilisant l’ inégalité k𝑋 k 6 k𝑏 k .
k𝑋 k k𝑏 k
Classes MP* page 42 / 43 Stage de Fevrier Classes MP* page 43 / 43 Stage de Fevrier