0% ont trouvé ce document utile (0 vote)
40 vues10 pages

Formes

Transféré par

Alaimi Seif
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
40 vues10 pages

Formes

Transféré par

Alaimi Seif
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

1. Formes bilinéaires. Formes quadratiques.

.
1.1. Définitions. Soit E un espace vectoriel sur K (K = R ou C).
Une forme bilinéaire sur E est une application ϕ : E × E → K linéaire
par rapport à chacune des deux variables.
Une forme bilinéaire ϕ est symétrique si ϕ(x, y) = ϕ(y, x) pour tout
x, y ∈ E. Si ϕ(x, y) = −ϕ(y, x) pour tous x, y ∈ E, la forme est dite
anti-symétrique (ou alternée).
Chaque forme bilinéaire s’écrit comme la somme d’une forme symétrique
et d’une forme anti-symétrique: ϕ = ϕ+ + ϕ− , où
ϕ+ (x, y) = 21 (ϕ(x, y) + ϕ(y, x)) et ϕ− (x, y) = 21 (ϕ(x, y) − ϕ(y, x)).
Pour une forme bilinéaire symétrique on définit la forme quadratique
associée qϕ : E → K: qϕ (x) = ϕ(x, x).
La forme bilinéaire symétrique est déterminée par la forme quadratique
associée: ϕ(x, y) = 14 [qϕ (x + y) − qϕ (x − y)] (”identité de polarisation”).
.
Exemples. 1. Si f et g sont deux formes linéaires, ϕ(x, y) = f (x)g(y) est
une forme bilinéaire.
2. Si ϕ1 , ..., ϕk sont des formes bilinéaires et a1 , ...ak des scalaires,
a1 ϕ1 + ... + ak ϕk est une forme bilinéaire.
3. Soit E l’espace des matrices k × n; alors ϕ(A, B) = tr(t AB) est une
forme bilinéaire symétrique.
4. Soit E = C([a, b], K) l’espace Rb
des fonctions continues sur [a, b], soit
p ∈ C([a, b], K). Alors ϕ(f, g) = a f (t)g(t)p(t)dt est une forme bilinéaire
symétrique.
.
1.2. Expression en coordonnées. On suppose que dim E = n < ∞.
Soit B = (e1 , ..., en ) une base de E, x = n1 xi ei , y = n1 yi ei .
P P

Alors ϕ(x, y) = ni,j=1 xi yj ϕ(ei , ej ) = ni,j=1 aij xi yj où aij = ϕ(ei , ej ).


P P

La matrice A = (aij ) = (ϕ(ei , ej )) est la matrice de la forme bilinéaire


ϕ dans la base B .
La forme ϕ est symétrique si et seulement si sa matrice (dans n’importe
quelle base) est symétrique: aij = aji ou t A = A. Si ϕ est symétrique, la
forme quadratique associée s’écrit: qϕ (x) = ni,j=1 aij xi xj .
P

Soit X la colonne des composantes du vecteur x: t X = (x1 , ..., xn ). Alors


on peut écrire ϕ à l’aide de la multiplication matricielle: ϕ(x, y) =t XAY .
.
1.3. Changement de base (changement linéaire de coordonnées).
Soit B 0 = (e01 , ..., e0n ) une autre base de E, soit X 0 et Y 0 les colonnes des
coordonnées des vecteurs x et y dans la base B 0 .

1
On a X = P X 0 et Y = P Y 0 , où P est la matrice de passage de B à
B0 . Alors ϕ(x, y) =t XAY =t X 0t P AP Y 0 =t X 0 A0 Y 0 où A0 =t P AP est la
matrice de la forme ϕ dans la base B 0 .
(Noter que si A est symétrique, A0 l’est aussi.)
1.4. On appelle rang d’une forme bilinéaire le rang de sa matrice (il ne
dépend pas du choix de la base). On dit que la forme est non-dégénérée
si son rang est égal à la dimension de E.
Pour une forme ϕ symétrique son noyau est défini par
Ker ϕ = {x ∈ E : ∀y ∈ E, ϕ(x, y) = 0}.
Le noyau de ϕ est le noyau de (l’application linéaire définie par) la ma-
trice de ϕ. On a: rang (ϕ) + dim (Ker ϕ) = dim (E).
Lemme. Caractérisation du noyau en termes de la forme quadratique:
x ∈ Ker (ϕ) si et seulement si qϕ (x + y) = qϕ (y) pour tout y ∈ E.
.
1.5. Equivalence des formes.
Deux formes bilinéaires ϕ et ψ sont dites équivalentes si il existe un
isomorphisme f : E → E tel que ψ(x, y) = ϕ(f (x), f (y)).
Si dim(E) < ∞, les formes ϕ et ψ sont équivalentes si leurs matrices A
et B sont liées par B =t P AP avec P inversible (autrement dit, si on peut
trouver deux bases dans lequelles ϕ et ψ ont la même matrice).
1.6. Soit ϕ une forme bilinéaire symetrique. Les vecteurs x et y sont
orthogonaux si ϕ(x, y) = 0. Une base est dite orthogonale si ses vecteurs
sont deux à deux orthogonaux.
Dans une base orthogonale la forme s’écrit ϕ(x, y) = n1 ai xi yi , et sa
P

matrice est diagonale. La forme quadratique associée devient alors une


combinaison linéaire de carrés: q(x) = n1 ai x2i .
P

Le rang de ϕ (ou de q) est le nombre de coefficients ai non-nuls. Le


noyau de ϕ est engendré par les vecteurs de base ei pour lesquels ai = 0.
.
1.7. Orthogonalisation de Gauss (réduction en carrés).
L’orthogonalisation de Gauss permet de fabriquer une base orthogonale
pour la forme quadratique qϕ (x) = ni,j=1 aij xi xj par des changements de
P

coordonnées successives.
Cas 1. Soit a11 6= 0. On écrit
qϕ (x) = ni,j=1 aij xi xj =
P

a11 (x1 + a111 nj=2 a1j xj )2 + ni,j=2 aij xi xj − ( a111 nj=2 a1j xj )2
P P P

= a11 y12 + q1 (x2 , ..., xn ), où y = x1 + a111 nj=2 a1j xj .


P

Ensuite il reste à diagonaliser la forme q1 (x2 , ..., xn ) (récurrence).

2
Cas 2. Soit a11 = 0 . Soit a1j 6= 0 et ajj = 0 (si ajj 6= 0, on est dans le
cas 1 avec j à la place de 1). Pour simplifier, soit j = 2.
On écrit
qϕ (x) = ni,j=1 aij xi xj = a12 (x1 + a112 nj=3 a2j xj )(x2 + a112 nj=3 a1j xj )
P P P

+ ni,j=3 aij xi xj − a112 ( nj=3 a1j xj )( nj=3 a2j xj )


P P P

= a12 y1 y2 + q2 (x3 , ..., xn ).


Ensuite on pose z1 = y1 + y2 , z2 = y1 − y2 et on a y1 y2 = 41 (z12 − z22 ).
Après cela il reste à diagonaliser la forme q2 (x3 , ..., xn ).
.
1.8. Equivalence des formes quadratiques.
Deux formes quadratiques sont équivalentes si les formes bilinéaires
symétriques associées sont équivalentes; en d’autres termes, q1 et q2 sont
équivalentes si il existe un isomorphisme f : E → E tel que q2 (x) = q1 (f (x)).
Pour une forme réduit en carrés on écrit
q(x) = ki=1 ai x2i avec ai 6= 0, i = 1, ..., k. Donc k est le rang de q.
P

Equivalence sur C. En posant x̃i = ai xi on obtient la forme réduite:
Pk
q(x) = i=1 x̃2i .
Corollaire. Deux formes quadratiques sur C sont équivalentes si et
seulement si elles ont le même rang.
Formes quadratiques sur R. Signature.
On regroupe les coefficients positifs et négatif et on écrit
q(x) = ri=1 ai x2i − r+s 2
P P
i=r+1 ai yi avec ai > 0, i = 1, ..., k.
.
Théorème de Sylvester. Les entiers r et s (le nombre de carrés positif
et négatifs) sont indépendants du choix de la base q−orthogonale.
Le couple (r, s) s’appelle signature de la forme quadratique.
On a r + s = rang(q).

En posant x̃i = ai xi on obtient la forme réduite: q(x) = ri=1 x̃2i −
P
Pr+s 2
i=r+1 x̃i .
Corollaire. Deux formes quadratiques sur R sont équivalentes si et
seulement si elles ont la même signature.
Lemme. Caractérisation ”intrinseque” de la signature. r (respective-
ment, s) est égal à la dimension maximale d’un sous-espace F tel que la
restriction de q (respectivement, de −q) sur F soit définie positive.
.
1.9. La forme quadratique q est dite positive si q(x) ≥ 0 pour tout
x ∈ E (donc, si s = 0).
La forme quadratique q est dite définie positive si q(x) > 0 pour tout
x non-nul (donc, si r = dim(E)).

3
En termes matriciels, A est positive si t XAX ≥ 0 pour tout X; A est
définie positive si t XAX > 0 pour tout X 6= 0.
Remarque: pour toute matrice C la matrice A =t CC est positive; t CC
est définie positive si et seulement si C est inversible.
.
Exemple: étude des extréma. Soit f (x1 , ..., xn ) une fonction de classe C 2
∂f
dans Rn . Soit 0 = (0, ..., 0) un point critique: ∂x i
(0) = 0, i = 1, ..., n. On
considère le dévéloppement limité de f en 0 à l’ordre 2:
2f
f (x) = f (0) + 12 i,j hi,j xi xj + o(k x k2 ), où hij = ∂x∂i ∂x
P
j
(0).
P
La forme quadratique H(x) = i,j hi,j xi xj s’appelle la forme Hessienne
de f en 0.
Proposition. (i) Si f admet un minimum local en O, H admet un
minimum en 0 et donc H est positive.
(ii) Si H admet un minimum strict en 0 et donc est définie positive, f
admet un minimum local strict en 0.
.
1.10. Orthogonalisation de Gauss pour les formes définie posi-
tives.
Si qϕ (x) = ni,j=1 aij xi xj est définie positive, on a aii > 0 pour tout
P

i. Donc dans l’algorithme de Gauss on rencontre uniquement le cas 1 (voir


1.7.). La matrice de changement de variables est à chaque étape triangulaire
(supérieure); la matrice de passage P vers la base orthonormale dans laquelle
q est la somme des carrés est donc triangulaire supérieure: t P AP = In . Soit
C = P −1 . On a A =t CC.
Théorème de factorisation triangulaire (Gauss-Cholesky).
Pour toute matrice A symétrique définie positive il existe une unique
matrice C triangulaire supérieure à diagonale positive telle que A =t CC.
.
2. Produit scalaire. Espaces Euclidiens.
2.1. Soit E un R-espace vectoriel. Un produit scalaire sur E est une
forme bilinéaire symétrique définie positive, noté < ., . >.
La norme euclidienne associée est définie par k x k2 =< x, x >.
L’inégalité de Cauchy-Schwartz | < x, y > | ≤k x kk y k entraine
l’inégalité du triangle k x + y k≤k x k + k y k.
La distance euclidienne d sur E est définie par d(x, y) =k x − y k.
Le produit scalaire est déterminé par la norme:
< x, y >= 14 (k x + y k − k x − y k) (”identité de polarisation”).
Exemples: 1. Produit scalaire canonique dans Rn : < x, y >= n1 xi yi ;
P

la norme est donnée par le ”théorème de Pythagore”: k x k2 = n1 x2i .


P

4
2. E = C([a, b], R), < f, g >= ab f (t)g(t)dt.
R

Un R-espace vectoriel de dimension finie muni d’un produit scalaire


s’appelle espace euclidien.
2.2. Deux vecteurs x et y sont orthogonaux si < x, y >= 0.
Sous-espace orthogonale. Soit A ⊂ E; l’orthogonal de A est l’ensemble
de vecteurs de E orthogonaux à tous les vecteurs de A:
A⊥ = {x ∈ E : ∀y ∈ A on a < x, y >= 0}.
Il est claire que A⊥ est un sous-espace vectoriel de E.
Deux sous-espaces E1 et E2 sont orthogonaux si tout vecteur de E1
est orthogonal à tout vecteur de E2 (E2 ⊂ E1⊥ ).
Famille orthogonale. Une famille de vecteurs de E est dite orthogo-
nale si les vecteurs de cette famille sont deux à deux orthogonaux.
Une famille de vecteurs de E est dite orthonormale si elle est orthog-
onales et tous ses vecteurs sont de norme 1.
Lemme. Une famille orthogonale sans vecteurs nuls est libre.
Exemple. Dans C([0, 2π]) avec le produit scalaire < f, g >= π1 02π f (t)g(t)dt
R

la famille ( √12 , cos nx, sin nx)n≥1 est orthonormale.


.
2.3. Coordonnées dans une base orthonormale.
Soit (e1 , ..., en ) une base orthonormale, soit x = n1 xi ei , y = n1 yi ei .
P P

Alors < x, y >= n1 xi yi , k x k2 = n1 x2i (”théorème de Pythagore”) et


P P

xi =< x, ei >.
Coordonnées dans une base orthogonale: < x, y >= n1 < ei , ei > xi yi
P
<x,ei >
, k x k2 = n1 < ei , ei > x2i et xi = <e
P
i ,ei >
.
.
2.4. Orthogonalisation de Gram-Schmidt.
Soit (v1 , ..., vn , ...) une famille libre dans E. On peut construire une
famille orthonormale e1 , ..., en , ... telle que V ect(v1 , ..., vk ) = V ect(e1 , ..., ek )
pour tout k ≥ 1. (Autrement dit, ek est une combinaison linéaire de
v1 , ..., vk .)
Construction par récurrence:

On pose e1 = kvv1i k ; ẽk+1 = vk+1 − k1 < vk+1 , ei > ei et ek+1 = kẽk+1
P
k+1 k
.
Corollaire. Tout espace Euclidien admet une base orthonormale. Toute
famille orthonormale peut être complétée en une base orthonormale.
.
2.5. Projection orthogonale.
Soit F ⊂ E un sous-espace de dimention finie.
Soit (e1 , ..., en ) une base orthonormale de F .

5
On définit PF : E → E par PF (x) = n1 < x, ei > ei . Alors PF est un
P

projecteur sur F parallèlement à F ⊥ .


Corollaire. Si F est un sous-espace de dimension finie, F ⊥ est un
supplémentaire de F : E = F F ⊥ , somme directe orthogonale. On a aussi
L

(F ⊥ )⊥ = F .
Projection orthogonale dans une base quelconque.
Le vecteur y = PF (x) est caractérisé par les conditions y ∈ F et <
y, z >=< x, z > pour tout vecteur z de F .
Soit (e1 , ..., en ) une base de F .
Posons PF (x) = n1 ui ei ; pour déterminer les coeeficients ui on doit
P

résoudre le système:
Pn
1 ui < ei , ej >=< x, ej >, j = 1, ..., n.
La matrice de ce système G = (< ei , ej >) s’appelle matrice de Gram.
Si (ẽ1 , ..., ẽn ) est une base orthonormale et A = (aij ) = (< ẽi , ej >), alors
G =t AA. En particulier, dét G= (dét A)2 .
.
2.6. Projection othogonale et meilleur approximation en moyenne
quadratique. Distance à un sous-espace.
Lemme. Soit F est un sous-espace de dimension finie et x ∈ E. Alors
la projection PF (x) réalise la distance minimale entre x et les vecteurs de
F : k x − PF (x) k = min {k x − z k, z ∈ F }.
Exemple. Ajustement affine.
Soit x1 < x2 < ... < xn et S = (x1 , ..., xn ).
Soit E l’espace des fonctions définies sur S à valeurs réelles.
Le produit scalaire dans E est défini par < f, g >= n1 f (xi )g(xi );
P

Etant donné f , l’ajustement affine par les moindres carrés consite à


déterminer une fonction affine φ(x) = ax + b telle que l’écart k f − φ k2 =
Pn 2
1 [f (xi ) − φ(xi )] soit minimal.
La réponse est donnée par la projection orthogonal sur le sous-espace
des fonctions affines. Les coefficients a et b sont les solutions du système
linéaire: < φ, 1 >=< f, 1 >, < φ, x >=< f, x >. Plus explicitement,
P P
na + ( xi )b = f (xi ),
P P 2 P
( xi )a + ( xi )b = xi f (xi ).
Exemple. Meilleur approximation en moyenne quadratique par des polynômes
trigonométriques.
Un polynôme trigonométrique de dégré ≤ n est la somme p(t) = a0 +
Pn
i=1 (ak cos kt + bk sin kt). Soit f ∈ C([0, 2π]) une fonctionn continue.
On
R 2π
cherche on polynôme trigonométrique p de degré ≤ n tel que l’écart
0 (f (t) − p(t))2 dt soit minimal.

6
La réponse est donnée par la projection orthogonal dans C([0, 2π]) sur
le sous-espace des polynômes trigonométriques de dégré ≤ n; le produit
scalaire est < f, g >= 02π f (t)g(t)dt. Les coefficients du polynôme p(t) sont:
R
1 R 2π 1 R 2π 1 R 2π
a0 = 2π 0 f (t)dt, ak = π 0 f (t) cos(kt)dt, bk = π 0 f (t) sin(kt)dt.
.
2.7. Inégalité de Bessel et égalité de Bessel-Parseval.
Théorème. Soit (e1 , ..., en , ...) une famille orthonormale et x ∈ E. Alors
(i) pour tout n on a i = 1n < x, ei >2 ≤k x k2 .
P
P∞
(ii) i=1 < x, ei >2 =k x k2 si et seulement si x appartient à l’adhérence
de l’espace vectoriel engendré par la suite (e1 , ..., en , ...).
Exemple: séries de Fourier. Avec le produit scalaire < f, g >= π1 02π f (t)g(t)dt
R

dans C([0, 2π]) la famille ( √12 , cos nt, sin nt)n≥1 est orthonormale; les com-
binaisons linéaires des ses fonctions - les polynômes trigonométriques - sont
1 R 2π 1 R 2π
denses dans C([0, 2π]). Soit a0 = 2π 0 f (t)dt, an = π 0 f (t) cos(nt)dt,
bn = π1 02π f (t) sin(nt)dt. On a l’égalité de Parseval:
R
1 R 2π 2 2 P∞ 2 2
π 0 f (t) dt = 2a0 + n=1 (an + bn ).
.
Egalité de Bessel-Parseval dans une ”base” orthogonale.
Si (e1 , ..., en , ...) est une famille orthogonale et x appartient à l’adhérence
de l’espace vectoriel engendré par la suite (e1 , ..., en , ...), alors
<x,ei >2
k x k2 = ∞
P
i=1 <ei ,ei > .
.
3. Formes bilinéaires et endomorphismes.
3.1. Soit E un espace Euclidien et B = (e1 , ..., en ) une base orthonor-
male.
Soit f ∈ L(E), f (ej ) = i ai,j ei et A = (aij ) la matrice de f .
P

On définit la forme associée: ϕf (x, y) =< x, f (y) >. La matrice de ϕf


dans la base B est: (< ei , f (ej ) >) = (aij ) = A. La correspondance entre f
et ϕf est donc une bijection linéaire entre l’espace des endomorphismes et
l’espace des formes bilinéaires.
Si on écrit ψf (x, y) =< f (x), y >, alors la matrice de ψf est la transposée
de A: < f (ei ), ej >= aji . Il existe donc un unique endomorphisme f ∗ tel
que < x, f (y) >=< f ∗ (x), y > pour tous x, y ∈ E.
Définition. L’endomorphisme f ∗ tel que < x, f (y) >=< f ∗ (x), y >
s’appelle l’adjoint de f ; sa matrice dans une base orthonormale est la trans-
posée de la matrice de f .
Définition. L’endomorphisme f est dit auto-adjoint ou symétrique
si f ∗ = f . L’endomorphisme f est symétrique si et seulement si sa matrice
dans une base orthonormale est symétrique.

7
Exemple. Une projection orthogonale est symétrique.
3.2. Propriétés de f ∗ . L’application f → f ∗ est linéaire; (f ∗ )∗ = f ,
(f g)∗ = g ∗ f ∗ et (f −1 )∗ = (f ∗ )−1 .
Lemme. (1) Ker f ∗ = (Im f )⊥ et Im f ∗ =( Ker f )⊥ .
(2) L’orthogonal d’un sous-espace stable par f est stable par f ∗ .
Corollaire. Si f est symétrique, Ker f = (Im f )⊥ et E est la somme
orthogonale de Ker f et Im f . L’orthogonal d’un sous-espace stable par f
est stable par f .
.
3.3. Diagonalisation des matrices symétriques.
Proposition. Soit f un endomorphisme auto-adjoint. Alors
(i) Toutes les valeurs propres de f sont réelles.
(ii) Les sous-espaces propres de f sont deux à deux orthogonaux.
(iii) f est diagonalisable dans une base orthonormale.
.
Caractérisation min-max des valeurs propres (Rayleigh). Soit f
un endomorphisme auto-adjoint.
On définit la fonction Q(x) = <x,f (x)>
<x,x> dans E − {0}. Alors
(i) Les points critiques de Q sont précisement les vecteurs propres de f .
(ii) max {Q(x), x ∈ E − {0}} (respectivement, min {Q(x), x ∈ E − {0}})
est égal à la valeur propre maximale (respectivement, minimale) de f .
.
3.4. Un endomorphisme symétrique f est dit positif (respectivement,
défini positif) si la forme associée < x, f (y) > est positive (respectivement,
défini positive).
La proposition précédente montre que’un endomorphisme symétrique est
positif (respectivement, défini positive) si et seulement si toutes ses valeurs
propres sont positives (respectivement, stictement positives).
Une matrice symétrique A est dit positive (respectivement, défini pos-
itive) si t XAX ≥ 0 pour tout X ∈ Rn (respectivement, t XAX > 0 pour
tout X non-nul).
Exemple: racine carré d’une matice positive. Soit f un endomorphisme
positif, Πi le projecteur spectral associé à la valeur propre λi , i = 1, ..., k.
P P√
On a f = λi Πi . Posons g = λi Πi . Alors g est symétrique
√ positif
2
et g = f . On peut montrer qu’une telle racine carré positive f = g est
unique.
3.5. Diagonalisation d’une forme quadratique dans une base
orthonormale.
Soit q une forme quadratique et soit f un endomorphisme auto-adjoint
tel que q(x) =< x, f (x) >. On a vu que dans une base orthonormale q et f

8
ont la même matrice. Donc dans une base orthonormale de vecteurs propres
de f la matrice de q est diagonale et q est une combinaison linéaire de carrés.
Proposition. ”Réduction aux axes principaux”. Pour toute forme
quadratique q il existe une une base orthonormale dans laquelle la matrice de
q est diagonale et q est une combinaison linéaire de carrés: q(x) = n1 ai x2i .
P

Les coefficients ai sont les valeurs propres de l’endomorphisme auto-adjoint


f associé (q(x) =< x, f (x) >).
On peut reformuler ce résultat comme la diagonalisation simultanée de
deux formes quadratiques: la forme q et le produit scalaire < x, x >.
.
4. Transformations orthogonales.
4.1. Soit E un espace Euclidien.
Un endomorphisme U de E est orthogonal (est une isométrie linéaire)
si U préserve le produit scalaire: < U x, U y >=< x, y > pour tout x, y ∈ E.
Proposition. Les propriétés suivantes sont équivalentes.
(i) U est orthogonal.
(ii) U préserve la norme: k U x k=k x k pour tout x ∈ E.
(iii) U transforme une base orthonormale en base orthonormale.
(iv) U transforme toute base orthonormale en base orthonormale.
Un endomorphisme orthogonal est injectif, donc inversible
(dim E < ∞!). Son inverse est aussi orthogonal.
4.2. L’égalité < U x, U y >=< x, y > s’écrit aussi
< U ∗ U x, y >=< x, y > ce qui est équivalent à U ∗ U = In . Donc U est
orthogonal si et seulement si U ∗ U = In , uo encore ssi U −1 = U ∗ .
Une matrice orthogonale est la matrice d’un endomorphisme orthogo-
nal dans une base orthonormale. Une matrice orthogonale A est caractérisée
par la relation t AA = At A = In qui signifie que les colonnes de A (aussi
que ses lignes) constituent une base orthonormale par rapport au produit
scalaire canonique dans Rn .
.
4.3. Transformations orthogonales et diagonalisation d’une forme quadra-
tique dans une base orthonormale.
Soit A la matrice d’une forme quadratique q dans une base B; soit P la
matrice de passage de B à une autre base B 0 . Alors la matrice de la forme q
dans la base B 0 est A0 =t P AP . Si les deux bases B et B 0 sont orthonormales,
P est orthogonale: t P = P −1 et on a A0 =t P AP = P −1 AP . Donc la
matrice d’une forme se transforme comme la matrice d’un endomorphisme
si le changement de coordonnées est orthogonal. Cela montre encore une
fois que la diagonalisation d’une forme quadratique par une transformation
orthogonale demande la recherche des valeurs et des vecteurs propres de A.

9
4.4. Symétrie par rapport à un sous-espace. Réflexions.
Soit F un sous-espace de E et E = F F ⊥ la décomposition orthog-
L

onale. Pour x ∈ E on écrit x = x1 + x2 avec x1 ∈ F et x2 ∈ F ⊥ . La


symétrie sF par rapport à F est définie par sF (x) = x1 − x2 . Une symétrie
par rapport à un hyperplan s’appelle réflexion.
Proposition. Toute transformation orthogonale dans Rn s’écrit comme
un produit d’au plus n réflexions.
4.5. Réduction des endomorphismes orthogonals.
Proposition. Soit U un endomorphisme orthogonal.
(i) Si le sous-espace F est stable par U , alors F ⊥ est stable par U .
(ii) Toute valeur propre de U est de module 1.
(iii) E se décompose en somme orthogonale des sous-espaces stables par
U de dimension 1 ou 2.
Transformations orthogonales en petite dimension.
Dimension 1. U x = x ou U x = −x.
Dimension 2. a) dét U > 0: U est une rotation.
b) dét U < 0: U est une réflexion.
Dimension 3. a) dét U > 0: U est une rotation autour d’un axe.
b) dét U < 0: U est une réflexion composée avec une rotation autour
d’un axe orthogonal au plan de réflexion.
Remarquer qu’il y a (au moins) une valeur propre réelle.
4.6. Décompositon polaire.
Théorème. Soit f un endomorphisme inversible. Il existe l’unique
endomorphisme orthogonal U et l’unique endomorphisme défini positif S
tels que f = U S. √
Construction: On pose S = f ∗ f ; S est défini positif. On définit U par
U = f S −1 et on vérifie que U est orthogonal.
4.7. Orthogonalisation de Gram-Schmidt et la décomposition
orthogonale-triangulaire (décomposition QR).
Théorème. Soit A une matrice inversible. Il existe l’unique matrice or-
thogonale Q et l’unique matrice triangulaire supérieure R avec une diagonale
positive telles que A = QR.
Construction: Soit v1 , ..., vn les colonnes de A. Par l’orthogonalisation
de Gram-Schmidt on construit une famille orthonormale dans Rn , e1 , ..., en
telle que ek est une combinaison linéaire de v1 , ..., vk pour tout k ≥ 1. Donc
vk = ki=1 rik ei (et rk,k > 0). Posons rik = 0 si i > k.
P

Soit Q la matrice constituée de colonnes e1 , ..., en et R = (rik ). Alors Q


est orthogonale, R est triangulaire supérieure et la relation vk = ki=1 rik ei
P

devient A = QR.

10

Vous aimerez peut-être aussi