0% ont trouvé ce document utile (0 vote)
12 vues13 pages

Algèbre Linéaire : Espace Euclidien Rn

Ce document présente le chapitre 7 sur l'espace vectoriel euclidien Rn, abordant des concepts fondamentaux tels que la base canonique, les applications linéaires et les sous-espaces vectoriels. Il détaille également les projections, le produit scalaire, et le procédé de Gram-Schmidt pour obtenir des bases orthonormées. Enfin, des exemples illustrent les sous-espaces vectoriels dans R3, notamment les droites et les plans vectoriels.

Transféré par

Arnold Soulama
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
12 vues13 pages

Algèbre Linéaire : Espace Euclidien Rn

Ce document présente le chapitre 7 sur l'espace vectoriel euclidien Rn, abordant des concepts fondamentaux tels que la base canonique, les applications linéaires et les sous-espaces vectoriels. Il détaille également les projections, le produit scalaire, et le procédé de Gram-Schmidt pour obtenir des bases orthonormées. Enfin, des exemples illustrent les sous-espaces vectoriels dans R3, notamment les droites et les plans vectoriels.

Transféré par

Arnold Soulama
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

UNIVERSITE de HAUTE ALSACE - FACULTE DES SCIENCES et TECHNIQUES

Licence 1 Mathématiques
Mathématiques : ALGEBRE LINEAIRE
Elisabeth REMM
Chapitre 7

L’espace vectoriel euclidien Rn


Table des matières
1. L’espace vectoriel réel Rn 1
1.1. La base canonique de Rn 1
1.2. Les applications linéaires f : Rn → Rp 2
1.3. Les sous-espaces vectoriels de Rn 3
2. Projection sur un sous-espace 5
2.1. Projection le long d’un supplémentaire 5
2.2. L’application linéaire projection 6
3. Le produit scalaire euclidien dans Rn 7
3.1. Définition 7
3.2. Norme associée au produit scalaire 8
3.3. Bases orthonormées 9
3.4. Deuxième définition du produit scalaire euclidien de Rn 9
4. Bases orthonormales. Le procédé de Gram-Schmidt 10
4.1. Bases orthonormales 10
4.2. Un procédé d’orthogonalisation 11
4.3. Matrices de passage d’une base orthonormée à une autre base orthonormée 12

1. L’espace vectoriel réel Rn


Dans tout ce chapitre nous allons nous intéresser à la géométrie vectorielle dans le plan
et dans l’espace, c’est-à-dire à l’étude vectorielle des plans et des droites dans R3 . Nous
affinerons notre étude à l’aide d’un outil non plus linéaire mais bilinéaire en un sens que
nous préciserons, le produit scalaire. Cet outil permet de faire des mesures de longueur,
d’angle dans des sous-espaces vectoriels de Rn .
1.1. La base canonique de Rn . Par définition l’ensemble Rn est l’ensemble des n-uples de
nombres réels :
Rn = {(x1 , x2 , · · · , xn ); xi ∈ R, i = 1, · · · , n}.
1
2 L1-Mathématiques. Chapitre 7

Nous identifierons naturellement R1 et R. Dans le premier chapitre nous avons rappelé que
Rn était muni d’une structure d’espace vectoriel réel, les opérations concernées étant

− →

(1) l’addition : si X = (x1 , x2 , · · · , xn ) et Y = (y1 , y2 , · · · , yn ) sont deux éléments de Rn
alors

− → −
X + Y = (x1 + y1 , x2 + y2 , · · · , xn + yn ),
(2) la multiplication externe par un scalaire : si α ∈ R, alors


α X = α(x1 , x2 , · · · , xn ) = (αx1 , αx2 , · · · , αxn ).


Le vecteur nul (0, 0, · · · , 0) sera noté 0 .
Considérons dans Rn les vecteurs


e1 = (1, 0, · · · , 0), →−e2 = (0, 1, 0, · · · , 0), · · · , →

en = (0, 0, · · · , 0, 1).


Si X = (x1 , x2 , · · · , xn ) il se décompose de manière unique


X = x1 → −
e1 + x2 →
−e 2 + · · · + xn →
−en
ce qui montre que B = {→ −
e1 , →

e2 , · · · , →

en } est une base de Rn et donc que Rn est bien de


dimension n. Cette base "privilégiée" sera appelée base canonique de Rn . Ainsi, si X =


(x1 , x2 , · · · , xn ), les scalaires xi sont les composantes de X dans la base canonique.

1.2. Les applications linéaires f : Rn → Rp . Considérons les deux espaces vectoriels réels
Rn et Rp . Si f : Rn → Rp est une application linéaire, elle se présente sous la forme
f (x1 , x2 , · · · , xn ) = (y1 , y2 , · · · , yp ).
Posons fi (x1 , x2 , · · · , xn ) = yi pour i = 1, 2, · · · , p. Rappelons que l’on appelle forme linéaire,
toute application linéaire à valeurs dans le corps de base. Ainsi, chacune des applications fi
est une forme linéaire fi : Rn → R. Ainsi f apparaît comme la composition des p formes
linéaires :
f = (f1 , f2 , · · · , fp )
et donc l’étude de f se ramène à l’étude des applications linéaires de Rn à valeurs dans R.
Etudions ces formes linéaires. Soit
f : Rn → R
une forme linéaire et posons f (x1 , x2 , · · · , xn ) = y. Comme f est linéaire, nous pouvons écrire
f (x1 , x2 , · · · , xn ) = x1 f (1, 0, · · · , 0) + x2 f (0, 1, , 0, · · · , 0) + xn f (0, 0, · · · , 1)
soit
f (x1 , x2 , · · · , xn ) = x1 f (→

e1 ) + x2 f (→

e2 ) + · · · + xn f (→

en ).
Nous retrouvons là le fait que f est entièrement définie par les images des vecteurs de base,
ici la base canonique. Posons
f (→

e ) = a , f (→
1

e ) = a , · · · , f (→
1 2

e )=a .
2 n n

Alors
f (x1 , x2 , · · · , xn ) = a1 x1 + a2 x2 + · · · + an xn .
Elisabeth Remm 3

Proposition 1. Toute forme linéaire f : Rn → R s’écrit sous la forme


f (x1 , x2 , · · · , xn ) = a1 x1 + a2 x2 + · · · + an xn
avec ai = f (→

ei ) ∈ R.

Nous en déduisons
Corollaire 1. Toute application linéaire f : Rn → Rp s’écrit sous la forme f = (f1 , · · · , fp )
où les fi sont des formes linéaires fi : Rn → R qui s’écrivent donc sous la forme


 f1 (x1 , x2 , · · · , xn ) = a1,1 x1 + a1,2 x2 + · · · + a1,n xn
f2 (x1 , x2 , · · · , xn ) = a2,1 x1 + a2,2 x2 + · · · + a2,n xn





···

fp (x1 , x2 , · · · , xn ) = ap,1 x1 + ap,2 x2 + · · · + ap,n xn

Nous déduisons que la matrice de l’application linéaire f relative aux bases canoniques de
R et Rp est
n

a1,1 a1,2 · · · a1,n


 

 2,1 a2,2 · · · a2,n 


a 
· · · · · · · · · · · · 
 

ap,1 ap,2 · · · ap,n


L’expression analytique de f s’écrit ainsi
· · · a1,n
    
y1 a1,1 a1,2 x1
y 
 2
a
 2,1 a2,2 · · · a2,n   x2 
 
 =  .
· · · · · · ··· · · · · · ·  · · · 
yp ap,1 ap,2 · · · ap,n xn

1.3. Les sous-espaces vectoriels de Rn . Soit F un sous-espace vectoriel de Rn . Sa di-


mension p est inférieure à n et rappelons que si p = n alors F = Rn . Du théorème de la base
incomplète nous déduisons directement le résultat suivant :
Proposition 2. Tout sous-espace vectoriel F de Rn est défini comme l’ensemble des solutions
d’un système linéaire à n variables


 a1,1 x1 + a1,2 x2 + · · · + a1,n xn = 0
a2,1 x1 + a2,2 x2 + · · · + a2,n xn = 0





···

am,1 x1 + am,2 x2 + · · · + am,n xn = 0

La résolution de tels systèmes linéaires a déjà été vue. Rappelons toutefois, qu’une manière
un peu longue mais algorithmique de résoudre un tel système est la méthode du pivot. A ce
niveau là, il serait intéressant de concevoir un programme sur PYTHON de résolution des
systèmes linéaires.

Notons que F n’est certainement pas défini par un unique système linéaire. Ainsi au sys-
tème précédent, on peut rajouter autant de combinaisons linéaires de lignes de ce système,
la solution sera toujours F . Autrement dit, l’entier m apparaissant dans ce système n’est pas
défini. Nous allons voir comment trouver le plus petit entier, qui lui aura un sens auprès de
F.
4 L1-Mathématiques. Chapitre 7

Considérons le système linéaire précédent définissant le sous-espace vectoriel F . La matrice


de ce système
a1,1 a1,2 · · · a1,n
 

 2,1 a2,2 · · · a2,n 


a 
··· ··· ··· ··· 
 

am,1 ap,2 · · · am,n


peut être vue comme la matrice d’une application linéaire f : Rn → Rm écrite dans les bases
canoniques. Si p est la dimension de F , alors par définition de cette matrice, comme F est
le noyau de f , nous avons p = dim ker f et le théorème noyau image implique
rg(f ) = n − p.
Ce rang correspond au nombre d’équations linéaires indépendantes dans le système linéaire
de définition de f .

Exemples : les sous-espaces vectoriels de R3 : Droites et plans vectoriels dans R3


Un plan vectoriel dans R3 est par définition un sous-espace vectoriel P de R3 de dimension
2. D’après la remarque ci-dessus, il est défini comme le noyau d’une application linéaire de
rang 1 et donc par une équation linéaire
a1 x1 + a2 x2 + a3 x3 = 0
dont au moins un des coefficients est non nul. Supposons par exemple que ce soit a1 . Nous
pouvons écrire
a2 a3
x1 = − x2 − x3
a1 a1
et le plan P est l’ensemble des vecteurs qui s’écrivent

− a2 a3
X = (− x2 − x3 , x2 , x3 ).
a1 a1
Une base de P est donnée par la famille
a2 a3
{→

v1 = (− , 1, 0), →

v2 = (− , 0, 1)}.
a1 a1

Une droite vectorielle de R3 est par définition un sous-espace vectoriel D de dimension 1.


Elle est donc définie par un système linéaire de rang 2 à trois variables :
(
a1,1 x1 + a1,2 x2 + a1,3 x3 = 0
a2,1 x1 + a2,2 x2 + a2,3 x3 = 0
les deux équations étant indépendantes. La résolution de ce système permet de trouver une
base de D. Pour vérifier que ces deux équations sont bien indépendantes, plusieurs approches
sont à notre disposition. La plus simple est de résoudre ce système, La solution doit s’écrire
qu’avec un seul paramètre. La deuxième, plus sophistiquée mais plus facile à généraliser
consiste à regarder tous les déterminants d’ordre 2 de la matrice
!
a1,1 a1,2 a1,3
a2,1 a2,2 a2,3
Elisabeth Remm 5

du système, à savoir  !
a a1,2
det 1,1

= a1,1 a2,2 − a1,2 a2,1 ,


a2,1 a2,2 !





a a1,3


det 1,1 = a1,1 a2,3 − a1,3 a2,1 ,



a2,1 a2,3 !
a1,2 a1,3



 det a

 = a1,2 a2,3 − a1,3 a3,1 ,
a2,3

2,2

et le rang du système est égal à 2 si l’un de ces déterminants est non nul. Supposons par
exemple que ce soit le premier, soit a1,1 a2,2 − a1,2 a2,1 6= 0. La résolution du système donne
alors
a1,3 a2,2 − a2,3 a1,2 a1,3 a2,1 − a2,3 a1,1
x1 = − x 3 , x2 = − x3
a1,1 a2,2 − a1,2 a2,1 a1,1 a2,2 − a1,2 a2,1
et tout vecteur de D s’écrit
!
a1,3 a2,2 − a2,3 a1,2 a1,3 a2,1 − a2,3 a1,1
− ,− , 1 x3 .
a1,1 a2,2 − a1,2 a2,1 a1,1 a2,2 − a1,2 a2,1
Une base de D est donnée par
( !)
a1,3 a2,2 − a2,3 a1,2 a1,3 a2,1 − a2,3 a1,1
− ,− ,1 .
a1,1 a2,2 − a1,2 a2,1 a1,1 a2,2 − a1,2 a2,1

Remarque. La donnée d’une base d’un plan vectoriel de R3 permet inversement de retrouver
une équation linéaire de ce plan. Il est bon de noter que cette équation n’est pas unique :
si a1 x1 + a2 x2 + a3 x3 = 0 est une équation définissant le plan, alors pour tout λ 6= 0,
λa1 x1 + λa2 x2 + λa3 x3 = 0 est également une équation linéaire définissant ce plan. Il en est
de même pour une droite vectorielle de R3 . La donnée d’une base, constituée d’un vecteur
non nul de R3 permet de retrouver le système de rang 2 définissant cette droite. Là aussi les
équations formant le système ne sont pas uniques, tout système équivalent est également un
système linéaire définissant cette droite.

2. Projection sur un sous-espace

Nous avons étudié précédemment la notion générale de projection dans un espace vectoriel
(de dimension finie) et défini une projection dans cette espace comme un endomorphisme
p vérifiant p ◦ p = p. Rappelons que cette identité est équivalente à E = ker(p) ⊕ =(p) et
précisé que la projection était alors la projection de E "parallèlement" à ker(p). Nous allons
illustrer plus géométriquement ces notions dans le cadre classique de Rn .
2.1. Projection le long d’un supplémentaire. Soit F1 un sous-espace vectoriel de Rn .
Choisissons un sous-espace supplémentaire F2 (celui ci n’est évidemment pas unique, on en
choisit un). Nous avons donc
Rn = F1 ⊕ F2 .


Tout vecteur X s’écrit de manière unique

− −
→ − →
X = X1 + X2
−→ −

avec X1 ∈ F1 et X2 ∈ F2 .
6 L1-Mathématiques. Chapitre 7


→ →

Définition 1. Le vecteur X1 ∈ F1 est appelé le projeté du vecteur X sur le sous-espace F1
le long du supplémentaire F2 .

Il est clair que ce vecteur F1 dépend du choix de F2 .


Exemple : Projection d’un vecteur sur un plan
Considérons dans l’espace R3 un plan vectoriel P d’équation
a1 x1 + a2 x2 + a3 x3 = 0.

→ − →
Supposons que les vecteurs {U1 , U2 } forment une base de P. D’après le théorème de la base
−→ −
→ −
→ −

incomplète, nous pouvons trouver un vecteur U3 tel que {U1 , U2 , U3 } soit une base de R3 .


Soit D le sous-espace vectoriel de R3 ayant pour base U3 . Ce sous-espace vectoriel est donc


de dimension 1, c’est une droite vectorielle dans R3 . Soit X un vecteur non nul de R3 . Il
−→ − → −→
admet une décomposition unique dans la base {U1 , U2 , U3 } :

− −→ −
→ −

X = x01 U1 + x02 U2 + x03 U3
et nous avons
−→ −
→ −
→ −
→ −

X1 = x01 U1 + x02 U2 ∈ P, X2 = x03 U3 ∈ D.

→ →

Le vecteur X1 est le projeté du vecteur X sur le plan P le long de la droite D.

2.2. L’application linéaire projection. Revenons au cas général : Rn = F1 ⊕ F2 . Soit



− →
− −
→ − → →
− −

X ∈ Rn et X = X1 + X2 la décomposition de X associée. Par définition X1 est de projeté


de X sur F1 le long de F2 . Considérons l’application
p : Rn → Rn
donnée par

− −

p( X ) = X1 .
Cette application est bien linéaire. Elle vérifie l’identité
p ◦ p = p.

− →
− →
− →
− →
− →

En effet si X ∈ F1 sa décomposition s’écrit X = X + 0 et dans ce cas p( X ) = X . Nous
avons donc
Im(p) = F1 , ker(p) = F2 .
Définition 2. Dans l’espace vectoriel Rn , une projection est une application linéaire p :
Rn → Rn vérifiant l’identité
p ◦ p = p.

Une telle application définit donc une projection sur le sous-espace vectoriel F1 = Im(p) le
long du sous-espace F2 = Ker(p).
Remarque sur la matrice de l’application linéaire p
Considérons dans Rn = F1 ⊕ F2 la projection sur F1 le long de F2 . Soit p l’application
linéaire projection associée. Nous avons
F1 = Im(p), F2 = ker(p)
Elisabeth Remm 7

−→ −
→ −→
et pour tout vecteur X1 ∈ F1 , p(X1 ) = X1 (la restriction de p à F1 est l’application identité.
Supposons que dim F1 = m et considérons une base de Rn (ce n’est certainement pas la base
canonique) :
−→ −→ −−−→ −

B = {U1 , · · · , Um , Um+1 , · · · , Un }

→ −→ −−−→ −

telle que {U1 , · · · , Um } soit une base de F1 et {Um+1 , · · · , Un } est une base de F2 . La matrice
de p relative à cette base est
··· 0 0 ··· 0
 
1 0
 0
 1 ··· 0 0 ··· 0  
· · · · · · · · · · · · · · · · · · · · ·
 
 
 0
 0 ··· 1 0 ··· 0  
 0
 0 ··· 0 0 ··· 0  
· · · · · · · · · · · · · · · · · · · · ·
 

0 0 ··· 0 0 ··· 0
Nous voyons donc sur cet exemple que le choix de la base pour écrire la matrice d’une
application linéaire est important : la matrice de p dans la base canonique est sûrement
beaucoup plus compliquée.
Afin de pouvoir parler de longueur de vecteurs, d’angles de deux vecteurs, nous devons
introduire une nouvel outil de mesure, à savoir le produit scalaire.

3. Le produit scalaire euclidien dans Rn

3.1. Définition.
Définition 3. On appelle produit scalaire euclidien dans l’espace vectoriel réel Rn l’applica-
tion de Rn × Rn à valeurs dans R :

− → −
X · Y = (x1 , x2 , · · · , xn ) · (y1 , y2 , · · · , yn ) = x1 y1 + x2 y2 + · · · + xn yn .

− − → − → → − → − → −
Cette application a les propriétés suivantes : Pour tous α1 , α2 ∈ R et X , X1 , X2 , Y , Y1 , Y2 ∈
Rn ,

→ −
→ → − −→ → − −
→ → −
(1) (α1 X1 + α2 X2 ) · Y = α1 (X1 · Y ) + α2 (X2 · Y ),

− →
− →
− →
− → − →
− → −
(2) X · (α1 Y1 + α2 Y2 ) = α1 ( X · Y1 ) + α2 ( X · Y2 )
Une telle application, a deux variables de Rn , vérifiant les deux propriétés ci-dessus est
appelée une forme bilinéaire sur Rn . L’étude générale de telles applications sur un espace
vectoriel réel ou complexe seraétudiée plus tard.
Quelques propriétés du produit scalaire euclidien


(1) Soit X ∈ Rn . Alors l’identité

− →
− → −
∀ Y ∈ Rn , X · Y = 0

− →

implique X = 0 .


Démonstration. En effet, posons X = (x1 , · · · , xn ). Prenons dans un premier temps

− →
− −
Y = → −
e1 = (1, 0, · · · , 0). Alors X · →
e1 = 0 implique x1 = 0. De même, en prenant

− →
− →

Y = ei , nous obtenons xi = 0 et en déduisons X = 0.
8 L1-Mathématiques. Chapitre 7



(2) Pour tout X ∈ Rn non nul

− → −
X · X > 0.

− → −
En effet X · X = x21 + x22 + · · · + x2n .
(3) Le produit scalaire est commutatif :

− → − →
− → −
X · Y = Y · X.
Lorsque nous considérons dans l’espace vectoriel Rn le produit scalaire euclidien, nous par-
lerons alors de Rn comme espace vectoriel euclidien.
Définition 4. L’espace vectoriel Rn muni du produit scalaire euclidien est appelé espace
vectoriel euclidien.

3.2. Norme associée au produit scalaire.




Définition 5. Dans l’espace vectoriel euclidien Rn , on appelle norme du vecteur X , le
scalaire

− →− →−
q
|| X || = X · X .


Nous avons donc, si X = (x1 , x2 , · · · , xn ),

− q
|| X || = x21 + x22 + · · · + x2n .
Ceci montre que la norme d’un vecteur est bien définie. Nous avons aussi


|| 0 || = 0.
L’interprétation géométrique de cette fonction norme, qui est bien une fonction de Rn à
valeurs réelles mais bien entendu non linéaire, est d’associer à tout vecteur, sa longueur.

− →

Proposition 3. (Inégalité de Cauchy-Schwarz) Pour tout X et Y dans Rn , nous avons

− → − →
− → −
| X · Y | ≤ || X |||| Y ||.

− →

Démonstration. En effet, si nous posons X = (x1 , · · · , xn ) et Y = (y1 , · · · , yn ), alors

− → −
( X · Y )2 = (x1 y1 + · · · + xn yn )2 = x2i yi2 + 2
X X
xi y i xj y j .
i i6=j

De même

− → −
(|| X |||| Y ||)2 = (x21 + · · · + x2n )(y12 + · · · + yn2 ) = x2i yj2 .
X

i,j

On en déduit

− → − →
− → −
(|| X |||| Y ||)2 − ( X · Y )2 = (xi yj − xj yi )2 .
X

i<j

L’inégalité de Cauchy-Schwarz s’en déduit.



− →

Proposition 4. (Inégalité de Minkowski.) Pour tout X et Y dans Rn , nous avons

− → − →
− →

|| X + Y || ≤ || X || + || Y ||.
Elisabeth Remm 9


− →

Démonstration. En effet, si nous posons X = (x1 , · · · , xn ) et Y = (y1 , · · · , yn ), alors

− →
− 2 2 2 2 2
sX
(|| X || + || Y ||) = (x1 + · · · + xn ) + (y1 + · · · + yn ) + 2 x2i yj2 .
i,j

De même

− → −
(|| X + Y ||)2 = (xi + yi )2 = (x2i + yi2 + 2xi yi ).
X X

i i
Ainsi

− →
− →
− → − sX
(|| X || + || Y ||)2 − (|| X + Y ||)2 = 2
X
x2i yj2 − 2 xi yi .
i,j i

Nous en déduisons que



− → − →
− →

(|| X + Y ||)2 ≤ (|| X || + || Y ||)2

− →

Nous remarquons que l’égalité pour ces deux relations n’a lieu que lorsque X et Y sont
liés.

3.3. Bases orthonormées. Soit {→



e1 , →

e2 , · · · , →

en } la base canonique de Rn . Les vecteurs de
cette base vérifient
(1) →
−e ·→
i
−e = 1,
i

(2) →

ei · →

ej = 0 dès que i 6= j.
La représentation habituelle de repère canonique dans la plan ou dans l’espace conduit à
la définition naturelle de l’orthogonalité de deux vecteurs, orthogonalité qui est "vérifiée" par
la représentation de la base canonique :

→ −→
Définition 6. Deux vecteurs X1 et X2 de Rn sont dits orthogonaux si leur produit scalaire
est nul :
−→ − →
X1 · X2 = 0.

Ainsi les vecteurs de la base canonique sont deux à deux orthogonaux et sont de longueur
1. Nous dirons qu’une telle base est une base orthonormée. D’une manière générale,
Définition 7. Soit {→ −
v ,→
1

v ,··· ,→
2

v } une base de Rn . Nous dirons que c’est une base ortho-
n
normée si les vecteurs de cette base vérifient
(1) pour tout i = 1, · · · , n, →

v ·→
i

v = 1,
i

(2) pour tout i 6= j, →



vi · →

vj = 0.

3.4. Deuxième définition du produit scalaire euclidien de Rn . Commençons par in-




terpréter le produit scalaire dans le plan, c’est-à-dire dans l’espace vectoriel R2 . Soient X1


et X2 deux vecteurs du plan vectoriel
−→ −

X 1 = x1 →

e1 + y1 →

e2 , X2 = x2 →

e1 + y2 →

e2 .
Nous avons
−→ − →
X1 · X2

→ − → ≤ 1.
X1 X 2
10 L1-Mathématiques. Chapitre 7

En effet (x1 x2 + y1 y2 )2 ≤ (x1 + y1 )2 (x2 + y2 )2 . Nous pouvons donc interpréter ce nombre


comme le cosinus d’un angle, mais ceci nécessite que l’angle formé par les deux vecteurs de
base soit un angle droit.
Ainsi, par définition
−→ − →
X1 · X 2
cos(θ) = − → − →
||X1 || ||X2 ||

→ − →
et θ désigne l’angle formé par les vecteurs X1 et X2 du plan.

− →

Théorème 1. Soient X et Y deux vecteurs de Rn . Alors

− → − →
− →
− →
− → −
X · Y = || X || || Y || cos( X , Y )

− → − →
− →

où ( X , Y ) désigne l’angle des vecteurs X et Y .

Ainsi, comme dans l’exemple ci-dessus, une représentation cartésienne d’un repère ortho-
normé est donnée par des vecteurs de longueur 1 et deux à deux perpendiculaires.

4. Bases orthonormales. Le procédé de Gram-Schmidt

4.1. Bases orthonormales. Nous avons vu que dans l’espace euclidien Rn , la base cano-
nique {→

e1 , →

e2 , · · · , →

en } est orthogonale, c’est-à-dire


ei · →

ej = 0

dès que i 6= j. Cette base est même orthonormée (ou orthonormale) chacun des vecteurs de
base est de longueur 1. Bien entendu ce n’est pas l’unique base de Rn qui soit orthonormée
(ou orthonormale).

Définition 8. Soit F un sous-espace vectoriel de Rn . Une base BF = {→



v1 , · · · , →

vp } de F est
dite
(1) orthogonale si pour tout i, j :


vi · →

vj = 0.

(2) orthonormée si elle est orthogonale et pour tout i, ||vi || = 1.

Remarquons que si la famille {→



v1 , · · · , →

vp } était une famille génératrice de F , elle en serait
une base. En effet

Théorème 2. Toute famille de vecteurs non nuls deux à deux orthogonaux est libre.

Démonstration. Soit {→ −v1 , · · · , →



vp } une famille de vecteurs non nuls deux à deux orthogonaux.

− →

Soit α1 v1 + · · · + αp vp = 0 alors (α1 v1 + · · · + αp vp ) · v1 = 0 · v1 d’où α||v1 ||2 = 0. Mais


puisque v1 6= 0 on a ||v1 || 6= 0 et donc l’égalité précédente implique α1 = 0. On montre de
même que, pour tout i ∈ {1, · · · , p}, αi = 0. Ainsi la famille {→ −
v1 , · · · , →

vp } est libre.
Elisabeth Remm 11

4.2. Un procédé d’orthogonalisation.


Théorème 3. Soit F un sous-espace vectoriel de Rn . Alors F admet une base orthonormale.
Démonstration. La démonstration qui suit donne le principe de construction d’une telle
base orthonormale à partir d’une base de F donnée. Soit donc {→ −
v1 , −
v→ →

2 ,, · · · , vp } une
base de F . Considérons les p vecteurs {− w→, −→ −

1 w2 ,, · · · , wp } définis de proche en proche par les
relations  −→
w 1 =→ −
v1

→ = a2,1 −
→+→ −


w2 w v2


 1

→ = a3,1 w1 + a3,2 −

→ →+→ −


 w3 w v3

2

··· ···
 −−→ = a −
→ −→ −−→ −−→
w p−1,1 w1 + ap−2,2 w2 + · · · + ap−1,p−2 wp−2 + vp−1


 p−1


 −→ =a − →+a − → + ··· + a −
w−→ + a −
w−→ + → −

w w w v


p p,1 1 p,2 2 p,p−2 p−2 p,p−1 p−1 p

Il est clair que ces vecteurs sont encore linéairement indépendants. En effet la matrice de ces
vecteurs relatives à la base {→−v1 , −
v→ →

2 ,, · · · , vp } est du type

1 a2,1 a3,1 + a3,2 a2,1 · · ·


 
ap,1 + a
 0
 1 a3,2 ··· b  
· · ·
 

0 0 0 ··· 1
et donc son déterminant vaut 1 (pour une matrice triangulaire, le déterminant est le produit
des éléments de la diagonale et les vecteurs {w1 , · · · , wn } forment donc une nouvelle base de
F . Montrons que l’on peut choisir les coefficients ai,j de manière à ce que ces vecteurs soient
orthogonaux deux à deux. La méthode est simple : On commence par déterminer a2,1 pour
que −→ soit orthogonal à −
w2
→. Une fois ce coefficient choisi, on détermine a et a pour que
w 1 3,1 3,2

→ soit orthogonal aux vecteurs −
w w→ et −→. On procède ainsi jusqu’au rang p.
w
3 1 2
(1) Ecrivons que −→ est orthogonal à −
w 2 w→:
1

→ −

w ·w =a − →·−
w →+→
w −
v ·− w→=0
2 1 2,1 1 1 2 1

ce qui donne


v2 · −

w →

v2 · −

w
1 1
a2,1 = − −
→ −
→ = − −
→ .
w1 · w1 ||w1 ||2

− − →
On a donc −→ = − v2 · w1 w + v avec w · w = 0.
w
||−
→||2 1
2 2 1 2
w 1
(2) Ecrivons que −w→ est orthogonal à −
3
→ et à −
w 1
→:
w 2

a3,1 w1 · w1 + a3,2 w2 · −

→ −
→ −
→ →+→ −
v3 · −
→=0
(
w 1 w 1

→ −

a w ·w +a w ·w +v ·w−
→ −
→ →
− −
→=0
3,1 1 2 3,2 2 2 3 2

d’où →

v3 · −

w

1
a3,1 = − −

→·− →


w w

1 1



 →

v3 · −

w
 1
a3,2 = −−

→ −



w ·w 2 2

− − → →
− − →
→ = v − v3 · w1 w − v3 · w1 w .
d’où −
w
||−
→||2 2 ||− →||2 1
3 3
w 2 w 1
12 L1-Mathématiques. Chapitre 7

(3) Ainsi de suite jusqu’à la détermination du vecteur − →. Nous déterminons les coefficients
w p
ap,1 , · · · , ap,p−1 en résolvant le système
(ap,1 −
→+a − → −−→ −−→ → − − →

 w 1 p,2 w2 + · · · + ap,p−2 wp−2 + ap,p−1 wp−1 + vp ) · w1 = 0


→ −

 (a w + a w + · · · + a
 −
w−→ +a −
w−→ →

+v )·w −
→=0
p,1 1 p,2 2 p,p−2 p−2 p,p−1 p−1 p 2
 ···
(ap,1 −
→+a − → −−→ −−→ → − −−→


w p,2 w2 + · · · + ap,p−2 wp−2 + ap,p−1 wp−1 + vp ) · wp−1 = 0

1



vp · −
w−→ →

vp · −

w
−→ p−1
ce qui donne wp = vp − −−→ 2 wp−1 −· · ·− −
1
w1 . La base {−→, −→ −−→ −−→ − →
→ w 1 w2 , · · · , wp−2 , wp−1 , wp }
||wp−1 || ||w1 ||2

ainsi trouvée est orthonormale. Si nous voulons une base orthonormée, on considère alors les
vecteurs

−0 →

wi
wi = → − .
||wi ||
On a bien
→−
wi · →

q
u →
u − →

v

−0 w i w i wi
||wi || = t → − · →
− = →
− = 1.
||w || ||w || i ||w ||
i i

(On peut simplement utiliser la propriété d’une norme, i.e.||λ→ −


u || = |λ|||→

u || pour tout


scalaire λ de R et vecteur u de R )n

Remarque. Le procédé d’orthogonalisation d’une base d’un sous-espace de Rn reste bien en-
tendu valable pour l’espace Rn . A partir d’une base quelconque non orthogonale de Rn , nous
en déduisons une base orthogonale et donc orthonormée. Rappelons que la base canonique
est déjà orthonormée.

4.3. Matrices de passage d’une base orthonormée à une autre base orthonormée.
Les matrices de passage d’une base orthonormée à une autre base orthormée, en particulier
de la base canonique à une base orthonormée ont une structure particulière. Elles s’appellent
des matrices orthogonales. Nous allons étudier leur structure.
Soient B = {→ −
v1 , −
v→ →
− 0 −
→ −→ −
→ n
2 ,, · · · , vn } et B = {w1 , w2 ,, · · · , wn } deux bases orthonormées de R .
0
Considérons la matrice de passage P de B à B . Rappelons qu’elle se construit en mettant
en colonne les composantes des vecteurs de B 0 relatives à la base B. Ainsi si

→=α →
w −
v +α → −
v + ··· + α → −v + ··· + α →−
v
j 1,j 1 2,j 2 i,j i n,j n

alors  
α1,1 α1,2 · · · α1,j · · · α1,n
 α2,1

α2,2 · · · α2,j · · · α2,n 

 ···
 

P = 
α
 i,1 αi,2 · · · αi,j · · · αi,n 

 ···
 

αn,1 αn,2 · · · αn,j · · · αn,n
Comme les vecteurs →

w i sont deux à deux orthogonaux, si i 6= j

−wi · →

w j = (α1,i →

v1 + α2,i →

v2 + · · · + αn,i →

vn ) · (α1,j →

v1 + α2,j →

v2 + · · · + αn,j →

vn ).
En développant et compte tenu du fait que la famille B est orthonormée, il résulte


wi · →

w j = α1,i α1,j + α2,i α2,j + · · · + αn,i αn,j = 0.
Elisabeth Remm 13

Si i = j, cette relation devient




wi · →
− 2
w i = α1,i 2
+ α2,i 2
+ · · · + αn,i = 0.
On en déduit que la matrice P vérifie
P ·t P = Id.
Définition 9. On appelle matrice orthogonale, toute matrice carrée A vérifiant l’identité
A ·t A = Id.

Une telle matrice est toujours inversible et son inverse est donc A−1 =t A.
Théorème 4. Soient B et B 0 deux bases orthonormées de Rn . Alors la matrice de passage
P de B à B 0 est une matrice orthonormée. La matrice de passage de B 0 et B est t P .
Corollaire 2. Soit B une base orthonormée de Rn et soit B une base quelconque de Rn . Si
la matrice de passage P de B à B 0 est une matrice orthonormée, alors la base B 0 une base
orthonormée.

Vous aimerez peut-être aussi