Alg Lin
Alg Lin
Une base de V est un ensemble {e1 , e2 . . . en } = (ei )i=1...n = (ei ) de n vecteurs linérairement indépen-
dants de V . Alors tout vecteur v ∈ V admet une décomposition unique
n
X
v= ai ei ,
i=1
Soit V1 une partie non vide de V . On dit que V1 est un sous-espace vectoriel de V si :
* ∀x, y ∈ V1 alors x + y ∈ V1
* ∀x ∈ V1 , λ ∈ K alors λx ∈ V1
1
En particulier, soient x1 , x2 , . . . , xn ∈ V On définit le sous-espace vectoriel engendré par x1 , x2 , . . . , xn ,
ou espace des combinaisons linéaires de x1 , x2 , . . . , xn , de la manière suivante :
< x1 , x2 , . . . , xn > = V ect(x1 , x2 , . . . , xn )
= {x ∈ V /∃ λ1 , . . . , λn ∈ K : x = λ1 x1 + λ2 x2 + . . . + λn xn } (2)
En écrivant en colonne les composantes des g(ej ) dans la base (f1 ,. . .,fp )
g(e1 )g(e2 ) . . . .g(ej ) . . . .g(en )
f1 a11 a12 ... inga1j ... a1n
f2 a
21 a22 ... a2j ... a2n
.. .
. .. .. ..
. . . . .
... ...
fi ai1 ai2 ... aij ... ain
.. . .. .. ..
. .. . . .
... ...
fp ap1 ap2 ... apj ... apn
Le tableau des aij s’appelle la matrice de f relativement aux bases (ei )i=1,...,n et (fj )j=1,...,m . On note
A = (aij )1≤i≤p , 1≤j≤n
2
— A est dite la matrice de l’application linéaire g de E vers F relatives aux bases (ei ) et (fi ).
— On note Mm,n (K) l’ensemble des matrices de m lignes, n colonnes à coefficient dans K.
— On note alors Mn ou Mn (K) l’ensemble des matrices carrées. On dira alors d’une matrice non
nécessairement carrée qu’elle est rectangulaire.
— Soit A une matrice carrée. Les
éléments
aii sont appelés éléments diagonaux.
x1 y1
.. ..
Posons X = (x1 , x2 , . . . , xn ) = . et Y = g(X) = (y1 , y2 , . . . , yp ) = . son image par g, les
xn yp
yi s’obtienent de la façon suivante :
a11 a12 ... a1j ... a1n x1 y1
a a22 ... a2j ... a2n x2 y2
21
. .. .. .. .. ..
.
. . . . . .
... ...
Y = AX =
=
ai1 ai2 ... aij ... ain xj yi
. .. .. .. .. ..
.. . . . . .
... ...
ap1 ap2 ... apj ... apn xn yp
ou encore :
y1 a11 a1j a1n
y2
a
21
a
2j
a
2n
.. .
.
.
.
.
.
. . . .
(3)
= x1 + ... + xj + ... + xn
yi ai1 aij ain
.. . . .
. .. .. ..
yp ap1 apj apn
3
1 0 ... 0 ... 0
0 1 ... 0 ... 0
.. .. .. ..
. . . .
... ...
I=
0 0 ... 1 ... 0
.. .. .. ..
. . . .
... ...
0 0 ... 0 ... 1
Matrice Diagonale
Considérons l’application linéaire dRn de E dans E tel que pour tout i = 1, . . . , n : dRn (ei ) = λi ei , λi ∈ K.
La matrice de dE relativement à la base de E est :
λ1 0 . . . 0 . . . 0
0 λ ... 0 ... 0
2
. .. .. ..
.
. . ... . ... .
MdE = λi δij =
0 0 . . . λi . . . 0
. .. .. ..
.. . ... . ... .
0 0 . . . 0 . . . λn
cette matrice est appelée matrice diagonale.
Matrice Triangulaire
Une matrice carrée M = (aij ) est dite triangulaire supérieure si on a aij = 0 pour i > j.
a11 a12 . . . a1i . . . a1n
0 a
22 . . . a2i . . . a2n
. .. . ..
.
. . . . . .. . . . .
M =
0 0 . . . aii . . . ain
. .. .. ..
.. . . . . . . . . .
0 0 . . . 0 . . . ann
Elle est dite triangulaire inférieure si aij = 0 pour i < j.
4
Elle est dite antisymétrique si aij = −aji pour tout i, j.
0 a12 ... a1i ... a1n
−a 0 ... a2i ... a2n
12
. .. .. ..
.
. . . .
... ...
M =
−a1i −a2i
... 0 ... ain
. .. .. ..
.. . . .
... ...
−a1n −a2n ... −ain ... 0
Image et noyau :
Soit A la matrice d’une application linéaire g de E dans F, L’image de A est :
ImA = {y ∈ F , il , existe x ∈ E tel que y = Ax} ⊂ F
= V ect(A(e1 ), ..., A(en ))
On appelle rang de A, noté rg(A) la dimension de ImA, c’est le nombre de vecteurs colonnes de A qui sont
linéairement indépendants.
g est surjective si et seulement si ImA = F , c’est à dire rg(A) = m.
Matrice de permutation
1. Une matrice de permutation est une matrice carrée qui vérifie les propriétés suivantes :
les coefficients sont 0 ou 1 ;
il y a un et un seul 1 par ligne ;
il y a un et un seul 1 par colonne.
1 0 0
Par exemple : 0 0 1 est une matrice de permutation.
0 1 0
2. Une permutation σ est une bijection de {1, 2, ..., n} dans lui même : σ(i) = j pour tout i, j = 1, 2, ..., n.
On définit l’application linéaire g par :
g(ei ) = eσ(i) , i = 1, 2, ..., n
ou ei est une base K espace vectoriel sur K.
n
La matrice P de g dans la base (e1 , ..., en ) est appelée une matrice de permutation.
Exemple : Pour n = 4, on définit σ(1) = 1, σ(2) = 3 et σ(3) = 2 donc g(e1 ) = e1 , g(e2 ) = e3 , g(e3 ) = e4
et g(e4 ) = e2 . La matrice de g dans la base (e1 , e2 , e3 , e4 ) est
1 0 0 0
0 0 0 1
P =
; Pij = δi,σj
0 1 0 0
0 0 1 0
5
La bijection réciproque σ −1 est définie par : σ −1 (e1 ) = e1 , σ −1 (e2 ) = e4 , σ −1 (e3 ) = e2 et σ −1 (e4 ) = e3 ;
donc :
1 0 0 0
0 0 1 0
P −1 =
; Pij−1 = δi,σ−1 j
0 0 0 1
0 1 0 0
On vérifie que P −1 =t P
3. On appelle permutation élémentaire (ou transposition) une permutation σ telle que :
— On peut montrer que toute permutation peut s’obtenir comme compositiond’au plus n − 1 permuta-
tions élémentaires.
Exemple :
1 2 3 4 1 2 3 4 1 2 3 4
p= , p24 = , p23 =
1 3 4 2 1 4 3 2 1 3 2 4
6
On pourra vérifier que p = p24 op23 et
1 0 0 0 1 0 0 0 1 0 0 0
0 0 0 1 0 0 1 0 0 0 0 1
P24 =
, P23 =
, P =
= P24 P23
0 0 1 0 0 1 0 0 0 1 0 0
0 1 0 0 0 0 0 1 0 0 1 0
A = (aij ) et B = (bij )
A + B = (aij + bij ) (4)
Théorème : Mm,n (K) muni de ces deux lois est un K espace vectoriel.
L’élément neutre pour la loi “+” est la matrice nulle θ (tous les coefficients sont nuls).
L’opposé de A = (aij ) est −A = (−aij )
Pour tout A ∈ Mm,n (K) : A + θ = θ + A = A et A − A = θ.
Proposition : L’espace vectoriel Mm,n (K) est de dimension mn et admet pour base la famille des matrices
élémentaires Eij (1 ≤ i ≤ m,1 ≤ j ≤ n).
en d’autres termes, l’élément aij de Eij vaut 1, et tous les autres éléments sont nuls.
En particulier l’espace vectoriel Mn,n (K) des matrices carrées est de dimension n2 .
Ce produit n’est défini que si le nombre de colonnes de la matrice A est égal au nombre de lignes de la
matrice B.
7
Produit successif
La puissance m-ième d’une matrice carrée A d’ordre n étant définie par :
A0 = In , A1 = A , A2 = AA , Am = Am−1 A
Propriétés du produit
Soit A, A1 , A2 ∈ Mm,p (K) ; B, B1 , B2 ∈ Mp,n (K) ; , C ∈ Mn,q (K) ; λ ∈ K :
— A(B1 + B2 ) = AB1 + AB2
— (A1 + A2 )B = A1 B + A2 B
— λ(AB) = (λA)B = A(λB)
— (AB)C = A(BC)
— Pour toute matrice A d’ordre n : AIn = In A = A
— La matrice A est inversible s’il existe une matrice (unique si elle existe) notée A−1 et appelée
matrice inverse de la matrice A telle que AA−1 = A−1 A = I.
Dans le cas contraire, on dit que la matrice est singulière.
— Si A1 et A2 sont deux matrices carrées d’ordre n sont inversibles on a :
— La matrice A hermitienne est définie positive si, pour tout vecteur v ∈ V non nul, v ∗ Av > 0.
— La matrice A est orthogonale si A est réelle et A t A =t AA = I.
— La matrice A est unitaire si AA∗ = A∗ A = I.
— La matrice A est normale si AA∗ = A∗ A.
8
Remarques :
— L’adjointe d’une matrice coincide avec sa transposée si et seulement si la matrice est réelle.
— Le produit de deux matrices hermetiennes n’est pas nécessairement hermetienne : En effet : (AB)∗ =
B ∗ A∗ = BA ̸= AB.
p multiplications , p − 1 additions
n3 multiplications , n2 (n − 1)additions
4 Chagement de base
Soit E un espace vectoriel de dimension n. BE = (e1 , e2 , . . . , en ) une base de E. BE′
= (f1 , f2 , . . . , fn )
une nouvelle base de E.
La matrice de passage de la base BE à la base BE ′
est la matrice notée P et dont les colonnes sont les
composantes des vecteurs fi dans la base BE . Les fi et les ei sont alors reliés par les ralations suivantes :
fi = P ei , i = 1, ..., n
−1
ei = P fi , i = 1, ..., n
Remarques :
i La matrice de passage est toujours inversible
ii On peut voir P −1 comme étant la matrice de passage de la base BE ′
à la base BE , c’est à dire que
P −1
est la matrice dont les colonnes sont les composantes des vecteurs ei dans la base BE′
.
x = P x′ ou x′ = P −1 x
9
4.2 Action du changement de base sur la matrice d’une application linéaire :
Soit g une application linéaire de E vers F (dimF = m). Soit BF = (f1 , ..., fm ) une base de F et
BF′ = (f1′ , ..., fm
′
) une nouvelle base de F. Soit A la matrice de g dans les bases BE à BF et A′ la matrice de
g dans les bases BE ′
à BF′ .
Soit P la matrice de passage de BE à BE ′
et Q la matrice de passage de BF à BF′ . La relation entre les
matrices A et A’ est :
A′ = Q−1 AP ou A = QA′ P −1
A′ = P −1 AP ou A = P A′ P −1
λ est un scalaire de K. PA est un polynôme à coefficient dans K dont le degré est la dimension de E.
Les valeurs propres λi = λi (A) (1 ≤ i ≤ n) d’une matrice d’ordre n sont les n racines réelles ou
complexes, distinctes ou confondues, du polynôme caractéristique de la matrice A
A toute valeur propre λ d’une matrice A, on associe (au moins) un vecteur v tel que
v ̸= 0 et Av = λv ;
Remarques :
— Si le polynôme caractéristique PA est de la forme PA (λ) = a0 + a1 λ + a2 λ2 + . . . + an λn , alors PA (A)
s’obtient en remplacant ai λi par ai Ai et le terme constant a0 par a0 IE :
PA (A) = a0 IE + a1 A + a2 A2 + . . . + an An
10
— Le théorème de Cayley-Hamilton permet de calculer l’inverse de A si il existe. En effet : si A est
inversible, detA=PA (0) = a0 ̸= 0. Cayley-Hamilton implique :
PA (A) = a0 IE + a1 A + a2 A2 + . . . + an M n = 0Mn ⇒
a0 IE = M (−a1 − a2 M − . . . − an M n−1 ) = (−a1 − a2 M − . . . − an M n−1 )M ⇒
a1 a2 an n−1 a1 a2 an n−1
IE = M (− − M − . . . − M ) = (− − M − . . . − M )M (8)
a0 a0 a0 a0 a0 a0
On conclut donc que M −1 est donnée par :
a1 a2 an n−1
M −1 = − − M − ... − M
a0 a0 a0
6 Produit scalaire
6.1 Produit scalaire réel : Définitions et exemples
Définition : Soit E un espace vectoriel sur R. On appelle produit scalaire réel sur E toute application
ϕ : E × E → R vérifiant :
1) ϕ est bilinéaire , c.a.d :
1a. ∀x, y, z ∈ E, ∀λ ∈ R : ϕ(λx + y, z) = λϕ(x, z) + ϕ(y, z)
1b. ∀x, y, z ∈ E, ∀λ ∈ R : ϕ(x, λy + z) = λϕ(x, y) + ϕ(x, z)
( ϕ est linéaire relativement à chaque argument.)
2) ϕ est symétrique i.e. ∀x, y ∈ E, ϕ(x, y) = ϕ(y, x)
3) ϕ est positive i.e. ∀x ∈ E ,ϕ(x, x) ≥ 0
4) ϕ est définie i.e. ∀x ∈ E , ϕ(x, x) = 0 ⇒ x = 0 On dit qu’un produit scalaire est un forme bilinéaire
symétrique définie positive.
Remarques :
— Puisque le produit scalaire est linéaire par rapport à la première et seconde composante donc il est
évident que
∀x ∈ E , (x, 0) = (0, x) = 0
— Dans la pratique, si ϕ est symétrique, pour que ϕ soit bilináire il est suffisant de montrer 1a ou 1b.
— Par la suite on notera (x, y) au lieu de ϕ(x, y)
Exemples :
A. Considèrons E = Rn . Pour tout x = (x1 , x2 , . . . , xn ) ∈ Rn , y = (yP 1 , x2 , . . . , yn ) ∈ R , on définit l’applica-
n
n
tion ϕ de R × R → R par : ϕ(x, y) = x1 y1 + x2 y2 + . . . + xn yn = k=1 xk yk .
n n
11
Pn
4. ∀x ∈ Rn , si ϕ(x, x) = k=1 x2k = 0. La somme des termes positives est nulle si tous les termes sont nuls,
par suite xk = 0 , k = 1, ..., n et donc x = 0 d’où ϕ est définie.
B. Considérons E = C([a, b], R) l’ensemble des fonctions continues de [a, b] dans R, c’est un espace vectorile
Z b
sur R. L’application C([a, b], R) × C([a, b], R) → R, (f, g) → f × g est un produit scalaire sur C([a, b], R).
a Rb
Comme f et g sont continues sur [a, b], le produit scalaire de f et g définie comme a f ×g est donc bien défini.
Rb Rb
2. ∀f, g ∈ C([a, b], R) , x ∈ [a, b], on a : (f, g) = a
f (x) × g(x)dx = a
g(x) × f (x)dx = (g, f ), ce qui prouve
que c’est symétrique.
Rb Rb
1a. ∀f, g, h ∈ C([a, b], R) , λ ∈ R , x ∈ [a, b], (λf + g, h) = a (λf (x) + g(x)) × h(x)dx = λ a f (x) × h(x)dx =
Rb
+ a g(x) × h(x)dx = λ(f, h) + (g, h).
Rb
Du fait que (f, g) = a f (x)g(x)dx est symétrique, on aura donc (f, λg + h) = λ(f, g) + (f, h).
Rb Rb
3. ∀f ∈ C([a, b], R) , x ∈ [a, b], on a : (f, f ) = a
f (x) × f (x)dx = a
f (x)2 dx ≥ 0.
RbRb
4. ∀f ∈ C([a, b], R) , x ∈ [a, b], Si (f, f ) = a a
f (x)2 dx = 0 alors f (x) = 0 pour tout x ∈ [a, b] donc f = 0.
Z b
On conclut donc que l’application C([a, b], R) × C([a, b], R) → R, (f, g) → f × g est un produit scalaire
a
sur C([a, b], R).
Puisque t A ∈ Mp,n (R) et B ∈ Mn,p (R), le produit t AB ∈ Mpp (R) la trace tr(t AB) = est donc bien définie.
ϕ est symétrique, en effet : ∀A, B ∈ E , ϕ(B, A) = tr(t BA) = tr(t (t AB)) = tr(t AB) = ϕ(A, B).
∀A, B, C ∈ E , λ ∈ R ; ϕ(A, λ B + C) = tr(t A(λ B + C)) = λ tr(t AB) + tr(t AC) = λ ϕ(A, B) + ϕ(A, C).
Donc ϕ est bilinéaire.
On pose A = (aij ) matrice n × p, i = 1, ..., n, j = 1, ..., p, At = (bij ) une matrice p × n, avec bij = aji ; At A
est une matrice p × p P
:
p Pp Pp Pp Pp Pp
ϕ(A, A) = tr(t AA) = i=1 k=1 bik aki = i=1 k=1 aki aki = i=1 k=1 a2ki ≥ 0, ϕ est positive.
Pp Pp
De plus si ϕ(A, A) = i=1 j=1 a2ij = 0, or la somme de quantités positives n’est nulle que si chacune des
quantités est nulle et donc aij = 0 pour tout i, j et donc A = OMn,p .
Finalement ϕ est un produit scalaire sur E, c’est le produit scalaire canonique de Mn,p (R).
12
∀ z ∈ C ; si ϕ(z, z) = |z|2 = 0 alors z = 0. ainsi ϕ est définie.
Définition : Un espace euclidien est un espace vectoriel réel de dimension finie muni d’un produit scalaire
( , ) et est noté (E, ( , )).
2. symétrique hermitienne :
3. positive :
∀x ∈ E (x, x) ≥ 0;
4. définie :
∀x ∈ E (x, x) = 0 ⇒ x = 0
Exemples :
A. Considèrons E = Cn . Pour tout x = (x1 , x2 , . . . , xn ) ∈ Cn y = (yP
1 , x2 , . . . , yn ) ∈ C , on définit l’applica-
n
n
tion ϕ de C × C → R par : ϕ(x, y) = x1 y1 + x2 y2 + . . . + xn yn = k=1 xk yk .
n n
Pour tout λ ∈ P
C et ∀x, y, z ∈ Cn , on écrit 2 , . . . , xn ), y = (y1 , y2 , . . . , yn ), z = (z1 , z2 , . . . , zn ) alors
Pn x = (x1 , xP
n n
ϕ(λx + y, z) = k=1 (λxk + yk )zk = λ k=1 xk zk + k=1 yk zk = λϕ(x, z) + ϕ(y, z) Donc ϕ est semi-linéaire
en sa première variable.
Pn Pn Pn
2. On a ϕ(y, x) = k=1 yk xk = k=1 xk yk = k=1 xk yk = ϕ(x, y) par conséquent ϕ est symétrique
hermitienne. Pn Pn
3. ∀x ∈ Cn , ϕ(x, x) = k=1 xk xk = k=1 |xk |2 ≥ 0 Donc ϕ est positive.
n
4. ∀x ∈ Cn , si ϕ(x, x) = k=1 |xk |2 = 0. La somme des termes positives est nulle si tous les termes sont
P
nuls, par suite |xk | = 0 , k = 1, ..., n et donc x = 0 d’où ϕ est définie.
13
En conclusion ϕ est un produit scalaire de Cn c ’est le produit scalaire canonique de Cn .
B. Considérons E = C([a, b], C) l’ensemble des fonctions continues de [a, b] dans C, c’est un espace vectorile
Z b
sur C. L’application C([a, b], C) × C([a, b], C) → C, (f, g) → f (t) × g(t)dt est un produit hermitien sur
a
C([a, b], C).
Rb Rb Rb
2. ∀f, g ∈ C([a, b], C) , x ∈ [a, b], on a : (f, g) = a f (x) × g(x)dx = a f (x) × g(x)dx = a g(x) × f (x)dx =
(g, f ), ce qui prouve que c’est symétrique hermitienne.
Rb Rb
1a. ∀f, g, h ∈ C([a, b], C) , λ ∈ C , x ∈ [a, b], (λf + g, h) = a (λf (x) + g(x)) × h(x)dx = λ a f (x) × h(x)dx +
Rb
a
g(x) × h(x)dx = λ(f, h) + (g, h). C’est donc semi-linéaire
Rb Rb
∀f, g, h ∈ C([a, b], C) , λ ∈ C , x ∈ [a, b], (f, λg + h) = a f (x) × (λg(x) + h(x))dx = a f (x) × λg(x)dx +
Rb Rb Rb
a
f (x) × h(x)dx = λ a f (x) × g(x)dx + a f (x) × h(x)dx = λ(f, g) + (f, h).
c’est donc linéaire.
Rb Rb
3. ∀f ∈ C([a, b], C) , x ∈ [a, b], on a : (f, f ) = a
f (x) × f (x)dx = a
|f (x)|2 dx ≥ 0.
Rb
4. ∀f ∈ C([a, b], C) , x ∈ [a, b], Si (f, f ) = a
|f (x)|2 dx = 0 alors |f (x)| = 0 pour tout x ∈ [a, b] donc f = 0.
Z b
On conclut donc que l’application C([a, b], C) × C([a, b], C) → C, (f, g) → f (x) × g(x)dx est un produit
a
scalaire sur C([a, b], C).
Puisque A∗ ∈ Mp,n (R) et B ∈ Mn,p (R), le produit A∗ B ∈ Mpp (R) la trace tr(A∗ B) est donc bien définie.
∀A, B, C ∈ E , λ ∈ C ; ϕ(A, λB + C) = tr(A∗ (λB + C)) = λtr(A∗ B) + tr(A∗ C) = λϕ(A, B) + ϕ(A, C). Donc
ϕ est linéaire par rapport à la seconde variable.
∀A, B, C ∈ E , λ ∈ C ; ϕ(λA + B, C) = tr((λA + B)∗ C) = tr(λA∗ C) + tr(B ∗ C) = λϕ(A, C) + ϕ(B, C). Donc
ϕ est semi-linéaire par rapport à la première variable.
On pose A = (aij ), i = 1, ..., n, j = 1, ..., p, A∗ = (bij ) est une matrice p × n avec bij = aji , donc A∗ A est
une matrice p × p. Pp Pp Pp Pp Pp Pp
ϕ(A, A) = tr(A∗ A) = i=1 k=1 bik aki = i=1 k=1 aki aki = i=1 j=1 |aki |2 ≥ 0, ϕ est positive.
Pp Pp
De plus si ϕ(A, A) = i=1 k=1 |aki |2 = 0, or la somme de quantités positives n’est nulle que si chacune
des quantités est nulle et donc aki = 0 pour tout i, k et donc A = OMn,p .
Finalement ϕ est un produit scalaire sur E, c’est le produit scalaire canonique de Mn,p (C).
Définition : Un espace hermitien est un espace vectoriel E sur C de dimension finie et muni d’un produit
scalaire hermitien (., .). On le note (E, (., .)).
Définition : Un espace préhilbertien est défini comme un espace vectoriel réel ou complexe muni d’un
produit scalaire. Cette notion généralise celles d’espace euclidien ou hermitien dans le cas d’une dimension
quelconque
14
6.3 Norme associée à un produit scalaire
Définition : Soit E un espace vectoriel muni d’un produit scalaire ou hermitien. On définit sur E la norme
préhilbertienne || · || , c’est-à-dire associée au produit scalaire (·, ·), par :
p
∀x ∈ E, ||x|| = (x, x)
Exemples :
1. La norme associée au produit scalaireP canonique sur Cn :
n
ϕ(x, y) = x1 y1 + x2 y2 + . . . + xn yn = k=1 xk yk est :
n
X n
X
n 2
∀x ∈ C , ||x|| = (x, x) = xk xk = |xk |2
k=1 k=1
||x + y||2 = (x + y, x + y) = (x, x) + (x, y) + (y, x) + (y, y) = ||x||2 + ||y||2 + (x, y) + (x, y)
= ||x||2 + ||y||2 + 2ℜe(x, y)
||x − y||2 = (x − y, x − y) = (x, x) − (x, y) − (y, x) + (y, y) = ||x||2 + ||y||2 − (x, y) − (x, y)
= ||x||2 + ||y||2 − 2ℜe(x, y)
Preuve :
La première egalité déja prouvée. La seconde est facile a démontrée.
pour démontrer la troisième égalité, on écrit :
i||y + ix||2 = i(y + ix, y + ix) = i(y, y) + i(y, ix) + i(ix, y) + i(ix, ix) = i||y||2 + i||x||2 − (y, x) + (x, y)
15
i||y − ix||2 = i(y − ix, y − ix) = i(y, y) + i(y, −ix) + i(−ix, y) + i(−ix, −ix) = i||y||2 + i||x||2 + (y, x) − (x, y)
en faisant la différence :
La combination de ||x + y||2 − ||x − y||2 = 4ℜe(x, y) avec i||y + ix||2 − i||y − ix||2 = 4iℑm(x, y) montre que :
Preuve :
Soient x, y ∈ E, on a ||x|| = ||(x − y) + y|| ≤ ||x − y|| + ||y||, donc ||x|| − ||y|| ≤ ||x − y|| de même (par sym-
métrie) on montre que ||y||−||x|| ≤ ||y −x|| = ||x−y||. Ce qui prouve que |||x||−||y||| ≤ ||x−y|| ≤ ||x||+||y||.
Théorème : Soit (E, (., .)) un espace préhilbertien réel ou complexe. Alors,
(x, y) est un complee, il existe donc θ ∈ R tel que (x, y) = |(x, y)|eiθ . On choisit λ = reiθ , avec r ∈ R, donc :
Reste à montrer le cas d’égalité. Si x et y sont liés alors il existe un sclaire α ∈ C tel que y = αx.
|(x, y)|2 = |(x, αx)|2 = |α(x, x)|2 = |α|2 (x, x)2 = (x, x)αα(x, x) = (x, x)(αx, αx) = (x, x)(y, y).
Réciproquement si |(x, y)|2 = (x, x)(y, y) dans ce cas le discriminant ∆ = 0 et le polynm̂e aura une racine
double λ0 . et pour ce λ0 on aura : P (λ0 ) = (x + λ0 y, x + λ0 y) = 0 et parsuite x + λ0 y = 0 (car le produit
16
scalaire est défini positive) donc x = −λ0 y, (x, y) sont colinéaires.
Corollaire : Si x1 , . . . , xn ∈ C et y1 , . . . , yn ∈ C on a :
n 2 n n
X X X
2
xi ȳi ≤ |xj | |yk |2 .
i=1 j=1 k=1
Preuve : Ceci est une conséquence de l’inégalité Pi=n de Cauchy-Schwartz pour le produit scalaire : ∀x =
(x1 , ..., xn )t , y = (y1 , ..., yn )t ∈ Cn , (x, y) = i=1 xi yi .
Dans le cas de Rn muni du produit scalaire canonique, l’inégalité de Cauchy Schwarz devient :
n
!2 n
! n
!
X X X
xi yi ≤ x2i yi2 = ||x||2 ||y||2
i=1 i=1 i=1
Exemples :
A. Dans R3 munit du produit scalaire canonique.
1. Les vecteurs (1, 1, 1) et (1, −1, 0) sont orthogonaux.
2. les vecteurs e1 = (1, 0, 0), e2 = (0, 1, 0) , e3 = (0, 0, 1) sont tels que (e1 , e2 ) = (e1 , e3 ) = (e2 , e3 ) = 0
et (e1 , e1 ) = (e2 , e2 ) = (e3 , e3 ) = 1. On conclut que la base (e1 , e2 , e3 ) est orthonormale.
B. Dans l’espace préhilbertien C([0, 2π]) des fonctions contines sur [0, 2π], ∀f, g ∈ C([0, 2π]) , (f, g) =
R 2π
0
f (x)g(x)dx. La famille de fonctions fm (x) = cos(mx) est orthogonale. En effet :
Z 2π
(fm , fn ) = cos(mx) cos(nx)dx
0
1 2π
Z
= (cos(m + n)x + cos(m − n)x)dx
2 0
= 0 si n ̸= m
Si m = n ̸= 0 (fm , fm ) = π.
Si m = n = 0, (f0 , f0 ) = 2π.
Remarques :
i Pout tout vecteur non nul de E, le vecteur u = v
||v|| est un vecteur unitaire qui es associé à v. (Car
p p
||u|| = (u, u) = (v, v)/||v||2 = 1).
17
ii On passe d’une famille orthogonale de vecteurs non nuls (vi )i∈I à une famille orthonormale en rem-
plaçont chaque vecteur vi par le vecteur unitaire qui lui est associé ||vvii || .
Théorème : Toute famille orthogonale ne comportant pas le vecteur nul est libre.
comme vj ̸= 0E , (vj , vj ) ̸= 0 et donc λj = 0 et par suite la famille (vi )i∈I est libre.
Théorème de Pythagore : Dans un espace préhilbertien E, pour toute famille orthogonale de vecteurs
(v1 , v2 , ..., vn ) de E on a
||v1 + v2 + ... + vn ||2 = ||v1 ||2 + ||v2 ||2 + ... + ||vn ||2
Preuve :
Par récurrence sur n ∈ N.
Pour n = 1 trivial.
Pour n = 2, ||v1 + v2 ||2 = ||v1 ||2 + ||v2 ||2 + (v1 , v2 ) + (v2 , v1 ) = ||v1 ||2 + ||v2 ||2 . Supposons la propriété vraie
au rang n ≥ 2.
Soit (v1 , v2 , ..., vn , vn+1 ) une famille orthogonale. Il est facile de verifier que (v1 + v2 + ... + vn ) est orthogonale
à vn+1 , de plus on a :
||v1 + v2 + ... + vn + vn+1 ||2 = ||v1 + v2 + ... + vn ||2 + ||vn+1 ||2 + (v1 + v2 + ... + vn , vn+1 ) + (vn+1 , v1 + v2 + ... + vn )
= ||v1 + v2 + ... + vn ||2 + ||vn+1 ||2
d’après l’hypothèse de récurrence on obtient : ||v1 +v2 +...+vn +vn+1 ||2 = ||v1 ||2 +||v2 ||2 +...+||vn ||2 +||vn+1 ||2 .
D’ou le résultat.
Autre preuve :
D’après les propriétés du produit scalaire on pourra montrer que
n
X Xn n
X n X
X n n
X
|| vi ||2 = ( vi , vj ) = (vi , vj ) = ||vi ||2
i=1 i=1 j=1 i=1 j=1 i=1
Remarque : En utilisant Pythatgore on peut démontrer l’inégalité de Cauchy Schwartz. En effet, soit
x, y ∈ E, tel que y ̸= 0. On introduit le vecteur z = x − (x,y)
(y,y) y. Les vecteur z et y sont orthogonaux :
(x, y) (x, y)
(z, y) = (x − y, y) = (x, y) − (y, y) = 0 (14)
(y, y) (y, y)
(x,y)
Or, on a x = z + (y,y) y et d’après Pythagore :
(x, y) 2 (x, y) 2
||x||2 = ||z + y|| = ||z||2 + | | ||y||2
(y, y) (y, y)
|(x, y)|2 |(x, y)|2
= ||z||2 + 2
≥ (15)
||y|| ||y||2
on aura donc |(x, y)|2 ≤ ||x||2 ||y||2 ce qui donne |(x, y)| ≤ ||x||||y||.
18
8 Procédé d’orthonormalisation de Gram-Schmidt
Proposition : Soit E un espace vectoriel euclidien et (v1 , v2 , . . . , vn ) une base de E. On peut construire une
famille orthonormé (e1 , e2 , . . . , en ) de E vérifiant
il nous reste à déterminer un vecteur en+1 tel que (e1 , e1 , . . . , en , en+1 ) est orthonormée dans E et vect(v1 , v2 , . . . , vn , vn+1 ) =
vect(e1 , e2 , . . . , en , en+1 ).
Si en+1 convient, il appartient donc à vect(v1 , v2 , . . . , vn , vn+1 ) et par suite, il existe des scalaires α1,2,...,n,n+1
tels que :
en+1 = α1 v1 + ... + αn vn + αn+1 vn+1
Or puisque vect(v1 , v2 , . . . , vn ) = vect(e1 , e2 , . . . , en ), on conclut que :
De plus (e1 , e2 , . . . , en , en+1 ) est orthonormée, on a : ∀k = 1, ..., n , (ek , en+1 ) = 0. A partir de l’éq(16), on
en déduit que :
∀k = 1, ..., n , βk = −λn+1 (ek , vn+1 )
et par suite
n
X
en+1 = λn+1 (vn+1 − (ek , vn+1 )ek )
k=1
| {z }
X
puisqu’on veut que ||en+1 || = 1, on obtient |λn+1 | = 1/||X||. En fin le vecteur en+1 = X/||X|| = ||X|| 1
((vn+1 −
Pn
k , vn+1 )ek )). (Notez que X ̸= 0E car sinon vn+1 serait combinaison linéaire des vk (k = 1, ..., n)
k=1 (eP
n
vn+1 = k=1 (vk , en+1 ))ek ).
Par construction (e1 , e2 , ..., en , en+1 ) est orthonormée et vect(v1 , v2 , . . . , vn , vn+1 ) = vect(e1 , e2 , . . . , en , en+1 ).
Le procédé de Gram-Schmidt repose sur cette proposition.
L’étape générale de l’algorithme consiste à soustraire au vecteur vj+1 sa projection orthogonale sur l’espace
Fj . On s’appuie sur la famille orthonormale déjà construite (e1 , e2 , . . . ej ) pour le calcul de projection.
(u, v)
proju v = u.
(u, u)
19
Le procédé de Gram-Schmidt est alors :
u1
u1 = v1 , e1 =
∥u1 ∥
u2
u2 = v2 − proju1 v2 , e2 =
∥u2 ∥
u3
u3 = v3 − proju1 v3 − proju2 v3 , e3 =
∥u3 ∥
... ...
k−1
X uk
uk = vk − projuj vk , ek = .
j=1
∥uk ∥
Exemples :
1. Dans R2 muni du produit scalaire canonique, on considr̀e la base B ′ = (v1 = (1, 1), v2 = (1, 2)). Il est
claire que B ′ n’est ni orthogonale ((v1 , v2 ) = 3 ̸= 0) ni orthonormale. On applique Gram-Schmidt :
u1 √ √
(1,1) 2 2
u1 = v1 , e1 = = √ =( 2 , 2 )
∥u1 ∥ 2
u2
u2 = v2 − proju1 v2 , e2 = ∥u2 ∥
√ √
(− 12 , 21 ) 2 2
u2 = (1, 2) − 32 (1, 1) e2 = √1 = (− 2 , 2 )
2
2. Dans R3 muni du produit scalaire canonique, on considr̀e la base B ′ = (v1 = (1, 0, 1), v2 = (1, 1, 0), v3 =
(0, 1, 1). Il est claire que B ′ n’est ni orthogonale ni orthonormale. On applique Gram-Schmidt :
u1 √ √
(1,0,1) 2 2
u 1 = v1 , e1 = = √ == ( 2 , 0, 2 )
∥u1 ∥ 2
u2
u2 = v2 − proju1 v2 , e2 = ∥u2 ∥
( 21 ,1,− 12 )
u2 = (1, 1, 0) − 12 (1, 0, 1) e1 = √
√3
= ( √16 , √26 , − √16 )
2
u3
u3 = v3 − proju1 v3 − proju2 v3 , e3 =
∥u3 ∥
1/2 1 −1 √1 √1
u3 = (0, 1, 1) − 21 (1, 0, 1) − 1
3/2 ( 2 , 1, − 2 ) = (− 23 , 23 , 23 ), e3 = ( √3
, 3, 3)
Remarque : Il est facile de voir que la matrice de passage de la base (v1 , . . . , vn ) Ã la base (e1 , . . . , en ) est
donc triangulaire supérieure. √
2 3
−
En effet dans l’exemple 1. La matrice de passage de (v1 , v2 ) à (e1 , e2 ) est P = 2 2
est bien
0 1
triangulaire supérieure.
De même dans l’exemple 2, La matrice de passage de (v1 , v2 , v3 ) à (e1 , e2 , e3 ) est :
√
2 √1 1
− − √
2 √
6 2 3
P = 0 √2 − 2√1
3 3
√
3
0 0 2
20
9 Sous-espaces vectoriels orthogonaux
9.1 Orthogonal d’une partie
Définition : E un espace préhilbertien, A ⊂ E. On appelle orthogonal de A l’ensemble noté A⊥ contenant
des vecteurs de E orthogonaux à tous les vecteurs de A
A⊥ = {x ∈ E ; ∀a ∈ A , (a, x) = 0}
Exemples :
1. Il est facile de voir que {0E }⊥ = E et E ⊥ = {0E }.
2. Dans R2 muni du produit scalaire canonique, A = vect(1, 0), B = vect(0, 1), A⊥ = vect(0, 1) = B et
B ⊥ = vect(1, 0) = A.
Théorème :
A⊥ est un sous espace vectoriel de E sur un corps K.
Preuve :
Par définition A⊥ ⊂ E, 0E ∈ A⊥ car 0E est orthogonal à tous les vecteurs de E et en particulier à ceux de
A.
Soit λ ∈ K, x, y ∈ A⊥ , on a ∀a ∈ A, (a, λx + y) = λ(a, x) + (a, y) = 0. Donc λx + y ∈ A⊥ et par suite A⊥
est un sous espace vectoriel.
Proposition :
∀A, B ⊂ E, on a :
i A ⊂ (A⊥ )⊥
ii Si A ⊂ B alors B ⊥ ⊂ A⊥
iii A⊥ = vect(A)⊥
Preuve :
i) Soit x ∈ A, alors ∀y ∈ A⊥ , (x, y) = 0 ce qui montre que x ∈ (A⊥ )⊥ donc A ⊂ (A⊥ )⊥ .
ii) Soit x ∈ B ⊥ , alors ∀y ∈ B, (x, y) = 0 donc x est orthogonal à tout élément y ∈ A (car A ⊂ B), ce
qui prouve que x ∈ A⊥ .
iii) D’après ii), on a A ⊂ vect(A) alors vect(A)⊥ ⊂ A⊥ .
Inversement A ⊂ (A⊥ )⊥ donc V ect(A) ⊂ (A⊥ )⊥ (car (A⊥ )⊥ est un sous-espace vectoriel qui contient
A). La dernière inclusion implique que ((A⊥ )⊥ )⊥ ⊂ V ect(A)⊥ (à partir de ii). On conclut, en remar-
quant : A⊥ ⊂ ((A⊥ )⊥ )⊥ ⊂ V ect(A)⊥ , d’où A⊥ = vect(A)⊥ .
Définition : Soit E un espace euclidien, Deux sous espaces vectoriels F et G de E sont dits orthogonaux si
∀(x, y) ∈ F × G , (x, y) = 0.
Exemples :
1. Dans R2 muni du produit scalaire canonique, F = vect(1, 0), G = vect(0, 1), F et G sont orthogonaux.
2. Dans E espace vectoriel sur K, si F est un sous espace vectoriel de E, alors F et F ⊥ sont orthogonaux.
Preuve : Pour tout x ∈ F ∩ G alors x ∈ F et x ∈ G et par suite (x, x) = 0 (car F et G sont ⊥).
Comme E est euclidien, de (x, x) = 0 on déduit x = 0E . Donc F ∩ G ⊂ {0E }. L’inclusion inverse est triviale
puisque F et G sont 2 s.e.v de E donc contiennent le vecteur nul.
Théorème : Soit E un espace euclidien muni d’une base orthonormée B = (e1 , e2 , ..., en ). Pour tout x ∈ E
21
on a :
n
X
x = (ek , x)ek (17)
k=1
les composantes du vecteur x dans la base B sont : (e1 , x), (e2 , x), ..., (en , x) :
(e1 , x)
(e2 , x)
x=
..
.
(en , x)
Pn
Preuve : B étant une base de E, donc il existe des scalaires λi tels que x = k=1 λk ek . Pour i = 1, ..., n on
calcul (ei , x) :
n
X n
X
(ei , x) = (ei , λ k ek ) = λk (ei , ek )
k=1 k=1
n
X
= λk δik = λi (18)
k=1
d’où le résultat.
Exemples :
— Dans R2 muni du produit scalaire canonique et B = (e1 = (1, 0), e2 = (0, 1)) sa base canonique. Il est
facile de voir que les coordonnées de x = (1, −1) sont 1 = (e1 , x) et −1 = (e2 , x).
— De même, dans R3 muni du produit scalaire canonique et B = (e1 = (1, 0, 0), e2 = (0, 1, 0), e3 =
(0, 0, 1)) sa base canonique. Il est facile de voir que les coordonnées de x = (2, 3, 5) sont 2 = (e1 , x),
3 = (e2 , x) et 5 = (e3 , x).
Proposition : Soit E un espace euclidien muni d’une base orthonormale B = (e1 , ..., en ). Si x et y sont des
vecteurs de E de composantes respectives x1 , . . . , xn et y1 , . . . , yn dans B alors
(x, y) = x1 y1 + . . . + xn yn
q
||x|| = x21 + . . . + x2n
Pn Pn
Preuve : x, y ∈ E, donc x = i=1 xi ei et y = j=1 yj ej . Le produit scalaire étant bilinéaire donc
Xn n
X n X
X n
(x, y) = ( xi ei , yj ej ) = xi yj (ei , ej )
i=1 j=1 i=1 j=1
n X
X n n
X
= xi yj δij = xi yi (19)
i=1 j=1 i=1
pPn
il est facile de voir que ||x|| = x2i .
p
(x, x) = i=1
Théorème : Soit E un espace vectoriel euclidien, Si F un sous espace vectoriel de E alors F et F ⊥ sont
supplémentaires dans E (E = F ⊕ F ⊥ ) et on a
Preuve : Soit (e1 , ..., ek ) une basePorthonormée de F. On peut la compléter en une base orthonormée
n
(e1 , . . . , en ) de E. Un vecteur x = i=1 xi ei est orthogonal à F si et seulement si il est orthogonal à e1 , ...,
22
Pn
ek puisque F = vect(e1 , ..., ek ), donc si et seulement si ∀i = 1, ..., k ; xi = 0 et par suite x = i=k+1 xi ei .
Le sous-espace vectoriel F ⊥ est donc le sous-espace vectoriel de E engendré par ek+1 , ..., en .
(x, y) =t xy
v
u n
√ uX
||x|| = t xx = t x2 i
i=1
x1
x2
Si E est muni d’un produit scalaire sur C, on introduit l’écriture matricielle de x = , et y =
..
.
xn
y1
y2
on peut écrir le produit scalaire comme :
..
.
yn
n
X
(x, y) = x∗ y = y ∗ x = x̄i yi
i=1
v
u n
√ uX
||x|| = ∗
x x=t |xi |2
i=1
23
2 2 2 2
d’un autre coté ∥f (x + y)∥ = ∥x + y∥ = ∥x∥ + ∥y∥ + 2(x, y). En comparant les deux expressions on
trouve :
(f (x), f (y)) = (x, y)
ce qui veut dire que f conserve le produit scalaire, c’est donc orthogonal.
Théorème : Soit E un espace euclidien. L’ensemble des automorphismes orthogonaux de E est un sous
groupe de (GL(E), o) appelé groupe orthogonal et noté O(E).
donc f og ∈ O(E).
Si f ∈ O(E), f est un automorphisme, donc f −1 existe, montrons que f −1 ∈ O(E).
Preuve : D’aprés la proposition, si f est orthogonal alors elle conserve l’orthogonalité. Donc si B =
(e1 , ..., en ) est une base orthonormale de E, alors B ′ = (f (e1 ), ..., f (en )) est une base orthonormale.
Réciproquement : soit B = (e1 , ..., en ) une base orthonormale de E, f est un endomorphisme Pn tel que
(f (e1P ), ..., f (en )) est une base orthonormale de E. Pour tout x, y ∈ E, on peut écrire x = i=1 αi ei et
n
y = i=1 βi ei on aura
n
X n
X
(f (x), f (y)) = (f ( αi ei ), f ( βj ej ))
i=1 j=1
24
Xn n
X
( αi f (ei ), βj f (ej ))
i=1 j=1
n X
X n
= αi βj (f (ei ), f (ej ))
i=1 j=1
| {z }
=δij
n
X
= αi βj = (x, y) (23)
i=1
Démonstration : Soit A une matrice orthogonale, A est la matrice d’un endomorphisme f orthogo-
nale dans la base orthonormale B = (e1 , e2 , ..., en ). Les colones de la matrice A sont les vecteurs B ′ =
(f (e1 ), f (e2 ), ..., f (en )), comme f est orthogonal donc B ′ est orthonormale, donc les vecteurs colonne de A
sont deux à deux othogonaux et normés.
Réciproquement, si les vecteurs colonnes sont orthogonaux deux à deux et normés, alors f transforme
une base orthonormale en une base orthonormale, donc f est orthogonal et par suite A est orthogonale.
L’équivalence à At A = I en découle facilement du fait que At A est une matrice dont l’élément aij sont le
produit scalaire ième ligne Li de A avec la jème colone Cj de t A (qui est en fait la jème ligne Lj de A). Or
A est orthjogonale donc les lignes sont deux à deux orthogonaux et normés, ce qui veut dire que At A = I.
25
Proposition : Toute matrice orthogonale a un déterminant égal à ±1.
Démonstration : En utilisant la relation At A = I, on obtient det(t AA) = (detA)2 = 1, d’où det(A) = ±1.
2 1
Remarque : La réciproque est fausse. En effet la matrice a un déterminant =1, mais elle n’est
1 1
pas orthogonale car (C1 , C2 ) ̸= 0.
Théorème : Soit A une matrice réelle d’ordre n, Rn muni du produit scalaire canonique. Il y a équivalence
entre :
1. A orthogonale
2. pour tout x ∈ Rn , ||Ax||2 = ||x||2 .
3. pour tout x, y ∈ Rn , (Ax, Ay) = (x, y)
Preuve :
1 ⇒ 2 Supposons que A est orthogonale, At A = I, pour tout x ∈ Rn : ||Ax||2 = (Ax, Ax) = xt At Ax =
xt Ix = xt x = (x, x) = ||x||2 .
2 ⇒ 3 supposons que pour tout x ∈ Rn on a : ||Ax||2 = ||x||2 alors :
1 1
(Ax, Ay) = (||Ax + Ay||2 − ||Ax − Ay||2 ) = (||A(x + y)||2 − ||A(x − y)||2 )
4 4
1
= (||x + y||2 − ||x − y||2 )
4
= (x, y) (24)
3 ⇒ 1 : supposons que (Ax, Ay) = (x, y) pour tout x, y ∈ Rn . On a
(Ix, y) = (x, y) = (Ax, Ay) = y t At Ax = (At Ax, y) (25)
ce qui implique que (At Ax, y) − (Ix, y) = ((At A − I)x, y) = 0 et ceci pour tout x, y ∈ Rn . En particulier, ca
doit être vraie pour y = (At A − I)x ce qui donne :
((At A − I)x, (At A − I)x) = 0
et par suite on aura : pour tout x ∈ Rn : (At A − I)x = 0.
On peut voir (At A − I)x = 0 comme un système linéaire ou les variables sont les n coordonnées de x, si on
veut que le système ai une solution pour tout x ∈ Rn alors il faut que la matrice (At A − I) = 0Mn et donc
At A = I, on conclut que A est orthogonale.
Preuve : Soit P = PB→B ′ , notons pij les coefficients de P. pij est la i-ième composante dans la base B du
vecteur fj .
26
Ainsi aij = (fi , fj ) et donc P t P = In si, et seulement si, la famille B’ est orthonormée et donc B ′ une base
orthonormée de E.
x = xB = α1 e1 + α2 e2 + ... + αn en αi ∈ R
x = xB ′ = β1 f1 + β2 f2 + ... + βn fn βi ∈ R
(26)
alors :
Xn n
X n
X
||xB ||2 = (x, x) = ( αi ei , αi ei ) = αi2
i=1 i=1 i=1
de meme :
n
X n
X n
X
||xB ′ ||2 = (x, x) = ( βi fi , βi fi ) = βi2
i=1 i=1 i=1
D’après les propriétés des matrices de passages on a xB ′ = P xB et donc ||xB || = ||xB ′ || = ||P xB || pour tout
xB ∈ R. Donc P est orthogonale.
— Si la matrice A est normale, alors A est semblable à une matrice diagonale D par une transformation
unitaire, c’est-à-dire A = P DP −1 avec P matrice unitaire.
— Si la matrice A est symétrique, alors A est semblable à une matrice diagonale D par une transformation
orthogonale, c’est-à-dire A = P DP −1 avec P matrice unitaire orthogonale.
Triangularisation
— Une matrice A à coefficient dans C est triangularisable lorsqu’elle est semblable à une matrice tri-
angulaire supérieure, c’est à dire qu’il existe une matrice P inversible et une matrice T triangulaire
supérieure telle que A = P T P −1 .
— Lorsque A (à coefficient dans C) s’écrit A = P T P −1 avec T triangulaire supérieure, la diagonale de
T contient les valeurs propres de A.
Théorème : (Décomposition de Jordan) Pour toute matrice A d’ordre n à coefficient dans C il existe
une matrice inversible P telles que A = P JP −1 et où J a la structure par blocs suivante :
27
J1 (λ1 )
J2 (λ2 )
..
J = .
..
.
Jr (λr )
Chaque bloc diagonal Jk est d’ordre nk (n1 + n2 + ... + nr = n est soit du type Jk = λk Ink , soit du type :
λk 1
λk 1 (0)
.. ..
. .
Jk (λk ) =
.. ..
. .
(0) λk 1
λ
les scalaires λ1 , ... λr (qui ne sont pas nécessairement distincts) sont les valeurs propres de A : Spectre(A) =
{λ1 , ..., λr }.
28
Produit scalaire, produit hermitien
L’application (·, ·) : V × V −→ K définie par
n
X
t
(u, v) = vu = uv = t
ui vi si K = R
i=1
n
X
∗
(u, v) = v u = u∗ v = ui v̄i si K = C
i=1
(vi , vj ) = δij 1 ≤ i, j ≤ k,
Soit A une matrice de type (m, n) (c’est-à-dire A ∈ Mm,n (K)) ; ses éléments sont les aij ∈ K, avec
1 ≤ i ≤ m, 1 ≤ j ≤ n.
Si A ∈ Mm,n (C), on note A∗ ∈ Mm,n (C) la matrice adjointe de la matrice A définie par
Soit A une matrice carrée. Les éléments aii sont appelés éléments diagonaux.
La matrice A est inversible s’il existe une matrice (unique si elle existe) notée A−1 et appelée matrice
inverse de la matrice A telle que AA−1 = A−1 A = I. Dans le cas contraire, on dit que la matrice est
singulière.
On rappelle que, si A et B sont des matrices inversibles,
29
La matrice A est symétrique si A est réelle et A =t A.
La matrice A est hermitienne si A = A∗ .
La matrice A hermitienne est définie positive si, pour tout vecteur v ∈ V non nul, v ∗ Av > 0.
La matrice A est orthogonale si A est réelle et A t A =t AA = I.
La matrice A est unitaire si AA∗ = A∗ A = I.
La matrice A est normale si AA∗ = A∗ A.
La matrice A est diagonale si aij = 0 pour i ̸= j ; on la note A = diag(aii ) = diag(a11 , a22 , . . . , ann ).
Soit Sn le groupe des permutations de l’ensemble {1, 2, . . . , n}. Le déterminant de la matrice A est
défini par X
det(A) = εσ aσ(1)1 aσ(2)2 . . . aσ(n)n ,
σ∈Sn
A toute valeur propre λ d’une matrice A, on associe (au moins) un vecteur v tel que
v ̸= 0 et Av = λv ;
12 Matrices symétriques
Définition : Une matrice carrée A = (aij ) est dite symétrique si At = A, c’est-Ã -dire telle que aij = aji .
Remarque : L’ensemble des matrices carrées d’ordre n à coefficients dans un corps commutatif K est un
sous-espace vectoriel de dimension n(n + 1)/2 de l’espace vectoriel des matrices carrées d’ordre n Mn (K).
Exemples :
Les coefficients
d’une matrice
symétrique sont symétriques par rapport à la diagonale principale.
−1 1 1
— A = 1 1 0 est symétrique.
1 0 2
— Toute matrice diagonale est symétrique.
30
Proposition : Soit (., .) le produit scalaire canonique définis sur Rn . Une matrice A = (aij ) d’ordre n est
symétrique si et seulement si pour tout x, y ∈ Rn : (Ax, y) = (x, Ay)
Preuve : Soit B = (e1 , e2 , ..., en ) une base orthonormale de Rn tel que A = (aij ) dans cette base.
Si A est symétrique, on a :
Proposition : Soit (., .) le produit scalaire canonique définit sur Rn . A une matrice symétrique réelle alors
toutes ses valeurs propres sont réelles.
Proposition : Soit A une matrice symétrique, si λ et µ sont deux valeurs propres distinctes de A alors les
vecteurs propres associés sont orthogonaux.
Preuve : Soit x le vecteur propre associé à λ : Ax = λx, et y le vecteur propres associé µ : Ay = µy.
On a :
λ(x, y) = (λx, y) = (Ax, y) = (x, Ay) = µ(x, y)
donc (λ − µ)(x, y) = 0, comme λ ̸= µ on conclut que (x, y) = 0 et donc x et y sont orthogonaux.
Lemme : Soit A une matrice symétrique, si λ et µ sont deux valeurs propres distinctes de A alors Eλ
et Eµ sont orthogonaux.
Théorème Spectral : Toute matrice symétrique réelle A d’ordre n se diagonalise dans une base orthonor-
mée c.à.d il existe une matrice orthogonale P tel que P t AP soit diagonale.
Preuve :
−1 1 1
Exemple : Soit à diagonaliser la matrice symétrique : A = 1 −1 1 . Le polynôme caractéristique
1 1 −1
PA est donné par :
PM3 (λ) = det(A − λI3 ) = −(λ − 1)(λ + 2)2
On a donc deux valeurs propres : λ1 = 1 et λ2 = −2. On dit que λ1 est une valeur propre simple et λ2 est
une valeur propre double, son ordre de multiplicité est 2.
sous espaces propres :
x x
E1 = {(x, y, z) ∈ R2 ; A y = +1 y }
z z
31
Tout vecteur (x, y, z) ∈ E1 vérifie x = y = z. Donc E1 est un sous espace vectoriel de dimension 1 engendré
par v1 = (1, 1, 1).
x x
E−2 = {(x, y, z) ∈ R2 ; A y = −2 y }
z z
On remarque que les trois équations caractérisant E−2 sont équivalentes à x + y + z = 0. Donc E−2 est
un sous espace vectoriel de dimension deux engendré par v2 = (1, −1, 0) et v3 = (0, −1, 1).
On a donc une base de vecteur propres B ′ = (v1 , v2 , v3 ). Mais cette base n’est pas orthonormée car (v1 , v2 ) =
0, (v1 , v3 ) = 0 (car v2,3 ∈ E−2 et E−2 est orthogonal à E1 .
On pourra utiliser Gram-Schmidt pour rendre B ′ = (v1 , v2 , v3 ) orthonormée. Tout calcul fait on trouve :
u1 = √13 (1, 1, 1), u2 = √12 (1, −1, 0) et u3 = √16 (1, 1, −2)
La matrice de passage de la base canonique à la base B ′ est :
√1 √1 √1
3 2 6
P = √1 − √12 √1
3 6
√1 −2
3
0 √
6
qui es clairement une matrice orthogonale car ses vecteurs colonnes sont 2 à 2 orthogonaux et unitaire
et donc P −1 = P t et on a :
1 0 0
t
D= 0 −2 0 = P AP
0 0 −2
∀x ∈ Rn , xt Ax ≥ 0
32
2 1 2 1 x
— La matrice A = est définie positive. car pour tout (x, y) ∈ R2 on (xy) =
1 2 1 2 y
2x + y
(xy) = 2x2 + 2xy + 2y 2 = x2 + y 2 + (x + y)2 ≥ 0.
x + 2y
Il est facile de voir que si xt Ax = 0 alors forcément x = 0.
xt Ax = λxt x = λ||x||2 ≥ 0
λ1 y12 + λ2 y22 + ... + λn yn2 est positive car toutes les valeurs propres sont positives.
Preuve :
1.) les aii > 0 car aii = (ei , Aei ) = eti Aei > 0.
2.) Soit x ∈ KerA donc Ax = 0 et par suite (x, Ax) = 0, alors forcément x = 0 car sinon A ne serait pas
définie positive. On conclut donc que KerA = {0} et que A est inversible.
3.) A est définie positive , donc toutes ses valeurs propres sont strictement positives et A est orthogonalement
diagonalisable. comme le déterminant de A est le produit des valeurs propres, donc det(A) > 0.
Le réciproque de 3) est fausse. En effet soit A = −I2 , ∀X = (x, y) ∈ R2 − {(0, 0)} ; (X, AX) = −x2 − y 2 < 0
donc A n’est pas définie positive et pourtant det(A) = 1 > 0.
Preuve :
Considèrons la fonction f (t) = det(tIn + (1 − t)A) définie sur le segment [0, 1]. Clairement, f (0) = detA et
f (1) = det(I) = 1. Il est claire que f est continue sur [0, 1].
Si on montre que f (t) ̸= 0 pour tout t ∈ [0, 1], ca implique que f (0) et f (1) ont le même signe (théorème
des valeurs intermediares).
Montrons donc que f (t) ̸= 0 pour tout t ∈ [0, 1]. Soit t ∈ [0, 1] et x ∈ Rn , x ̸= 0 on a
ce qui prouve que tI + (1 − t)A est inversible et donc f (t) = det(tI + (1 − t)A) ̸= 0. ce qui prouve que f (0)
et f (1) ont le même signe et donc det(A) > 0.
Théorème : Soit A = (aij ) une matrice symétrique définie positive alors il existe une unique matrice B
positive tel que A = B 2 .
33
Preuve :
Existence : D’après le théorème spectrale il existe une matrice
√ √ orthogonale
√ P tel que A = P dia(λ1 , λ2 , ..., λn )P t
avec λi > 0 et P P t = I = P t P . On pose B = P diag( λ1 , λ2 , ..., λn )P t , il est claire que B 2 = A.
B est définie positive car : pour tout x ∈ Rn ,
p p p
(x, Bx) = xt Bx = xt P diag( λ1 , λ2 , ..., λn )P t x
p p p
= (P t x)t diag( λ1 , λ2 , ..., λn )(P t x) > 0
√ √ √
car diag( λ1 , λ2 , ..., λn ) est définie positive.
Unicité : Supposons qu’il existe deux matrices définies positives B et C tel que B 2 = A et C 2 = A.
Supposons que B ̸= C c.à.d B − C ̸= 0. Donc B − C admet au moins une valeur propre λ ̸= 0. Soit x un
vecteur propre associé à λ : (B − C)x = λx (x ̸= 0 par définition). On aura donc :
comme λ ̸= 0 alors (x, Bx) + (x, Cx) = 0 ce qui n’est possible que si (x, Bx) = 0 et (x, Cx) = 0 (car B et C
sont définies positives. Ce qui donne 0 = (x, Bx) − (x, Cx) = (x, (B − C)x) = λ(x, x) ce qui es impossible
car λ ̸= 0 et x ̸= 0. Par suite d’où l’unicité.
B = C,
2 1
Exemple : Soit A = . Sp(A) = {3, 1} donc A est définie positive. Les vecteurs propre de
1 2
A sont v1 = (1, 1) et v2 = (1, −1). La base orthonormale des vecteurs propres associés est B = (u1 =
√1 (1, 1), u2 = √1 (1, −1)).
2 2
1 1
La matrice de passage P = √12 est orthogonale et sont inverse P −1 = P t = P . On a donc
1 −1
√
A = P DP avec D = diag(3, 1). On pose B = P D′ P avec D′ = diag( 3, 1), apres calcul, on trouve
√ √
1+ 3 −1+ 3
2 2
B= √ √
−1+ 3 1+ 3
2 2
13 Exercices :
Exercice 1 : Pour A, B ∈ Mn (R), on définit (A, B) = tr(At B).
1. Démontrer que cette formule définit un produit scalaire sur Mn (R)
2. En déduire que, pour tous A, B ∈ Sn (R) (Sn ensemble des matrices symétriques), on a (tr(AB))2 ≤
tr(A2 )tr(B 2 ).
Exercice 2 : Soit E = C([−1, 1]) l’ensemble des fonction continues sur [−1, 1].
— Montrer que l’application de E × E
Z 1
(f, g) = f (t)g(t)dt
−1
34
Dans quel cas a-t-on l’égalité ?
Exercice 4 :
Soient x1 , ..., xn ∈ Rn P
n Pn
1. Démontrer que ( k=1 xk )2 ≤ n k=1 x2k et étudier les cas d’égalité.
2. P
On suppose de plus que xk > 0 pour chaque k ∈ {1, ..., n} et que x1 + ... + xn = 1. Démontrer que
n
k=1 xk ≥ n et étudier les cas d’égalité.
1 2
Exercice 8 : Soient n ∈ N , (x0 , x1 , ..., xn ) ∈ Rn+1 distincts et L0 , L1 , ..., Ln la famille des polynômes
interpolateurs de Lagrange associée :
X − xj
∀i ∈ [0, 1] , Li (X) = Πj̸=i
xi − xj
trouver le produit scalaire sur Rn [X] tel que la famille des (Li ) forme une base orthonormée pour ce produit
scalaire.
Exercice 9 : Soit u un endomorphisme symétrique d’un espace euclidien E vérifiant, pour tout x ∈ E,
(u(x), x) = 0, Que dire de u ?
Exercice 10 : Soit A ∈ Mn (R) symétrique. On suppose qu’il existe p ∈ N tel que Ap = 0. Que vaut A ?
1 −2 −2
Exercice 11 : Justifier que la matrice A = −2 1 −2 est diagonalisable, et trouver P ∈ O3 (R)
−2 −2 1
tel que P t AP soit diagonale.
Exercice 13 : Soit E un espace vectoriel euclidien. Pour f ∈ L(E), on note ρ(f ) = max{|λ| ; λ valeur propre de f }
On pose également ||f || = sup{||f (x)||; ||x|| ≤ 1}.
1. Démontrer que si f est symétrique, alors ||f || = ρ(f ).
2. Soit H la matrice H = (1/(i + j − 1))i,j=1,...,n et soit X = (x1 , x2 , ..., xn )t un vecteur de Rn . Exprimer
R1
(HX, X) à l’aide d’une intégrale (on pourra remarquer que 1/(i + j − 1) = 0 xi+j−2 dx
3. En déduire que la matrice H est définie positive.
35
Exercice 14 : Soit E un espace vectoriel euclidien. Pour f ∈ L(E), on note ρ(f ) = max{|λ|; λvaleurpropredef }
On rappelle que ||f || = sup{||f (x)||; ||x|| ≤ 1}
On suppose que f est symétrique. Montrer que p ||f || = ρ(f ). On ne suppose plus que f est symétrique.
Montrer que ||f ||2 = ||f ∗ f ||. En déduire que ||f || = ρ(f ∗ f ).
Exercice 15 : Soit E un espace vectoriel euclidien, soit u un endomorphisme symétrique de E et soient (ei ),
(fj ) deux bases orthonormales de E. Démontrer que :
Soit A = (aij) ) une matrice symétrique réelle d’ordre n, et soient λ1 , ..., λn ses valeurs propres.
Démontrer que
36
GOI-EEA Année Universitaire 2023-2024
Feuille de T.D N 0 2 Orthogonalité
F = {(x, y, z, t) ∈ R4 ; x + z + t = 0 , x + y + z = 0}
Exercice 3 : Dans R3 espace vectoriel euclidien. Determiner la distance de u = (3, 4, 3) au plan P définit
par : P = {(x, y, z) ∈ R3 ; x + y − z = 0}.
Q(X) = Σi=0 bi X .
i=3 i
Exercice 7 : R1
(a) Montrer que (f, g) = 0 f (t)g(t)dt définit un produit scalaire sur l’ensemble E des fonctions continues
sur R engendré par f1 (x) = 1, f2 (x) = ex et f3 (x) = x.
(b) Pour quels réel a et b la distance de f2 (x) a g(x) = ax + b est-elle minimale ?
37
GOI-EEA Année Universitaire 2023-2024
Controle 1 Durée : 2h
Exercice 1 : Dans R4 on définit
F = {(x, y, z, t) ∈ R4 ; x − t = 0 , x − y − z = 0}
38