Algebre 2
Thèmes abordés
Algebre 2
Thèmes abordés
A.A. 2022–2023
Algèbre linéaire 2
Martino Borello
18 novembre 2022
2
Table des matières
1 Groupes 5
1.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Sous-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Homomorphismes de groupes . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Le groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Déterminant 11
2.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . 11
2.2 Méthodes de calcul des déterminants . . . . . . . . . . . . . . . . . 13
2.2.1 Méthode de Sarrus . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.2 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . 14
2.2.3 Méthode des cofacteurs (formules de Laplace) . . . . . . . 15
2.3 Déterminant, bases et rang . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Matrice inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.1 Règle de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . 19
3 Diagonalisation et triangularisation 21
3.1 Valeurs propres et espaces propres . . . . . . . . . . . . . . . . . . 21
3.2 Triangularisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 Polynômes et matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4 Orthogonalité 35
4.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Norme et angle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Bases orthogonales et orthonormée . . . . . . . . . . . . . . . . . . 40
4.4 Sous-espaces orthogonales . . . . . . . . . . . . . . . . . . . . . . . . 41
4.5 Transformations orthogonales . . . . . . . . . . . . . . . . . . . . . 43
4.6 Endomorphisme adjoint et autoadjoint . . . . . . . . . . . . . . . . 44
Bibliographie 45
3
4 TABLE DES MATIÈRES
Chapitre 1
Groupes
a ⋆ e = e ⋆ a = a;
a ⋆ b = b ⋆ a,
5
6 CHAPITRE 1. GROUPES
Démonstration. Exercice.
an ⋆ bn ≠ (a ⋆ b)n ,
1.2 Sous-groupes
Définition 1.2. Soit (G, ⋆) un groupe et H un sous-ensemble de G. On dit que
H est un sous-groupe de G si
● pour tous a, b ∈ H, a ⋆ b ∈ H,, i.e. H est stable par la multiplication ;
● l’élément neutre de G est dans H ;
1.3. HOMOMORPHISMES DE GROUPES 7
Exemple 1.4. L’application exp ∶ R → R, qui associe à tout nombre réel r son
exponentiel er , est un homomorphisme de (R, +) dans (R ∖ {0}, ⋅).
L’application f ∶ Z/2Z → {−1, +1}, définie par 0 ↦ +1 et 1 ↦ −1, est un isomor-
phisme de (Z/2Z, +) dans ({−1, +1}, ⋅).
Démonstration. Exercice.
Notons que la notation pour un cycle n’est pas unique. Par exemple, (1 3 5)
et (3 5 1) définissent le même cycle σ ∈ S5 , i.e. la permutation telle que σ(1) = 3,
σ(2) = 2, σ(3) = 5, σ(4) = 4 et σ(5) = 1. Il est facile de vérifier que l’ordre d’un
cycle de longueur r est r (exercice). On appelle cycles disjoints des cycles
(x1 . . . xr ) et (y1 . . . ys ) tels que {x1 , . . . , xr } ∩ {y1 , . . . , ys } = ∅. Des cycles
disjointes cummutent entre eux.
Exercice 1.3. Écrire tout les éléments de S4 comme produit de cycles disjoints.
σ(j) − σ(i)
ε ∶ Sn → Z, σ ↦ ε(σ) ∶= ∏ .
1≤i<j≤n j−i
Une conséquence immédiate de ce résultat (la preuve est laissée comme exer-
cice) est le théorème suivant.
Exercice 1.7. Soient i, j deux entiers différents dans {1, . . . , n}. Trouver l’in-
verse de la transposition (i j) ∈ Sn . Quel est l’inverse du cycle
(1 2 3 4 5)(6 7 8)
est
(1 5 4 3 2)(6 8 7).
Sn = An ⊔ {σ ○ τ ∣ σ ∈ An },
où ⊔ veut dire union disjointe (i.e. l’intersection entre les deux ensembles est
vide). En déduire que l’ordre de An est n!/2.
Chapitre 2
Déterminant
Dans tout ce chapitre K désigne un corps (par exemple (Q, +, ⋅), (R, +, ⋅),
(C, +, ⋅) mais aussi (Z/pZ, +, ⋅) avec p premier).
a b
M ∶= ( ) ∈ Mat2 (K)
c d
det(A) = a1 ⋅ b2 ⋅ c3 − a1 ⋅ b3 ⋅ c2 − a3 ⋅ b2 ⋅ c1 − a2 ⋅ b1 ⋅ c3 + a2 ⋅ b3 ⋅ c1 + a3 ⋅ b1 ⋅ c2 .
⎛2 4 0⎞
M = ⎜1 −2 1⎟ .
⎝0 −1 1⎠
11
12 CHAPITRE 2. DÉTERMINANT
Donc
n n n
det(M ) = ∑ ε(σ)⋅ ∏ mσ(k),k = ∑ (ε(α)⋅ ∏ mα(k),k +ε(α○τ )⋅ ∏ mα(τ (k)),k ) =
σ∈Sn k=1 α∈An k=1 k=1
n n
= ∑ ( ∏ mα(k),k − ∏ mα(τ (k)),k )
α∈An k=1 k=1
Exercice 2.3. Montrer par récurrence que le déterminant d’une matrice trian-
gulaire inférieure (resp. supérieure) est égal au produit de ses termes diagonaux,
i.e.
RRR a1,1 0 0 ⋯ 0 RRRR
RRRR R
RRR a2,1 a2,2 0 ⋯ 0 RRRR
RRR ⋮ ⋱ ⋱ ⋮ RRRR = a1,1 ⋅ a2,2 ⋅ ⋯ ⋅ an,n .
RRR R
RRR ⋮ ⋱ 0 RRRR
RRR a RR
R n,1 an,2 ⋯ ⋯ an,n RRR
Exercice 2.4. Calculer le déterminant de
⎛1 1 0 0 0⎞
⎜1 3 0 0 0⎟
⎜ ⎟
M ∶= ⎜1 3 3 0 0⎟ .
⎜ ⎟
⎜1 3 3 4 0⎟
⎝1 3 3 4 5⎠
a1,1 a2,2 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 − a3,1 a2,2 a1,3 − a3,2 a2,3 a1,1 − a3,3 a2,1 a1,2 .
+ + +
a1,1 a1,2 a1,3 a1,1 a1,2
⎛2 −1 −2⎞
M = ⎜6 −1 1⎟
⎝4 5 3⎠
on écrit
+ + +
2 −1 −2 2 −1
6 −1 1 6 −1
4 5 3 4 5
− − −
ce qui donne
det(M ) = (2) ⋅ (−1) ⋅ (3) + (−1) ⋅ (1) ⋅ (4) + (−2) ⋅ (6) ⋅ (5) − (4) ⋅ (−1) ⋅ (−2) − (5) ⋅
(1) ⋅ (2) − (3) ⋅ (6) ⋅ (−1) = −70.
⎛1 1 −2⎞
M ∶= ⎜1 3 0 ⎟.
⎝1 3 3⎠
⎛1 1 0 1⎞
⎜2 1 1 0⎟
M ∶= ⎜ ⎟.
⎜1 2 −1 1⎟
⎝−1 0 −1 −3⎠
⎛1 1 0 1⎞
⎜0 −1 1 −2⎟
M′ = ⎜ ⎟
⎜0 1 −1 0⎟
⎝0 1 −1 −2⎠
Ensuite, en faisant L1 ← L1 , L2 ← L2 , L3 ← L3 + L2 et L4 ← L4 + L2 , on obtient
⎛1 1 1 0⎞
⎜0 −1 −2 1⎟
M =⎜ ′′
⎟
⎜0 0 0 −2⎟
⎝0 0 0 −4⎠
detB (v1 , . . . , vn )
par la Proposition 2.2. Vice versa, si B ′ est une base, la Proposition 2.3 appliquée
à la forme detB′ (et le point c) du Théorème 2.1) nous donne
⎛0⎞ ⎛a⎞ ⎛ b ⎞
⎜a⎟ ⎜ b ⎟ ⎜0⎟
⎝ b ⎠ ⎝0⎠ ⎝a⎠
Exercice 2.11. Soit E = Mat2 (R). Quelle est une base canonique pour cet
espace vectoriel ? Est-ce que la famille
1 3 0 2 −1 −1 1 1
B ′ = {[ ],[ ],[ ],[ ]}
−1 1 3 −1 7 1 −10 0
⎛1 1 0 1 3⎞
⎜2 1 1 0 4⎟
M =⎜ ⎟.
⎜1 2 −1 1 3⎟
⎝−1 0 −1 −3 −5⎠
Définition 2.2. La comatrice d’une matrice A ∈ Matn (K) est une matrice
comA ∈ Matn (K), dont les coefficients sont les cofacteurs de A, i.e.
(comA)T A = det(A) ⋅ In .
Démonstration. Exercice.
2.4. MATRICE INVERSE 19
⎛1 2 −1⎞
M = ⎜1 3 2 ⎟.
⎝2 5 2⎠
⎛ + ∣3 2
∣ −∣
1 2
∣ +∣
1 3⎞
∣
⎜ 5 2 2 2 2 5⎟
⎜ ⎟ ⎛−4 2 −1⎞
⎜ 2 −1 1 −1 1 2⎟
comM = ⎜
⎜− ∣5 ∣ +∣ ∣ −∣ ∣⎟ = ⎜−9 4 −1⎟ .
⎜ 2 2 2 2 5⎟⎟ ⎝7
⎜ ⎟ −3 1⎠
⎜ 2 −1 1 −1 1 2⎟
⎝+ ∣3 2
∣ −∣
1 2
∣ +∣
1 3
∣⎠
Donc
⎛−4 −9 7⎞
M −1
=⎜2 4 −3⎟ .
⎝−1 −1 1⎠
⎛1 2 0⎞
M = ⎜2 1 2⎟ .
⎝1 0 1⎠
Remarque 2.1. L’ensemble des matrice inversibles dans Matn (K) est un groupe
avec la multiplication des matrices. Il est appelé groupe général linéaire et
noté GLn (K). Clairement, il peut être caractérisé comme l’ensemble des ma-
trices dans Matn (K) qui ont déterminant non nul.
Ax = b
C B1
D1 = ∣ 1 ∣ = C1 ⋅ B2 − B1 ⋅ C2
C2 B2
et
A1 C1
D2 = ∣ ∣ = A1 ⋅ C2 − A2 ⋅ C1 .
A2 C2
Exercice 2.14. Résoudre le système suivant avec la règle de Cramer :
⎧
⎪
⎪3X + 2Y = 12
⎨ .
⎪
⎪5X + 2Y = 16
⎩
Exemple 2.7. Voyons la règle de Cramer appliquée au systèmes avec 3 équa-
tions et 3 variables. Si on a les équations
⎧
⎪a11 x1 + a12 x2 + a13 x3 = b1
⎪
⎪
⎪
⎨a21 x1 + a22 x2 + a23 x3 = b2
⎪
⎪
⎪
⎪
⎩a31 x1 + a32 x2 + a33 x3 = b3
où
RRRa11 a12 a13 RRRR
R
D = RRRRRa21 a22 a23 RRRR ≠ 0
R
RRRa a32 a33 RRRR
R 31
alors les solutions du système sont données par
RRRb1 a12 a13 RRRR RRRa11 b1 a13 RRRR RRRa11 a12 b1 RRRR
RRR RRR RRR
RRRb2 a22 a23 RRRR RRRa21 b2 a23 RRRR RRRa21 a22 b2 RRRR
RRRb R R R
R 3 a32 a33 RRRR RRRa
R 31 b3 a33 RRRR RRRa
R 31 a32 b3 RRRR
x1 = x2 = x3 =
D D D
Chapitre 3
Diagonalisation et
triangularisation
a−λ b
det(A − λI) = ∣ ∣ = λ2 − (a + d)λ + ad − bc = 0.
c d−λ
21
22 CHAPITRE 3. DIAGONALISATION ET TRIANGULARISATION
Exercice 3.4. Calculer les espaces propres associés aux valeurs propres de la
matrice A donnée dans l’Exercice 3.2.
Exercice 3.5. Montrer que les espaces propres associés aux valeurs propres de
la matrice A donnée dans l’Exercice 3.1 sont respectivement
⎡1⎤ ⎡0⎤ ⎡1⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
E−1 = ⟨⎢0⎥ , ⎢1⎥⟩ et E1 = ⟨⎢−2⎥⟩.
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1⎥ ⎢1⎥ ⎢−2⎥
⎣ ⎦ ⎣ ⎦ ⎣ ⎦
Remarque 3.1. Les vecteurs propres d’une application linéaire correspondent
aux axes privilégiés selon lesquels l’application se comporte comme une dilata-
tion, multipliant les vecteurs par une même constante. Ce rapport de dilatation
est la valeur propre.
Exercice 3.6. Soient λ1 et λ2 deux valeurs propres distinctes d’un endomor-
phisme f ∶ E → E. Montrer que les espaces propres E1 et E2 associés respecti-
vement à λ1 et λ2 ont intersection réduite à {0}.
Définition 3.3. Le polynôme caractéristique de f ou de A = µB (f ) est
La définition est bien posée, car matrices semblables ont le même polynôme
caractéristique. En effet, si B = P −1 AP , on a B − xIn = P −1 (A − xIn )P , de
manière que
Définition 3.4. On dit que f est diagonalisable s’il existe une base B de E tel
que µB (f ) est diagonale. Une matrice est diagonalisable si elle est semblable
à une matrice diagonale.
Remarque 3.2. Un endomorphisme f est diagonalisable si et seulement s’il
existe une base B de E formée de vecteurs propres.
Avant de voir une condition pour la diagonalisabilité, on fait de rappels sur
les polynômes.
Définition 3.5. Soit p(x) un polynôme dans K[x] et α une racine de p(x). La
multiplicité algébrique de α dans p(x) est définie par
Démonstration. Exercice.
24 CHAPITRE 3. DIAGONALISATION ET TRIANGULARISATION
Définition 3.6. Un polynôme p(x) dans K[x] est dit scindé s’il peut s’écrire
comme produit de polynômes de degré 1 à coefficients dans K.
Démonstration. On fait la preuve seulement pour f (la preuve pour A est com-
plètement analogue). Soient λ1 , . . . , λr les valeurs propres de f et E1 , . . . , Er les
espaces propres de f associés à ces valeurs.
L’Exercice 3.6 implique facilement (exercice) que leur somme est directe. On
a donc
E1 ⊕ . . . ⊕ Er ⊆ E. (3.1)
Par la Remarque 3.2, f est diagonalisable si et seulement si on a l’égalité dans
(3.1), i.e. si et seulement si dim(E1 ⊕ . . . ⊕ Er ) = dim E. Or,
Démonstration. Cela suit du fait que si χf (x) (resp. χA (x)), qui est de degré
n, a n racines distinctes deux à deux dans K, alors il est forcement scindé, et
du fait que
1 ≤ dim ker(f − λI) ≤ mλ (χf (x)) = 1,
pour toute valeur propre λ, de manière qu’on a l’égalité.
3.2 Triangularisation
Si on ne peut pas diagonaliser un endomorphisme, on souhaite quand même
le réduire dans une forme simple.
Définition 3.7. On dit que f est triangularisable s’il existe une base B de
E tel que µB (f ) est triangulaire. Une matrice est triangularisable si elle est
semblable à une matrice diagonale.
Remarque 3.1. Rappelons que si B = {b1 , . . . , bn } est une base telle que µB (f )
est triangulaire supérieure, alors µB′ (f ), avec B ′ = {bn , . . . , b1 }, est triangulaire
inférieure. Donc les problèmes de représenter une matrice en forme triangulaire
supérieure ou inférieure sont équivalents.
χf (x) = (x − λ1 )⋯(x − λn )
soit B = {λ1 , e2 , . . . , en } une base de E (une telle base existe d’après le théorème
de la base incomplète). On a
⎡λ1 a1,n ⎤⎥
⎢ a1,2 ...
⎢0 a2,n ⎥⎥
⎢ a2,2 ...
A = µB (f ) = ⎢ ⎥.
⎢ ⋮ ⋮ ⋮ ⎥⎥
⎢
⎢0 an,2 ... an,n ⎥⎦
⎣
Soit E ′ l’espace vectoriel avec base B ′ = {e2 , . . . , en } et f ′ l’endomorphisme tel
que
⎡a ⎤
⎢ 2,2 . . . a2,n ⎥
⎢ ⎥
A = µB′ (f ) = ⎢ ⋮
′ ′
⋮ ⎥.
⎢ ⎥
⎢an,2 . . . an,n ⎥
⎣ ⎦
Le polynôme χ′f (x) est scindé : en effet χf (x) = (x−λ1 )χ′f (x). Puisque dim E ′ =
n − 1, on a, par hypothèse de récurrence, que f ′ est triangularisable, i.e. il existe
une base B ′′ {v2 , . . . , vn } telle que µB′′ (f ′ ) est triangulaire supérieure. Ainsi,
{v1 , . . . , vn } est une base pour laquelle f est triangulaire supérieure.
En particulier, tout endomorphisme d’un C-espace vectoriel est triangulari-
sable. On remarque aussi que la forme triangulaire qu’on peut obtenir n’est pas
unique.
Exercice 3.10. Soit f ∶ R3 → R3 l’application linéaire définie, dans la base
canonique de R3 , par la matrice
⎡4 5 −2⎤⎥
⎢
⎢ ⎥
A = ⎢−1 0 1 ⎥.
⎢ ⎥
⎢2 2 −1⎥⎦
⎣
Trouver une base B de R3 telle que µB (f ) est triangulaire supérieure.
{0} = E0 ⊂ E1 ⊂ ⋯ ⊂ Ek = E.
Exercice 3.11. Construire une matrice 2×2 sur R qui n’est pas triangularisable.
Exercice 3.12. Montrer que pour toute valeurs k ∈ R la matrice
⎡ −1 −2 0⎤⎥
⎢
⎢ ⎥
A=⎢ 2 3 0⎥ ∈ Mat3 (R)
⎢ ⎥
⎢k − 1 0 k ⎥⎦
⎣
est triangularisable mais pas diagonalisable.
p(x) = a0 + a1 x + ⋯ + at xt ∈ K[x] et β ∈ K
on a
p(β) = a0 + a1 β + ⋯ + at β t ∈ K.
On peut aussi évaluer un polynôme sur un endomorphisme ou sur une matrice.
En effet, on peut faire la somme d’endomorphismes ou de matrices, et si f est
un endomorphisme on a f n = f ○ f ○ ⋯ ○ f . Donc
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
n fois
p(f ) = a0 I + a1 f + ⋯ + at f t ∈ L(E)
p(x) = (x − λ1 ) ⋅ ⋯ ⋅ (x − λk ). (3.2)
On a
p(f ) = ϕf (p(x)) = ϕf (x − λ1 ) ○ ⋯ ○ ϕf (x − λk ) = (f − λ1 I) ○ ⋯ ○ (f − λk I)
Puisque v ≠ 0, on a p(λ) = 0.
E = Kers(f ) ⊕ Kert(f ).
E = Kerp1 (f ) ⊕ ⋯ ⊕ Kerpk (f ).
u(x)s(x) + v(x)t(x) = 1.
f diagonalisable
∃p(x) ∈ K[x] scindé et n’ayant que des racines simples tel que p(f ) = 0.
Exercice 3.16. Soit A une matrice carrée de taille n × n, avec n > 1, telle que
(A − 2I)5 = 0 et (A − 2I)2 ≠ 0. A est-elle diagonalisable ?
et
P (x) = Q(x)(A − xI).
Montrer que P (A) = 0.
0 = P (A) = χf (A)I,
avec ri ∈ Z, ri ≥ 1, alors
avec ti ∈ Z, 1 ≤ ti ≤ ri .
En particulier t1 = . . . = tk = 1 ssi f est diagonalisable.
Exercice 3.19. Trouver le polynôme minimale de la matrice A de l’Exercice
3.12 pour k = 1.
On peut utiliser le Théorème de Cayley-Hamilton pour calculer l’inverse d’un
endomorphisme ou d’une matrice. En effet, soit A une matrice et
χA (x) = a0 + a1 x + . . . + an xn
A−1 = −a−1
0 (a1 I + a2 A + . . . + an A
n−1
).
Orthogonalité
35
36 CHAPITRE 4. ORTHOGONALITÉ
⟨f, g⟩ = ∫ f (t)g(t)dt,
I
⟨u, v⟩ = ∑ ui vj ⟨ei , ej ⟩
1≤i,j≤n
et
⟨u, u⟩ = ∑ ai,i u2i + 2 ∑ ai,j ui uj .
1≤i≤n 1≤i<j≤n
Démonstration. Exercice.
Exemple 4.4. La matrice associée au produit scalaire de l’Exemple 4.1 est
l’identité.
Remarque 4.1. Dans la définition de produit scalaire on veut que le produit
scalaire d’un vecteur avec lui-même soit positif. Cette propriété ne peut être de-
mandé que sur un corps qui donne un sens à la notion de signe (éventuellement
on pourrait donc étendre la définition à ces corps). Cela exclut les corps finis,
par exemple. Pourtant, dans certains contextes comme la théorie des codes ou la
cryptographie, on parle de produit scalaire sur des espace vectoriels définie sur
corps finis, signifiant simplement une forme bilinéaire symétrique telle que sa
matrice associée est inversible.
4.1. PRODUIT SCALAIRE 37
Soit B ′ = {e′1 , . . . , e′n } une autre base de E. Si Φ′ = (⟨e′i , e′j ⟩) est la matrice
associée au produit scalaire de E dans la base B ′ , alors
Φ′ = P T ΦP,
où P = µB′ ,B (I), la matrice de changement de base.
est un produit scalaire. La seule chose à vérifier est si ϕ est définie positive. Le
problème revient donc à étudier
ϕ(u, u) = ∑ ai,i u2i + 2 ∑ ai,j ui uj ,
1≤i≤n 1≤i<j≤n
Ainsi
ϕ(u, u) = a1,1 f1 (u)2 + ϕ1 (u, u)
où ϕ1 (u, u) est une forme quadratique où u1 n’apparaît pas. On applique la
même méthode avec les termes en u2 et on recommence jusqu’à ce qu’il ne reste
aucun terme. On obtient une décomposition
ϕ(u, u) = α1 f1 (u)2 + α2 f2 (u)2 + . . . + αp fp (u)2 ,
où apparaissent des carrés de formes linéaires.
Si p = n et αi > 0 pour tout i, alors ϕ est définie positive, car ϕ(u, u) = 0
équivaut aux système triangulaire
⎧
⎪ f (u) = 0
⎪
⎪ 1
⎨ ⋮
⎪
⎪
⎪
⎩ fn (u) = 0
qui admet u = 0 comme seule solution.
Si p < n, le système précédent, il y a des solutions non nulles, donc ϕ n’est
pas définie positive.
Si p = n, mais il existe au moins un j tel que αj < 0, alors il existe un vecteur
u solution des équations fi (u) = 0, pour i ≠ j, tel que fj (u) ≠ 0, de manière que
ϕ(u, u) < 0. Ainsi, ϕ n’est pas définie positive.
38 CHAPITRE 4. ORTHOGONALITÉ
∥u + v∥2 = ∥u∥2 + 2⟨u, v⟩ + ∥v∥2 ≤ ∥u∥2 + 2∥u∥ ⋅ ∥v∥ + ∥v∥2 = (∥u∥ + ∥v∥)2 .
Remarque 4.2. On appelle norme une fonction ∥⋅∥ ∶ E → R avec ces propriétés.
Si la norme provient d’un produit scalaire, on a une relation entre les deux :
1
⟨u, v⟩ ∶= (∥u + v∥2 − ∥u∥2 − ∥v∥2 ) ,
2
pour u, v ∈ E.
Théorème 4.2 (Théorème di Pythagore). Deux vecteurs u, v dans E sont or-
thogonaux si et seulement si
Définition 4.5. Dans un espace muni d’un produit scalaire, on définit l’angle
(non orienté) de deux vecteurs non nuls comme le nombre réel θ de [0, π] tel
que
⟨u, v⟩
cos θ = .
∥u∥∥v∥
Exercice 4.4. Soit E l’espace vectoriel des polynômes réels de degré au plus
1
2, muni du produit scalaire ⟨p(x), q(x)⟩ ∶= ∫−1 p(t)q(t)dt. Calculer l’angle entre
p(x) ∶= x2 − 3x et q(x) ∶= x + 5.
Proposition 4.3. Une famille orthogonale de vecteurs non nuls {e1 , . . . , ek } est
une famille libre.
Exercice 4.5. Montrer que, pour tout entier positif n, les fonctions ck ∶ x ↦
cos(kx), pour k ∈ {0, . . . , n}, et sk ∶ x ↦ sin(kx), pour k ∈ {1, . . . , n}, forment
une famille libre de Cont([0, 2π], R).
Définition 4.7. Une base d’un espace euclidien est dite orthogonale si elle est
une famille orthogonale. Une base est dite orthonormée si elle est orthogonale
et la norme de tous ses éléments est 1.
⟨e2 , ε1 ⟩
2. ε2 ∶= e2 − ε1 .
∥ε1 ∥2
⟨e3 , ε1 ⟩ ⟨e3 , ε2 ⟩
3. ε3 ∶= e3 − ε1 − ε2 .
∥ε1 ∥ 2 ∥ε2 ∥2
⋮
n−1
⟨en , εi ⟩
n. εn ∶= en − ∑ εi .
i=1 ∥εi ∥
2
Donc B ′ = {ε1 , . . . , εn } est une base orthogonale par récurrence. Notons aussi que
Vect(ε1 , . . . , εk ) = Vect(e1 , . . . , ek ) pour tout k ∈ {1, . . . , n}, par construction.
Exemple 4.6. Soit E = R2 [x] = {ax2 + bx + c ∣ a, b, c ∈ R}, muni du produit sca-
1
laire ⟨p(x), q(x)⟩ = ∫0 p(t)q(t)dt. Une base pour cette espace est B = {1, x, x2 },
qui n’est pas orthogonale. On utilise le procédé d’orthogonalisation de Gram-
Schmidt pour obtenir une base orthogonale à partir de B.
1. ε1 ∶= 1.
1
∫0 tdt 1
2. ε2 ∶= x − 1
=x− .
∫0 1dt 2
1 2 1
∫0 t dt ∫0 t (t − 2 ) dt
2 1
1 1
3. ε3 ∶= x2 − 1
− (x − ) = x2 − x + .
1 1 2 2 6
∫0 1dt ∫0 (t − 2 ) dt
Ainsi, B ′ = {1, x − 12 , x2 − x + 61 } est une base orthogonale de l’espace euclidien
R2 [x] muni du produit scalaire indiqué.
Exercice 4.6. Appliquer le procédé de Gram-Schmidt à la base
1 0 1 0 0 1 1 0
B ∶= {[ ],[ ],[ ],[ ]}
0 0 0 1 1 0 1 0
de l’espace euclidien Mat2 (R) muni du produit scalaire ⟨A, B⟩ = Tr(AT B).
F ⊥ = {v ∈ E ∣ ⟨v, f ⟩ = 0, ∀f ∈ F }
42 CHAPITRE 4. ORTHOGONALITÉ
Remarque 4.3. Les trois dernières propriétés sont vraies (exercice) pour des
formes bilinéaires symétriques avec matrice associée inversible, sur n’importe
quel corps (fini aussi).
Soit E un espace euclidien et soit u un vecteur non nul de E. Notons ϕ ∶
E × E → R le produit scalaire. Pour u ∈ E, l’application
ϕu ∶ v ↦ ϕ(u, v)
F ⊥ = ⋂ Kerϕu
u∈F
Démonstration. Exercice.
Définition 4.8. Une application linéaire f ∶ E → E ′ qui vérifie l’une des condi-
tions ci-dessus est dite transformation orthogonale.
AT A = AAT = I.
Démonstration. Exercice.
Exercice 4.11. Montrer que les matrices suivantes sont orthogonales (pour tout
θ ∈ R) :
cos θ − sin θ cos θ sin θ
C=( ) et D = ( )
sin θ cos θ sin θ − cos θ
pour θ ∈ R ?
44 CHAPITRE 4. ORTHOGONALITÉ
i.e. si f ∗ = f .
Un endomorphisme est autoadjoint ssi (µB (f )) = (µB (f ))T (B base ortho-
normée), i.e. ssi sa matrice dans une base orthonormée est symétrique.
45