Algèbre 2
Algèbre 2
Pr. CHOKRI
Contents
2
Chapter 1
Matrices
1.1 Introduction
Définition 1.1.1: [(p, n)-Matrice]
Exemple 1.1.1
−3𝑖 6
1. 𝐴 = est une matrice carrée de taille 2 à coefficients dans ℂ.
1 − 1/7𝑖 (2 + 𝑖)2
2 9
2. 𝐵 = cosh(2) 0 ® est une matrice de taille 3 × 2 à coefficients dans ℝ.
© ª
« −2 3 𝜋4 ¬
0
𝑒 ®
© 3 ª
3. 𝑣 = ® est un vecteur colonne, 𝑢 = 𝜋 1 log(2) 3
est un vecteur ligne.
1 ®
𝜋
« 2 ¬
Remarque:
ℳ𝑝,𝑛 (𝕂) désigne l’ensemble des matrices à p lignes et n colonnes.
3
1.2 Vocabulaire
◦ Si 𝑝 = 1 ℳ 𝑛,1 est l’ensemble des matrices colonnes.
Remarque:
• Une matrice carrée A =(𝑎 𝑖,𝑗 ) ∈ ℳ𝑛 (𝕂) est dite symétrique lorsque 𝑎 𝑖,𝑗 = 𝑎 𝑗,𝑖 et on a A𝑡
= A.
• Une matrice carrée A =(𝑎 𝑖,𝑗 ) ∈ ℳ𝑛 (𝕂) est dite anti-symétrique lorsque 𝑎 𝑖,𝑗 = −𝑎 𝑗,𝑖 et on
a A𝑡 = -A.
Proposition 1.2.1
4
1.3 Application linéaire et matrice
1.3.1 Application linéaire
Définition 1.3.1
Soient E et F deux espaces vectoriels sur le même corps 𝕂. Une application 𝑓 : 𝐸 → 𝐹 est
dite linéaire, ( ou parfois 𝕂 -linéaire), si
1. ∀𝑥 ∈ 𝐸, ∀𝑦 ∈ 𝐸, 𝑓 (𝑥 + 𝑦) = 𝑓 (𝑥) + 𝑓 (𝑦),
2. ∀𝛼 ∈ 𝕂, 𝑓 (𝛼.𝑥) = 𝛼. 𝑓 (𝑥).
Exemple 1.3.1
𝑖 : 𝐸 −→ 𝐹
𝑥 ↦−→ 𝑖(𝑥) = 𝑥
𝑠 : 𝐹 −→ 𝐹/𝐸
𝑥 ↦−→ 𝑠(𝑥) = 𝑥¯
3. L’application
𝑓1 : ℝ2 −→ ℝ4
(𝑥, 𝑦) ↦−→ (𝑥 − 2𝑦, 2𝑥, 𝑦, 𝑦 − 𝑥)
4. L’application
𝑓2 : ℝ3 [𝑋] −→ ℝ2 [𝑋]
𝑃 ↦−→ 𝑃 0
est une application linéaire de ℝ3 [𝑋] dans ℝ2 [𝑋]. est une application linéaire de ℝℕ
dans ℝ2 .
5
5. L’application
𝑓4 : 𝒞([𝑎, 𝑏], ℝ) −→ ℝ
∫ 𝑏
𝑓 ↦−→ 𝑓 (𝑥)dx
𝑎
6. L’application
𝑓5 : ℝ2 −→ ℝ2
(𝑥, 𝑦) ↦−→ (𝑥𝑦, 𝑥 + 𝑦)
est non linéaire.
𝜑 (𝑒1 ) 𝜑 (𝑒2 ) . . . 𝜑 (𝑒 𝑛 )
𝑓1 𝑎 11 𝑎 12 . . . 𝑎 1𝑛
𝑓2 © 𝑎 21 𝑎 22 . . . 𝑎 2𝑛 ª
𝐴 = .. .. .. .. ..
®
. . . . .
®
®
𝑓𝑝 « 𝑎 𝑝1 𝑎 𝑝2 . . . 𝑎 𝑝𝑛 ¬
La matrice 𝐴 ci-dessus est dite matrice de l’application 𝜑 ∈ ℒ(𝐸, 𝐹) dans les bases ℬ et
ℬ 0 . Elle est notée 𝐴 = 𝑀 𝜑,ℬ,ℬ0 .
𝑥1
𝑋= .. ª ∈ ℳ (K)
. ®
©
𝑛,1
« 𝑥𝑛 ¬
constituée des coordonnées du vecteur 𝑥 dans la base ℬ et pour tout vecteur 𝑦 ∈ 𝐹, on pose la
matrice
𝑦1
© .. ª
𝑌 = . ® ∈ ℳ 𝑝,1 (K).
« 𝑦𝑝 ¬
6
constituée des coordonnées du vecteur 𝑦 dans la base ℬ 0. Alors, on a :
𝑦 = 𝜑(𝑥) ⇐⇒ 𝑌 = 𝐴𝑋
En effet, on a :
𝑝
Õ 𝑛 𝑛
©Õ Õ
𝑦 = 𝜑(𝑥) ⇐⇒ 𝑦 𝑖 𝑓𝑖 = 𝜑 𝑥𝑗 𝑒𝑗® = 𝑥𝑗 𝜑 𝑒𝑗
ª
𝑖=1 « 𝑗=1 ¬ 𝑗=1
Õ𝑛 Õ𝑝 Õ𝑝 𝑛
©Õ
= 𝑥𝑗 𝑎 𝑖,𝑗 𝑓𝑖 = 𝑎 𝑖,𝑗 𝑥 𝑗 ® 𝑓𝑖
ª
𝑗=1 𝑖=1 𝑖=1 « 𝑗=1 ¬
Donc
𝑛
Õ
𝑦 = 𝜑(𝑥) ⇐⇒ 𝑦 𝑖 = 𝑎 𝑖,𝑗 𝑥 𝑗 , ∀1 6 𝑖 6 𝑝
𝑗=1
𝑛
𝑦1 𝑗=1 𝑎 1 ,𝑗 𝑥 𝑗 ,
Í
© .. ª © .. ª
⇐⇒ 𝑌 = . ® = ® = 𝐴𝑋
Í𝑛 . ®
« 𝑦 𝑝 ¬ « 𝑗=1 𝑎 𝑝,𝑗 𝑥 𝑗 , ¬
Exemple 1.3.2
Soit 𝑛 ∈ ℕ, soit le ℂ-espace-vectoriel :
𝐸𝑛 = {𝑃 ∈ ℂ[𝑋]/𝑃 = 0 𝑜𝑢 𝑑 ◦ 𝑃 ≤ 𝑛}.
1. Soit 𝜑 ∈ ℒ(𝐸3 , 𝐸2 ) définie par 𝜑(𝑃) = 𝑃 0. Alors la matrice 𝜑 dans les bases canon-
iques de 𝐸3 et de 𝐸2 est donnée par:
0 1 0 0
𝑀 𝜑 = 0 0 2 0 ® ∈ ℳ3,4 (ℂ).
© ª
«0 0 0 3¬
2. Soit 𝜑 ∈ ℒ(𝐸3 , 𝐸3 ) définie par 𝜑(𝑃) = 𝑃 0. Alors la matrice 𝜑 dans les bases canon-
iques de 𝐸3 est donnée par:
0 1 0 0
0 0 2 0®
© ª
𝑀𝜑 = ® ∈ ℳ4 (ℂ).
0 0 0 3®
«0 0 0 0¬
Proposition 1.3.1
Les bases ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) et ℬ 0 = 𝑓1 , . . . , 𝑓𝑝 des K-e.v. E et 𝐹 étant fixées. Désignons
par 𝑀 𝜑,ℬ,ℬ0 la matrice de 𝜑 ∈ ℒ(𝐸, 𝐹) dans les bases ℬ et ℬ 0. Alors l’application :
𝑈 : ℒ(𝐸, 𝐹) −→ ℳ 𝑝,𝑛 (K)
𝜑 ↦−→ 𝑀 𝜑,ℬ,ℬ0
est une bijection.
7
Remarque:
En particulier, toute (𝑝, 𝑛)-matrice à coefficients dans K est la matrice d’une application
linéaire 𝜑 : 𝕂𝑛 −→ 𝕂𝑝 dans les bases canoniques de K𝑛 et 𝕂𝑝 .
Exemple 1.4.1
1.
𝜋 −1 √4 3 0 4
𝐴= 0 2 ®,𝐵 = 1 1 3 ®
© ª © ª
2
« 1 3 1 ¬ « −1 2 0 ¬
(𝜋 + 3) −1 √ 8
𝐴+𝐵= 3 ( 2 + 3) ®
© ª
1
« 0 5 1 ¬
2.
3/4 0
𝐴 = 0 −6 ® ∈ ℳ3,2 (ℝ).
© ª
« −2 1 ¬
3 0
4𝐴 = 0 −24 ® .
© ª
« −8 4 ¬
Proposition 1.4.1
Soient 𝐸 et 𝐹 deux K − 𝑒.𝑣 de dimensions respectives 𝑛 et 𝑝. On pose ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) une
base de 𝐸 et ℬ 0 = 𝑓1 , . . . , 𝑓𝑝 une base de 𝐹. Soient 𝜑, 𝜓 ∈ ℒ(𝐸, 𝐹), on a :
8
Proof: Posons 𝑀 𝜑,ℬ,ℬ0 = (𝑎 𝑖,𝑗 ), 𝑀𝜓,ℬ,ℬ0 = (𝑏 𝑖,𝑗 ) et 𝑀 𝜑+𝜓,ℬ,ℬ0 = (𝑐 𝑖,𝑗 ). Ona:
𝑝
Õ
(𝜑 + 𝜓)(𝑒 𝑗 ) = 𝑐 𝑖,𝑗 𝑓𝑖
𝑖=1
= 𝜑(𝑒 𝑗 ) + 𝜓(𝑒 𝑗 )
𝑝
Õ 𝑝
Õ
= 𝑎 𝑖,𝑗 𝑓𝑖 + 𝑏 𝑖,𝑗 𝑓𝑖
𝑖=1 𝑖=1
Õ𝑝
= (𝑎 𝑖,𝑗 + 𝑏 𝑖,𝑗 ) 𝑓𝑖
𝑖=1
Théorème 1.4.1
L’ensemble ℳ 𝑝,𝑛 (𝕂) muni de l’addition (𝐴, 𝐵) −→ 𝐴 + 𝐵 et de la multiplication externe
(𝜆, 𝐴) −→ 𝜆𝐴, ayant 𝕂 pour corps des scalaires, est un 𝕂-e.v.
Proof: • L’élément nul de ℳ 𝑚𝑛 (R) est la matrice dont tous les coefficients sont nuls appelée
matrice nulle, et notée par 0, C’est la. matrice associée à l’application nulle de 𝐸 dans 𝐹
dant les bases 𝐵 et 𝐵0.
• L’oppose de 𝐴 = (𝑎 𝑖,𝑗 ) est la matrice −𝐴 = (−𝑎 𝑖,𝑗 ) Les autres axiomes d’un e.v. sont laisses
en exercice.
Proposition 1.4.2
Soient 𝐸 et 𝐹 deux K − 𝑒.𝑣 de dimensions respectives 𝑛 et 𝑝. On pose 𝐵 = (𝑒1 , . . . , 𝑒 𝑛 ) une
base de 𝐸 et 𝐵0 = ( 𝑓1 , . . . , 𝑓𝑝 ) une base de 𝐹 Soient 𝜆 ∈ 𝕂 et 𝜑 ∈ ℒ(𝐸, 𝐹) , on a:
𝑀𝜆𝜑,𝐵,𝐵0 = 𝜆𝑀 𝜑,𝐵,𝐵0 .
9
Définition 1.4.2
Définition 4: On appelle produit de la matrice 𝐴 = 𝑎𝑖,𝑘 ∈ ℳ 𝑝,𝑛 (K) par la matrice
𝐵 = 𝑏 𝑘,𝑗 ∈ ℳ 𝑛,𝑞 (K), et on note 𝐴𝐵, la matrice 𝐶 = 𝑐 𝑖,𝑗 ∈ ℳ 𝑝,𝑞 (K) telle que:
𝑛
Õ
𝑐 𝑖,𝑗 = 𝑎 𝑖,𝑘 𝑏 𝑘,𝑗 ∀1 6 𝑖 6 𝑝, ∀1 6 𝑗 6 𝑞
𝑘=1
.
Exemple 1.4.2
1 0
1 3 2 0
−2 −1 ®
© ª
𝐴 = 0 −1 −3 −1 ® ∈ ℳ3,4 (ℝ), 𝐵= ® ∈ ℳ4,2 (ℝ)
© ª
0 2 ®
« −2 0 1 2 ¬
« 1 3 ¬
−5 1
𝐴𝐵 = 1 −8 ® ∈ ℳ3,2 (R)
© ª
« 0 8 ¬
Remarque:
1. La multiplication est associative et distributive par rapport à l’addition.
10
On a our tout 1 6 𝑗 6 𝑛
𝑝
Õ
(𝜓 ◦ 𝜑) 𝑒 𝑗 = 𝑐 𝑖,𝑗 𝑔𝑖
𝑖=1
= 𝜓 𝜑 𝑒𝑗
𝑞
!
Õ
=𝜓 𝑎 𝑘,𝑗 𝑓 𝑘
𝑘=1
𝑞
Õ
𝑎 𝑘,𝑗 𝜓 𝑓 𝑘
=
𝑘=1
Õ𝑞 𝑝
Õ
= 𝑎 𝑘,𝑗 𝑏 𝑖,𝑘 𝑔𝑖
𝑘=1 𝑖=1
𝑝 𝑞
!
Õ Õ
= 𝑏 𝑖,𝑘 𝑎 𝑘,𝑗 𝑔𝑖
𝑖=1 𝑘=1
Í𝑞
Donc 𝑐 𝑖,𝑗 = 𝑘=1
𝑏 𝑖,𝑘 𝑎 𝑘,𝑗 , ∀1 6 𝑖 6 𝑝 et 1 6 𝑗 6 𝑛.
𝑎 0 ... ... 0
© 1 ,1 ... .. ª
𝑎
2 ,1 𝑎 2 ,2 . ®
.. . . ..
®
𝐴= . .. .. ® = 𝑎 𝑖,𝑗 avec 𝑎 𝑖,𝑗 = 0 si 1 6 𝑖 < 𝑗 6 𝑛.
.
®
.
. ..
®
. . 0
®
®
« 𝑎 𝑛,1 . . . . . . . . . 𝑎 𝑛,𝑛 ¬
11
Définition 1.5.3: Matrice diagonale
Une matrice carrée est dite diagonale si tous ses coefficients autres que les coefficients
diagonaux sont nuls, c’est une matrice de la forme :
𝑎 1 ,1 0 ··· 0
© ... .. ª
0 𝑎 2 ,2 . ®
𝐴 = . ® = 𝑎 𝑖,𝑗 avec 𝑎 𝑖,𝑗 = 0 si 𝑖 ≠ 𝑗
.. ..
.. . .
®
0 ®
« 0 · · · 0 𝑎 𝑛,𝑛 ¬
On note par 𝐼𝑛 la matrice carrée d’ordre 𝑛 diagonale, dont tous les éléments digonaux sont
égaux à 1 .
Remarque:
1. La multiplication n’est pas commutative. En effet,
0 1 1 0
𝐴= , 𝐵=
0 0 0 0
0 0 0 1
𝐴𝐵 = , 𝐵𝐴 =
0 0 0 0
12
1.6 Changement de base
Soit 𝐸 un 𝕂−𝑒𝑣. non nul de dimension n, soit ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) une base de 𝐸 et ℬ 0 = 𝑒10 , . . . , 𝑒 𝑛0
une autre base de 𝐸. On a : 𝑒 0𝑗 = 𝑛𝑖=1 𝑝 𝑖,𝑗 𝑒 𝑖 , 1 6 𝑗 6 𝑛. On pose
Í
𝑒10 𝑒20 . . . 𝑒 𝑛0
𝑝1,1 𝑝 1,2 . . . 𝑝1,𝑛 𝑒1
© 𝑝
2,1 𝑝2,2 . . . 𝑝2,𝑛 𝑒2
ª
𝑃 = .. .. .. ..
®
. . . .
®
®
𝑝 𝑝
« 𝑛,1 𝑛,2 . . . 𝑝 𝑛,𝑛 ¬ 𝑒𝑛
La matrice 𝑃 = 𝑝 𝑖,𝑗 ∈ ℳ 𝑛 (K) dont la 𝑗- ème colonne est constituée par les coordonnées de
𝑒 0𝑗 dans la base ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) est appelée matrice de passage de la base ℬ = (𝑒1 , . . . , 𝑒 𝑛 )
à la base ℬ 0 = 𝑒10 , . . . , 𝑒 𝑛0 . C’est une matrice inversible
Remarque:
Soit ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) et ℬ 0 = 𝑒10 , . . . , 𝑒 𝑛0 deux bases de 𝐸 et 𝑃 la matrice de passage de ℬ à
ℬ 0. Alors la matrice de passage de ℬ 0 à ℬ est la matrice 𝑃 −1 .
𝑥1 𝑥 10
© 𝑥2 ª
0
© 𝑥 20 ª
𝑋 = (𝑥)𝐵 = .. ® et 𝑋 = (𝑥)𝐵 = .. ® ∈ ℳ 𝑛,1 (K)
® ®
0
. ® . ®
« 𝑥𝑛 « 𝑥𝑛
0
¬ ¬
Í𝑛
Soit 𝑃 = 𝑝 𝑖,𝑗 ∈ ℳ 𝑛 (𝕂) la matrice de passage de ℬ à ℬ [Link] a : 𝑒 𝑗 = 0
𝑝 𝑖,𝑗 𝑒 𝑖 , 1 6 𝑗 6 𝑛.
𝑖=1
Donc
𝑛
Õ 𝑛
Õ 𝑛
Õ Õ𝑛 𝑛 𝑛
©Õ 0 ª Õ
𝑥= 𝑥 0𝑗 𝑒 0𝑗 = 𝑥 0𝑗 𝑝 𝑖,𝑗 𝑒 𝑖 = 𝑥 𝑗 𝑝 𝑖,𝑗 ® 𝑒 𝑖 = 𝑥𝑖 𝑒𝑖 .
𝑗=1 𝑗=1 𝑖=1 𝑖=1 « 𝑗=1 ¬ 𝑖=1
13
Í𝑛
D’où, pour tout ∀1 6 𝑖 6 𝑛, on a : 𝑥 𝑖 = 𝑗=1 𝑝 𝑖,𝑗 𝑥 0𝑗 . On écrit alors sous forme matriciel :
Í𝑛
𝑝1,𝑗 𝑥 0𝑗 Í𝑛 𝑝1,1 𝑝1,2 . . . 𝑝 1,𝑛 𝑥 10
𝑗=1 𝑝 2,𝑗 𝑥 0𝑗
𝑥2 ® © 𝑗=1 . ª © 𝑝2,1 𝑝2,2 . . . 𝑝2,𝑛 𝑥 20
© ª ª© ª
® Í ..
𝑋 = ..
®= ®= . .. .. ..® = 𝑃𝑋 0
® ®
® .. . . .
.
®
𝑛
« 𝑗=1 𝑝 𝑛,𝑗 𝑥 𝑗
® 0 ® ®
𝑥𝑛 ¬ « 𝑝 𝑛,1 𝑝 𝑛,2 . . . 𝑝 𝑛,𝑛 ¬« 𝑥𝑛 ¬
0
« ¬
Donc 𝑋 = 𝑃𝑋 0.
Définition 1.6.2
Deux (p,n)-matrices 𝐴 ∈ ℳ 𝑝,𝑛 (𝕂) et 𝐵 ∈ ℳ 𝑝,𝑛 (K) sont équivalentes s’il existe deux
matrices carrées 𝑄 ∈ ℳ 𝑝 (K) et 𝑃 ∈ ℳ 𝑛 (𝕂) telles que :
𝐵 = 𝑄𝐴𝑃.
Définition 1.6.3
Deux matrices carrées. d’ordre 𝑛 𝐴 ∈ ℳ 𝑛 (𝕂) et 𝐵 ∈ ℳ 𝑛 (𝕂) sont dites semblables s’il
existe une matrice carrée inversible 𝑃 ∈ ℳ 𝑛 (K) telle que :
𝐵 = 𝑃 −1 𝐴𝑃.
14
Chapter 2
DÉTERMINANTS
15
Définition 2.1.1
Soit 𝐴 = 𝑎 𝑖,𝑗 ∈ ℳ 𝑛 (K). On définit le déterminant de 𝐴, noté dét 𝐴, par la formule de
récurrence suivante:
1. pour 𝑛 = 2, on 𝑎 :
𝑎 1 ,1 𝑎 1 ,2
𝐴=
𝑎 2 ,1 𝑎 2 ,2
dét 𝐴 = 𝑎 1,1 𝑎 2,2 − 𝑎 1,2 𝑎 2,1 .
Règle pratique (valable quand 𝑛 = 2 ):
𝑎 1 ,1 𝑎 1 ,2
det 𝐴 =
𝑎 2 ,1 𝑎 2 ,2
2. pour 𝑛 = 3, on 𝑎 :
𝑎 𝑎 𝑎
© 1 ,1 1 ,2 1 ,3 ª
𝐴 = 𝑎 2 ,1 𝑎 2 ,2 𝑎 2 ,3 ®
« 𝑎 3 ,1 𝑎 3 ,2 𝑎 3 ,3 ¬
dét 𝐴 = 𝑎1,1 𝑎 2,2 𝑎 3,3 + 𝑎2,1 𝑎 3,2 𝑎 1,3 + 𝑎3,1 𝑎 1,2 𝑎 2,3 − 𝑎2,1 𝑎 1,2 𝑎 3,3 − 𝑎3,1 𝑎 2,2 𝑎 1,3 − 𝑎1,1 𝑎 3,2 𝑎 2,3 .
Règle pratique (valable quand 𝑛 = 3 ):
𝑎 1 ,1 𝑎 1 ,2 𝑎 1 ,3
𝑎 2 ,1 𝑎 2 ,2 𝑎 2 ,3
dét 𝐴 = 𝑎 3,1 𝑎 3 ,2 𝑎 3 ,3
𝑎 1 ,1 𝑎 1 ,2 𝑎 1 ,3
𝑎 2 ,1 𝑎 2 ,2 𝑎 2 ,3
3. pour 𝑛 > 4, on 𝑎 :
1. Si 𝐶 𝑖 = 𝐶 𝑗 ou si 𝐿 𝑖 = 𝐿 𝑗 avec 𝑖 ≠ 𝑗, alors Δ = 0.
2. Si une colonne (ou une ligne) est combinaison linéaire des autres colonnes (ou des
autres lignes) alors Δ = 0.
Soit 𝜆 ∈ K, on 𝑎 :
5. Si on multiplie une colonne de 𝐴 par 𝜆, on obtient une matrice 𝐴0 telle que dét 𝐴0 =
𝜆. det 𝐴.
6. Si on multiplie une ligne de 𝐴 par 𝜆, on obtient une matrice 𝐴00 telle que dét 𝐴00 =
𝜆 dét A.
Théorème 2.1.2
1. Le déterminant d’une matrice carrée est égal au déterminant de sa matrice transposée.
2. Soient 𝐴 et 𝐵 ∈ ℳ 𝑛 (K), on 𝑎 :
dét (𝐴 · 𝐵) = dét 𝐴 · dét 𝐵.
dét (𝐴 + 𝐵) ≠ dét 𝐴 + dét 𝐵.
3. Soit 𝐴 ∈ ℳ 𝑛 (𝕂), 𝐴 est inversible si et seulement si dét 𝐴 ≠ 0. Si 𝐴 ∈ ℳ 𝑛 (𝕂) est
inversible, alors
1
dét 𝐴−1 = .
dét 𝐴
17
2.2 Applications des déterminants
2.2.1 Indépendance linéaire de n vecteurs dans un e.v. de dimension
n
Théorème 2.2.1
Soit 𝐸 un 𝕂-e.v. de dimensionÍ𝑛 > 1 et ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) une base de E. Pour que la suite
(𝑥1 , . . . , 𝑥 𝑛 ) ∈ 𝐸 𝑛 avec 𝑥 𝑗 = 𝑛𝑖=1 𝑥 𝑖,𝑗 𝑒 𝑖 , 1 6 𝑗 6 𝑛, soit libre, il faut et il suffit que dét
𝐴 ≠ 0, où :
𝑥1,1 𝑥 1,2 . . . 𝑥1,𝑛
© 𝑥
2,1 𝑥2,2 . . . 𝑥2,𝑛 ®
ª
𝐴 = .. .. .. ®
. . . ®
« 𝑥 𝑛,1 𝑥 𝑛,2 . . . 𝑥 𝑛,𝑛 ¬
Soit 𝐴 = 𝑎 𝑖,𝑗 ∈ ℳn (𝕂) sa matrice. Le système (S) est de Cramer si et seulement si dét 𝐴 ≠ 0.
Théorème 2.2.2
La solution (𝑥1 , . . . , 𝑥 𝑛 ) du système de Cramer : (S) 𝑛𝑗=1 𝑎 𝑖,𝑗 𝑥 𝑗 = 𝑏 𝑖 , 1 6 𝑖 6 𝑛. est
Í
donnée par les formules de Cramer:
Δ𝑗
𝑥𝑗 = , 1 6 𝑗 6 𝑛,
Δ
où Δ = dét 𝐴 appelé le déterminant du système (𝑆), et où Δ 𝑗 est le déterminant obtenu en
remplaçant, dans Δ, la 𝑗 eme colonne par la colonne des seconds membres de (𝑆).
où 𝐴 𝑖𝑗 la matrice carrée d’ordre 𝑛 − 1 extraite de 𝐴 en enlevant la 𝑖 ieme ligne et la 𝑗 ieme colonne
de 𝐴. La comatrice de 𝐴, est la matrice com(𝐴) obtenue en remplaçant chaque terme 𝑎 𝑖𝑗 de la
matrice 𝐴 par son cofacteur cof 𝑎 𝑖𝑗 , défini en (1).
18
Théorème 2.2.3
Soit 𝐴 une matrice carrée d’ordre 𝑛 > 1.
1. On a :
𝐴(com(𝐴))𝑡 = (det 𝐴)𝐼𝑛 .
Remarque:
Soit 𝑓 un endomorphisme d’un K-espace vectoriel de dimension finie 𝐸. Alors 𝑓 est un
automorphisme si et seulement si det 𝑀 𝑓 ≠ 0 avec 𝑀 𝑓 est la matrice de 𝑓 dans une base
quelconque de 𝐸.
Exemple 2.2.1
Nous allons utiliser la formule ci-dessus pour calculer l’inverse de la matrice
2 1
𝐴=
4 1
On a det 𝐴 = −2 et
1 −4
com(𝐴) = .
−1 2
Ainsi 𝐴 et inversible et
−1 − 21 12
𝐴 = .
2 −1
Exemple 2.2.2
19
Considérons par exemple, la matrice
2 1 4 3
1 2 1 3®
© ª
𝐴=
1 1 2 3®
®
«0 1 2 1¬
Les déterminants
2 1 3
1 3
1 2 3 et
2 3
1 1 3
sont deux déterminants d’ordre respectifs 3 et 2 extraits de 𝐴.
Théorème 2.2.4
Soit 𝐴 ∈ ℳ 𝑝,𝑛 (K) et soit 𝜌 le plus grand entier 𝑘 6 min(𝑝, 𝑛) tel qu’il existe un déterminant
non nul, d’ordre 𝑘, extrait de 𝐴. Alors
𝑟 𝑔(𝐴) = 𝜌.
Exemple 2.2.3
Etudions, suivant les valeurs de 𝑎, 𝑏 et 𝑐 ∈ R, le rang de la matrice
0 −𝑎 −𝑏
𝐴= 𝑎 0 −𝑐 ®
© ª
« 𝑏 𝑐 0 ¬
On a det 𝐴 = 0 et donc 0 6 rg(𝐴) < 3.
• Si 𝑎 = 𝑏 = 𝑐 = 0 alors 𝐴 = 0 et donc rg(𝐴) = 0.
• Si 𝑎 ≠ 0, on extrait de la matrice 𝐴 le déterminant d’ordre 2 suivant (on supprime
la ligne 3 et la colonne 3 ) :
0 −𝑎
= 𝑎2
𝑎 0
qui est différent de 0 . Donc rg(𝐴) = 2.
• Si 𝑏 ≠ 0, on extrait de la matrice 𝐴 le déterminant d’ordre 2 suivant (on supprime
la ligne 2 et la colonne 2 ) :
0 −𝑏
= 𝑏2
𝑏 0
qui est différent de 0. Donc rg(A) = 2.
• Si 𝑐 ≠ 0, on extrait de la matrice A le déterminant d’ordre 2 suivant (on supprime la
ligne 1 et la colonne 1):
0 −𝑐
= 𝑐2
𝑐 0
qui est différent de 0. Donc rg(A) = 2.
20
Chapter 3
1. 𝑥 ≠ 0;
Définition 3.1.2
Un scalaire 𝜆 ∈ 𝐾 est une valeur propre de 𝐴, s’il existe un vecteur propre 𝑥 ∈ 𝐾 𝑛 tel que
𝐴𝑥 = 𝜆.𝑥
21
Définition 3.1.3
Soit 𝐴 ∈ ℳ 𝑛 (𝐾). Le polynôme dét (𝐴 − 𝑋𝐼𝑛 ) ∈ 𝐾[𝑋] est appelé le polynôme car-
actéristique de 𝐴 et on note ce polynôme 𝑃𝐴 (𝑋). Les racines, dans 𝐾, de 𝑃𝐴 (𝑋), sont
appelées les valeurs propres de 𝐴 dans 𝐾.
Proposition 3.1.2
Le polynôme caractéristique de la matrice 𝐴 ∈ ℳ 𝑛 (𝐾) est un polynôme à coefficients dans
𝐾, de degré 𝑛 et on 𝑎 :
Définition 3.1.4
Si 𝜆 est une racine, dans 𝐾, du polynôme caractéristique 𝑃𝐴 (𝑋), de multiplicité 𝛼 > 1,
l’entier 𝛼 est appelé la multiplicité de la valeur propre 𝜆.
Remarque:
Si 𝐾 = ℂ, la matrice 𝐴 admet, d’après le théorème de d’Alembert, au moins une valeur propre.
𝐷’après le théorème de factorisation dans ℂ[𝑋], on a :
𝛼𝑝
𝑃𝐴 (𝑋) = (𝜆1 − 𝑋)𝛼1 . . . 𝜆 𝑝 − 𝑋 ,
où les 𝜆 𝑖 sont des nombres complexes deux à deux distincts et les 𝛼 𝑖 des entiers supérieurs ou
égaux à 1 .
Les valeurs propres de 𝐴 sont 𝜆1 , . . . , 𝜆 𝑝 , de multiplicités 𝛼1 , . . . , 𝛼 𝑝 , et on a 𝛼1 + . . . + 𝛼 𝑝 =
𝑑◦ 𝑃𝐴 (𝑋) = 𝑛.
Attention : Ceci est faux si 𝐾 = ℝ. En effet, si 𝐾 = R, 𝐴 n’admet pas nécessairement de
valeur propre.
Exemple 3.1.1
Soit 𝐴 ∈ 𝑀2 (R) :
0 −1
𝐴=
1 0
On a :
−𝑋 −1
𝑃𝐴 (𝑋) = 𝑑𝑒𝑡 (𝐴 − 𝑋𝐼2 ) = = 𝑋2 + 1
1 −𝑋
𝐴 n’admet pas de valeur propre dans ℝ, mais admet les valeurs propres simples 𝑖 et −𝑖
22
dans ℂ.
3.2 Diagonalisation
Définition 3.2.1
Soit 𝐴 ∈ ℳ 𝑛 (𝐾). On dit que 𝐴 est diagonalisable sur 𝐾, si elle est semblable, dans ℳ 𝑛 (𝐾),
à une matrice diagonale, c’est-à-dire s’il existe une matrice 𝑃 ∈ ℳ 𝑛 (𝐾), inversible, telle
que la matrice 𝑃 −1 𝐴𝑃 soit diagonale.
Théorème 3.2.1
Soit 𝐴 ∈ 𝑀𝑛 (𝐾). Pour que A soit diagonalisable, il faut et il suffit que les deux conditions
suivantes soient satisfaites:
Corollaire 3.2.1
Si 𝐴 admet 𝑛 valeurs propres distinctes, alors 𝐴 est diagonalsable.
on essayera, autant que possible, de calculer 𝑃𝐴 (𝑋) en factorisant dét (𝐴 − 𝑋𝐼𝑛 ). Si 𝑃𝐴 (𝑋)
ne vérifie pas la condition (1) du théorème 1 , c’est-à-dire si 𝑃𝐴 (𝑋) n’est pas scindé sur 𝐾,
alors 𝐴 n’est pas diagonalisable sur 𝐾.
2. Si 𝑃𝐴 (𝑋) est scindé sur 𝐾, on détermine la dimension de chaque sous-espace propre 𝐸 𝑖 =
ker (𝐴 − 𝜆 𝑖 𝐼𝑛 ).
• Si la condition (2) du théorème 1 n’est pas vérifiée, c’est à dire s’il existe un sous
espace propre dont la dimension n’est pas égale à la multiplicité de la valeur propre
associée, alors 𝐴 n’est pas diagonalisable sur 𝐾.
23
• Si la condition (2) du théorème 1 est également réalisée, 𝐴 est diagonalisable. Il faut
donc trouver une matrice inversible 𝑃 ∈ ℳ 𝑛 (𝐾) telle que 𝑃 −1 𝐴𝑃 soit diagonale.
𝑝
3. On détermine une base ℬ𝑖0 de 𝐸 𝑖 pour 1 6 𝑖 6 𝑝; alors ℬ 0 = ∪𝑖=1 ℬ𝑖0 est une base de 𝐾 𝑛 .
La matrice 𝑃 est la matrice de passage de la base canonique de 𝐾 𝑛 à la base ℬ 0.
Exemple 3.2.1
Soit la matrice :
3 −1 2
𝐴 = 0 2 2 ® ∈ ℳ3 (R).
© ª
« 1 −1 4 ¬
Montrons que la matrice 𝐴 est diagonalisable sur R et diagonalisons 𝐴. On détermine le
polynôme caractéristique de 𝐴, on a :
3−𝑋 −1 2 2−𝑋 −1 2 1 −1 2
𝑃𝐴 (𝑋) = 0 2−𝑋 2 = 2−𝑋 2−𝑋 2 = (2 − 𝑋) 0 3 − 𝑋 0
1 −1 4 − 𝑋 0 −1 4 − 𝑋 0 −1 4 − 𝑋
Les valeurs propres sont 2,3 et 4 et elles sont toutes simples. D’après le corrolaire 2 , la
matrice 𝐴 est diagonalisable. Cherchons les sous espaces propres 𝐸𝜆=2 , 𝐸𝜆=3 et 𝐸𝜆=4 . 𝐸𝜆=2
? on résoud le système linéaire 𝐴𝑋 = 2𝑋 avec
𝑥
𝑋= 𝑦 ®
© ª
( « 𝑧 ¬
𝑥 − 𝑦 + 2𝑧 =0
𝑧 =0
−𝑥 − 𝑦 + 2𝑧 = 0
−𝑦 + 𝑧 =0
𝑥 − 𝑦
=0
24
Donc 𝐸𝜆=4 = Vect (𝑣3 = (1, 1, 1)). La matrice de passage de la base canonique de R3 à la
base (𝑣 1 , 𝑣2 , 𝑣3 ) est :
1 1 1 1 0 −1
𝑃 = 1 2 1 ® d’inverse 𝑃 −1 = −1 1 0 ®
© ª © ª
«0 1 1¬ « 1 −1 1 ¬
La colonne 𝐶 𝑖 correspond aux cordonnées du vecteur 𝑣 𝑖 , 1 6 𝑖 6 3, et on a :
2 0 0
−1
𝑃 𝐴𝑃 = 0 3 0 ®
© ª
«0 0 4¬
Remarque:
l’ordre dans lequel sont écrites les valeurs propres (2, ensuite 3, ensuite 4) est le même que
celui dans lequel sont écrites les colomes 𝐶1 , 𝐶2 et 𝐶3 .
25
Chapter 4
1 −7 −3
𝑀= 0 5 2 ®
© ª
« 0 −8 3 ¬
1 | −7 −3
𝐴
ª
−− −− −− −− ® 1
©
𝑀= ®=
0 | 5 2 ® 𝑂 2 ,1 𝐵
« 0 | −8 3 ¬
26
Définition 4.1.1
Soit 𝑀 ∈ ℳ 𝑛,𝑚 (K), 𝑀 est une matrice par blocs lorsqu’l existe des matrices 𝑀 𝑖,𝑗 ∈
Í𝑝 Í𝑞
ℳ 𝑝 𝑖 ,𝑞 𝑗 (𝕂), 1 6 𝑖 6 𝑝 et 1 6 𝑗 6 𝑞 avec 𝑖=1 𝑝 𝑖 = 𝑛, 𝑗=1 𝑞 𝑗 = 𝑚 telle que la matrice
𝑀 s’écrit :
𝑀1,1 𝑀1,2 𝑀1,𝑞
© 𝑀
2,1 𝑀2,2 𝑀2,𝑞 ®
ª
ℳ = .. .. .. ®
. . . ®
« 𝑀 𝑝,1 𝑀 𝑝,2 𝑀 𝑝,𝑞 ¬
Dans le cas 𝑝 = 𝑞 = 2 et 𝑚 = 𝑛, la matrice 𝑀 s’écrit :
𝑀1 , 1 𝑀1 , 2
𝑀=
𝑀2 , 1 𝑀2 , 2
avec 𝑀1,1 ∈ ℳ 𝑛1 (𝕂), 𝑀1,2 ∈ ℳ 𝑛1 ,𝑛2 (K), 𝑀2,1 ∈ ℳ 𝑛2 ,𝑛1 (K), 𝑀2,2 ∈ ℳ 𝑛2 (K) et 𝑛1 + 𝑛2 =
𝑛.
Lorsque les matrices sont écrites sous fome de blocs, on peut faire les opérations (addition
et produit) directement avec ces formes.
Produit :
𝐴 𝐵 𝐴0 𝐵0 𝐴 · 𝐴0 + 𝐵 · 𝐶 0 𝐴 · 𝐵0 + 𝐵 · 𝐷 0
· =
𝐶 𝐷 𝐶0 𝐷0 𝐶 · 𝐴0 + 𝐷 · 𝐶 0 𝐶 · 𝐵0 + 𝐷 · 𝐷 0
𝐴 𝐵
𝑀= ∈ ℳ 𝑛 (K)
𝑂 𝑛2 ,𝑛1 𝐷
𝑀1 , 1 𝑀1 , 2
𝑀=
𝑂 𝑛−𝑝,𝑝 𝑀2,2
Proposition 4.3.1
Toute matrice triangulaire supérieure de ℳ 𝑛 (K) admet n valeurs propres (non toujours
distinctes) :
𝜆 𝑘 = 𝑎 𝑘,𝑘 , 𝑘 = 1, . . . , 𝑛.
Proof: Soit 𝑀 ∈ ℳ 𝑛 (K) trigonalisable. Elle est donc semblable à une matrice 𝑇 ∈ ℳ 𝑛 (K) tri-
angulaire (supérieure). Comme deux matrices semblables ont le même polynôme caractéristique,
on a :
Proof:
𝑇1 = 𝑄 −1 𝑁𝑄
𝜆 𝐴1 , 2 · 𝑄 𝜆 𝐴1 , 2 · 𝑄
𝑇= 𝑃1−1 𝑀1 𝑃1 = =
𝑂 𝑛,1 𝑄 −1 𝑁𝑄 𝑂 𝑛,1 𝑇1
et la matrice 𝑃.𝑃1 est inversible, on en déduit que la matrice 𝑀 est semblable à une matrice
triangulaire supérieure, donc trigonalisable sur 𝕂. D’où, le résultat est vrai à l’ordre 𝑛 + 1.
Exemple 4.4.1
Soit la matrice
1 −3 4
𝑀 = 4 −7 8 ®
© ª
« 6 −7 7 ¬
On calcule le poynôme caractéristique de 𝑀.
(1 − 𝑋) −3 4
𝑃𝑀 (𝑋) = 4 (−7 − 𝑋) 8
6 −7 (7 − 𝑋)
30
En remplaçant la ligne 𝐿2 par 𝐿2 − 2𝐿1 ona :
(1 − 𝑋) −3 4
𝑃𝑀 (𝑋) = 2(1 + 𝑋) −(1 + 𝑋) 0
6 −7 (7 − 𝑋)
Ensuite, on remplace la colonne 𝐶1 par 𝐶1 + 2𝐶2 , on a
−5 − 𝑋 −3 4
𝑃𝑀 (𝑋) = 0 −(1 + 𝑋) 0
−8 −7 (7 − 𝑋)
On développe le déterminant par rapport à la ligne 𝐿2 , on a
−5 − 𝑋 4
𝑃𝑀 (𝑋) = −(1 + 𝑋) = −(1 + 𝑋) 𝑋 2 − 2𝑋 − 3 = −(𝑋 + 1)2 (𝑋 − 3)
−8 (7 − 𝑋)
Les valeurs propres de 𝑀 sont : 𝜆1 = 3 simple et 𝜆2 = −1 double.
Déterminons les sous espace propres 𝐸𝜆1 et 𝐸𝜆2 . 𝐸𝜆1 : on résout le système linéaire
𝑀𝑋 = 3𝑋 avec
𝑥
𝑋= 𝑦 ®
© ª
« 𝑧 ¬
soit
−2𝑥 − 3𝑦 + 4𝑧 = 0
2𝑥 − 5𝑦 + 4𝑧 = 0
6𝑥 − 7𝑦 + 4𝑧 = 0
On obtient 𝐸𝜆1 = Vect (𝑣 1 = (1, 2, 2)). 𝐸𝜆2 : on résout le système linéaire 𝑀𝑋 = −𝑋 soit
2𝑥 − 3𝑦 + 4𝑧 = 0
4𝑥 − 6𝑦 + 8𝑧 = 0
6𝑥 − 7𝑦 + 8𝑧 = 0
On obtient 𝐸𝜆2 = Vect (𝑣2 = (1, 2, 1)). Donc la matrice 𝑀 n’est pas diagonalisable (dim
𝐸𝜆2 = 1 < multiplicité de la v.p. -1 qui est double). Le polynôme caractéristique 𝑃𝑀 (𝑋)
est scindé sur ℝ, donc la matrice 𝑀 est trigonalisable sur ℝ. Pour trigonaliser la matrice,
il suffit de compléter la suite (𝑣1 , 𝑣2 ) par unvecteur 𝑣3 ∈ R3 , soit par exemple 𝑣3 = (1, 0, 0),
pour avoir une base 𝐵 = (𝑣1 , 𝑣2 , 𝑣3 ) de R3 . La matrice de passage 𝑃 de la base canonique
de ℝ3 à la base 𝐵 est
1 1 1 0 −1 2
1©
𝑃 = 2 2 0 ® d’inverse 𝑃 −1 = 0 2 −2 ®
© ª ª
2 2 −1 0
«2 1 0¬ « ¬
La matrice 𝑀 est alors semblable à la matrice triangulaire supérieure 𝑇 = 𝑃 −1 𝑀𝑃 donnée
par
3 0 4
𝑇 = 0 −1 −2 ®
© ª
« 0 0 −1 ¬
31
Exemple 4.4.2
Soit la matrice
−2 −1 2
𝑀 = −15 −6 11 ®
© ª
« −14 −6 11 ¬
On calcule le polynôme caractéristique de 𝑀.
−(2 + 𝑋) −1 2
𝑃𝑀 (𝑋) = −15 −(6 + 𝑋) 11 = −(𝑋 − 1)3
−14 −6 (11 − 𝑋)
« 𝑧 ¬
soit
−3𝑥 − 𝑦 + 2𝑧 = 0
−15𝑥 − 7𝑦 + 11𝑧 = 0
−14𝑥 − 6𝑦 + 10𝑧 = 0
On obtient 𝐸𝜆 = Vect (𝑣1 = (1, 1, 2)). La matrice 𝑀 n’est donc pas diagonalisable (dim
𝐸𝜆 = 1 < multiplicité de 𝜆 qui est triple). Le polynôme caractéristique de 𝑀 est scindé sur
R, donc la matrice 𝑀 est trigonalisable sur R. Pour trigonaliser la matrice, on complète
(𝑣1 ) par deux vecteures 𝑣2 , 𝑣3 ∈ R3 pour avoir une base 𝐵 = (𝑣1 , 𝑣2 , 𝑣3 ) de ℝ3 . Soit par
exemple 𝑣2 = (1, 0, 0) et 𝑣3 = (0, 1, 0), alors la matrice de passage 𝑃 de la base canonique
de ℝ3 à la base 𝐵 est
1 1 0 0 0 1
1©
𝑃 = 1 0 1 ® dinverse 𝑃 −1 = 2 0 −1 ®
© ª ª
2 0 2 −1
«2 0 0¬ « ¬
La matrice 𝑀 est alors semblable à la matrice 𝑀1 = 𝑃 −1 𝑀𝑃 donnée par
1 −7 −3
𝑀1 = 0 5 2 ®
© ª
« 0 −8 3 ¬
qu’on écrit par blocs :
1 | −7 −3
𝐴1 , 2
ª
−− −− −− −− ® 1
©
𝑀1 = ®=
0 | 5 2 ® 𝑂 2 ,1 𝑁
« 0 | −8 3 ¬
avec
5 2
𝑁=
−8 −3
32
et 𝐴1,2 ∈ ℳ1,2 (R) donnée par
𝐴1 , 2 =
−7 −3
La matrice 𝑁 est trigonalisable. En effet, le polynôme caractéristique 𝑃𝑁 (𝑋) = (𝑋 − 1)2 .
Le vecteur 𝑤 1 = (1, −2) est un vecteur propre associé à la valeur propre 1 de la matrice 𝑁.
On complète (𝑤1 ) par le vecteur 𝑤2 = (1, 0) pour avoir une base 𝐵0 = (𝑤1 , 𝑤2 ) de ℝ2 . La
matrice de passage de la base canonique de R2 à la basa 𝐵0 est
1 1 −1 1 0 −1
𝑄= dinverse 𝑄 =
−2 0 2 2 1
𝑂 1 ,2
1
𝑃1 =
𝑂 2 ,1 𝑄
Remarque:
1. Toute matrice carrée est trigonalisable sur ℂ.
2. Il existe des matrices carrées qui ne sont pas trigonalisables sur ℝ. En effet, prenons par
exemple la matrice
0 1
𝑀=
−1 0
Puisque 𝑃𝑀 (𝑋) = 𝑋 2 + 1, le polynôme caractéristique de 𝑀 n’est pas scindé sur ℝ.
Donc, la matrice 𝑀 n’est pas trigonalisable sur R.
Définition 4.4.2
Soit 𝐸 un K-espace vectoriel de dimension finie. Soit B une base quelconque de 𝐸 et 𝑓 un
endomorphisme de 𝐸. On dit que l’endomorphisme 𝑓 est trigonalisable sur K si la matrice
de 𝑓 dans la base 𝐵 est semblable à une matrice triangulaire supérieure.
33
Chapter 5
Exemple 5.1.1
Pour tout, 1 6 𝑖 6 𝑛, l’application :
𝑒 𝑖∗ : 𝐸 −→ K
𝑛
Õ
𝑥= 𝑥 𝑗 𝑒 𝑗 ↦−→ 𝑒 𝑖∗ (𝑥) = 𝑥 𝑖
𝑗=1
est une forme linéaire sur 𝐸. En effet, pour tous 𝑥, 𝑦 ∈ 𝐸 et pour tous 𝛼, 𝛽 ∈ K :
𝑛
Õ
𝑒 𝑖∗ (𝛼 · 𝑥 + 𝛽 · 𝑦) = 𝑒 𝑖∗ 𝛼𝑥 𝑗 + 𝛽𝑦 𝑗 𝑒 𝑗 ® = 𝛼𝑥 𝑖 + 𝛽𝑦 𝑖 = 𝛼𝑒 𝑖∗ (𝑥) + 𝛽𝑒 𝑖∗ (𝑦).
© ª
« 𝑗=1 ¬
Remarque:
1. Pour tous, 1 6 𝑖, 𝑗 6 𝑛, on a :
𝑖=𝑗
1 si
𝑒 𝑖∗ 𝑒 𝑗 = 𝛿 𝑖,𝑗 =
0 si 𝑖≠𝑗
𝛿 𝑖,𝑗 est appelé symbole de Kronecker. L’application 𝑒 𝑖∗ est appelée forme duale associée
à l’élément 𝑒 𝑖 , 1 6 𝑖 6 𝑛, de la base ℬ.
34
2. Toute forme linéaire 𝑓 sur 𝐸 s’écrit sous la forme suivante :
𝑛
Õ
𝑓 (𝑥) = 𝛼𝑗 𝑥𝑗
𝑗=1
En effet, on a :
𝑛 𝑛
©Õ ª Õ
𝑓 (𝑥) = 𝑓 𝑥𝑗 𝑒𝑗® = 𝑓 𝑒𝑗 𝑥𝑗
« 𝑗=1 ¬ 𝑗=1
Il suffit de prendre 𝛼 𝑗 = 𝑓 𝑒 𝑗 , ∀1 6 𝑗 6 𝑛.
𝐿= 𝛼1 . . . 𝛼 𝑛 𝑓 (𝑒1 ) . . . 𝑓 (𝑒 𝑛 ) .
=
Théorème 5.1.1
L’ensemble des formes linéaires sur 𝐸, noté 𝐸∗ , est un espace vectoriel sur K de dimension
𝑛, de base ℬ ∗ = 𝑒1∗ , . . . , 𝑒 𝑛∗ appelée base duale de la base ℬ. 𝐿0 espace 𝐸∗ = ℒ(𝐸, K) est
appelé espace vectoriel dual de l’espace 𝐸.
Proof: 1. 𝐸∗ est un espace vectoriel sur 𝕂. En effet, on sait que si 𝐹 et 𝐺 sont deux K
espaces vectoriels, alors (ℒ(𝐹, 𝐺), +,.) est un K espace vectoriel.
𝑛
Õ 𝑛
Õ 𝑛
©Õ
𝑓 (𝑥) = 𝑥𝑗 𝑓 𝑒𝑗 = 𝑒 ∗𝑗 (𝑥) 𝑓 𝑒𝑗 = 𝑓 𝑒 𝑗 𝑒 ∗𝑗 ® (𝑥).
ª
𝑗=1 𝑗=1 « 𝑗=1 ¬
Í
𝑛
Puisque 𝑓 (𝑥) = 𝑓 𝑒 𝑗 𝑒 ∗𝑗 (𝑥), ∀𝑥 ∈ 𝐸, on a :
𝑗=1
𝑛
Õ
𝑓 = 𝑓 𝑒 𝑗 𝑒 ∗𝑗
𝑗=1
Í𝑛
Soient 𝛼 𝑗 ∈ 𝕂, 1 6 𝑗 6 𝑛, tels que 𝑗=1 𝛼 𝑗 𝑒 ∗𝑗 = 0. Donc
𝑛
Õ
𝛼 𝑗 𝑒 ∗𝑗 (𝑥) = 0, ∀𝑥 ∈ 𝐸.
𝑗=1
35
En prenant 𝑥 = 𝑒 𝑖 , 1 6 𝑖 6 𝑛, on a
𝑛
Õ
𝛼 𝑗 𝑒 ∗𝑗 (𝑒 𝑖 ) = 𝛼 𝑖 = 0, ∀1 6 𝑖 6 𝑛.
𝑗=1
Donc, la suite 𝑒1∗ , . . . , 𝑒 𝑛∗ est libre. C’est une base de 𝐸 ∗ , notée ℬ ∗ . Comme les bases ℬ
de 𝐸 et ℬ ∗ de 𝐸∗ ont le même nombre d’éléments, on a :
Définition 5.1.2
On appelle hyperplan de 𝐸, le noyau d’une forme linéaire non nulle sur E.
Théorème 5.1.2
Un hyperplan est un sous espace vectoriel de 𝐸 de dimension 𝑛 − 1.
Proof: Soit 𝐻 un hyperplan de 𝐸. Il existe 𝑓 ume forme linéaire non nulle sur 𝐸 telle que :
Puisque 𝑓 est non mulle, elle est surjective. En effet, on a Im( 𝑓 ) est un s.e.v. de 𝕂 vérifiant :
Or, les seules s.e.v. de K sont {0𝐾 } et K. Donc Im( 𝑓 ) = K et par conséquent dim(Im( 𝑓 )) =
dim(K) = 1. D’après le théorème noyau-image, on a :
𝑓𝑛∗ : 𝐸 −→ K
𝑛
Õ
𝑥= 𝑥 𝑗 𝑓 𝑗 ↦−→ 𝑓𝑛∗ (𝑥) = 𝑥 𝑛
𝑗=1
Í𝑛
En effet, l’inclusion 𝐻 ⊂ 𝐾 er 𝑓𝑛∗ est facile. Montrons Ker 𝑓𝑛∗ ⊂ 𝐻 ? Soit 𝑥 = 𝑥 𝑗 𝑓𝑗 ∈
𝑗=1
Í𝑛−1
𝑓𝑛∗ 𝑓𝑛∗ (𝑥) = 𝑥 𝑛 = 0. Donc 𝑥 = 𝑥 𝑗 𝑓 𝑗 ∈ 𝐻.
Ker , on a 𝑗=1
36
5.2 Formes bilinéaires
Définition 5.2.1
Une forme bilinéaire sur E est une application :
𝐸 × 𝐸 −→ K
𝜑:
(𝑥, 𝑦) ↦−→ 𝜑(𝑥, 𝑦)
∀𝑦1 , 𝑦2 ∈ 𝐸, ∀𝛼 ∈ K, on 𝑎 : 𝜑 𝑥, 𝛼𝑦1 + 𝑦2 = 𝛼𝜑 𝑥, 𝑦1 + 𝜑 𝑥, 𝑦2
𝐸 −→ K
2. pour tout 𝑦 ∈ 𝐸, l’application : est linéaire, c’est à dire:
𝑥 ↦−→ 𝜑(𝑥, 𝑦)
∀𝑥 1 , 𝑥2 ∈ 𝐸, ∀𝛼 ∈ 𝕂, on 𝑎 : 𝜑 𝛼𝑥1 + 𝑥2 , 𝑦 = 𝛼𝜑 𝑥 1 , 𝑦 + 𝜑 𝑥2 , 𝑦
Exemple 5.2.1
1. On prend 𝐸 = 𝒞([𝑎, 𝑏], ℝ) l’espace des fonctions contimues de [𝑎, 𝑏] dans R. Alors
l’application :
𝜑 : 𝐸 × 𝐸 −→ ℝ
∫ 𝑏
( 𝑓 , 𝑔) ↦−→ 𝜑( 𝑓 , 𝑔) = 𝑓 (𝑡)𝑔(𝑡)𝑑𝑡
𝑎
est une forme bilinéaire sur 𝐸. En effet, en utilisant la linéarité de l’intégrale, on a
pour tout 𝛼 ∈ R et pour toutes fonctions 𝑓1 , 𝑓2 , 𝑔1 , 𝑔2 , 𝑓 et 𝑔 ∈ 𝐸 :
∫ 𝑏 ∫ 𝑏 ∫ 𝑏
𝜑 𝛼 𝑓1 + 𝑓2 , 𝑔 = 𝛼 𝑓1 + 𝑓2 (𝑡)𝑔(𝑡)𝑑𝑡 = 𝛼 𝑓1 (𝑡)𝑔(𝑡)𝑑𝑡 + 𝑓2 (𝑡)𝑔(𝑡)𝑑𝑡
𝑎 𝑎 𝑎
= 𝛼𝜑 𝑓1 , 𝑔 + 𝜑 𝑓2 , 𝑔 .
De même, on a :
∫ 𝑏 ∫ 𝑏 ∫ 𝑏
𝜑 𝑓 , 𝛼𝑔1 + 𝑔2 = 𝑓 (𝑡) 𝛼 𝑔1 + 𝑔2 (𝑡)𝑑𝑡 = 𝛼 𝑓 (𝑡)𝑔1 (𝑡)𝑑𝑡 + 𝑓 (𝑡)𝑔2 (𝑡)𝑑𝑡
𝑎 𝑎 𝑎
= 𝛼𝜑 𝑓 , 𝑔1 + 𝜑 𝑓 , 𝑔2 .
37
Í
est une forme bilinéaire. En effet, en utilisant la linéarité de la somme et des
formes linéaires 𝑓 𝑘 , 1 6 𝑘 6 𝑝, on montre la bilinéarité de 𝜑.
L’ensemble des formes bilinéaires sur 𝐸 est noté ℬ𝑖𝑙(𝐸). C’est un espace vectoriel
sur K.
Définition 5.2.2
On dit qu’une forme bilinéarre 𝜑 sur 𝐸 est symétrique si 𝜑(𝑥, 𝑦) = 𝜑(𝑦, 𝑥) pour tous
𝑥, 𝑦 ∈ 𝐸.
Définition 5.2.3
On dit q’une forme bilinéaire 𝜑 sur 𝐸 est antı́-symétrique sı̀ 𝜑(𝑥, 𝑦) = −𝜑(𝑦, 𝑥) pour tous
𝑥, 𝑦 ∈ 𝐸.
Définition 5.2.4
La matrice d’une forme bilnéaire 𝜑 dans la base ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) de 𝐸 est la matrice carrée
d’ordre 𝑛 :
𝐴 = 𝜑 𝑒 𝑖 , 𝑒 𝑗 16 𝑖,𝑗 6 𝑛 .
Théorème 5.2.1
Soit 𝜑 une forme bilinéaire sur 𝐸 et 𝐴 la matrice de 𝜑 dans la base ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) de E.
Alors :
∀𝑥, 𝑦 ∈ 𝐸, on 𝑎 : 𝜑(𝑥, 𝑦) = 𝑋 𝑡 𝐴𝑌.
𝑥1 𝑦1
où 𝑋 = (𝑥)𝐵 = .. ª et 𝑌 = (𝑦) = © .. ª (𝑥) (resp. (𝑦) est la matrice colonne formée
. ® . ® 𝐵
©
𝐵 𝐵
« 𝑥𝑛 ¬ « 𝑦𝑛 ¬
des coordonnées du vecteur 𝑥 (resp. y) dans la base ℬ.
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛
!
Õ Õ Õ © Õ ª Õ Õ
𝜑(𝑥, 𝑦) = 𝜑 𝑥𝑖 𝑒𝑖 , 𝑦 = 𝑥𝑖 𝜑 𝑒𝑖 , 𝑦 = 𝑥 𝑖 𝜑 𝑒 𝑖 , 𝑦𝑗 𝑒𝑗® = 𝑥𝑖 𝑦 𝑗 𝜑 𝑒𝑖 , 𝑒 𝑗
𝑖=1 𝑖=1 𝑖=1 « 𝑗=1 ¬ 𝑖=1 𝑗=1
Í𝑛
𝑦 𝜑 𝑒 ,𝑒
© 𝑗=1 𝑗 . 1 𝑗 Õ𝑛 Õ𝑛
.. ® et 𝑋 𝑡 𝐴𝑌 = 𝑋 𝑡 (𝐴𝑌) =
ª
Or 𝐴𝑌 = 𝑥𝑖 𝑦 𝑗 𝜑 𝑒𝑖 , 𝑒 𝑗 .
Í𝑛 ®
𝑦 𝜑 𝑒 , 𝑒 𝑖=1 𝑗=1
« 𝑗=1 𝑗 𝑛 𝑗 ¬
Donc
𝜑(𝑥, 𝑦) = 𝑋 𝑡 (𝐴𝑌).
38
Théorème 5.2.2
Une application 𝜑 de 𝐸 × 𝐸 dans 𝕂 est une forme bilinéaire sur 𝐸 si, et seulement si, il
existe une matrice 𝐴 = 𝑎 𝑖,𝑗 16 𝑖,𝑗 6 𝑛 dans ℳ 𝑛 (K) telle que :
Õ
∀(𝑥, 𝑦) ∈ 𝐸 × 𝐸, 𝜑(𝑥, 𝑦) = 𝑎 𝑖,𝑗 𝑒 𝑖∗ (𝑥)𝑒 ∗𝑗 (𝑦).
1 6 𝑖,𝑗 6 𝑛
Théorème 5.2.4
Soient ℬ1 et ℬ2 deux bases de 𝐸 et 𝑃 la matrice de passage de ℬ1 à ℬ2 . Si 𝐴1 et 𝐴2 sont
les matrices d’une forme bilinéaire 𝜑 sur 𝐸 dans les bases ℬ1 et ℬ2 respectivement, alors
on a :
𝐴2 = 𝑃 𝑡 𝐴1 𝑃
D’autre part, on déduit de l’action d’un changement de base sur les coordonnées d’un vecteur
que :
𝑋1 = 𝑃𝑋2 et 𝑌1 = 𝑃𝑌2
Donc
𝜑(𝑥, 𝑦) = 𝑋1𝑡 𝐴1𝑌1 = (𝑃𝑋2 )𝑡 𝐴1 (𝑃𝑌2 ) = 𝑋2𝑡 𝑃 𝑡 𝐴1 𝑃 𝑌2 = 𝑋2𝑡 𝐴2𝑌2 .
39
D’où : 𝐴2 = 𝑃 𝑡 𝐴1 𝑃.
Définition 5.2.5
Le discriminant dans une base ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) de 𝐸 d’une forme bilinéaire 𝜑 est le
déterminant de la matrice 𝐴 = 𝜑 𝑒 𝑖 , 𝑒 𝑗 16 𝑖,𝑗 6 𝑛 de 𝜑 dans cette base. 𝐼𝑙 est noté Δ𝐵 (𝜑).
40
Chapter 6
∀𝑥 ∈ 𝐸, 𝑞(𝑥) = 𝜑(𝑥, 𝑥)
Remarque:
1. L’ensemble, noté 𝑄(𝐸), des formes quadratiques sur 𝐸 est un 𝕂-espace vectoriel.
2. Il n’y a pas unicité des formes bilinéaires associées à une forme quadratique. En effet, si
𝐸 = R2 , les formes bilinéaires 𝜑 et 𝜓 définies par :
𝜑(𝑥, 𝑦) = 𝑥1 𝑦1 + 𝑥 2 𝑦2
et
𝜓(𝑥, 𝑦) = 𝑥 1 𝑦1 + 𝑥2 𝑦2 − 𝑥2 𝑦1 + 𝑥1 𝑦2
définissent la même forme quadratique :
Théorème 6.1.1
Si q est une forme quadratique sur 𝐸, il existe une unique forme bilinéaire symétrique 𝜓
telle que 𝑞(𝑥) = 𝜓(𝑥, 𝑥) pour tout 𝑥 ∈ 𝐸. On dit que 𝜓 est la forme polaire de la forme
41
quadratique 𝑞.
Proof: soit 𝑞 une forme quadratique sur 𝐸 et soit 𝜑 est une forme bilinéaire sur 𝐸 telle que
𝑞(𝑥) = 𝜑(𝑥, 𝑥), ∀𝑥 ∈ 𝐸. Introduisons l’application 𝜓 définie sur 𝐸 × 𝐸 par :
1
𝜓(𝑥, 𝑦) = (𝜑(𝑥, 𝑦) + 𝜑(𝑦, 𝑥)).
2
L’application 𝜓 est bilinéaire, symétrique et vérifie 𝜓(𝑥, 𝑥) = 𝑞(𝑥), ∀𝑥 ∈ 𝐸. Comme 𝜓 est
bilinéaire et symétrique, on a :
Donc
1
𝜓(𝑥, 𝑦) = (𝑞(𝑥 + 𝑦) − 𝑞(𝑥) − 𝑞(𝑦)).
2
D’où l’unicité de 𝜓.
Définition 6.1.2
Si q est une forme quadratique sur 𝐸 de forme polaire 𝜑, alors la matrice de 𝑞 dans la base
ℬ est la matrice de 𝜑 dans cette base.
Exemple 6.1.1
Déterminer la matrice et la forme polaire de la forme quadratique 𝑞 définie dans la base
canonique de 𝕂3 par :
1 2 3
𝐴 = 2 3 1 ®.
© ª
«3 1 5¬
La forme polaire de 𝑞 est donnée par :
© 1 2 3 ª © 𝑦1 ª
𝜑(𝑥, 𝑦) = 𝑋 𝑡 𝐴𝑌 = 𝑥1 𝑥2 𝑥3 2 3 1 ® 𝑦2 ®
« 3 1 5 ¬ « 𝑦 3 ¬
= 𝑥 1 𝑦1 + 3𝑥2 𝑦2 + 5𝑥3 𝑦3 + 2 𝑥 1 𝑦2 + 𝑥2 𝑦1 + 3 𝑥1 𝑦3 + 𝑥3 𝑦1 + 𝑥2 𝑦3 + 𝑥3 𝑦2 .
(1) 𝑞 = 𝛼1 𝑙12
où 𝛼1 est un scalaire non nul et 𝑙1 est une forme linéaire non nulle.
Proof: Soit 𝑞 une forme quadratique non nulle sur un K-e-v 𝐸 de dimension 2, de base ℬ =
(𝑒1 , 𝑒2 ). Alors 𝑞 s’écrit sous la forme :
où 𝑙1 = 𝑒1∗ + 𝑏𝑎 𝑒2∗ et 𝑙2 = 𝑒2∗ qui sont deux formes linéaires linéairement indépendantes.
En effet, on a :
1 0 1 0
𝑟 𝑔 (𝑙1 , 𝑙2 ) = 𝑟 𝑔 𝑏 = 2 car 𝑏 = 1 ≠ 0.
𝑎 1 𝑎 1
2. Si 𝑎 = 0 et 𝑐 ≠ 0, on a :
2
𝑏 𝛿 2
𝑞(𝑥) = 2𝑏𝑥 1 𝑥2 + 𝑐𝑥22 = 𝑐 𝑥1 + 𝑥2 + 𝑥
𝑐 𝑐 1
avec 𝛿 = −𝑏 2 .
43
i.) Si 𝑏 = 0, alors :
𝑞(𝑥) = 𝑐𝑥 22 = 𝑐𝑙12 (𝑥)
où 𝑙1 = 𝑒2∗ est linéaire non nulle.
ii.) Si 𝑏 ≠ 0, alors :
2
𝑏 𝛿 2 𝛿
𝑞(𝑥) = 𝑐 𝑥1 + 𝑥2 + 𝑥 1 = 𝑐𝑙12 (𝑥) + 𝑙22 (𝑥)
𝑐 𝑐 𝑐
où 𝑙1 = 𝑏𝑐 𝑒1∗ + 𝑒2∗ et 𝑙2 = 𝑒1∗ qui sont deux fomes linéaires linéairement indépendantes.
En effet, on a :
𝑏 𝑏
1 1
𝑟 𝑔 (𝑙1 , 𝑙2 ) = 𝑟 𝑔 𝑐 = 2 car 𝑐
= −1 ≠ 0.
1 0 1 0
𝑞(𝑥) = 2𝑏𝑥1 𝑥2
On utilise l’identité :
1
𝑥1 𝑥2 = (𝑥1 + 𝑥2 )2 − (𝑥1 − 𝑥2 )2 ,
4
on obtient :
𝑏 2 2
𝑏 𝑏
𝑞(𝑥) = (𝑥1 + 𝑥2 ) − (𝑥 1 − 𝑥 2 ) = 𝑙12 (𝑥) − 𝑙22 (𝑥)
2 2 2
où 𝑙1 = 𝑒1 + 𝑒2 et 𝑙2 = 𝑒1 − 𝑒2 qui sont deux formes linéaires linéairement indépendantes.
∗ ∗ ∗ ∗
En effet, on a :
1 1 1 1
𝑟 𝑔 (𝑙1 , 𝑙2 ) = 𝑟 𝑔 = 2 car = −2 ≠ 0.
1 −1 1 −1
On peut généraliser le résultat ci-dessus au cas des espaces de dimension 𝑛 > 1. Plus
précisement, on a :
Théorème 6.2.2
Pour toute forme quadratique non nulle 𝑞 sur 𝐸, il existe un entier 𝑝 compris entre 1 et 𝑛, des
scalaires non nuls 𝛼1 , . . . , 𝛼 𝑝 et des formes linéaires 𝑙1 , . . . , 𝑙 𝑝 linéarrement indépendantes
dans 𝐸 ∗ tels que:
𝑝
Õ
∀𝑥 ∈ 𝐸, 𝑞(𝑥) = 𝛼 𝑖 𝑙 𝑖2 (𝑥).
𝑖=1
La preuve de ce théorème est longue et technique, elle est basée sur un raisomnement par
récurrence sur la dimension 𝑛 de l’espace vecoriel 𝐸. On a montré le résultat dans le cas 𝑛 = 2
dans le théorème précédent . Au lieu de montrer ce théorème, on va traiter quelques exemples
en dimension 3.
44
Exemple 6.2.1
Une forme quadratique 𝑞 sur 𝐸 s’écrit d’une façon générale :
𝑛
Õ Õ
𝑞(𝑥) = 𝑎 𝑖,𝑖 𝑥 2𝑖 + 2 𝑎 𝑖,𝑗 𝑥 𝑖 𝑥 𝑗 .
𝑖=1 1 6 𝑖<𝑗 6 𝑛
1. Une situation où 𝑞 contient au moins un terme carré, c’est à dire qu’il existe un indice
𝑖, 1 6 𝑖 6 𝑛, tel que 𝑎 𝑖,𝑖 ≠ 0. Par exemple, réduisons la forme quadratique définie sur
ℝ3 par :
𝑞(𝑥) = 𝑥12 + 3𝑥22 + 5𝑥32 + 4𝑥1 𝑥2 + 6𝑥1 𝑥 3 + 2𝑥 2 𝑥3 .
Ici, on a trois choix : 𝑎 1,1 ≠ 0, 𝑎2,2 ≠ 0 et 𝑎 3,3 ≠ 0. On choisit par exemple de
regrouper les termes contenant 𝑥1 , on a :
𝑥12 + 4𝑥1 𝑥2 + 6𝑥1 𝑥 3 = 𝑥12 + 2𝑥1 (2𝑥2 + 3𝑥3 ) = [𝑥1 + (2𝑥2 + 3𝑥 3 )]2 − (2𝑥 2 + 3𝑥 3 )2 .
Donc
𝑞(𝑥) = [𝑥1 + (2𝑥2 + 3𝑥3 )]2 − (2𝑥 2 + 3𝑥 3 )2 + 2𝑥2 𝑥 3 + 3𝑥 22 + 5𝑥32
= (𝑥1 + 2𝑥2 + 3𝑥3 )2 − 𝑥22 − 4𝑥 32 − 10𝑥2 𝑥3
Ensuite, on considère la forme quadratique :
Donc
𝑟(𝑥) = − (𝑥2 + 5𝑥3 )2 + 21𝑥 32 .
Finalement, la réduction de Gauss de la forme quadratique 𝑞(𝑥) est donnée par :
1 0 0 1 0 0
𝑟 𝑔 (𝑙1 , 𝑙2 , 𝑙3 ) = 𝑟 𝑔 2 1 0 ® = 3 car 2 1 0 = 1 ≠ 0.
© ª
«3 5 1¬ 3 5 1
2. Une situation où 𝑞 ne contient aucun terme carré, c’est à dire que pour tout indice
𝑖, 1 6 𝑖 6 𝑛, on a : 𝑎 𝑖,𝑖 = 0. Par exemple, réduisons la forme quadratique définie sur
ℝ4 par :
𝑞(𝑥) = 𝑥1 𝑥2 + 2𝑥1 𝑥 3 + 2𝑥 1 𝑥4 + 𝑥2 𝑥3 + 4𝑥2 𝑥4 + 2𝑥3 𝑥 4
45
On considère dans 𝑞(𝑥) tous les termes contenant 𝑥1 et 𝑥2 . On a :
qu’on réecrit :
Donc
𝑞(𝑥) = (𝑥1 + 𝑥3 + 4𝑥4 ) (𝑥2 + 2𝑥 3 + 2𝑥 4 ) − 2𝑥32 − 8𝑥42 − 8𝑥3 𝑥4 .
On considère maintenant la forme quadratique :
On a :
𝑠(𝑥) = −2 𝑥 32 + (2𝑥4 )2 + 2𝑥 3 (2𝑥4 ) = −2 (𝑥3 + 2𝑥4 )2 .
Donc,
𝑞(𝑥) = (𝑥1 + 𝑥3 + 4𝑥4 ) (𝑥2 + 2𝑥3 + 2𝑥4 ) − 2 (𝑥3 + 2𝑥4 )2 .
Finalement, on applique l’identité :
1 1
𝐴𝐵 = (𝐴 + 𝐵)2 − (𝐴 − 𝐵)2
4 4
pour 𝐴 = (𝑥1 + 𝑥3 + 4𝑥4 ) et 𝐵 = (𝑥2 + 2𝑥3 + 2𝑥4 ), on obtient :
1 1
𝑞(𝑥) = (𝑥1 + 𝑥2 + 3𝑥3 + 6𝑥4 )2 − (𝑥1 − 𝑥2 − 𝑥3 + 2𝑥4 )2 − 2 (𝑥3 + 2𝑥4 )2
4 4
Ici, on a : 𝑝 = 3, 𝛼1 = 14 , 𝛼2 = − 14 , 𝛼3 = −2, 𝑙1 = 𝑒1∗ +𝑒2∗ +3𝑒3∗ +6𝑒4∗ , 𝑙2 = 𝑒1∗ −𝑒2∗ −𝑒3∗ +2𝑒4∗
et 𝑙3 = 𝑒3∗ + 2𝑒4∗ . Les formes 𝑙1 , 𝑙2 et 𝑙3 sont linéairement indépendantes. En effet, on
a:
1 1 0
1 1 0
1 −1 0 ®
© ª
𝑟 𝑔 (𝑙1 , 𝑙2 , 𝑙3 ) = 𝑟 𝑔 ® = 3 car 1 −1 0 = −2 ≠ 0.
3 −1 1 ® 3 −1 1
«6 2 2¬
Comme les formes linéaires 𝑙1 , . . . , 𝑙 𝑝 dans le théorème précédent sont linéairement indépendantes
dans 𝐸∗ , on peut les compléter par des formes linéaires 𝑙 𝑝+1 , . . . , 𝑙𝑛 telles que (𝑙1 , . . . , 𝑙𝑛 ) soit une
base de 𝐸∗ . La réduction de Gauss du théorème précédent peut alors s’écrire :
𝑛
Õ
∀𝑥 ∈ 𝐸, 𝑞(𝑥) = 𝜆 𝑗 𝑙 2𝑗 (𝑥),
𝑗=1
46
Théorème 6.2.3
Etant donnée une base (𝑙 𝑖 )16 𝑖 6 𝑛 de l’espace vectoriel 𝐸∗ , il existe une base 𝑓𝑖 16 𝑖 6 𝑛 de E
telle que:
𝑙 𝑖 𝑓 𝑗 = 𝛿 𝑖,𝑗 (1 6 𝑖, 𝑗 6 𝑛)
La matrice 𝑄 = 𝑎 𝑖,𝑗 est invesible car (𝑙 𝑖 )16 𝑖 6 𝑛 est une base de 𝐸∗ . D’une part, si on note
1 6 𝑖,𝑗 6 𝑛
par 𝐹1 , . . . , 𝐹𝑛 les colonnes de la matrice 𝑄 −1 (vecteurs de K𝑛 ), alors :
𝛿1,𝑗
𝐸 𝑗 = ... ® , 16𝑗6𝑛
© ª
« 𝛿 𝑛,𝑗 ¬
Donc
∀1 6 𝑗 6 𝑛, 𝑄𝐹 𝑗 = 𝐸 𝑗 .
𝑙1 (𝑥) 𝑥1
D’autre part, puisque 𝑄𝑋 = ... ® avec 𝑋 = ... ® la matrice colonne formée par les
© ª © ª
« 𝑙𝑛 (𝑥) ¬ « 𝑥𝑛 ¬
composantes du vecteur 𝑥 ∈ 𝐸 dans la base ℬ, on a pour 𝑓 𝑗 ∈ 𝐸 de composantes la matrice
colonne 𝐹 𝑗 dans la base ℬ :
𝑙1 𝑓 𝑗
© .
..
ª
𝑄𝐹 𝑗 = ®
®
« 𝑙𝑛 𝑓𝑗 ¬
Puisque 𝑄𝐹 𝑗 = 𝐸 𝑗 , 1 6 𝑗 6 𝑛, on a :
𝑙 𝑓 𝛿1,𝑗
© 1 . 𝑗 ª
.. ® = 𝐸 𝑗 = ... ª® .
©
®
« 𝑙𝑛 𝑓 𝑗 ¬ « 𝛿 𝑛,𝑗 ¬
𝑙 𝑖 𝑓 𝑗 = 𝛿 𝑖,𝑗 pour tous 𝑖, 𝑗 compris entre 1 et 𝑛. On dit que (𝑙 𝑖 )16 𝑖 6 𝑛 est la base duale de
Donc,
𝑓𝑖 16 𝑖 6 𝑛 .
Exemple 6.2.2
47
On a montré ci-dessus que la réduction de Gauss de la forme quadratique sur 𝐸 = ℝ4 :
est
1 1
𝑞(𝑥) = 𝑙12 (𝑥) − 𝑙22 (𝑥) − 2𝑙32 (𝑥)
4 4
avec 𝑙1 = 𝑒1 + 𝑒2 + 3𝑒3 + 6𝑒4 , 𝑙2 = 𝑒1 − 𝑒2 − 𝑒3∗ + 2𝑒4∗ et 𝑙3 = 𝑒3∗ + 2𝑒4∗ des formes linéaires
∗ ∗ ∗ ∗ ∗ ∗
indépendantes. On complète la suite (𝑙1 , 𝑙2 , 𝑙3 ) par 𝑙4 = 𝑒4∗ pour avoir une base (𝑙1 , 𝑙2 , 𝑙3 , 𝑙4 )
de 𝐸 ∗ . Ici, la matrice 𝑄 est :
1 1 3 6
1 −1 −1 2 ®
© ª
𝑄=
0 0 1 2®
®
«0 0 0 1¬
Elle est inversible d’inverse :
1 1
−1 −2
© 12 21
− 2 −2 2 ®
ª
−1
𝑄 = 2 ®.
0 0 1 −2 ®
« 0 0 0 1 ¬
La base 𝑓1 , 𝑓2 , 𝑓3 , 𝑓4 de ℝ4 vérifiant 𝑙 𝑖 𝑓 𝑗 = 𝛿 𝑖,𝑗 , 1 6 𝑖, 𝑗 6 4, est :
1 1
𝑓1 = (1, 1, 0, 0), 𝑓2 = (1, −1, 0, 0), 𝑓3 = (−1, −2, 1, 0), 𝑓4 = (−2, 2, −2, 1).
2 2
48