0% ont trouvé ce document utile (0 vote)
20 vues49 pages

Algèbre 2

Ce document est un cours d'algèbre linéaire qui couvre des sujets tels que les matrices, les déterminants, la diagonalisation et la trigonalisation. Il présente des définitions, des propriétés et des exemples d'applications linéaires, ainsi que des concepts de formes linéaires et bilinéaires. Les chapitres sont bien structurés et incluent des exercices pratiques pour renforcer la compréhension des concepts abordés.

Transféré par

erraissrokai
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
20 vues49 pages

Algèbre 2

Ce document est un cours d'algèbre linéaire qui couvre des sujets tels que les matrices, les déterminants, la diagonalisation et la trigonalisation. Il présente des définitions, des propriétés et des exemples d'applications linéaires, ainsi que des concepts de formes linéaires et bilinéaires. Les chapitres sont bien structurés et incluent des exercices pratiques pour renforcer la compréhension des concepts abordés.

Transféré par

erraissrokai
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Algèbre linéaire

Faculté des Sciences et Techniques - Marrakech


TC - MIPC

Pr. CHOKRI
Contents

Chapter 1 Matrices Page 3


1.1 Introduction 3
1.2 Vocabulaire 4
Transposé d’une matrice — 4
1.3 Application linéaire et matrice 5
Application linéaire — 5 • Matrice d’une application linéaire — 6
1.4 Opérations sur les matrices 8
1.5 Matrice carrées 11
Matrices carrées inversibles — 12
1.6 Changement de base 13
Coordonnées d’un vecteur dans la nouvelle base — 13 • Action d’un changement de base sur
la matrice d’une application linéaire — 14

Chapter 2 DÉTERMINANTS Page 15


2.1 Déterminant d’une matrice carrée 15
Propriétés des déterminants — 17
2.2 Applications des déterminants 18
Indépendance linéaire de n vecteurs dans un e.v. de dimension n — 18 • Système de Cramer
— 18 • Calcul de l’inverse d’une matrice carrée inversible — 18 • Calcul du rang d’une matrice
— 19

Chapter 3 Réduction des matrices carrées : Diagonalisation Page 21


3.1 Vecteurs propres et valeurs propres 21
Vecteurs propres et valeurs propres d’une matrice — 21 • Recherche des vecteurs propres et
des valeurs propres d’une matrice — 21
3.2 Diagonalisation 23
Caractérisation des matrices diagonalisables — 23 • Pratique de la diagonalisation — 23

Chapter 4 Réduction des matrices carrées : Trigonalisation Page 26


4.1 Rappels sur les matrices par blocs 26
4.2 Opérations sur les matrices écrites par blocs 27
1
4.3 Matrices triangulaires 28
4.4 Matrices trigonalisables 29

Chapter 5 Formes linéaires et bilinéaires Page 34


5.1 Formes linéaires 34
5.2 Formes bilinéaires 37

Chapter 6 Algèbre bilinéaire : Formes quadratiques et réduction de Gauss


Page 41
6.1 Formes quadratiques 41
6.2 Théorème de réduction de Gauss 42

2
Chapter 1

Matrices

1.1 Introduction
Définition 1.1.1: [(p, n)-Matrice]

Soit (𝑛, 𝑝) ∈ ℕ∗ × ℕ∗ , on appelle (𝑝, 𝑛) − 𝑀𝑎𝑡𝑟𝑖𝑐𝑒 à coeffcients dans un corps commutatif


𝕂 (ℚ, ℝ 𝑜𝑢 ℂ) un tableau à p lignes et n colnnes représenté de la manière suivante:

𝑎1,1 𝑎 1,2 . . . 𝑎1,𝑛


© 𝑎
­ 2,1 𝑎2,2 . . . 𝑎2,𝑛
ª
𝐴 = ­ .. .. .. ®.
®
­ . . . ®
« 𝑎 𝑝,1 𝑎 𝑝,2 . . . 𝑎 𝑝,𝑛 ¬

Pour 1 ≤ 𝑖 ≤ 𝑝, 1 ≤ 𝑗 ≤ 𝑛, les 𝑎 𝑖,𝑗 ∈ 𝕂 sont les coefficients de la matrice 𝐴 := 𝑎 𝑖,𝑗 .



16 𝑖 6 𝑝
16 𝑗 6 𝑛

Exemple 1.1.1
 
−3𝑖 6
1. 𝐴 = est une matrice carrée de taille 2 à coefficients dans ℂ.
1 − 1/7𝑖 (2 + 𝑖)2

2 9
2. 𝐵 = ­ cosh(2) 0 ® est une matrice de taille 3 × 2 à coefficients dans ℝ.
© ª

« −2 3 𝜋4 ¬

0
­ 𝑒 ®
© 3 ª
3. 𝑣 = ­ ® est un vecteur colonne, 𝑢 = 𝜋 1 log(2) 3

est un vecteur ligne.
­1 ®
𝜋
« 2 ¬

Remarque:
ℳ𝑝,𝑛 (𝕂) désigne l’ensemble des matrices à p lignes et n colonnes.

3
1.2 Vocabulaire
◦ Si 𝑝 = 1 ℳ 𝑛,1 est l’ensemble des matrices colonnes.

◦ Si 𝑛 = 1 ℳ1,𝑝 est l’ensemble des matrices lignes.

◦ Si 𝑛 = 𝑝 ℳ 𝑛,𝑛 est l’ensemble des matrices carrées d’ordre 𝑛, noté ℳ 𝑛 .

◦ Si 𝑛 = 𝑝 et 𝑎 𝑖,𝑗 = 0 pour 𝑖 ≠ 𝑗 la matrice est dite diagonale. De plus, on appelle matrice


identité I la matrice vérifiant 𝑎 𝑖,𝑖 = 1 pour tout 𝑖 ∈ {1, . . . , 𝑛} (avec 𝑎 𝑖𝑗 = 0 pour 𝑖 ≠ 𝑗 .


◦ Si 𝑛 = 𝑝 et 𝑎 𝑖,𝑗 = 0 pour 𝑖 < 𝑗 la matrice est dite triangulaire inférieure.

◦ Si 𝑛 = 𝑝 et 𝑎 𝑖,𝑗 = 0 pour 𝑖 > 𝑗 la matrice est dite triangulaire supérieure.

◦ Si 𝑛 = 𝑝 la trace de 𝐴 est définie par:


𝑛
Õ
trace(𝐴) = 𝑎 𝑖,𝑖
𝑖=1

1.2.1 Transposé d’une matrice


Définition 1.2.1
Soit A =(𝑎 𝑖,𝑗 ) ∈ ℳ𝑝,𝑛 (𝕂). On appelle transposée de la (p, n)-matrice A, et on note A𝑡 la
(n, p)-matrice (𝑏 𝑖,𝑗 ) ∈ ℳ𝑛,𝑝 (𝕂) telle que 𝑏 𝑖,𝑗 = 𝑎 𝑗,𝑖 , 1 ≤ 𝑖 ≤ 𝑛 et 1 ≤ 𝑗 ≤ 𝑝.

Remarque:
• Une matrice carrée A =(𝑎 𝑖,𝑗 ) ∈ ℳ𝑛 (𝕂) est dite symétrique lorsque 𝑎 𝑖,𝑗 = 𝑎 𝑗,𝑖 et on a A𝑡
= A.

• Une matrice carrée A =(𝑎 𝑖,𝑗 ) ∈ ℳ𝑛 (𝕂) est dite anti-symétrique lorsque 𝑎 𝑖,𝑗 = −𝑎 𝑗,𝑖 et on
a A𝑡 = -A.

Proposition 1.2.1

• La transposée de la transposée de 𝐴 ∈ ℳ𝑝,𝑛 (𝕂) est égale à A : (𝐴𝑡 )𝑡 = 𝐴.

• Si la matrice A =(𝑎 𝑖,𝑗 ) ∈ ℳ𝑛 (𝕂) est anti-symétrique alors 𝑎 𝑖,𝑖 = 0, ∀1 ≤ 𝑖 ≤ 𝑛.

4
1.3 Application linéaire et matrice
1.3.1 Application linéaire
Définition 1.3.1
Soient E et F deux espaces vectoriels sur le même corps 𝕂. Une application 𝑓 : 𝐸 → 𝐹 est
dite linéaire, ( ou parfois 𝕂 -linéaire), si

1. ∀𝑥 ∈ 𝐸, ∀𝑦 ∈ 𝐸, 𝑓 (𝑥 + 𝑦) = 𝑓 (𝑥) + 𝑓 (𝑦),

2. ∀𝛼 ∈ 𝕂, 𝑓 (𝛼.𝑥) = 𝛼. 𝑓 (𝑥).

Si de plus f est bijective, on dit que f est un isomorphisme d’espaces vectoriels.

Exemple 1.3.1

1. Soient E un 𝕂-espace vectoriel et E un sous-espace vectoriel de F. On appelle injection


canonique de E dans F, l’application :

𝑖 : 𝐸 −→ 𝐹
𝑥 ↦−→ 𝑖(𝑥) = 𝑥

Alors i est une application linéaire.

2. Soient 𝐸 un 𝐾-espace vectoriel et 𝐸 un sous-espace vectoriel de 𝐹. On appelle sur-


jection canonique de 𝐹 vers 𝐹/𝐸, l’application définie par,

𝑠 : 𝐹 −→ 𝐹/𝐸
𝑥 ↦−→ 𝑠(𝑥) = 𝑥¯

Alors 𝑠 est une application linéaire.

3. L’application
𝑓1 : ℝ2 −→ ℝ4
(𝑥, 𝑦) ↦−→ (𝑥 − 2𝑦, 2𝑥, 𝑦, 𝑦 − 𝑥)

est une application linéaire de ℝ2 dans ℝ4 .

4. L’application
𝑓2 : ℝ3 [𝑋] −→ ℝ2 [𝑋]
𝑃 ↦−→ 𝑃 0
est une application linéaire de ℝ3 [𝑋] dans ℝ2 [𝑋]. est une application linéaire de ℝℕ
dans ℝ2 .

5
5. L’application
𝑓4 : 𝒞([𝑎, 𝑏], ℝ) −→ ℝ
∫ 𝑏
𝑓 ↦−→ 𝑓 (𝑥)dx
𝑎

est une application linéaire de 𝒞([𝑎, 𝑏], ℝ) dans ℝ.

6. L’application
𝑓5 : ℝ2 −→ ℝ2
(𝑥, 𝑦) ↦−→ (𝑥𝑦, 𝑥 + 𝑦)
est non linéaire.

1.3.2 Matrice d’une application linéaire


Soit 𝐸 et 𝐹 deux 𝕂−𝑒.𝑣.  non nuls de dimensions respectives 𝑛 et 𝑝. Soit ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) une base
de 𝐸, ℬ 0 = 𝑓1 , . . . , 𝑓𝑝 une base de 𝐹 et 𝜑 une application linéaire de 𝐸 dans 𝐹. On sait que 𝜑 est
 Í𝑝
déterminée par les images des vecteurs de la base ℬ. Posons, pour 1 6 𝑗 6 𝑛, 𝜑 𝑒 𝑗 = 𝑖=1 𝑎 𝑖,𝑗 𝑓𝑖
Définition 1.3.2
On appelle matrice de l’application linéaire 𝜑 ∈ ℒ(𝐸, 𝐹) dans les bases ℬ = (𝑒1 , . . . , 𝑒 𝑛 )
de 𝐸 et ℬ 0 = 𝑓1 , . . . , 𝑓𝑝 de 𝐹, la (𝑝, 𝑛)-matrice 𝐴 = 𝑎 𝑖,𝑗 définie par


𝜑 (𝑒1 ) 𝜑 (𝑒2 ) . . . 𝜑 (𝑒 𝑛 )
𝑓1 𝑎 11 𝑎 12 . . . 𝑎 1𝑛
𝑓2 © 𝑎 21 𝑎 22 . . . 𝑎 2𝑛 ª
𝐴 = .. .. .. .. ..
­ ®
. . . . .
­ ®
­ ®
𝑓𝑝 « 𝑎 𝑝1 𝑎 𝑝2 . . . 𝑎 𝑝𝑛 ¬

La matrice 𝐴 ci-dessus est dite matrice de l’application 𝜑 ∈ ℒ(𝐸, 𝐹) dans les bases ℬ et
ℬ 0 . Elle est notée 𝐴 = 𝑀 𝜑,ℬ,ℬ0 .

On a pour tout vecteur 𝑥 ∈ 𝐸, on pose la matrice

𝑥1
𝑋=­ .. ª ∈ ℳ (K)
. ®
©
𝑛,1
« 𝑥𝑛 ¬

constituée des coordonnées du vecteur 𝑥 dans la base ℬ et pour tout vecteur 𝑦 ∈ 𝐹, on pose la
matrice
𝑦1
© .. ª
𝑌 = ­ . ® ∈ ℳ 𝑝,1 (K).
« 𝑦𝑝 ¬

6
constituée des coordonnées du vecteur 𝑦 dans la base ℬ 0. Alors, on a :
𝑦 = 𝜑(𝑥) ⇐⇒ 𝑌 = 𝐴𝑋
En effet, on a :
𝑝
Õ 𝑛 𝑛
©Õ Õ
𝑦 = 𝜑(𝑥) ⇐⇒ 𝑦 𝑖 𝑓𝑖 = 𝜑 ­ 𝑥𝑗 𝑒𝑗® = 𝑥𝑗 𝜑 𝑒𝑗
ª 
𝑖=1 « 𝑗=1 ¬ 𝑗=1
Õ𝑛 Õ𝑝 Õ𝑝 𝑛
©Õ
= 𝑥𝑗 𝑎 𝑖,𝑗 𝑓𝑖 = 𝑎 𝑖,𝑗 𝑥 𝑗 ® 𝑓𝑖
ª
­
𝑗=1 𝑖=1 𝑖=1 « 𝑗=1 ¬
Donc
𝑛
Õ
𝑦 = 𝜑(𝑥) ⇐⇒ 𝑦 𝑖 = 𝑎 𝑖,𝑗 𝑥 𝑗 , ∀1 6 𝑖 6 𝑝
𝑗=1
𝑛
𝑦1 𝑗=1 𝑎 1 ,𝑗 𝑥 𝑗 ,
Í
© .. ª ­© .. ª
⇐⇒ 𝑌 = ­ . ® = ­ ® = 𝐴𝑋
Í𝑛 . ®
« 𝑦 𝑝 ¬ « 𝑗=1 𝑎 𝑝,𝑗 𝑥 𝑗 , ¬
Exemple 1.3.2
Soit 𝑛 ∈ ℕ, soit le ℂ-espace-vectoriel :

𝐸𝑛 = {𝑃 ∈ ℂ[𝑋]/𝑃 = 0 𝑜𝑢 𝑑 ◦ 𝑃 ≤ 𝑛}.

1. Soit 𝜑 ∈ ℒ(𝐸3 , 𝐸2 ) définie par 𝜑(𝑃) = 𝑃 0. Alors la matrice 𝜑 dans les bases canon-
iques de 𝐸3 et de 𝐸2 est donnée par:

0 1 0 0
𝑀 𝜑 = ­ 0 0 2 0 ® ∈ ℳ3,4 (ℂ).
© ª

«0 0 0 3¬

2. Soit 𝜑 ∈ ℒ(𝐸3 , 𝐸3 ) définie par 𝜑(𝑃) = 𝑃 0. Alors la matrice 𝜑 dans les bases canon-
iques de 𝐸3 est donnée par:

0 1 0 0
­0 0 2 0®
© ª
𝑀𝜑 = ­ ® ∈ ℳ4 (ℂ).
­0 0 0 3®
«0 0 0 0¬

Proposition 1.3.1
Les bases ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) et ℬ 0 = 𝑓1 , . . . , 𝑓𝑝 des K-e.v. E et 𝐹 étant fixées. Désignons

par 𝑀 𝜑,ℬ,ℬ0 la matrice de 𝜑 ∈ ℒ(𝐸, 𝐹) dans les bases ℬ et ℬ 0. Alors l’application :
𝑈 : ℒ(𝐸, 𝐹) −→ ℳ 𝑝,𝑛 (K)
𝜑 ↦−→ 𝑀 𝜑,ℬ,ℬ0
est une bijection.

7
Remarque:
En particulier, toute (𝑝, 𝑛)-matrice à coefficients dans K est la matrice d’une application
linéaire 𝜑 : 𝕂𝑛 −→ 𝕂𝑝 dans les bases canoniques de K𝑛 et 𝕂𝑝 .

1.4 Opérations sur les matrices


Définition 1.4.1
Soit (𝑛, 𝑝) ∈ ℕ∗ × ℕ∗ et soit 𝐴, 𝐵 ∈ ℳ 𝑛,𝑝 (𝐾). On définit

1. Addition: 𝐴 + 𝐵 ∈ ℳ 𝑛,𝑝 (𝐾) par (𝐴 + 𝐵)𝑖𝑗 = 𝑎 𝑖𝑗 + 𝑏 𝑖𝑗 ∀(𝑖, 𝑗) ∈ {1, . . . , 𝑛} × {1, . . . , 𝑝},

2. Multiplication externe : 𝜆𝐴 ∈ ℳ 𝑛,𝑝 (𝐾) (avec 𝜆 ∈ 𝐾 ) par

(𝜆𝐴)𝑖𝑗 = 𝜆𝑎 𝑖𝑗 ∀(𝑖, 𝑗) ∈ {1, . . . , 𝑛} × {1, . . . , 𝑝}

Exemple 1.4.1

1.
𝜋 −1 √4 3 0 4
𝐴=­ 0 2 ®,𝐵 = ­ 1 1 3 ®
© ª © ª
2
« 1 3 1 ¬ « −1 2 0 ¬
(𝜋 + 3) −1 √ 8
𝐴+𝐵=­ 3 ( 2 + 3) ®
© ª
1
« 0 5 1 ¬
2.
3/4 0
𝐴 = ­ 0 −6 ® ∈ ℳ3,2 (ℝ).
© ª

« −2 1 ¬
3 0
4𝐴 = ­ 0 −24 ® .
© ª

« −8 4 ¬

Proposition 1.4.1
Soient 𝐸 et 𝐹 deux K − 𝑒.𝑣 de dimensions respectives 𝑛 et 𝑝. On pose ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) une
base de 𝐸 et ℬ 0 = 𝑓1 , . . . , 𝑓𝑝 une base de 𝐹. Soient 𝜑, 𝜓 ∈ ℒ(𝐸, 𝐹), on a :

𝑀 𝜑+𝜓,ℬ,ℬ0 = 𝑀 𝜑,ℬ,ℬ0 + 𝑀𝜓,ℬ,ℬ0 .

8
Proof: Posons 𝑀 𝜑,ℬ,ℬ0 = (𝑎 𝑖,𝑗 ), 𝑀𝜓,ℬ,ℬ0 = (𝑏 𝑖,𝑗 ) et 𝑀 𝜑+𝜓,ℬ,ℬ0 = (𝑐 𝑖,𝑗 ). Ona:
𝑝
Õ
(𝜑 + 𝜓)(𝑒 𝑗 ) = 𝑐 𝑖,𝑗 𝑓𝑖
𝑖=1
= 𝜑(𝑒 𝑗 ) + 𝜓(𝑒 𝑗 )
𝑝
Õ 𝑝
Õ
= 𝑎 𝑖,𝑗 𝑓𝑖 + 𝑏 𝑖,𝑗 𝑓𝑖
𝑖=1 𝑖=1
Õ𝑝
= (𝑎 𝑖,𝑗 + 𝑏 𝑖,𝑗 ) 𝑓𝑖
𝑖=1

Donc 𝑐 𝑖,𝑗 = 𝑎 𝑖,𝑗 + 𝑏 𝑖,𝑗 , ∀ 1 6 𝑖 6 𝑛 et 1 6 𝑗 6 𝑝

Théorème 1.4.1
L’ensemble ℳ 𝑝,𝑛 (𝕂) muni de l’addition (𝐴, 𝐵) −→ 𝐴 + 𝐵 et de la multiplication externe
(𝜆, 𝐴) −→ 𝜆𝐴, ayant 𝕂 pour corps des scalaires, est un 𝕂-e.v.

Proof: • L’élément nul de ℳ 𝑚𝑛 (R) est la matrice dont tous les coefficients sont nuls appelée
matrice nulle, et notée par 0, C’est la. matrice associée à l’application nulle de 𝐸 dans 𝐹
dant les bases 𝐵 et 𝐵0.

• L’oppose de 𝐴 = (𝑎 𝑖,𝑗 ) est la matrice −𝐴 = (−𝑎 𝑖,𝑗 ) Les autres axiomes d’un e.v. sont laisses
en exercice.
Proposition 1.4.2
Soient 𝐸 et 𝐹 deux K − 𝑒.𝑣 de dimensions respectives 𝑛 et 𝑝. On pose 𝐵 = (𝑒1 , . . . , 𝑒 𝑛 ) une
base de 𝐸 et 𝐵0 = ( 𝑓1 , . . . , 𝑓𝑝 ) une base de 𝐹 Soient 𝜆 ∈ 𝕂 et 𝜑 ∈ ℒ(𝐸, 𝐹) , on a:

𝑀𝜆𝜑,𝐵,𝐵0 = 𝜆𝑀 𝜑,𝐵,𝐵0 .

Preuve : Pasons 𝑀 𝜑,𝐵,𝐵0 = 𝑎 𝑖,𝑗 et 𝑀𝜆𝜑,𝐵,𝐵0 = 𝑐 𝑖,𝑗 . On a :


 
Proof:
𝑝
Õ
(𝜆𝜑) 𝑒 𝑗 = 𝑐 𝑖,𝑗 𝑓𝑖

𝑖=1
= 𝜆𝜑 𝑒 𝑗

𝑝
Õ
=𝜆 𝑎 𝑖,𝑗 𝑓𝑖
𝑖=1
𝑝
Õ
𝜆𝑎 𝑖,𝑗 𝑓𝑖

=
𝑖=1

Donc 𝑐 𝑖,𝑗 = 𝜆𝑎 𝑖,𝑗 , ∀1 6 𝑖 6 𝑛 et 1 6 𝑗 6 𝑝.

9
Définition 1.4.2
Définition 4: On appelle produit de la matrice 𝐴 = 𝑎𝑖,𝑘 ∈ ℳ 𝑝,𝑛 (K) par la matrice

𝐵 = 𝑏 𝑘,𝑗 ∈ ℳ 𝑛,𝑞 (K), et on note 𝐴𝐵, la matrice 𝐶 = 𝑐 𝑖,𝑗 ∈ ℳ 𝑝,𝑞 (K) telle que:
𝑛
Õ
𝑐 𝑖,𝑗 = 𝑎 𝑖,𝑘 𝑏 𝑘,𝑗 ∀1 6 𝑖 6 𝑝, ∀1 6 𝑗 6 𝑞
𝑘=1
.

Exemple 1.4.2

1 0
1 3 2 0
­ −2 −1 ®
© ª
𝐴 = ­ 0 −1 −3 −1 ® ∈ ℳ3,4 (ℝ), 𝐵=­ ® ∈ ℳ4,2 (ℝ)
© ª
­ 0 2 ®
« −2 0 1 2 ¬
« 1 3 ¬
−5 1
𝐴𝐵 = ­ 1 −8 ® ∈ ℳ3,2 (R)
© ª

« 0 8 ¬

Remarque:
1. La multiplication est associative et distributive par rapport à l’addition.

2. Si 𝐴 ∈ ℳ 𝑝,𝑛 (K) et 𝐵 ∈ ℳ 𝑛,𝑞 (K), alors (𝐴𝐵)𝑡 = 𝐵𝑡 𝐴𝑡 (attention à l’ordre).

Proposition 1.4.3 Soient 𝐸, 𝐹 et 𝐺 trois K-e.v de dimensions respectives  𝑛, 𝑞 et 𝑝. On


pose ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) une base de 𝐸, ℬ = 𝑓1 , . . . , 𝑓𝑞 une base de F et
0

ℬ 00 = 𝑔1 , . . . , 𝑔𝑝 une base de 𝐺. Soient 𝜑 ∈ ℒ(𝐸, 𝐹) et 𝜓 ∈ ℒ(𝐹, 𝐺),


on a :
𝑀𝜓◦𝜑,𝐵,𝐵00 = 𝑀𝜓,𝐵0 ,𝐵00 𝑀 𝜑,𝐵,𝐵0 .
(𝑝, 𝑛) (𝑝, 𝑞) (𝑞, 𝑛)

Proof: Posons 𝑀 𝜑,ℬ,ℬ0 = (𝑎 𝑖,𝑗 ), 𝑀𝜓,ℬ0 ,ℬ00 = (𝑏 𝑖,𝑗 ) et 𝑀𝜓𝑜𝜑,ℬ,ℬ00 = (𝑐 𝑖,𝑗 )

10
On a our tout 1 6 𝑗 6 𝑛
𝑝
Õ
(𝜓 ◦ 𝜑) 𝑒 𝑗 = 𝑐 𝑖,𝑗 𝑔𝑖

𝑖=1
= 𝜓 𝜑 𝑒𝑗

𝑞
!
Õ
=𝜓 𝑎 𝑘,𝑗 𝑓 𝑘
𝑘=1
𝑞
Õ
𝑎 𝑘,𝑗 𝜓 𝑓 𝑘

=
𝑘=1
Õ𝑞 𝑝
Õ
= 𝑎 𝑘,𝑗 𝑏 𝑖,𝑘 𝑔𝑖
𝑘=1 𝑖=1
𝑝 𝑞
!
Õ Õ
= 𝑏 𝑖,𝑘 𝑎 𝑘,𝑗 𝑔𝑖
𝑖=1 𝑘=1
Í𝑞
Donc 𝑐 𝑖,𝑗 = 𝑘=1
𝑏 𝑖,𝑘 𝑎 𝑘,𝑗 , ∀1 6 𝑖 6 𝑝 et 1 6 𝑗 6 𝑛.

1.5 Matrice carrées


Définition 1.5.1: Matrice triangulaire supérieure
Une matrice carrée est dite triangulaire supérieure si tous les coefficients situés au dessous
de la diagonale principale sont nuls. Une matrice triangulaire supérieure s’écrit :

𝑎1,1 𝑎 1,2 . . . 𝑎1,𝑛−1 𝑎1,𝑛


𝑎 2 ,2 𝑎2,𝑛−1 𝑎2,𝑛
© 0 ª
­ . ..
­ ®
.. ..
𝐴 = ­­ .. . . .
®
® = 𝑎 𝑖,𝑗 avec 𝑎 𝑖,𝑗 = 0 si 1 6 𝑗 < 𝑖 6 𝑛.

­ .. .. .. ..
®
­ . . . .
®
®
« 0 ... ... 0 𝑎 𝑛,𝑛 ¬

Définition 1.5.2: Matrice triangulaire inférieure


Une matrice carrée est dite triangulaire inférieure si tous les coefficients situés au dessus
de la diagonale principale sont nuls. Une matrice triangulaire inférieure s’écrit :

𝑎 0 ... ... 0
© 1 ,1 ... .. ª
­ 𝑎
­ 2 ,1 𝑎 2 ,2 . ®
­ .. . . ..
®
𝐴=­ . .. .. ® = 𝑎 𝑖,𝑗 avec 𝑎 𝑖,𝑗 = 0 si 1 6 𝑖 < 𝑗 6 𝑛.

.
®
­ .
­ . ..
®
­ . . 0
®
®
« 𝑎 𝑛,1 . . . . . . . . . 𝑎 𝑛,𝑛 ¬

11
Définition 1.5.3: Matrice diagonale
Une matrice carrée est dite diagonale si tous ses coefficients autres que les coefficients
diagonaux sont nuls, c’est une matrice de la forme :

𝑎 1 ,1 0 ··· 0
© ... .. ª
­ 0 𝑎 2 ,2 . ®
𝐴 = ­­ . ® = 𝑎 𝑖,𝑗 avec 𝑎 𝑖,𝑗 = 0 si 𝑖 ≠ 𝑗

.. ..
­ .. . .
®
0 ®
« 0 · · · 0 𝑎 𝑛,𝑛 ¬
On note par 𝐼𝑛 la matrice carrée d’ordre 𝑛 diagonale, dont tous les éléments digonaux sont
égaux à 1 .

Remarque:
1. La multiplication n’est pas commutative. En effet,
   
0 1 1 0
𝐴= , 𝐵=
0 0 0 0
   
0 0 0 1
𝐴𝐵 = , 𝐵𝐴 =
0 0 0 0

2. Si 𝐴 ∈ ℳ 𝑛 (𝕂), 𝐵 ∈ ℳ 𝑛 (K) alors 𝐴𝐵 = 0 n’implique pas 𝐴 = 0 ou 𝐵 = 0.


     
0 1 1 0 0 0
𝐴= 𝐵= 𝐴𝐵 =
0 0 0 0 0 0

1.5.1 Matrices carrées inversibles


Définition 1.5.4
Une matrice 𝐴 ∈ ℳ 𝑛 (K) est dite inversible s’il existe une matrice 𝐵 ∈ ℳ 𝑛 (K) telle que
𝐴𝐵 = 𝐵𝐴 = 𝐼𝑛 . Une telle matrice 𝐵 si elle existe est unique. 𝐵 est alors appelée l’inverse
de 𝐴 et notée 𝐴−1 .

12
1.6 Changement de base
Soit 𝐸 un 𝕂−𝑒𝑣. non nul de dimension n, soit ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) une base de 𝐸 et ℬ 0 = 𝑒10 , . . . , 𝑒 𝑛0

une autre base de 𝐸. On a : 𝑒 0𝑗 = 𝑛𝑖=1 𝑝 𝑖,𝑗 𝑒 𝑖 , 1 6 𝑗 6 𝑛. On pose
Í

𝑒10 𝑒20 . . . 𝑒 𝑛0
𝑝1,1 𝑝 1,2 . . . 𝑝1,𝑛 𝑒1
© 𝑝
­ 2,1 𝑝2,2 . . . 𝑝2,𝑛 𝑒2
ª
𝑃 = ­ .. .. .. ..
®
­ . . . .
®
®
𝑝 𝑝
« 𝑛,1 𝑛,2 . . . 𝑝 𝑛,𝑛 ¬ 𝑒𝑛

Définition 1.6.1: Matrice de passage

La matrice 𝑃 = 𝑝 𝑖,𝑗 ∈ ℳ 𝑛 (K) dont la 𝑗- ème colonne est constituée par les coordonnées de

𝑒 0𝑗 dans la base ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) est appelée matrice de passage de la base ℬ = (𝑒1 , . . . , 𝑒 𝑛 )
à la base ℬ 0 = 𝑒10 , . . . , 𝑒 𝑛0 . C’est une matrice inversible


Remarque:
Soit ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) et ℬ 0 = 𝑒10 , . . . , 𝑒 𝑛0 deux bases de 𝐸 et 𝑃 la matrice de passage de ℬ à

ℬ 0. Alors la matrice de passage de ℬ 0 à ℬ est la matrice 𝑃 −1 .

1.6.1 Coordonnées d’un vecteur dans la nouvelle base


Soit ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) et ℬ 0 = 𝑒10 , . . . , 𝑒 𝑛0 deux bases d’un K-e.v. 𝐸 de dimension n. Soit 𝑥 ∈ 𝐸,

on a :
𝑛
Õ 𝑛
Õ
𝑥= 𝑥𝑖 𝑒𝑖 = 𝑥 0𝑗 𝑒 0𝑗 .
𝑖=1 𝑗=1

Associons à ces deux décompositions les matrices colonnes

𝑥1 𝑥 10
© 𝑥2 ª
0
© 𝑥 20 ª
𝑋 = (𝑥)𝐵 = ­ .. ® et 𝑋 = (𝑥)𝐵 = ­ .. ® ∈ ℳ 𝑛,1 (K)
­ ® ­ ®
0
­ . ® ­ . ®
« 𝑥𝑛 « 𝑥𝑛
0
¬ ¬
Í𝑛
Soit 𝑃 = 𝑝 𝑖,𝑗 ∈ ℳ 𝑛 (𝕂) la matrice de passage de ℬ à ℬ [Link] a : 𝑒 𝑗 = 0
𝑝 𝑖,𝑗 𝑒 𝑖 , 1 6 𝑗 6 𝑛.

𝑖=1
Donc
𝑛
Õ 𝑛
Õ 𝑛
Õ Õ𝑛 𝑛 𝑛
©Õ 0 ª Õ
𝑥= 𝑥 0𝑗 𝑒 0𝑗 = 𝑥 0𝑗 𝑝 𝑖,𝑗 𝑒 𝑖 = ­ 𝑥 𝑗 𝑝 𝑖,𝑗 ® 𝑒 𝑖 = 𝑥𝑖 𝑒𝑖 .
𝑗=1 𝑗=1 𝑖=1 𝑖=1 « 𝑗=1 ¬ 𝑖=1

13
Í𝑛
D’où, pour tout ∀1 6 𝑖 6 𝑛, on a : 𝑥 𝑖 = 𝑗=1 𝑝 𝑖,𝑗 𝑥 0𝑗 . On écrit alors sous forme matriciel :
Í𝑛
𝑝1,𝑗 𝑥 0𝑗 Í𝑛 𝑝1,1 𝑝1,2 . . . 𝑝 1,𝑛 𝑥 10
𝑗=1 𝑝 2,𝑗 𝑥 0𝑗
𝑥2 ® © 𝑗=1 . ª ©­ 𝑝2,1 𝑝2,2 . . . 𝑝2,𝑛 𝑥 20
© ª ª© ª
® ­ Í ..
­
𝑋 = ­­ ..
®=­ ®=­ . .. .. ..® = 𝑃𝑋 0
®­ ®
® ­ .. . . .
.
®­
𝑛
« 𝑗=1 𝑝 𝑛,𝑗 𝑥 𝑗
­ ® 0 ®­ ®
𝑥𝑛 ¬ « 𝑝 𝑛,1 𝑝 𝑛,2 . . . 𝑝 𝑛,𝑛 ¬« 𝑥𝑛 ¬
0
« ¬
Donc 𝑋 = 𝑃𝑋 0.

1.6.2 Action d’un changement de base sur la matrice d’une applica-


tion linéaire
Proposition 1.6.1
Soit 𝐸 et 𝐹 deux 𝕂 − 𝑒.𝑣, non nuls, de dimensions respectives 𝑛 et p. Soit 𝜑 ∈ ℒ(𝐸, 𝐹).
Soit 𝐴 la matrice de 𝜑 dans les bases ℬ de 𝐸 et ℬ1 de 𝐹. Soit 𝐴0 la matrice de 𝜑 dans les
bases ℬ 0 de 𝐸 et ℬ10 de 𝐹. Si 𝑃 est la matrice de passage de ℬ à ℬ 0 et 𝑄 est la matrice de
passage de ℬ1 à ℬ10 alors, on a :
𝐴0 = 𝑄 −1 𝐴𝑃

Proof: Soit 𝑥 ∈ 𝐸 et 𝑦 = 𝜑(𝑥), posons 𝑋 = (𝑥)ℬ , 𝑋 0 = (𝑥)ℬ0 , 𝑌 = (𝑦)ℬ1 et 𝑌 0 = (𝑦)ℬ10 . D’une


part, on a :
𝑌 = 𝐴𝑋 et 𝑌 0 = 𝐴0 𝑋 0
D’autre part, d’après l’action d’un changement de base sur les coordonnées d’un vecteur, on a
𝑌 = 𝑄𝑌 0 et 𝑋 = 𝑃𝑋 0
Donc
𝑌 0 = 𝑄 −1𝑌 = 𝑄 −1 𝐴𝑋 = 𝑄 −1 𝐴𝑃𝑋 0 = 𝐴0 𝑋 0 .
Puisque le vecteur 𝑥 est quelconque, on déduit de l’égalité 𝑄 −1 𝐴𝑃𝑋 0 = 𝐴0 𝑋 0 que :
𝐴0 = 𝑄 −1 𝐴𝑃

Définition 1.6.2
Deux (p,n)-matrices 𝐴 ∈ ℳ 𝑝,𝑛 (𝕂) et 𝐵 ∈ ℳ 𝑝,𝑛 (K) sont équivalentes s’il existe deux
matrices carrées 𝑄 ∈ ℳ 𝑝 (K) et 𝑃 ∈ ℳ 𝑛 (𝕂) telles que :

𝐵 = 𝑄𝐴𝑃.

Définition 1.6.3
Deux matrices carrées. d’ordre 𝑛 𝐴 ∈ ℳ 𝑛 (𝕂) et 𝐵 ∈ ℳ 𝑛 (𝕂) sont dites semblables s’il
existe une matrice carrée inversible 𝑃 ∈ ℳ 𝑛 (K) telle que :

𝐵 = 𝑃 −1 𝐴𝑃.

14
Chapter 2

DÉTERMINANTS

2.1 Déterminant d’une matrice carrée


Dans tout ce chapitre, K = R ou C.

15
Définition 2.1.1
Soit 𝐴 = 𝑎 𝑖,𝑗 ∈ ℳ 𝑛 (K). On définit le déterminant de 𝐴, noté dét 𝐴, par la formule de

récurrence suivante:

1. pour 𝑛 = 2, on 𝑎 :
𝑎 1 ,1 𝑎 1 ,2
 
𝐴=
𝑎 2 ,1 𝑎 2 ,2
dét 𝐴 = 𝑎 1,1 𝑎 2,2 − 𝑎 1,2 𝑎 2,1 .
Règle pratique (valable quand 𝑛 = 2 ):

𝑎 1 ,1 𝑎 1 ,2
det 𝐴 =
𝑎 2 ,1 𝑎 2 ,2

2. pour 𝑛 = 3, on 𝑎 :
𝑎 𝑎 𝑎
© 1 ,1 1 ,2 1 ,3 ª
𝐴 = ­ 𝑎 2 ,1 𝑎 2 ,2 𝑎 2 ,3 ®
« 𝑎 3 ,1 𝑎 3 ,2 𝑎 3 ,3 ¬
dét 𝐴 = 𝑎1,1 𝑎 2,2 𝑎 3,3 + 𝑎2,1 𝑎 3,2 𝑎 1,3 + 𝑎3,1 𝑎 1,2 𝑎 2,3 − 𝑎2,1 𝑎 1,2 𝑎 3,3 − 𝑎3,1 𝑎 2,2 𝑎 1,3 − 𝑎1,1 𝑎 3,2 𝑎 2,3 .
Règle pratique (valable quand 𝑛 = 3 ):

𝑎 1 ,1 𝑎 1 ,2 𝑎 1 ,3
𝑎 2 ,1 𝑎 2 ,2 𝑎 2 ,3
dét 𝐴 = 𝑎 3,1 𝑎 3 ,2 𝑎 3 ,3
𝑎 1 ,1 𝑎 1 ,2 𝑎 1 ,3
𝑎 2 ,1 𝑎 2 ,2 𝑎 2 ,3

3. pour 𝑛 > 4, on 𝑎 :

𝑎 1,1 𝑎1,2 . . . 𝑎1,𝑛


© 𝑎
­ 2,1 𝑎2,2 . . . 𝑎2,𝑛
ª
𝐴 = ­ .. ® ou encore 𝐴 = 𝑎 𝑖,𝑗 .

.. ..
®
­ . . . ®
« 𝑎 𝑛,1 𝑎 𝑛,2 . . . 𝑎 𝑛,𝑛 ¬

i.) Quel que soit l’indice 𝑗, 1 6 𝑗 6 𝑛, on a :


dét
𝑛
Õ
𝐴= (−1)𝑖+𝑗 Δ𝑖,𝑗 𝑎 𝑖,𝑗
𝑖=1

(c’est le développement de dét 𝐴 par rapport à la jème colonne).

j.) Quel que soit l’indice 𝑖, 1 6 𝑖 6 𝑛, on a:


𝑛
Õ
dét 𝐴 = (−1)𝑖+𝑗 Δ𝑖,𝑗 𝑎 𝑖,𝑗
𝑗=1

(c’est le développement de dét A par16rapport à la 𝑖 ème ligne). où Δ𝑖,𝑗 , appelé


mineur du coefficient 𝑎 𝑖,𝑗 , est le déterminant de la matrice 𝐴 𝑖,𝑗 ∈ ℳ 𝑛−1 (𝕂) obtenue
en supprimant, dans 𝐴, la 𝑖 ème ligne et la 𝑗 ème colonne. C’est un déterminant
d’ordre 𝑛 − 1.
Exemple 2.1.1
1. Soit 𝐼𝑛 la matrice unité d’ordre 𝑛, on a : dét 𝐼𝑛 = 1.
2. Déterminant d’une matrice triangulaire : soit 𝐴 = 𝑎 𝑖,𝑗 ∈ ℳ 𝑛 (𝕂) telle que 𝑎 𝑖,𝑗 = 0 si

𝑖 > 𝑗, on a : dét 𝐴 = 𝑎 1,1 . . . 𝑎 𝑛,𝑛 . Le déterminant d’une matrice triangulaire 𝐴 est égal au
produit des éléments de la diagonale principale de 𝐴.

2.1.1 Propriétés des déterminants


Soit 𝐴 = 𝑎 𝑖,𝑗 ∈ ℳ 𝑛 (𝕂) et Δ = 𝑎 𝑖,𝑗 = dét 𝐴, on pose 𝐶1 , . . . , 𝐶 𝑛 les colonnes de 𝐴 et 𝐿1 , . . . , 𝐿𝑛

les lignes de 𝐴.
Théorème 2.1.1
On a les résultats suivants :

1. Si 𝐶 𝑖 = 𝐶 𝑗 ou si 𝐿 𝑖 = 𝐿 𝑗 avec 𝑖 ≠ 𝑗, alors Δ = 0.

2. Si une colonne (ou une ligne) est combinaison linéaire des autres colonnes (ou des
autres lignes) alors Δ = 0.

3. On ne modéfie pas la valeur de Δ en ajoutant à une colonne une combinaison linéaire


des autres colonnes.

4. On ne modéfie pas la valeur de Δ en ajoutant à une ligne une combinaison linéaire


des autres lignes.

Soit 𝜆 ∈ K, on 𝑎 :

5. Si on multiplie une colonne de 𝐴 par 𝜆, on obtient une matrice 𝐴0 telle que dét 𝐴0 =
𝜆. det 𝐴.

6. Si on multiplie une ligne de 𝐴 par 𝜆, on obtient une matrice 𝐴00 telle que dét 𝐴00 =
𝜆 dét A.

7. dét (𝜆.A )= 𝜆𝑛 .dét A.

Théorème 2.1.2
1. Le déterminant d’une matrice carrée est égal au déterminant de sa matrice transposée.
2. Soient 𝐴 et 𝐵 ∈ ℳ 𝑛 (K), on 𝑎 :
dét (𝐴 · 𝐵) = dét 𝐴 · dét 𝐵.
dét (𝐴 + 𝐵) ≠ dét 𝐴 + dét 𝐵.
3. Soit 𝐴 ∈ ℳ 𝑛 (𝕂), 𝐴 est inversible si et seulement si dét 𝐴 ≠ 0. Si 𝐴 ∈ ℳ 𝑛 (𝕂) est
inversible, alors
1
dét 𝐴−1 = .
dét 𝐴
17
2.2 Applications des déterminants
2.2.1 Indépendance linéaire de n vecteurs dans un e.v. de dimension
n
Théorème 2.2.1
Soit 𝐸 un 𝕂-e.v. de dimensionÍ𝑛 > 1 et ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) une base de E. Pour que la suite
(𝑥1 , . . . , 𝑥 𝑛 ) ∈ 𝐸 𝑛 avec 𝑥 𝑗 = 𝑛𝑖=1 𝑥 𝑖,𝑗 𝑒 𝑖 , 1 6 𝑗 6 𝑛, soit libre, il faut et il suffit que dét
𝐴 ≠ 0, où :
𝑥1,1 𝑥 1,2 . . . 𝑥1,𝑛
© 𝑥
­ 2,1 𝑥2,2 . . . 𝑥2,𝑛 ®
ª
𝐴 = ­ .. .. .. ®
­ . . . ®
« 𝑥 𝑛,1 𝑥 𝑛,2 . . . 𝑥 𝑛,𝑛 ¬

2.2.2 Système de Cramer


Soit 𝑛 > 1. Soit un système de 𝑛 équations, à 𝑛 inconnues, à coefficients dans K :
𝑛
Õ
(𝑆) 𝑎 𝑖,𝑗 𝑥 𝑗 = 𝑏 𝑖 , 1 6 𝑖 6 𝑛.
𝑗=1

Soit 𝐴 = 𝑎 𝑖,𝑗 ∈ ℳn (𝕂) sa matrice. Le système (S) est de Cramer si et seulement si dét 𝐴 ≠ 0.


Théorème 2.2.2
La solution (𝑥1 , . . . , 𝑥 𝑛 ) du système de Cramer : (S) 𝑛𝑗=1 𝑎 𝑖,𝑗 𝑥 𝑗 = 𝑏 𝑖 , 1 6 𝑖 6 𝑛. est
Í
donnée par les formules de Cramer:
Δ𝑗
𝑥𝑗 = , 1 6 𝑗 6 𝑛,
Δ
où Δ = dét 𝐴 appelé le déterminant du système (𝑆), et où Δ 𝑗 est le déterminant obtenu en
remplaçant, dans Δ, la 𝑗 eme colonne par la colonne des seconds membres de (𝑆).

2.2.3 Calcul de l’inverse d’une matrice carrée inversible


Si 𝑎𝑖𝑗 est un coefficient d’une matrice 𝐴 ∈ ℳ 𝑛 (K), on appelle cofacteur de 𝑎 𝑖𝑗 le nombre réel cof
𝑎 𝑖𝑗 défini par
cof 𝑎 𝑖𝑗 = (−1)𝑖+𝑗 det 𝐴 𝑖𝑗 ,


où 𝐴 𝑖𝑗 la matrice carrée d’ordre 𝑛 − 1 extraite de 𝐴 en enlevant la 𝑖 ieme ligne et la 𝑗 ieme colonne
de 𝐴. La comatrice de 𝐴, est la matrice com(𝐴) obtenue en remplaçant chaque terme 𝑎 𝑖𝑗 de la
matrice 𝐴 par son cofacteur cof 𝑎 𝑖𝑗 , défini en (1).


18
Théorème 2.2.3
Soit 𝐴 une matrice carrée d’ordre 𝑛 > 1.

1. On a :
𝐴(com(𝐴))𝑡 = (det 𝐴)𝐼𝑛 .

2. En particulier, 𝐴 est inversible si et seulement si det 𝐴 ≠ 0 et dans ce cas


1
𝐴−1 = (com(𝐴))𝑡 .
det 𝐴

Remarque:
Soit 𝑓 un endomorphisme d’un K-espace vectoriel de dimension finie 𝐸. Alors 𝑓 est un
automorphisme si et seulement si det 𝑀 𝑓 ≠ 0 avec 𝑀 𝑓 est la matrice de 𝑓 dans une base
quelconque de 𝐸.

Exemple 2.2.1
Nous allons utiliser la formule ci-dessus pour calculer l’inverse de la matrice
 
2 1
𝐴=
4 1

On a det 𝐴 = −2 et  
1 −4
com(𝐴) = .
−1 2
Ainsi 𝐴 et inversible et  
−1 − 21 12
𝐴 = .
2 −1

2.2.4 Calcul du rang d’une matrice


Le rang d’une matrice 𝐴 ∈ ℳ 𝑝,𝑛 (𝕂) noté rg 𝐴 est la dimension du sous-espace vectoriel de 𝕂𝑝
engendré par les vecteurs colonnes {𝑐 1 , . . . , 𝑐 𝑛 } de 𝐴.
Définition 2.2.1
Soit une matrice 𝐴 ∈ ℳ 𝑝,𝑛 (𝕂) et soit 𝑘 un entier tel que 1 6 𝑘 6 min(𝑝, 𝑛). On appelle
déterminant d’ordre 𝑘 extrait de 𝐴, le déterminant de toute matrice carrée obtenue en
suppramant dans 𝐴, 𝑝 − 𝑘 lignes et 𝑛 − 𝑘 colonnes.

Exemple 2.2.2

19
Considérons par exemple, la matrice

2 1 4 3
­1 2 1 3®
© ª
𝐴=­
­1 1 2 3®
®

«0 1 2 1¬
Les déterminants
2 1 3
1 3
1 2 3 et
2 3
1 1 3
sont deux déterminants d’ordre respectifs 3 et 2 extraits de 𝐴.

Théorème 2.2.4
Soit 𝐴 ∈ ℳ 𝑝,𝑛 (K) et soit 𝜌 le plus grand entier 𝑘 6 min(𝑝, 𝑛) tel qu’il existe un déterminant
non nul, d’ordre 𝑘, extrait de 𝐴. Alors

𝑟 𝑔(𝐴) = 𝜌.

Exemple 2.2.3
Etudions, suivant les valeurs de 𝑎, 𝑏 et 𝑐 ∈ R, le rang de la matrice
0 −𝑎 −𝑏
𝐴=­ 𝑎 0 −𝑐 ®
© ª

« 𝑏 𝑐 0 ¬
On a det 𝐴 = 0 et donc 0 6 rg(𝐴) < 3.
• Si 𝑎 = 𝑏 = 𝑐 = 0 alors 𝐴 = 0 et donc rg(𝐴) = 0.
• Si 𝑎 ≠ 0, on extrait de la matrice 𝐴 le déterminant d’ordre 2 suivant (on supprime
la ligne 3 et la colonne 3 ) :
0 −𝑎
= 𝑎2
𝑎 0
qui est différent de 0 . Donc rg(𝐴) = 2.
• Si 𝑏 ≠ 0, on extrait de la matrice 𝐴 le déterminant d’ordre 2 suivant (on supprime
la ligne 2 et la colonne 2 ) :
0 −𝑏
= 𝑏2
𝑏 0
qui est différent de 0. Donc rg(A) = 2.
• Si 𝑐 ≠ 0, on extrait de la matrice A le déterminant d’ordre 2 suivant (on supprime la
ligne 1 et la colonne 1):
0 −𝑐
= 𝑐2
𝑐 0
qui est différent de 0. Donc rg(A) = 2.

20
Chapter 3

Réduction des matrices carrées :


Diagonalisation

Dans tout ce chapitre, K = IR ou C.

3.1 Vecteurs propres et valeurs propres


Soit 𝐴 = 𝑎 𝑖,𝑗 ∈ ℳn (𝐾). On note par 𝐼n la matrice unité d’ordre 𝑛.


3.1.1 Vecteurs propres et valeurs propres d’une matrice


Définition 3.1.1
Un vecteur 𝑥 ∈ 𝐾 𝑛 est vecteur propre de la matrice A, s’ı́l vérifie les deux conditions
suivantes:

1. 𝑥 ≠ 0;

2. il existe 𝜆 ∈ 𝐾 tel que 𝐴𝑥 = 𝜆.𝑥

Définition 3.1.2
Un scalaire 𝜆 ∈ 𝐾 est une valeur propre de 𝐴, s’il existe un vecteur propre 𝑥 ∈ 𝐾 𝑛 tel que
𝐴𝑥 = 𝜆.𝑥

3.1.2 Recherche des vecteurs propres et des valeurs propres d’une


matrice
Proposition 3.1.1
Si 𝜆 ∈ 𝐾 est une valeur propre de 𝐴 alors ker (𝐴 − 𝜆𝐼𝑛 ), appelé le sous-espace propre de 𝐴
associé à la valeur propre 𝜆, est constitué par le vecteur nul et par les vecteurs propres de
A associés à la valeur propre 𝜆.

21
Définition 3.1.3
Soit 𝐴 ∈ ℳ 𝑛 (𝐾). Le polynôme dét (𝐴 − 𝑋𝐼𝑛 ) ∈ 𝐾[𝑋] est appelé le polynôme car-
actéristique de 𝐴 et on note ce polynôme 𝑃𝐴 (𝑋). Les racines, dans 𝐾, de 𝑃𝐴 (𝑋), sont
appelées les valeurs propres de 𝐴 dans 𝐾.

Proposition 3.1.2
Le polynôme caractéristique de la matrice 𝐴 ∈ ℳ 𝑛 (𝐾) est un polynôme à coefficients dans
𝐾, de degré 𝑛 et on 𝑎 :

𝑃𝐴 (𝑋) = 𝑎 𝑛 𝑋 𝑛 + 𝑎 𝑛−1 𝑋 𝑛−1 + . . . + 𝑎 0


Ín
avec 𝑎 𝑛 = (−1)n , 𝑎n−1 = (−1)n−1 𝑖=1 𝑎 𝑖,𝑖 , et 𝑎 0 = dét 𝐴,

Définition 3.1.4
Si 𝜆 est une racine, dans 𝐾, du polynôme caractéristique 𝑃𝐴 (𝑋), de multiplicité 𝛼 > 1,
l’entier 𝛼 est appelé la multiplicité de la valeur propre 𝜆.

Il résulte de la proposition 2 et des propriétés des polynômes :


Corollaire 3.1.1
La matrice 𝐴 ∈ 𝑀𝑛 (𝐾) admet au plus 𝑛 valeurs propres distinctes, et si elle admet des
valeurs propres, la somme de leurs multiplicités est inférieure ou égale à 𝑛.

Remarque:
Si 𝐾 = ℂ, la matrice 𝐴 admet, d’après le théorème de d’Alembert, au moins une valeur propre.
𝐷’après le théorème de factorisation dans ℂ[𝑋], on a :
 𝛼𝑝
𝑃𝐴 (𝑋) = (𝜆1 − 𝑋)𝛼1 . . . 𝜆 𝑝 − 𝑋 ,

où les 𝜆 𝑖 sont des nombres complexes deux à deux distincts et les 𝛼 𝑖 des entiers supérieurs ou
égaux à 1 .
Les valeurs propres de 𝐴 sont 𝜆1 , . . . , 𝜆 𝑝 , de multiplicités 𝛼1 , . . . , 𝛼 𝑝 , et on a 𝛼1 + . . . + 𝛼 𝑝 =
𝑑◦ 𝑃𝐴 (𝑋) = 𝑛.
Attention : Ceci est faux si 𝐾 = ℝ. En effet, si 𝐾 = R, 𝐴 n’admet pas nécessairement de
valeur propre.

Exemple 3.1.1
Soit 𝐴 ∈ 𝑀2 (R) :  
0 −1
𝐴=
1 0
On a :
−𝑋 −1
𝑃𝐴 (𝑋) = 𝑑𝑒𝑡 (𝐴 − 𝑋𝐼2 ) = = 𝑋2 + 1
1 −𝑋
𝐴 n’admet pas de valeur propre dans ℝ, mais admet les valeurs propres simples 𝑖 et −𝑖

22
dans ℂ.

3.2 Diagonalisation
Définition 3.2.1
Soit 𝐴 ∈ ℳ 𝑛 (𝐾). On dit que 𝐴 est diagonalisable sur 𝐾, si elle est semblable, dans ℳ 𝑛 (𝐾),
à une matrice diagonale, c’est-à-dire s’il existe une matrice 𝑃 ∈ ℳ 𝑛 (𝐾), inversible, telle
que la matrice 𝑃 −1 𝐴𝑃 soit diagonale.

3.2.1 Caractérisation des matrices diagonalisables

Théorème 3.2.1
Soit 𝐴 ∈ 𝑀𝑛 (𝐾). Pour que A soit diagonalisable, il faut et il suffit que les deux conditions
suivantes soient satisfaites:

1. Le polynôme caractéristique de A est décompsable en produit de facteurs du premier


degré dans 𝐾[𝑋] : 𝛼
𝑃𝐴 (𝑋) = (𝜆1 − 𝑋)𝛼1 . . . 𝜆 𝑝 − 𝑋 𝑝 ,
où les 𝜆i sont des éléments (deux à deux) distincts de 𝐾.

2. La dimension de chaque sous-espace propre 𝐸 𝑖 = 𝑘𝑒𝑟 (𝐴 − 𝜆1 𝐼𝑛 ) est égale à la multi-


plicité 𝛼 𝑖 de la valeur propre associée 𝜆1 .

Corollaire 3.2.1
Si 𝐴 admet 𝑛 valeurs propres distinctes, alors 𝐴 est diagonalsable.

3.2.2 Pratique de la diagonalisation


Soit la matrice 𝐴 ∈ ℳn (𝐾) :
1. On calcule le polynôme caractéristique de 𝐴 :

𝑃𝐴 (𝑋) = dét (𝐴 − 𝑋𝐼𝑛 )

on essayera, autant que possible, de calculer 𝑃𝐴 (𝑋) en factorisant dét (𝐴 − 𝑋𝐼𝑛 ). Si 𝑃𝐴 (𝑋)
ne vérifie pas la condition (1) du théorème 1 , c’est-à-dire si 𝑃𝐴 (𝑋) n’est pas scindé sur 𝐾,
alors 𝐴 n’est pas diagonalisable sur 𝐾.
2. Si 𝑃𝐴 (𝑋) est scindé sur 𝐾, on détermine la dimension de chaque sous-espace propre 𝐸 𝑖 =
ker (𝐴 − 𝜆 𝑖 𝐼𝑛 ).
• Si la condition (2) du théorème 1 n’est pas vérifiée, c’est à dire s’il existe un sous
espace propre dont la dimension n’est pas égale à la multiplicité de la valeur propre
associée, alors 𝐴 n’est pas diagonalisable sur 𝐾.
23
• Si la condition (2) du théorème 1 est également réalisée, 𝐴 est diagonalisable. Il faut
donc trouver une matrice inversible 𝑃 ∈ ℳ 𝑛 (𝐾) telle que 𝑃 −1 𝐴𝑃 soit diagonale.
𝑝
3. On détermine une base ℬ𝑖0 de 𝐸 𝑖 pour 1 6 𝑖 6 𝑝; alors ℬ 0 = ∪𝑖=1 ℬ𝑖0 est une base de 𝐾 𝑛 .
La matrice 𝑃 est la matrice de passage de la base canonique de 𝐾 𝑛 à la base ℬ 0.

Exemple 3.2.1
Soit la matrice :
3 −1 2
𝐴 = ­ 0 2 2 ® ∈ ℳ3 (R).
© ª

« 1 −1 4 ¬
Montrons que la matrice 𝐴 est diagonalisable sur R et diagonalisons 𝐴. On détermine le
polynôme caractéristique de 𝐴, on a :

3−𝑋 −1 2 2−𝑋 −1 2 1 −1 2
𝑃𝐴 (𝑋) = 0 2−𝑋 2 = 2−𝑋 2−𝑋 2 = (2 − 𝑋) 0 3 − 𝑋 0
1 −1 4 − 𝑋 0 −1 4 − 𝑋 0 −1 4 − 𝑋

Le passage du premier déterminant au deuxième est obtenu en remplaçant la colonne


𝐶1 par 𝐶1 + 𝐶2 .
Le passage du deuxième déterminant au troisième est obtenu en remplaçant la ligne 𝐿2 par
𝐿2 − 𝐿1 . Ensuite, on développe par rapport à la première colonne, on a :

𝑃𝐴 (𝑋) = (2 − 𝑋)(3 − 𝑋)(4 − 𝑋).

Les valeurs propres sont 2,3 et 4 et elles sont toutes simples. D’après le corrolaire 2 , la
matrice 𝐴 est diagonalisable. Cherchons les sous espaces propres 𝐸𝜆=2 , 𝐸𝜆=3 et 𝐸𝜆=4 . 𝐸𝜆=2
? on résoud le système linéaire 𝐴𝑋 = 2𝑋 avec

𝑥
𝑋=­ 𝑦 ®
© ª

( « 𝑧 ¬
𝑥 − 𝑦 + 2𝑧 =0
𝑧 =0

Donc 𝐸𝜆=2 = Vect (𝑣 1 = (1, 1, 0)). 𝐸𝜆=3 ? on résoud le système linéaire 𝐴𝑋 = 3𝑋



−𝑦 + 2𝑧 = 0
𝑥−𝑦+𝑧=0

Donc 𝐸𝜆=3 = Vect (𝑣 2 = (1, 2, 1)). 𝐸𝜆=4 ? on résoud le système linéaire 𝐴𝑋 = 4𝑋

 −𝑥 − 𝑦 + 2𝑧 = 0




−𝑦 + 𝑧 =0
𝑥 − 𝑦


 =0

24
Donc 𝐸𝜆=4 = Vect (𝑣3 = (1, 1, 1)). La matrice de passage de la base canonique de R3 à la
base (𝑣 1 , 𝑣2 , 𝑣3 ) est :

1 1 1 1 0 −1
𝑃 = ­ 1 2 1 ® d’inverse 𝑃 −1 = ­ −1 1 0 ®
© ª © ª

«0 1 1¬ « 1 −1 1 ¬
La colonne 𝐶 𝑖 correspond aux cordonnées du vecteur 𝑣 𝑖 , 1 6 𝑖 6 3, et on a :

2 0 0
−1
𝑃 𝐴𝑃 = ­ 0 3 0 ®
© ª

«0 0 4¬

Remarque:
l’ordre dans lequel sont écrites les valeurs propres (2, ensuite 3, ensuite 4) est le même que
celui dans lequel sont écrites les colomes 𝐶1 , 𝐶2 et 𝐶3 .

25
Chapter 4

Réduction des matrices carrées :


Trigonalisation

Dans tout le chapitre, K désigne l’ensemble ℝ ou l’ensemble ℂ. Les lettres 𝑛, 𝑚, 𝑝, 𝑞, 𝑛1 et


𝑛2 désignent des entiers naturels non nuls. 𝐼𝑛 désigne la matrice carrée unité d’ordre 𝑛 et
𝑂 𝑝,𝑞 ∈ ℳ 𝑝,𝑞 (𝕂) désigne la matrice nulle à 𝑝 lignes et 𝑞 colonnes.

4.1 Rappels sur les matrices par blocs


Des fois, il est pratique de changer la présentation habituelle des matrices et de les écrire sous
forme de blocs. Par exemple, si on considère la matrice 𝑀 ∈ ℳ3 (R) :

1 −7 −3
𝑀=­ 0 5 2 ®
© ª

« 0 −8 3 ¬

on peut l’écrire de plusieurs façons par blocs, par exemple :

1 | −7 −3
𝐴
ª  
­ −− −− −− −− ® 1
©
𝑀=­ ®=
­ 0 | 5 2 ® 𝑂 2 ,1 𝐵
« 0 | −8 3 ¬

avec 𝐴 ∈ ℳ1,2 (R) et 𝑂2,1 ∈ ℳ2,1 (𝕂) données par


 
0
𝐴= et 𝑂 2,1 =

−7 −3
0

et 𝐵 ∈ ℳ2 (ℝ) donnée par  


5 2
𝐵=
−8 −3
D’une façon générale, on a :

26
Définition 4.1.1
Soit 𝑀 ∈ ℳ 𝑛,𝑚 (K), 𝑀 est une matrice par blocs lorsqu’l existe des matrices 𝑀 𝑖,𝑗 ∈
Í𝑝 Í𝑞
ℳ 𝑝 𝑖 ,𝑞 𝑗 (𝕂), 1 6 𝑖 6 𝑝 et 1 6 𝑗 6 𝑞 avec 𝑖=1 𝑝 𝑖 = 𝑛, 𝑗=1 𝑞 𝑗 = 𝑚 telle que la matrice
𝑀 s’écrit :
𝑀1,1 𝑀1,2 𝑀1,𝑞
© 𝑀
­ 2,1 𝑀2,2 𝑀2,𝑞 ®
ª
ℳ = ­ .. .. .. ®
­ . . . ®
« 𝑀 𝑝,1 𝑀 𝑝,2 𝑀 𝑝,𝑞 ¬
Dans le cas 𝑝 = 𝑞 = 2 et 𝑚 = 𝑛, la matrice 𝑀 s’écrit :

𝑀1 , 1 𝑀1 , 2
 
𝑀=
𝑀2 , 1 𝑀2 , 2

avec 𝑀1,1 ∈ ℳ 𝑛1 (𝕂), 𝑀1,2 ∈ ℳ 𝑛1 ,𝑛2 (K), 𝑀2,1 ∈ ℳ 𝑛2 ,𝑛1 (K), 𝑀2,2 ∈ ℳ 𝑛2 (K) et 𝑛1 + 𝑛2 =
𝑛.

Lorsque les matrices sont écrites sous fome de blocs, on peut faire les opérations (addition
et produit) directement avec ces formes.

4.2 Opérations sur les matrices écrites par blocs


Pour tous 𝐴, 𝐴0 ∈ ℳ 𝑛1 (K), 𝐵, 𝐵0 ∈ ℳ 𝑛1 ,𝑛2 (𝕂), 𝐶, 𝐶 0 ∈ ℳ 𝑛1 ,𝑛1 (𝕂) et 𝐷, 𝐷 0 ∈ ℳ 𝑛2 (𝕂) avec
𝑛1 + 𝑛2 = 𝑛, on a :
Addition :
𝐴 𝐵 𝐴0 𝐵0 𝐴 + 𝐴0 𝐵 + 𝐵0
     
+ =
𝐶 𝐷 𝐶0 𝐷0 𝐶 + 𝐶0 𝐷 + 𝐷0

Produit :
𝐴 𝐵 𝐴0 𝐵0 𝐴 · 𝐴0 + 𝐵 · 𝐶 0 𝐴 · 𝐵0 + 𝐵 · 𝐷 0
     
· =
𝐶 𝐷 𝐶0 𝐷0 𝐶 · 𝐴0 + 𝐷 · 𝐶 0 𝐶 · 𝐵0 + 𝐷 · 𝐷 0

Déterminant : Pour toutes matrices 𝐴 ∈ ℳ 𝑛1 (𝕂), 𝐵 ∈ ℳ 𝑛1 ,𝑛2 (K) et 𝐷 ∈ ℳ 𝑛2 (𝕂) avec


𝑛1 + 𝑛2 = 𝑛, on a :
𝐴 𝐵
 
𝑑𝑒𝑡 = 𝑑𝑒𝑡𝐴.𝑑𝑒𝑡𝐷.
𝑂 𝑛2 ,𝑛1 𝐷

Polynôme caractéristique : Pour toute matrice

𝐴 𝐵
 
𝑀= ∈ ℳ 𝑛 (K)
𝑂 𝑛2 ,𝑛1 𝐷

avec 𝐴 ∈ ℳ 𝑛1 (𝕂), 𝐵 ∈ ℳ 𝑛1 ,𝑛2 (𝕂), 𝐷 ∈ ℳ 𝑛2 (K) et 𝑛1 + 𝑛2 = 𝑛, on a :

𝑃𝑀 (𝑋) = 𝑃𝐴 (𝑋) · 𝑃𝐷 (𝑋).

où 𝑃𝐴 (𝑋) et 𝑃𝐷 (𝑋) sont les polynômes caractéristiques des matrices 𝐴 et 𝐷.


27
Définition 4.2.1
Soient 𝐸 un K− e.v. et 𝑓 ∈ ℒ(𝐸). Un s.e.v. 𝐹 de E est dit stable par 𝑓 si et seulement si
𝑓 (𝐹) ⊂ 𝐹, c’est à dire ∀𝑥 ∈ 𝐹, 𝑓 (𝑥) ∈ 𝐹.

Soit 𝐹 un s.e.v. de 𝐸. On suppose dim 𝐸 = 𝑛 et dim 𝐹 = 𝑝. Soit 𝑒1 , . . . , 𝑒 𝑝 une base de 𝐹, on



la complète par 𝑛 − 𝑝 vecteurs 𝑒 𝑝+1 , . . . , 𝑒 𝑛 de 𝐸 pour que 𝐵 = (𝑒1 , . . . , 𝑒 𝑛 ) soit une base de 𝐸.
Alors, 𝐹 est stable par 𝑓 si et seulement si la matrice de 𝑓 dans la base 𝐵 est de la forme :

𝑀1 , 1 𝑀1 , 2
 
𝑀=
𝑂 𝑛−𝑝,𝑝 𝑀2,2

avec 𝑀1,1 ∈ ℳ 𝑝 (K), 𝑀1,2 ∈ ℳ 𝑝,𝑛−𝑝 (K), 𝑀2,2 ∈ ℳ 𝑛−𝑝 (K).

4.3 Matrices triangulaires


Définition 4.3.1
Soit 𝑇 ∈ ℳ 𝑛 (K) une matrice carrée à coefficients dans K. Elle est dite triangulaire
supérieure si elle est de la forme

𝑎1,1 𝑎 1,2 𝑎 1,3 𝑎 1,𝑛−1 𝑎1,𝑛


© 0 𝑎 2,2 𝑎 2,3 𝑎 2,𝑛−1 𝑎2,𝑛 ª
𝑇 = ­ ... .. .. .. ..
­ ®
. . . .
­ ®
®
0 𝑎 𝑛−1,𝑛−1 𝑎 𝑛,𝑛
­ ®
­ 0 0 ®
« 0 0 0 0 𝑎 𝑛,𝑛 ¬

Proposition 4.3.1
Toute matrice triangulaire supérieure de ℳ 𝑛 (K) admet n valeurs propres (non toujours
distinctes) :
𝜆 𝑘 = 𝑎 𝑘,𝑘 , 𝑘 = 1, . . . , 𝑛.

Proof: Le polynôme caractéristique de la matrice 𝑇 est:

(𝑎 1,1 − 𝑋) 𝑎 1 ,2 𝑎 1 ,3 𝑎 1,𝑛 𝑎 1,𝑛


© 0 (𝑎 2,2 − 𝑋) 𝑎 2,𝑛−1 𝑎 2,𝑛 𝑎 2,𝑛 ª
.. .. .. ..
­ ®
𝑑𝑒𝑡(𝑇 − 𝑋𝐼𝑛 ) = 𝑑 𝑒ˆ 𝑡 ­ . . . . 𝑎2,𝑛−1
­ ®
®
(𝑎 𝑛−1,𝑛−1 − 𝑋) 𝑎 𝑛−1,𝑛
­ ®
­ 0 0 0 ®
« 0 0 0 0 (𝑎 𝑛,𝑛 − 𝑋) ¬
En développant ce déterminant, à chaque fois, par rapport à la première colonne, on obtient
:
𝑑𝑒𝑡 (𝑇 − 𝑋𝐼𝑛 ) = (𝑎 1,1 − 𝑋) (𝑎 2,2 − 𝑋) · · · (𝑎 𝑛−1,𝑛−1 − 𝑋) (𝑎 𝑛,𝑛 − 𝑋) .
dont les racines sont : 𝜆 𝑘 = 𝑎 𝑘 𝑘 , 𝑘 = 1, . . . , 𝑛.
28
4.4 Matrices trigonalisables
Définition 4.4.1
Soit 𝑀 ∈ ℳ 𝑛 (K) une matrice carrée à coefficients dans K. Elle est dite trigonalisable si
elle est semblable à une matrice triangulaire (supéreiure) 𝑇 ∈ ℳ 𝑛 (K). C’est-à-dire, s’il
existe une matrice inversible 𝑃 ∈ ℳ 𝑛 (𝕂) telle que:

𝑎 1,1 𝑎 1,2 𝑎1,3 𝑎1,𝑛−1 𝑎1,𝑛


© 0 𝑎 2,2 𝑎2,3 𝑎2,𝑛−1 𝑎2,𝑛 ª
𝑇 = 𝑃 −1 𝑀𝑃 = ­ ... .. .. .. ..
­ ®
. . . .
­ ®
®
0 𝑎 𝑛−1,𝑛−1 𝑎 𝑛−1,𝑛
­ ®
­ 0 0 ®
« 0 0 0 0 𝑎 𝑛,𝑛 ¬

On en déduit la proposition suivante :


Proposition 4.4.1
Soit 𝑀 ∈ ℳ 𝑛 (K). Si 𝑀 est trigonalisable sur K alors, son polynôme caractéristique est
scindé sur 𝕂.

Proof: Soit 𝑀 ∈ ℳ 𝑛 (K) trigonalisable. Elle est donc semblable à une matrice 𝑇 ∈ ℳ 𝑛 (K) tri-
angulaire (supérieure). Comme deux matrices semblables ont le même polynôme caractéristique,
on a :

𝑃𝑀 (𝑋) = 𝑃𝑇 (𝑋) = 𝑑𝑒𝑡 (𝑇 − 𝑋𝐼𝑛 ) = (𝑎 1,1 − 𝑋) (𝑎 2,2 − 𝑋) · · · (𝑎 𝑛−1,𝑛−1 − 𝑋) (𝑎 𝑛,𝑛 − 𝑋) .

Le résultat essentiel de ce chapitre est le théorème suivant :


Théorème 4.4.1
Toute matrice 𝑀 de ℳ 𝑛 (K) est trigonalisable sur 𝕂 si, et seulement si, son polynôme
caractéristique 𝑃𝑀 (𝑋) est scindé sur K.

Proof:

Condition nécessaire : elle découle de la proposition ci-dessus.


Condition suffisante : on la montre par récurrence sur l’ordre 𝑛 de la matrice 𝑀. n = 1
: Toute matrice carrée d’ordre 1 s’écrit 𝑀 = (𝑎 1,1 ), elle est évidemment trigonalisable sur
K. Donc le résultat est vrai à l’ordre 1.
L’hypothèse de récurrence (H.R) : Soit 𝑛 > 1, supposons que le résultat est vrai à
l’ordre n, c’est à dire : supposons que toute matrice carrée d’ordre 𝑝, 1 6 𝑝 6 𝑛, dont le
polynôme caractéristique est scindé sur K soit trigonalisable.
Montrons que le résultat est encore vrai à l’ordre n + 1. Soit 𝑀 ∈ ℳ 𝑛+1 (K) avec 𝑃𝑀 (𝑋)
scindé sur K. La matrice 𝑀 admet donc 𝑛 + 1 valeurs propres (pas forcément distinctes).
Soit 𝜆 une valeur propre de 𝑀 et soit 𝐹 = K · 𝑣 = 𝑉 𝑒𝑐𝑡(𝑣), où 𝑣 est un vecteur propre
associé à la valeur propre 𝜆. On peut compléter (𝑣) par 𝑛 vecteurs 𝑒1 , . . . , 𝑒 𝑛 de K𝑛+1 pour
que 𝐵 = (𝑣, 𝑒1 , . . . , 𝑒 𝑛 ) soit une base de K𝑛+1 .
29
Soit 𝑃 la matrice de passage de la base canonique de K𝑛+1 à la base 𝐵. La matrice 𝑀1
semblable à 𝑀 donnée par :
𝑀1 = 𝑃 −1 𝑀𝑃
est de la forme :
𝜆 𝐴1 , 2
 
𝑀1 =
𝑂 𝑛,1 𝑁
avec 𝐴1,2 ∈ ℳ1,𝑛 (K) et 𝑁 ∈ ℳ 𝑛 (K). La matrice 𝑁 ∈ ℳ 𝑛 (K) possède 𝑛 valeurs propres
qui sont aussi des valeurs propres de la matrice 𝑀. En effet, d’après la première section,
on a :
𝑃𝑀 (𝑋) = (𝜆 − 𝑋)𝑃𝑁 (𝑋).
Donc le polynôme 𝑃𝑁 (𝑋) est scindé sur 𝕂. D’après l’hypothèse de récurrence (H.R), il
existe une matrice inversible 𝑄 ∈ ℳ 𝑛 (𝕂) telle que la matrice d’ordre 𝑛

𝑇1 = 𝑄 −1 𝑁𝑄

soit triangulaire (supérieure). Considérons maintenant la matrice 𝑃1 d’ordre 𝑛 + 1 donnée


par :
𝑂 1,𝑛
 
1
𝑃1 = .
𝑂 𝑛,1 𝑄
𝑃1 est inversible d’inverse
𝑂 1,𝑛
 
1
𝑃1−1 =
𝑂 𝑛,1 𝑄 −1
Effectuons le produit 𝑃1−1 𝑀1 𝑃1 , on obtient :

𝜆 𝐴1 , 2 · 𝑄 𝜆 𝐴1 , 2 · 𝑄
   
𝑇= 𝑃1−1 𝑀1 𝑃1 = =
𝑂 𝑛,1 𝑄 −1 𝑁𝑄 𝑂 𝑛,1 𝑇1

La matrice 𝑇 est alors triangulaire supérieure. Puisque

𝑇 = 𝑃1−1 𝑀1 𝑃1 = 𝑃1−1 𝑃 −1 𝑀𝑃 𝑃1 = (𝑃.𝑃1 )−1 𝑀 (𝑃.𝑃1 )




et la matrice 𝑃.𝑃1 est inversible, on en déduit que la matrice 𝑀 est semblable à une matrice
triangulaire supérieure, donc trigonalisable sur 𝕂. D’où, le résultat est vrai à l’ordre 𝑛 + 1.

Exemple 4.4.1
Soit la matrice
1 −3 4
𝑀 = ­ 4 −7 8 ®
© ª

« 6 −7 7 ¬
On calcule le poynôme caractéristique de 𝑀.

(1 − 𝑋) −3 4
𝑃𝑀 (𝑋) = 4 (−7 − 𝑋) 8
6 −7 (7 − 𝑋)

30
En remplaçant la ligne 𝐿2 par 𝐿2 − 2𝐿1 ona :
(1 − 𝑋) −3 4
𝑃𝑀 (𝑋) = 2(1 + 𝑋) −(1 + 𝑋) 0
6 −7 (7 − 𝑋)
Ensuite, on remplace la colonne 𝐶1 par 𝐶1 + 2𝐶2 , on a
−5 − 𝑋 −3 4
𝑃𝑀 (𝑋) = 0 −(1 + 𝑋) 0
−8 −7 (7 − 𝑋)
On développe le déterminant par rapport à la ligne 𝐿2 , on a
−5 − 𝑋 4
𝑃𝑀 (𝑋) = −(1 + 𝑋) = −(1 + 𝑋) 𝑋 2 − 2𝑋 − 3 = −(𝑋 + 1)2 (𝑋 − 3)

−8 (7 − 𝑋)
Les valeurs propres de 𝑀 sont : 𝜆1 = 3 simple et 𝜆2 = −1 double.
Déterminons les sous espace propres 𝐸𝜆1 et 𝐸𝜆2 . 𝐸𝜆1 : on résout le système linéaire
𝑀𝑋 = 3𝑋 avec
𝑥
𝑋=­ 𝑦 ®
© ª

« 𝑧 ¬
soit
 −2𝑥 − 3𝑦 + 4𝑧 = 0



2𝑥 − 5𝑦 + 4𝑧 = 0
 6𝑥 − 7𝑦 + 4𝑧 = 0


On obtient 𝐸𝜆1 = Vect (𝑣 1 = (1, 2, 2)). 𝐸𝜆2 : on résout le système linéaire 𝑀𝑋 = −𝑋 soit

 2𝑥 − 3𝑦 + 4𝑧 = 0



4𝑥 − 6𝑦 + 8𝑧 = 0
 6𝑥 − 7𝑦 + 8𝑧 = 0


On obtient 𝐸𝜆2 = Vect (𝑣2 = (1, 2, 1)). Donc la matrice 𝑀 n’est pas diagonalisable (dim
𝐸𝜆2 = 1 < multiplicité de la v.p. -1 qui est double). Le polynôme caractéristique 𝑃𝑀 (𝑋)
est scindé sur ℝ, donc la matrice 𝑀 est trigonalisable sur ℝ. Pour trigonaliser la matrice,
il suffit de compléter la suite (𝑣1 , 𝑣2 ) par unvecteur 𝑣3 ∈ R3 , soit par exemple 𝑣3 = (1, 0, 0),
pour avoir une base 𝐵 = (𝑣1 , 𝑣2 , 𝑣3 ) de R3 . La matrice de passage 𝑃 de la base canonique
de ℝ3 à la base 𝐵 est
1 1 1 0 −1 2

𝑃 = ­ 2 2 0 ® d’inverse 𝑃 −1 = ­ 0 2 −2 ®
© ª ª
2 2 −1 0
«2 1 0¬ « ¬
La matrice 𝑀 est alors semblable à la matrice triangulaire supérieure 𝑇 = 𝑃 −1 𝑀𝑃 donnée
par
3 0 4
𝑇 = ­ 0 −1 −2 ®
© ª

« 0 0 −1 ¬
31
Exemple 4.4.2
Soit la matrice
−2 −1 2
𝑀 = ­ −15 −6 11 ®
© ª

« −14 −6 11 ¬
On calcule le polynôme caractéristique de 𝑀.
−(2 + 𝑋) −1 2
𝑃𝑀 (𝑋) = −15 −(6 + 𝑋) 11 = −(𝑋 − 1)3
−14 −6 (11 − 𝑋)

Les valeurs propres de 𝑀 sont : 𝜆 = 1 triple. Déterminons le sous espace propre 𝐸𝜆 : on


résout le système linéaire 𝑀𝑋 = 𝑋 avec
𝑥
𝑋=­ 𝑦 ®
© ª

« 𝑧 ¬
soit
 −3𝑥 − 𝑦 + 2𝑧 = 0



−15𝑥 − 7𝑦 + 11𝑧 = 0
 −14𝑥 − 6𝑦 + 10𝑧 = 0


On obtient 𝐸𝜆 = Vect (𝑣1 = (1, 1, 2)). La matrice 𝑀 n’est donc pas diagonalisable (dim
𝐸𝜆 = 1 < multiplicité de 𝜆 qui est triple). Le polynôme caractéristique de 𝑀 est scindé sur
R, donc la matrice 𝑀 est trigonalisable sur R. Pour trigonaliser la matrice, on complète
(𝑣1 ) par deux vecteures 𝑣2 , 𝑣3 ∈ R3 pour avoir une base 𝐵 = (𝑣1 , 𝑣2 , 𝑣3 ) de ℝ3 . Soit par
exemple 𝑣2 = (1, 0, 0) et 𝑣3 = (0, 1, 0), alors la matrice de passage 𝑃 de la base canonique
de ℝ3 à la base 𝐵 est
1 1 0 0 0 1

𝑃 = ­ 1 0 1 ® dinverse 𝑃 −1 = ­ 2 0 −1 ®
© ª ª
2 0 2 −1
«2 0 0¬ « ¬
La matrice 𝑀 est alors semblable à la matrice 𝑀1 = 𝑃 −1 𝑀𝑃 donnée par
1 −7 −3
𝑀1 = ­ 0 5 2 ®
© ª

« 0 −8 3 ¬
qu’on écrit par blocs :
1 | −7 −3
𝐴1 , 2
ª  
­ −− −− −− −− ® 1
©
𝑀1 = ­ ®=
­ 0 | 5 2 ® 𝑂 2 ,1 𝑁
« 0 | −8 3 ¬
avec  
5 2
𝑁=
−8 −3

32
et 𝐴1,2 ∈ ℳ1,2 (R) donnée par
𝐴1 , 2 =

−7 −3
La matrice 𝑁 est trigonalisable. En effet, le polynôme caractéristique 𝑃𝑁 (𝑋) = (𝑋 − 1)2 .
Le vecteur 𝑤 1 = (1, −2) est un vecteur propre associé à la valeur propre 1 de la matrice 𝑁.
On complète (𝑤1 ) par le vecteur 𝑤2 = (1, 0) pour avoir une base 𝐵0 = (𝑤1 , 𝑤2 ) de ℝ2 . La
matrice de passage de la base canonique de R2 à la basa 𝐵0 est
   
1 1 −1 1 0 −1
𝑄= dinverse 𝑄 =
−2 0 2 2 1

La matrice 𝑄 −1 𝑁𝑄 est triangulaire supérieure, on a :


 
1 4
𝑄 −1 𝑁𝑄 =
0 1

Considérons la matrice 𝑃1 d’ordre 3 définie par

𝑂 1 ,2
 
1
𝑃1 =
𝑂 2 ,1 𝑄

𝑃1 est inversible d’inverse


𝑂 1 ,2
 
1
𝑃1−1 =
𝑂 2 , 1 𝑄 −1
Alors la matrice
1 −1 −7
𝐴1 , 2 · 𝑄
 
−1 1
𝑇= 𝑃1−1 𝑀1 𝑃1 = 𝑃1−1 𝑃 −1 𝑀𝑃𝑃1 = (𝑃.𝑃1 ) 𝑀 (𝑃.𝑃1 ) = =­ 0 1 4 ®
© ª
𝑂 2,1 𝑄 −1 𝑁𝑄
«0 0 1 ¬

est triangulaire supérieure semblable à la matrice 𝑀.

Remarque:
1. Toute matrice carrée est trigonalisable sur ℂ.

2. Il existe des matrices carrées qui ne sont pas trigonalisables sur ℝ. En effet, prenons par
exemple la matrice  
0 1
𝑀=
−1 0
Puisque 𝑃𝑀 (𝑋) = 𝑋 2 + 1, le polynôme caractéristique de 𝑀 n’est pas scindé sur ℝ.
Donc, la matrice 𝑀 n’est pas trigonalisable sur R.

Définition 4.4.2
Soit 𝐸 un K-espace vectoriel de dimension finie. Soit B une base quelconque de 𝐸 et 𝑓 un
endomorphisme de 𝐸. On dit que l’endomorphisme 𝑓 est trigonalisable sur K si la matrice
de 𝑓 dans la base 𝐵 est semblable à une matrice triangulaire supérieure.

33
Chapter 5

Formes linéaires et bilinéaires

Dans tout le chapitre, K désigne l’ensemble ℝ ou l’ensemble ℂ, 𝐸 un 𝕂 espace vectoriel de


dimension finie égale à 𝑛 et ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) une base de 𝐸.

5.1 Formes linéaires


Définition 5.1.1
Une forme linéaire sur 𝐸 est une application linéaire de 𝐸 dans 𝕂.

Exemple 5.1.1
Pour tout, 1 6 𝑖 6 𝑛, l’application :

𝑒 𝑖∗ : 𝐸 −→ K
𝑛
Õ
𝑥= 𝑥 𝑗 𝑒 𝑗 ↦−→ 𝑒 𝑖∗ (𝑥) = 𝑥 𝑖
𝑗=1

est une forme linéaire sur 𝐸. En effet, pour tous 𝑥, 𝑦 ∈ 𝐸 et pour tous 𝛼, 𝛽 ∈ K :

𝑛
Õ
𝑒 𝑖∗ (𝛼 · 𝑥 + 𝛽 · 𝑦) = 𝑒 𝑖∗ ­ 𝛼𝑥 𝑗 + 𝛽𝑦 𝑗 𝑒 𝑗 ® = 𝛼𝑥 𝑖 + 𝛽𝑦 𝑖 = 𝛼𝑒 𝑖∗ (𝑥) + 𝛽𝑒 𝑖∗ (𝑦).
©  ª

« 𝑗=1 ¬

Remarque:
1. Pour tous, 1 6 𝑖, 𝑗 6 𝑛, on a :

𝑖=𝑗

1 si
𝑒 𝑖∗ 𝑒 𝑗 = 𝛿 𝑖,𝑗 =

0 si 𝑖≠𝑗

𝛿 𝑖,𝑗 est appelé symbole de Kronecker. L’application 𝑒 𝑖∗ est appelée forme duale associée
à l’élément 𝑒 𝑖 , 1 6 𝑖 6 𝑛, de la base ℬ.

34
2. Toute forme linéaire 𝑓 sur 𝐸 s’écrit sous la forme suivante :
𝑛
Õ
𝑓 (𝑥) = 𝛼𝑗 𝑥𝑗
𝑗=1

En effet, on a :
𝑛 𝑛
©Õ ª Õ
𝑓 (𝑥) = 𝑓 ­ 𝑥𝑗 𝑒𝑗® = 𝑓 𝑒𝑗 𝑥𝑗


« 𝑗=1 ¬ 𝑗=1
Il suffit de prendre 𝛼 𝑗 = 𝑓 𝑒 𝑗 , ∀1 6 𝑗 6 𝑛.


3. La matrice de 𝑓 dans la base ℬ de 𝐸 est la matrice ligne 𝐿 :

𝐿= 𝛼1 . . . 𝛼 𝑛 𝑓 (𝑒1 ) . . . 𝑓 (𝑒 𝑛 ) .
 
=

Théorème 5.1.1
L’ensemble des formes linéaires sur 𝐸, noté 𝐸∗ , est un espace vectoriel sur K de dimension
𝑛, de base ℬ ∗ = 𝑒1∗ , . . . , 𝑒 𝑛∗ appelée base duale de la base ℬ. 𝐿0 espace 𝐸∗ = ℒ(𝐸, K) est

appelé espace vectoriel dual de l’espace 𝐸.

Proof: 1. 𝐸∗ est un espace vectoriel sur 𝕂. En effet, on sait que si 𝐹 et 𝐺 sont deux K
espaces vectoriels, alors (ℒ(𝐹, 𝐺), +,.) est un K espace vectoriel.

2. Montrons que ℬ ∗ = Í 𝑒1∗ , . . . , 𝑒 𝑛∗ est une base de 𝐸 ∗ .



Soit 𝑓 ∈ 𝐸∗ , soit 𝑥 = 𝑛𝑗=1 𝑥 𝑗 𝑒 𝑗 ∈ 𝐸, on a :

𝑛
Õ 𝑛
Õ 𝑛
©Õ
𝑓 (𝑥) = 𝑥𝑗 𝑓 𝑒𝑗 = 𝑒 ∗𝑗 (𝑥) 𝑓 𝑒𝑗 = ­ 𝑓 𝑒 𝑗 𝑒 ∗𝑗 ® (𝑥).
   ª
𝑗=1 𝑗=1 « 𝑗=1 ¬
Í 
𝑛
Puisque 𝑓 (𝑥) = 𝑓 𝑒 𝑗 𝑒 ∗𝑗 (𝑥), ∀𝑥 ∈ 𝐸, on a :

𝑗=1

𝑛
Õ
𝑓 = 𝑓 𝑒 𝑗 𝑒 ∗𝑗

𝑗=1

et par conséquent la suite 𝑒1∗ , . . . , 𝑒 𝑛∗ est génératrice de 𝐸 ∗ .




Montrons qu’elle est libre?

Í𝑛
Soient 𝛼 𝑗 ∈ 𝕂, 1 6 𝑗 6 𝑛, tels que 𝑗=1 𝛼 𝑗 𝑒 ∗𝑗 = 0. Donc

𝑛
Õ
𝛼 𝑗 𝑒 ∗𝑗 (𝑥) = 0, ∀𝑥 ∈ 𝐸.
𝑗=1
35
En prenant 𝑥 = 𝑒 𝑖 , 1 6 𝑖 6 𝑛, on a
𝑛
Õ
𝛼 𝑗 𝑒 ∗𝑗 (𝑒 𝑖 ) = 𝛼 𝑖 = 0, ∀1 6 𝑖 6 𝑛.
𝑗=1

Donc, la suite 𝑒1∗ , . . . , 𝑒 𝑛∗ est libre. C’est une base de 𝐸 ∗ , notée ℬ ∗ . Comme les bases ℬ

de 𝐸 et ℬ ∗ de 𝐸∗ ont le même nombre d’éléments, on a :

dim(𝐸) = dim (𝐸∗ ) = 𝑛.

Définition 5.1.2
On appelle hyperplan de 𝐸, le noyau d’une forme linéaire non nulle sur E.

Théorème 5.1.2
Un hyperplan est un sous espace vectoriel de 𝐸 de dimension 𝑛 − 1.

Proof: Soit 𝐻 un hyperplan de 𝐸. Il existe 𝑓 ume forme linéaire non nulle sur 𝐸 telle que :

𝐻 = Ker( 𝑓 ) = {𝑥 ∈ 𝐸 : 𝑓 (𝑥) = 0}.

Puisque 𝑓 est non mulle, elle est surjective. En effet, on a Im( 𝑓 ) est un s.e.v. de 𝕂 vérifiant :

{0K } & Im( 𝑓 ) ⊂ K.

Or, les seules s.e.v. de K sont {0𝐾 } et K. Donc Im( 𝑓 ) = K et par conséquent dim(Im( 𝑓 )) =
dim(K) = 1. D’après le théorème noyau-image, on a :

dim 𝐻 = dim Ker( 𝑓 ) = 𝑛 − dim(Im( 𝑓 )) = 𝑛 − dim(K) = 𝑛 − 1.

Réciproquement si 𝐻 un s.e.v. de 𝐸 de dimension 𝑛 − 1. 𝐻 possède une base 𝑓1 , . . . , 𝑓𝑛−1 qu’on



complète pour avoir une base 𝑓1 , . . . , 𝑓𝑛 de 𝐸. 𝐻 est alors le noyau de la forme linéaire :


𝑓𝑛∗ : 𝐸 −→ K
𝑛
Õ
𝑥= 𝑥 𝑗 𝑓 𝑗 ↦−→ 𝑓𝑛∗ (𝑥) = 𝑥 𝑛
𝑗=1

Í𝑛
En effet, l’inclusion 𝐻 ⊂ 𝐾 er 𝑓𝑛∗ est facile. Montrons Ker 𝑓𝑛∗ ⊂ 𝐻 ? Soit 𝑥 = 𝑥 𝑗 𝑓𝑗 ∈
 
𝑗=1
Í𝑛−1
𝑓𝑛∗ 𝑓𝑛∗ (𝑥) = 𝑥 𝑛 = 0. Donc 𝑥 = 𝑥 𝑗 𝑓 𝑗 ∈ 𝐻.

Ker , on a 𝑗=1

36
5.2 Formes bilinéaires
Définition 5.2.1
Une forme bilinéaire sur E est une application :

𝐸 × 𝐸 −→ K
𝜑:
(𝑥, 𝑦) ↦−→ 𝜑(𝑥, 𝑦)

vérifiant les deux conditions :


𝐸 −→ 𝕂
1. pour tout 𝑥 ∈ 𝐸, l’application: est linéaire, c’est à dire :
𝑦 ↦−→ 𝜑(𝑥, 𝑦)

∀𝑦1 , 𝑦2 ∈ 𝐸, ∀𝛼 ∈ K, on 𝑎 : 𝜑 𝑥, 𝛼𝑦1 + 𝑦2 = 𝛼𝜑 𝑥, 𝑦1 + 𝜑 𝑥, 𝑦2
  

𝐸 −→ K
2. pour tout 𝑦 ∈ 𝐸, l’application : est linéaire, c’est à dire:
𝑥 ↦−→ 𝜑(𝑥, 𝑦)

∀𝑥 1 , 𝑥2 ∈ 𝐸, ∀𝛼 ∈ 𝕂, on 𝑎 : 𝜑 𝛼𝑥1 + 𝑥2 , 𝑦 = 𝛼𝜑 𝑥 1 , 𝑦 + 𝜑 𝑥2 , 𝑦
  

Exemple 5.2.1
1. On prend 𝐸 = 𝒞([𝑎, 𝑏], ℝ) l’espace des fonctions contimues de [𝑎, 𝑏] dans R. Alors
l’application :
𝜑 : 𝐸 × 𝐸 −→ ℝ
∫ 𝑏
( 𝑓 , 𝑔) ↦−→ 𝜑( 𝑓 , 𝑔) = 𝑓 (𝑡)𝑔(𝑡)𝑑𝑡
𝑎
est une forme bilinéaire sur 𝐸. En effet, en utilisant la linéarité de l’intégrale, on a
pour tout 𝛼 ∈ R et pour toutes fonctions 𝑓1 , 𝑓2 , 𝑔1 , 𝑔2 , 𝑓 et 𝑔 ∈ 𝐸 :
∫ 𝑏 ∫ 𝑏 ∫ 𝑏
𝜑 𝛼 𝑓1 + 𝑓2 , 𝑔 = 𝛼 𝑓1 + 𝑓2 (𝑡)𝑔(𝑡)𝑑𝑡 = 𝛼 𝑓1 (𝑡)𝑔(𝑡)𝑑𝑡 + 𝑓2 (𝑡)𝑔(𝑡)𝑑𝑡
 
𝑎 𝑎 𝑎
= 𝛼𝜑 𝑓1 , 𝑔 + 𝜑 𝑓2 , 𝑔 .
 

De même, on a :
∫ 𝑏 ∫ 𝑏 ∫ 𝑏
𝜑 𝑓 , 𝛼𝑔1 + 𝑔2 = 𝑓 (𝑡) 𝛼 𝑔1 + 𝑔2 (𝑡)𝑑𝑡 = 𝛼 𝑓 (𝑡)𝑔1 (𝑡)𝑑𝑡 + 𝑓 (𝑡)𝑔2 (𝑡)𝑑𝑡
 
𝑎 𝑎 𝑎
= 𝛼𝜑 𝑓 , 𝑔1 + 𝜑 𝑓 , 𝑔2 .
 

2. Soient 𝑓1 , . . . , 𝑓𝑝 des formes linéaires sur 𝐸 et 𝑎 𝑖,𝑗



1 6 𝑖,𝑗 6 𝑝
des scalaires (des éléments
de K). Alors l’application :
𝜑 : 𝐸 × 𝐸 −→ K
Õ
(𝑥, 𝑦) ↦−→ 𝜑(𝑥, 𝑦) = 𝑎 𝑖,𝑗 𝑓𝑖 (𝑥) 𝑓 𝑗 (𝑦)
1 6 𝑖,𝑗 6 𝑝

37
Í
est une forme bilinéaire. En effet, en utilisant la linéarité de la somme et des
formes linéaires 𝑓 𝑘 , 1 6 𝑘 6 𝑝, on montre la bilinéarité de 𝜑.
L’ensemble des formes bilinéaires sur 𝐸 est noté ℬ𝑖𝑙(𝐸). C’est un espace vectoriel
sur K.

Définition 5.2.2
On dit qu’une forme bilinéarre 𝜑 sur 𝐸 est symétrique si 𝜑(𝑥, 𝑦) = 𝜑(𝑦, 𝑥) pour tous
𝑥, 𝑦 ∈ 𝐸.

Définition 5.2.3
On dit q’une forme bilinéaire 𝜑 sur 𝐸 est antı́-symétrique sı̀ 𝜑(𝑥, 𝑦) = −𝜑(𝑦, 𝑥) pour tous
𝑥, 𝑦 ∈ 𝐸.

Définition 5.2.4
La matrice d’une forme bilnéaire 𝜑 dans la base ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) de 𝐸 est la matrice carrée
d’ordre 𝑛 :
𝐴 = 𝜑 𝑒 𝑖 , 𝑒 𝑗 16 𝑖,𝑗 6 𝑛 .


Théorème 5.2.1
Soit 𝜑 une forme bilinéaire sur 𝐸 et 𝐴 la matrice de 𝜑 dans la base ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) de E.
Alors :
∀𝑥, 𝑦 ∈ 𝐸, on 𝑎 : 𝜑(𝑥, 𝑦) = 𝑋 𝑡 𝐴𝑌.
𝑥1 𝑦1
où 𝑋 = (𝑥)𝐵 = ­ .. ª et 𝑌 = (𝑦) = © .. ª (𝑥) (resp. (𝑦)  est la matrice colonne formée
. ® ­ . ® 𝐵
©
𝐵 𝐵
« 𝑥𝑛 ¬ « 𝑦𝑛 ¬
des coordonnées du vecteur 𝑥 (resp. y) dans la base ℬ.

Proof: En utilisant la bilinéarité de 𝜑, on a :

𝑛 𝑛 𝑛 𝑛 𝑛 𝑛
!
Õ Õ Õ © Õ ª Õ Õ
𝜑(𝑥, 𝑦) = 𝜑 𝑥𝑖 𝑒𝑖 , 𝑦 = 𝑥𝑖 𝜑 𝑒𝑖 , 𝑦 = 𝑥 𝑖 𝜑 ­𝑒 𝑖 , 𝑦𝑗 𝑒𝑗® = 𝑥𝑖 𝑦 𝑗 𝜑 𝑒𝑖 , 𝑒 𝑗
 
𝑖=1 𝑖=1 𝑖=1 « 𝑗=1 ¬ 𝑖=1 𝑗=1
Í𝑛
𝑦 𝜑 𝑒 ,𝑒

© 𝑗=1 𝑗 . 1 𝑗 Õ𝑛 Õ𝑛
.. ® et 𝑋 𝑡 𝐴𝑌 = 𝑋 𝑡 (𝐴𝑌) =
ª
Or 𝐴𝑌 = ­­ 𝑥𝑖 𝑦 𝑗 𝜑 𝑒𝑖 , 𝑒 𝑗 .

Í𝑛 ®
𝑦 𝜑 𝑒 , 𝑒 𝑖=1 𝑗=1

« 𝑗=1 𝑗 𝑛 𝑗 ¬
Donc
𝜑(𝑥, 𝑦) = 𝑋 𝑡 (𝐴𝑌).

38
Théorème 5.2.2
Une application 𝜑 de 𝐸 × 𝐸 dans 𝕂 est une forme bilinéaire sur 𝐸 si, et seulement si, il
existe une matrice 𝐴 = 𝑎 𝑖,𝑗 16 𝑖,𝑗 6 𝑛 dans ℳ 𝑛 (K) telle que :
Õ
∀(𝑥, 𝑦) ∈ 𝐸 × 𝐸, 𝜑(𝑥, 𝑦) = 𝑎 𝑖,𝑗 𝑒 𝑖∗ (𝑥)𝑒 ∗𝑗 (𝑦).
1 6 𝑖,𝑗 6 𝑛

Proof: Si 𝜑 est bilinéaire, on a dans une base ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) de 𝐸 :


Õ Õ
𝜑(𝑥, 𝑦) = 𝑎 𝑖,𝑗 𝑥 𝑖 𝑦 𝑗 = 𝑎 𝑖,𝑗 𝑒 𝑖∗ (𝑥)𝑒 ∗𝑗 (𝑦).
1 6 𝑖,𝑗 6 𝑛 1 6 𝑖,𝑗 6 𝑛

où ℬ ∗ = 𝑒1∗ , . . . , 𝑒 𝑛∗ est la bas duale de ℬ et 𝑎 𝑖,𝑗 = 𝜑 𝑒 𝑖 , 𝑒 𝑗 , 1 6 𝑖, 𝑗 6 𝑛. La réciproque est


 
facile.
Théorème 5.2.3
Une forme bilinéaire 𝜑 sur 𝐸 est symétrique (resp. anti-symétrique) si, et seulement si, sa
matrice 𝐴 dans une base quelconque ℬ de 𝐸 est symétrique (resp. anti-symétrique)

Proof: Si 𝜑 est symétrique (resp. anti-symétrique), alors 𝜑 𝑒 𝑖 , 𝑒 𝑗 = 𝜑 𝑒 𝑗 , 𝑒 𝑖 (resp. 𝜑 𝑒 𝑖 , 𝑒 𝑗 = −𝜑 𝑒 𝑗 , 𝑒 𝑖


   
pour tous 1 6 𝑖, 𝑗 6 𝑛. Donc, la matrice 𝐴 de 𝜑 dans ℬ est symétrique (resp. anti-symétrique).
Réciproquement si la matrice 𝐴 de 𝜑 dans ℬ est symétrique (resp. anti-symétrique), alors pour
tous 𝑥, 𝑦 dans 𝐸, on a :
𝑡
𝜑(𝑦, 𝑥) = 𝑌 𝑡 (𝐴𝑋) = 𝑌 𝑡 (𝐴𝑋) = 𝑋 𝑡 𝐴𝑡 𝑌 = 𝑋 𝑡 (𝐴𝑌) = 𝜑(𝑥, 𝑦)
𝑡 
(resp. 𝜑(𝑦, 𝑥) = 𝑌 𝑡 (𝐴𝑋) = 𝑌 𝑡 (𝐴𝑋) = 𝑋 𝑡 𝐴𝑡 𝑌 = −𝑋 𝑡 (𝐴𝑌) = −𝜑(𝑥, 𝑦) .

Théorème 5.2.4
Soient ℬ1 et ℬ2 deux bases de 𝐸 et 𝑃 la matrice de passage de ℬ1 à ℬ2 . Si 𝐴1 et 𝐴2 sont
les matrices d’une forme bilinéaire 𝜑 sur 𝐸 dans les bases ℬ1 et ℬ2 respectivement, alors
on a :
𝐴2 = 𝑃 𝑡 𝐴1 𝑃

Proof: Soient 𝑥, 𝑦 dans 𝐸, on note respectivement 𝑋1 et 𝑋2 les matrices colonnes formées


des coordonnées de 𝑥 dans les bases ℬ1 et ℬ2 et 𝑌1 et 𝑌2 les matrices colonnes formées des
coordonnées de 𝑦 respectivement dans les bases ℬ1 et ℬ2 . D’une part, on a :

𝜑(𝑥, 𝑦) = 𝑋1𝑡 𝐴1𝑌1 = 𝑋2𝑡 𝐴2𝑌2

D’autre part, on déduit de l’action d’un changement de base sur les coordonnées d’un vecteur
que :
𝑋1 = 𝑃𝑋2 et 𝑌1 = 𝑃𝑌2
Donc
𝜑(𝑥, 𝑦) = 𝑋1𝑡 𝐴1𝑌1 = (𝑃𝑋2 )𝑡 𝐴1 (𝑃𝑌2 ) = 𝑋2𝑡 𝑃 𝑡 𝐴1 𝑃 𝑌2 = 𝑋2𝑡 𝐴2𝑌2 .

39
D’où : 𝐴2 = 𝑃 𝑡 𝐴1 𝑃.
Définition 5.2.5
Le discriminant dans une base ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) de 𝐸 d’une forme bilinéaire 𝜑 est le
déterminant de la matrice 𝐴 = 𝜑 𝑒 𝑖 , 𝑒 𝑗 16 𝑖,𝑗 6 𝑛 de 𝜑 dans cette base. 𝐼𝑙 est noté Δ𝐵 (𝜑).

40
Chapter 6

Algèbre bilinéaire : Formes


quadratiques et réduction de Gauss

Dans tout le chapitre, K désigne l’ensemble R ou l’ensemble ℂ, 𝐸 un K espace vectoriel de


dimension finie égale à 𝑛 et ℬ = (𝑒1 , . . . , 𝑒 𝑛 ) une base de 𝐸.

6.1 Formes quadratiques


Définition 6.1.1
On appelle forme quadratique sur 𝐸 une application 𝑞 définie sur 𝐸 dans K par :

∀𝑥 ∈ 𝐸, 𝑞(𝑥) = 𝜑(𝑥, 𝑥)

où 𝜑 est une forme bilinéaire.

Remarque:
1. L’ensemble, noté 𝑄(𝐸), des formes quadratiques sur 𝐸 est un 𝕂-espace vectoriel.

2. Il n’y a pas unicité des formes bilinéaires associées à une forme quadratique. En effet, si
𝐸 = R2 , les formes bilinéaires 𝜑 et 𝜓 définies par :

𝜑(𝑥, 𝑦) = 𝑥1 𝑦1 + 𝑥 2 𝑦2

et
𝜓(𝑥, 𝑦) = 𝑥 1 𝑦1 + 𝑥2 𝑦2 − 𝑥2 𝑦1 + 𝑥1 𝑦2
définissent la même forme quadratique :

𝑞(𝑥) = 𝑥12 + 𝑥22 = 𝜑(𝑥, 𝑥) = 𝜓(𝑥, 𝑥).

Théorème 6.1.1
Si q est une forme quadratique sur 𝐸, il existe une unique forme bilinéaire symétrique 𝜓
telle que 𝑞(𝑥) = 𝜓(𝑥, 𝑥) pour tout 𝑥 ∈ 𝐸. On dit que 𝜓 est la forme polaire de la forme

41
quadratique 𝑞.

Proof: soit 𝑞 une forme quadratique sur 𝐸 et soit 𝜑 est une forme bilinéaire sur 𝐸 telle que
𝑞(𝑥) = 𝜑(𝑥, 𝑥), ∀𝑥 ∈ 𝐸. Introduisons l’application 𝜓 définie sur 𝐸 × 𝐸 par :
1
𝜓(𝑥, 𝑦) = (𝜑(𝑥, 𝑦) + 𝜑(𝑦, 𝑥)).
2
L’application 𝜓 est bilinéaire, symétrique et vérifie 𝜓(𝑥, 𝑥) = 𝑞(𝑥), ∀𝑥 ∈ 𝐸. Comme 𝜓 est
bilinéaire et symétrique, on a :

𝑞(𝑥 + 𝑦) = 𝜓(𝑥 + 𝑦, 𝑥 + 𝑦) = 𝜓(𝑥, 𝑥) + 2𝜓(𝑥, 𝑦) + 𝜓(𝑦, 𝑦)


= 𝑞(𝑥) + 2𝜓(𝑥, 𝑦) + 𝑞(𝑦), ∀𝑥, 𝑦 ∈ 𝐸.

Donc
1
𝜓(𝑥, 𝑦) = (𝑞(𝑥 + 𝑦) − 𝑞(𝑥) − 𝑞(𝑦)).
2
D’où l’unicité de 𝜓.
Définition 6.1.2
Si q est une forme quadratique sur 𝐸 de forme polaire 𝜑, alors la matrice de 𝑞 dans la base
ℬ est la matrice de 𝜑 dans cette base.

Exemple 6.1.1
Déterminer la matrice et la forme polaire de la forme quadratique 𝑞 définie dans la base
canonique de 𝕂3 par :

𝑞(𝑥) = 𝑥12 + 3𝑥 22 + 5𝑥32 + 4𝑥1 𝑥 2 + 6𝑥 1 𝑥3 + 2𝑥2 𝑥3 .

La matrice de 𝑞 dans la base canonique de K3 est :

1 2 3
𝐴 = ­ 2 3 1 ®.
© ª

«3 1 5¬
La forme polaire de 𝑞 est donnée par :

 © 1 2 3 ª © 𝑦1 ª
𝜑(𝑥, 𝑦) = 𝑋 𝑡 𝐴𝑌 = 𝑥1 𝑥2 𝑥3 ­ 2 3 1 ® ­ 𝑦2 ®
« 3 1 5 ¬ « 𝑦 3 ¬
= 𝑥 1 𝑦1 + 3𝑥2 𝑦2 + 5𝑥3 𝑦3 + 2 𝑥 1 𝑦2 + 𝑥2 𝑦1 + 3 𝑥1 𝑦3 + 𝑥3 𝑦1 + 𝑥2 𝑦3 + 𝑥3 𝑦2 .


6.2 Théorème de réduction de Gauss


On commence par les cas des espaces 𝐸 de dimension égale à 2 .
42
Théorème 6.2.1
Toute forme quadratique non nulle 𝑞 sur le 𝕂 𝑒.𝑣. 𝐸 de dimension 2 peut s’écrire sous la
forme (1) ou (2) ci-dessous :

(1) 𝑞 = 𝛼1 𝑙12
où 𝛼1 est un scalaire non nul et 𝑙1 est une forme linéaire non nulle.

(2) 𝑞 = 𝛼1 𝑙12 + 𝛼2 𝑙22


où 𝛼1 , 𝛼2 sont des scalaires non nuls et 𝑙1 , 𝑙2 deux formes linéaires linéairement
indépendantes.

Proof: Soit 𝑞 une forme quadratique non nulle sur un K-e-v 𝐸 de dimension 2, de base ℬ =
(𝑒1 , 𝑒2 ). Alors 𝑞 s’écrit sous la forme :

𝑞(𝑥) = 𝑎𝑥12 + 2𝑏𝑥 1 𝑥2 + 𝑐𝑥22 .

La matrice de 𝑞 dans la base ℬ est :


𝑎 𝑏
 
𝑏 𝑐
On pose 𝛿 = det(𝐴) = 𝑎𝑐 − 𝑏 2 . Puisque 𝑞 est non nulle, on a : (𝑎, 𝑏, 𝑐) ≠ (0, 0, 0).
1. Si 𝑎 ≠ 0, on a :
2
𝑏 𝛿 2

𝑞(𝑥) = 𝑎 𝑥 1 + 𝑥 2 + 𝑥 .
𝑎 𝑎 2
Dans ce cas, il y’a deux possibilités :
i.) Si 𝛿 = 0, alors :
2
𝑏

𝑞(𝑥) = 𝑎 𝑥1 + 𝑥2 = 𝑎𝑙12 (𝑥)
𝑎
avec 𝑙1 (𝑥) = 𝑥 1 + 𝑏𝑎 𝑥2 ⇒ 𝑙1 = 𝑒1∗ + 𝑏𝑎 𝑒2∗
ii.) Si 𝛿 ≠ 0, alors :
2
𝑏 𝛿 2 𝛿

𝑞(𝑥) = 𝑎 𝑥1 + 𝑥 2 + 𝑥2 = 𝑎𝑙12 (𝑥) + 𝑙22 (𝑥)
𝑎 𝑎 𝑎

où 𝑙1 = 𝑒1∗ + 𝑏𝑎 𝑒2∗ et 𝑙2 = 𝑒2∗ qui sont deux formes linéaires linéairement indépendantes.
En effet, on a :
 
1 0 1 0
𝑟 𝑔 (𝑙1 , 𝑙2 ) = 𝑟 𝑔 𝑏 = 2 car 𝑏 = 1 ≠ 0.
𝑎 1 𝑎 1

2. Si 𝑎 = 0 et 𝑐 ≠ 0, on a :
2
𝑏 𝛿 2

𝑞(𝑥) = 2𝑏𝑥 1 𝑥2 + 𝑐𝑥22 = 𝑐 𝑥1 + 𝑥2 + 𝑥
𝑐 𝑐 1

avec 𝛿 = −𝑏 2 .
43
i.) Si 𝑏 = 0, alors :
𝑞(𝑥) = 𝑐𝑥 22 = 𝑐𝑙12 (𝑥)
où 𝑙1 = 𝑒2∗ est linéaire non nulle.
ii.) Si 𝑏 ≠ 0, alors :
2
𝑏 𝛿 2 𝛿

𝑞(𝑥) = 𝑐 𝑥1 + 𝑥2 + 𝑥 1 = 𝑐𝑙12 (𝑥) + 𝑙22 (𝑥)
𝑐 𝑐 𝑐

où 𝑙1 = 𝑏𝑐 𝑒1∗ + 𝑒2∗ et 𝑙2 = 𝑒1∗ qui sont deux fomes linéaires linéairement indépendantes.
En effet, on a :
𝑏 𝑏
 
1 1
𝑟 𝑔 (𝑙1 , 𝑙2 ) = 𝑟 𝑔 𝑐 = 2 car 𝑐
= −1 ≠ 0.
1 0 1 0

3. Si 𝑎 = 0 et 𝑐 = 0, on a forcément 𝑏 ≠ 0 (car la forme quadratique 𝑞 est non nulle), donc :

𝑞(𝑥) = 2𝑏𝑥1 𝑥2

On utilise l’identité :
1 
𝑥1 𝑥2 = (𝑥1 + 𝑥2 )2 − (𝑥1 − 𝑥2 )2 ,
4
on obtient :
𝑏  2 2
 𝑏 𝑏
𝑞(𝑥) = (𝑥1 + 𝑥2 ) − (𝑥 1 − 𝑥 2 ) = 𝑙12 (𝑥) − 𝑙22 (𝑥)
2 2 2
où 𝑙1 = 𝑒1 + 𝑒2 et 𝑙2 = 𝑒1 − 𝑒2 qui sont deux formes linéaires linéairement indépendantes.
∗ ∗ ∗ ∗

En effet, on a :
 
1 1 1 1
𝑟 𝑔 (𝑙1 , 𝑙2 ) = 𝑟 𝑔 = 2 car = −2 ≠ 0.
1 −1 1 −1

On peut généraliser le résultat ci-dessus au cas des espaces de dimension 𝑛 > 1. Plus
précisement, on a :
Théorème 6.2.2
Pour toute forme quadratique non nulle 𝑞 sur 𝐸, il existe un entier 𝑝 compris entre 1 et 𝑛, des
scalaires non nuls 𝛼1 , . . . , 𝛼 𝑝 et des formes linéaires 𝑙1 , . . . , 𝑙 𝑝 linéarrement indépendantes
dans 𝐸 ∗ tels que:
𝑝
Õ
∀𝑥 ∈ 𝐸, 𝑞(𝑥) = 𝛼 𝑖 𝑙 𝑖2 (𝑥).
𝑖=1

La preuve de ce théorème est longue et technique, elle est basée sur un raisomnement par
récurrence sur la dimension 𝑛 de l’espace vecoriel 𝐸. On a montré le résultat dans le cas 𝑛 = 2
dans le théorème précédent . Au lieu de montrer ce théorème, on va traiter quelques exemples
en dimension 3.

44
Exemple 6.2.1
Une forme quadratique 𝑞 sur 𝐸 s’écrit d’une façon générale :
𝑛
Õ Õ
𝑞(𝑥) = 𝑎 𝑖,𝑖 𝑥 2𝑖 + 2 𝑎 𝑖,𝑗 𝑥 𝑖 𝑥 𝑗 .
𝑖=1 1 6 𝑖<𝑗 6 𝑛

Deux situations peuvent se présenter :

1. Une situation où 𝑞 contient au moins un terme carré, c’est à dire qu’il existe un indice
𝑖, 1 6 𝑖 6 𝑛, tel que 𝑎 𝑖,𝑖 ≠ 0. Par exemple, réduisons la forme quadratique définie sur
ℝ3 par :
𝑞(𝑥) = 𝑥12 + 3𝑥22 + 5𝑥32 + 4𝑥1 𝑥2 + 6𝑥1 𝑥 3 + 2𝑥 2 𝑥3 .
Ici, on a trois choix : 𝑎 1,1 ≠ 0, 𝑎2,2 ≠ 0 et 𝑎 3,3 ≠ 0. On choisit par exemple de
regrouper les termes contenant 𝑥1 , on a :

𝑥12 + 4𝑥1 𝑥2 + 6𝑥1 𝑥 3 = 𝑥12 + 2𝑥1 (2𝑥2 + 3𝑥3 ) = [𝑥1 + (2𝑥2 + 3𝑥 3 )]2 − (2𝑥 2 + 3𝑥 3 )2 .

Donc
𝑞(𝑥) = [𝑥1 + (2𝑥2 + 3𝑥3 )]2 − (2𝑥 2 + 3𝑥 3 )2 + 2𝑥2 𝑥 3 + 3𝑥 22 + 5𝑥32
= (𝑥1 + 2𝑥2 + 3𝑥3 )2 − 𝑥22 − 4𝑥 32 − 10𝑥2 𝑥3
Ensuite, on considère la forme quadratique :

𝑟(𝑥) = −𝑥22 − 4𝑥32 − 10𝑥2 𝑥3 .

On regroupe les termes contenant 𝑥2 , on a :

−𝑥22 − 10𝑥2 𝑥3 = − 𝑥22 + 2 (5𝑥3 ) = − (𝑥 2 + 5𝑥 3 )2 + 25𝑥32 .




Donc
𝑟(𝑥) = − (𝑥2 + 5𝑥3 )2 + 21𝑥 32 .
Finalement, la réduction de Gauss de la forme quadratique 𝑞(𝑥) est donnée par :

𝑞(𝑥) = (𝑥 1 + 2𝑥 2 + 3𝑥 3 )2 − (𝑥2 + 5𝑥3 )2 + 21𝑥 32 .

Ici, on a : 𝑝 = 3, 𝛼1 = 1, 𝛼2 = −1, 𝛼3 = 21, 𝑙1 = 𝑒1∗ + 2𝑒2∗ + 3𝑒3∗ , 𝑙2 = 𝑒2∗ + 5𝑒3∗ et 𝑙3 = 𝑒3∗ .


Les formes 𝑙1 , 𝑙2 et 𝑙3 sont linéairement indépendantes. En effet, on a:

1 0 0 1 0 0
𝑟 𝑔 (𝑙1 , 𝑙2 , 𝑙3 ) = 𝑟 𝑔 ­ 2 1 0 ® = 3 car 2 1 0 = 1 ≠ 0.
© ª

«3 5 1¬ 3 5 1

2. Une situation où 𝑞 ne contient aucun terme carré, c’est à dire que pour tout indice
𝑖, 1 6 𝑖 6 𝑛, on a : 𝑎 𝑖,𝑖 = 0. Par exemple, réduisons la forme quadratique définie sur
ℝ4 par :
𝑞(𝑥) = 𝑥1 𝑥2 + 2𝑥1 𝑥 3 + 2𝑥 1 𝑥4 + 𝑥2 𝑥3 + 4𝑥2 𝑥4 + 2𝑥3 𝑥 4

45
On considère dans 𝑞(𝑥) tous les termes contenant 𝑥1 et 𝑥2 . On a :

𝑟(𝑥) = 𝑥1 𝑥2 + 2𝑥1 𝑥3 + 2𝑥1 𝑥 4 + 𝑥 2 𝑥3 + 4𝑥2 𝑥4

qu’on réecrit :

𝑟(𝑥) = 𝑥1 𝑥 2 + 𝑥 1 (2𝑥3 + 2𝑥4 ) + 𝑥 2 (𝑥3 + 4𝑥4 )


= [𝑥1 + (𝑥 3 + 4𝑥 4 )] [𝑥2 + (2𝑥3 + 2𝑥4 )] − (𝑥 3 + 4𝑥 4 ) (2𝑥3 + 2𝑥4 )

Donc
𝑞(𝑥) = (𝑥1 + 𝑥3 + 4𝑥4 ) (𝑥2 + 2𝑥 3 + 2𝑥 4 ) − 2𝑥32 − 8𝑥42 − 8𝑥3 𝑥4 .
On considère maintenant la forme quadratique :

𝑠(𝑥) = −2𝑥32 − 8𝑥 42 − 8𝑥3 𝑥4 .

On a :
𝑠(𝑥) = −2 𝑥 32 + (2𝑥4 )2 + 2𝑥 3 (2𝑥4 ) = −2 (𝑥3 + 2𝑥4 )2 .
 

Donc,
𝑞(𝑥) = (𝑥1 + 𝑥3 + 4𝑥4 ) (𝑥2 + 2𝑥3 + 2𝑥4 ) − 2 (𝑥3 + 2𝑥4 )2 .
Finalement, on applique l’identité :
1 1
𝐴𝐵 = (𝐴 + 𝐵)2 − (𝐴 − 𝐵)2
4 4
pour 𝐴 = (𝑥1 + 𝑥3 + 4𝑥4 ) et 𝐵 = (𝑥2 + 2𝑥3 + 2𝑥4 ), on obtient :
1 1
𝑞(𝑥) = (𝑥1 + 𝑥2 + 3𝑥3 + 6𝑥4 )2 − (𝑥1 − 𝑥2 − 𝑥3 + 2𝑥4 )2 − 2 (𝑥3 + 2𝑥4 )2
4 4
Ici, on a : 𝑝 = 3, 𝛼1 = 14 , 𝛼2 = − 14 , 𝛼3 = −2, 𝑙1 = 𝑒1∗ +𝑒2∗ +3𝑒3∗ +6𝑒4∗ , 𝑙2 = 𝑒1∗ −𝑒2∗ −𝑒3∗ +2𝑒4∗
et 𝑙3 = 𝑒3∗ + 2𝑒4∗ . Les formes 𝑙1 , 𝑙2 et 𝑙3 sont linéairement indépendantes. En effet, on
a:
1 1 0
1 1 0
­ 1 −1 0 ®
© ª
𝑟 𝑔 (𝑙1 , 𝑙2 , 𝑙3 ) = 𝑟 𝑔 ­ ® = 3 car 1 −1 0 = −2 ≠ 0.
­ 3 −1 1 ® 3 −1 1
«6 2 2¬

Comme les formes linéaires 𝑙1 , . . . , 𝑙 𝑝 dans le théorème précédent sont linéairement indépendantes
dans 𝐸∗ , on peut les compléter par des formes linéaires 𝑙 𝑝+1 , . . . , 𝑙𝑛 telles que (𝑙1 , . . . , 𝑙𝑛 ) soit une
base de 𝐸∗ . La réduction de Gauss du théorème précédent peut alors s’écrire :
𝑛
Õ
∀𝑥 ∈ 𝐸, 𝑞(𝑥) = 𝜆 𝑗 𝑙 2𝑗 (𝑥),
𝑗=1

où on a : 𝜆 𝑝+1 = . . . = 𝜆𝑛 = 0 dans le cas où 𝑝 6 𝑛 − 1.

46
Théorème 6.2.3
Etant donnée une base (𝑙 𝑖 )16 𝑖 6 𝑛 de l’espace vectoriel 𝐸∗ , il existe une base 𝑓𝑖 16 𝑖 6 𝑛 de E

telle que:
𝑙 𝑖 𝑓 𝑗 = 𝛿 𝑖,𝑗 (1 6 𝑖, 𝑗 6 𝑛)


où 𝛿 𝑖,𝑗 est le symbole de Kronecker.

Proof: Pour tout 𝑥 ∈ 𝐸, on pose :

𝑙 𝑖 (𝑥) = 𝑎 𝑖,1 𝑥1 + . . . + 𝑎 𝑖,𝑛 𝑥 𝑛 , ∀1 6 𝑖 6 𝑛.

La matrice 𝑄 = 𝑎 𝑖,𝑗 est invesible car (𝑙 𝑖 )16 𝑖 6 𝑛 est une base de 𝐸∗ . D’une part, si on note

1 6 𝑖,𝑗 6 𝑛
par 𝐹1 , . . . , 𝐹𝑛 les colonnes de la matrice 𝑄 −1 (vecteurs de K𝑛 ), alors :

𝑄𝑄 −1 = 𝑄 (𝐹1 , . . . , 𝐹𝑛 ) = (𝑄𝐹1 , . . . , 𝑄𝐹𝑛 ) = 𝐼𝑛 = (𝐸1 , . . . , 𝐸𝑛 )

où 𝐸 𝑗 est la base canonique de 𝕂𝑛 :



16 𝑗 6 𝑛

𝛿1,𝑗
𝐸 𝑗 = ­ ... ® , 16𝑗6𝑛
© ª

« 𝛿 𝑛,𝑗 ¬
Donc
∀1 6 𝑗 6 𝑛, 𝑄𝐹 𝑗 = 𝐸 𝑗 .
𝑙1 (𝑥) 𝑥1
D’autre part, puisque 𝑄𝑋 = ­ ... ® avec 𝑋 = ­ ... ® la matrice colonne formée par les
© ª © ª

« 𝑙𝑛 (𝑥) ¬ « 𝑥𝑛 ¬
composantes du vecteur 𝑥 ∈ 𝐸 dans la base ℬ, on a pour 𝑓 𝑗 ∈ 𝐸 de composantes la matrice
colonne 𝐹 𝑗 dans la base ℬ :
𝑙1 𝑓 𝑗

© .
..
ª
𝑄𝐹 𝑗 = ­­ ®
 ®
« 𝑙𝑛 𝑓𝑗 ¬
Puisque 𝑄𝐹 𝑗 = 𝐸 𝑗 , 1 6 𝑗 6 𝑛, on a :

𝑙 𝑓 𝛿1,𝑗

© 1 . 𝑗 ª
­ .. ® = 𝐸 𝑗 = ­ ... ª® .
©
­  ®
« 𝑙𝑛 𝑓 𝑗 ¬ « 𝛿 𝑛,𝑗 ¬

 𝑙 𝑖 𝑓 𝑗 = 𝛿 𝑖,𝑗 pour tous 𝑖, 𝑗 compris entre 1 et 𝑛. On dit que (𝑙 𝑖 )16 𝑖 6 𝑛 est la base duale de

Donc,
𝑓𝑖 16 𝑖 6 𝑛 .

Exemple 6.2.2

47
On a montré ci-dessus que la réduction de Gauss de la forme quadratique sur 𝐸 = ℝ4 :

𝑞(𝑥) = 𝑥1 𝑥2 + 2𝑥1 𝑥 3 + 2𝑥 1 𝑥4 + 𝑥2 𝑥3 + 4𝑥2 𝑥4 + 2𝑥3 𝑥 4

est
1 1
𝑞(𝑥) = 𝑙12 (𝑥) − 𝑙22 (𝑥) − 2𝑙32 (𝑥)
4 4
avec 𝑙1 = 𝑒1 + 𝑒2 + 3𝑒3 + 6𝑒4 , 𝑙2 = 𝑒1 − 𝑒2 − 𝑒3∗ + 2𝑒4∗ et 𝑙3 = 𝑒3∗ + 2𝑒4∗ des formes linéaires
∗ ∗ ∗ ∗ ∗ ∗

indépendantes. On complète la suite (𝑙1 , 𝑙2 , 𝑙3 ) par 𝑙4 = 𝑒4∗ pour avoir une base (𝑙1 , 𝑙2 , 𝑙3 , 𝑙4 )
de 𝐸 ∗ . Ici, la matrice 𝑄 est :
1 1 3 6
­ 1 −1 −1 2 ®
© ª
𝑄=­
­0 0 1 2®
®

«0 0 0 1¬
Elle est inversible d’inverse :
1 1
−1 −2
© 12 21
− 2 −2 2 ®
ª
−1
𝑄 =­ 2 ®.
­
­ 0 0 1 −2 ®
« 0 0 0 1 ¬
La base 𝑓1 , 𝑓2 , 𝑓3 , 𝑓4 de ℝ4 vérifiant 𝑙 𝑖 𝑓 𝑗 = 𝛿 𝑖,𝑗 , 1 6 𝑖, 𝑗 6 4, est :
 

1 1
𝑓1 = (1, 1, 0, 0), 𝑓2 = (1, −1, 0, 0), 𝑓3 = (−1, −2, 1, 0), 𝑓4 = (−2, 2, −2, 1).
2 2

48

Vous aimerez peut-être aussi