0% ont trouvé ce document utile (0 vote)
154 vues72 pages

Réduction et Formes Quadratiques

Ce document traite de la représentation matricielle des applications linéaires et du changement de bases. Il présente la notion de matrice de passage entre deux bases et ses propriétés, notamment son inverse.

Transféré par

youssefbenguenny4
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
154 vues72 pages

Réduction et Formes Quadratiques

Ce document traite de la représentation matricielle des applications linéaires et du changement de bases. Il présente la notion de matrice de passage entre deux bases et ses propriétés, notamment son inverse.

Transféré par

youssefbenguenny4
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

UNIVERSITÉ SULTAN MOULAY SLIMANE

FACULTÉ DES SCIENCES ET TECHNIQUES

BÉNI MELLAL

Polycopie de cours - version 1


Module : Algèbre II
Filières : MIPC, GE, GM

Réalisé par
Pr. A. Raji

Année Universitaire : 2020-2021


Faculté des sciences et techniques, B.P 523 Béni Mellal, webmast@[Link]

i
ii

Réduction des Endomorphismes et Formes Quadratiques


Table des matières

1 MATRICE D’UNE APPLICATION LINÉAIRE ET CHANGEMENT


DE BASES 1
1.1 Matrice de Passage . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . 4
1.2.1 Expression matricielle de f (x) = y . . . . . . . . . . . . . . 6
1.2.2 Cas d’un endomorphisme . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Rang d’une application linéaire . . . . . . . . . . . . . . . . 8
1.2.4 Matrices associées et changement de bases . . . . . . . . . . 9
1.2.5 Matrices équivalentes, matrices semblables . . . . . . . . . . 10

2 DÉTERMINANT D’UNE MATRICE CARRÉE ET SYSTEME DE


CRAMER 12
2.1 Définitions et propriétées . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.1 Propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.2 Développement du déterminant . . . . . . . . . . . . . . . . 14
2.2 Quelques applications des déterminants . . . . . . . . . . . . . . . . 15
2.2.1 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . 15
2.2.2 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.3 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . 17
2.2.4 L’indépendance linéaire d’une famille de vecteurs . . . . . . 18
2.2.5 Résolution d’un système de Cramer . . . . . . . . . . . . . . 19

3 RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES 21


3.0.1 Vecteurs et valeurs propres . . . . . . . . . . . . . . . . . . . 22
3.0.2 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . 24
3.1 Endomorphismes et Matrices Diagonalisables . . . . . . . . . . . . . 28
3.1.1 Pratique de la diagonalisation . . . . . . . . . . . . . . . . . 29
3.1.2 Endomorphismes et matrices trigonalisables . . . . . . . . . 32
3.1.3 Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . 35

iii
iv

4 FORMES BILINÉAIRES ET FORMES QUADRATIQUES 39


4.1 Formes bilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.1 Matrice d’une forme bilinéaire . . . . . . . . . . . . . . . . 40
4.2 Formes Quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.3 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.4 Base orthogonale, décomposition en carrés . . . . . . . . . . . . . . 50
4.5 Classification des formes quadratiques . . . . . . . . . . . . . . . . . 58
4.5.1 Cas où le corps de base K est algèbriquement clos . . . . . . 58
4.5.2 Cas réel, K = R . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.5.3 Produit scalaire, Espace préhilbertien . . . . . . . . . . . . . 62
[Link] Cas particulier : Espaces Euclidiens . . . . . . . . . 64
4.5.4 Procédé d’orthonormalisation de Gramm-Schmidt . . . . . . 65

Bibliographie 68
Chapitre 1

MATRICE D’UNE APPLICATION LINÉAIRE ET CHANGEMENT DE


BASES

1.1 Matrice de Passage

Soient E un K-espace
  vectoriel de dimension finie n et B = (e1 , ..., en ) une base de
x1
 .. 
E. Posons X =  .  la matrice colonne formée des coordonnées d’un vecteur
xn
x de E relativement à la base B. Il est naturelle de poser la question suivante :
Comment la représentation matricielle change-t-elle si nous choisissons une autre
0 0 0
base B = (e1 , . . . , en ) de E ?. Pour répondre à cette question nous avons besoin
de la définition suivante

0 0 0
Définition 1.1. Soient B = (e1 , . . . , en ) et B = (e1 , . . . , en ) deux bases d’un K-ev
0
E. Exprimons les vecteurs de B dans la base B :

0
e1 = a11 e1 + a21 e2 + . . . + an1 en
0
e2 = a12 e1 + a22 e2 + . . . + an2 en
.................................................
0
en = a1n e1 + a2n e2 + . . . + ann en

1
2

La transposée P de la matrice des coefficients ci-dessus est appelée la matrice


0
de passage de la base B à la base B notée PBB 0

a11 a12 . . . a1n


 
 a21 a22 . . . a2n 
 
 . . ... . 
P =
 .
=P 0
BB
 . ... .  
 . . ... . 
an1 an2 . . . ann

Exemple 1.2. Dans l’espace vectoriel R2 , on considère les deux bases B = (e1 , e2 )
0 0 0 0 0
base canonique et B = (e1 , e2 ) avec e1 = (−1, 1) et e2 = (1, 1). Il est simple de
0
vérifier que B et aussi une base de R2 .
Questions : 1- déterminons les deux matrices PBB 0 et PB 0 B .
2- Calculons le produit PBB 0 PB 0 B puis retirons une conclusion.

Proposition 1.3. La matrice de passage d’une base B = (e1 , ..., en ) à une autre
0 0 0 0
base B = (e1 , ..., en ) est inversible et son inverse est la matrice de passage de B
−1
à B, c.à.d PBB 0 = PB 0 B .

0 0
Preuve. Posons P = PBB 0 = (aij )1≤i,j≤n et P = PB 0 B = (aij )1≤i,j≤n . Il suffit de
0 0
montrer que P P = P P = In . On a

n n n
X  n X
n 
0 0 0 0
X X X
es = ars er = ars akr ek = akr ars ek
r=1 r=1 k=1 k=1 r=1

Pn 0
puisque le nombre αk = r=1 akr ars = 1 si k = s et 0 si k 6= s, il s’ensuit que
0 0
(P P )ks = 1 si k = s et 0 sinon. Ce qui signifie que P P = In . Pour l’autre égalité
0 0
P P = In il suffit de faire une démonstration analogue que celle de P P = In .

Le théorème suivant montre comment les vecteurs coordonnées sont affectés par
un changement de base.

Théorème 1.4. Changement de base pour un vecteur


0 0 0
Soit P la matrice de passage de la base B = (e1 , . . . , en ) à la base B = (e1 , . . . , en )
3

dans un espace vectoriel E. Pour un vecteur quelconque x de E, on a : P XB 0 = XB


et par suite XB 0 = P −1 XB .

Insistons sur le fait que, bien que la matrice P soit la matrice de passage de l’an-
0
cienne base B à la nouvelle base B , elle a pour effet de transformer les coordonnées
0
d’un vecteur de la nouvelle base B en les coordonnées de ce vecteur dans la base
B.

Exemple 1.5. Considèrons les deux bases suivantes de R2 :


0 0 0
B = {e1 = (1, 0) , e2 = (0, 1)} et B = {e1 = (1, 1) , e2 = (−1, 0)}
0
Alors e1 = (1, 1) = (1, 0) + (0, 1) = e1 + e2
0
e2 = (−1, 0) = −(1, 0) + 0(0, 1) = −e1 + 0e2
0
Donc la matrice de passage de la base B à la base B est
 
1 −1
PBB 0 =
1 0

0 0
Nous avons aussi e1 = (1, 0) = 0(1, 1) − (−1, 0) = 0e1 − e2
0 0
e2 = (0, 1) = (1, 1) + (−1, 0) = e1 + e2
0
Il en résulte que la matrice de passage de la base B à la base B est
 
0 1
PB 0 B =
−1 1

Observons que PBB 0 et PB 0 B sont inverses


    
1 −1 0 1 1 0
=
1 0 −1 1 0 1

0 0 0
Soit x = 2e1 + 3e2 . En exprimant x dans la base B on obtient x = αe1 + βe2 .
Ainsi d’après le théorème précédent on a
    
1 −1 α 2
PBB 0 XB 0 = = = XB
1 0 β 3
4

Ce qui implique que


      
α −1 0 1 2 3
= PBB 0 XB = PB 0 B XB = =
β −1 1 3 1

0 0
il s’en suit alors que x = 3e1 + e2 .

1.2 Matrice d’une application linéaire

Définition 1.6. Soient E et F deux K espaces vectoriels, de bases respectives


0 0 0
B = (e1 , . . . , en ) et B = (e1 , . . . , em ), et f ∈ L (E, F ). On appelle matrice de f
0 0
relativement aux bases B et B la matrice notée M (f, B, B ) ∈ Mm,n (K) dont les
coefficients de sa ième colonne sont les coordonnées de f (ei ) dans la base B .
0

Cas particulier : Un endomorphisme de E est aussi une application linéaire de


E dans E, si B = (e1 , . . . , en ) est une base de E, alors la matrice M (f, B, B) est
dite la matrice de f dans la base B. Elle est notée tout simplement M (f, B).

Exemple 1.7. Considèrons les applications linéaires suivantes :

f : R2 → R3 et g : R2 → R2
(x, y) → (x, y, y) (x, y) → (x, x − 2y)

Soient B = {(1, 0), (0, 1)} et C = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} les bases canoniques
respectivement de R2 et R3 . Il simple de vérifie que D = {(1, 0), (1, 1)} est une
base de R2 et proposons nous de déterminer M (f, B, C) et M (g, D).
1) La matrice M (f, B, C) associée à l’application linéaire f relativement aux bases
B et C est donnée par :

f (e1 ) = f (1, 0) = (1, 0, 0) = 1(1, 0, 0) + 0(0, 1, 0) + 0(0, 0, 1)

f (e2 ) = f (0, 1) = (0, 1, 1) = 0(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1)


5

D’où  
1 0
M (f, B, C) = 0 1 ∈ M3,2 (R).
0 1

2) g est un endomorphisme, sa matrice associée relativement à la base D est


donnée par :

g(e1 ) = g(1, 0) = (1, 1) = 0(1, 0) + 1(1, 1)

g(e2 ) = g(1, 1) = (1, −1) = 2(1, 0) − 1(1, 1)

Ainsi  
0 2
M (g, D) = .
1 −1

Proposition 1.8. Soient E, F et G trois K-espaces vectoriels de bases respectives


B = (e1 , . . . , en ), C = (c1 , . . . , cm ) et D = (d1 , . . . , dr ).
1) Si f et g sont deux homomorphismes de E dans F alors :

i) M (f + g, B, C) = M (f, B, C) + M (g, B, C).

ii) M (αf, B, C) = αM (f, B, C) pour tout α ∈ K.

2) Si f ∈ L (E, F ) et g ∈ L (F, G) on a : M (g◦f, B, D) = M (g, C, D)M (f, B, C).

Preuve. X Pour (1), la démonstration est évidente.


X Pour (2), posons :
M (g ◦ f, B, D) = (ωij ), M (g, C, D) = (bij ) et M (f, B, C) = (aij )
(g ◦ f )(ej ) = rk=1 ωkj dk aussi
P
il s’ensuit alors que

m
X m
  X
(g ◦ f )(ej ) = g f (ej ) = g alj cl = alj g(cl )
l=1 l=1
m
X r
X  m X
X r 
= alj bkl dk = alj bkl dk
l=1 k=1 l=1 k=1
r
X X  m 
= alj bkl dk .
k=1 l=1
6

 
a1j
Ce qui implique que ωkj = m  ... , pour
P Pm
l=1 alj bkl = l=1 bkl alj = (bk1 , . . . , bkm )
amj
(1 ≤ k ≤ r, 1 ≤ j ≤ n). Par conséquent M (g ◦ f, B, D) = M (g, C, D)M (f, B, D).

1.2.1 Expression matricielle de f (x) = y

0 0 0
Soient f une application linéaire de E dans F et B = (e1 , . . . , en ), B = (e1 , . . . , em )
bases de E et F respectivement. Pour un vecteur x de E notons x1 , . . . , xn ses
coordonnées dans la base B et désignons par y1 , . . . , ym les coordonnées de f (x)
0
dans la base B . Posons


x1
XB =  ...  la matrice des coordonnées de x dans la base B.
xn

et
 
y1
=  ...  la matrice des coordonnées de f (x) dans la base B
0
YB 0
ym

alors on a :
0
M (f, B, B )XB = YB 0

Exemple 1.9. Considérons l’application R-linéaire f de R2 → R3 définie par sa


matrice  
0 1
0
M (f, B, B ) = 1 −1
1 0
0
avec B = {e1 = (1, 1), e2 = (1, −1)} et B = {(1, 1, 0), (0, 1, 1), (0, 0, 1).
Déterminons par exemple f (−1, 5), pour le faire, calculons d’abord la matrice XB
associée au vecteur x = (−1, 5) ; ( x donné dans la base canonique de R2 ). On a

(−1, 5) = x1 e1 + x2 e2 = x1 (1, 1) + x2 (1, −1) = (x1 + x2 , x1 − x2 )


7

a pour solution  
2
x1 = 2, x2 = −3 donc XB =
−3
D’où      
y1 0 1   −3
2
YB 0 = y2 = 1 −1
    =  5 .
−3
y3 1 0 2

Ainsi f (−1, 5) = −3(1, 1, 0) + 5(0, 1, 1) + 2(0, 0, 1) = (−3, 2, 7).

1.2.2 Cas d’un endomorphisme

Soit B une base d’un K-ev E et f ∈ L (E, B).

Proposition 1.10. Si x est un vecteur de E et XB est la matrice de ses coor-


données dans la base B alors la matrice YB , matrice des coordonnées de f (x) dans
la base B, est donnée par YB = M (f, B)XB .

Remarque : D’après la définition 1.6, la donnée d’une application linéaire f ∈


0
L (E, F ) et d’une base B de E et d’une base B de F engendre une matrice
0
M (f, B, B ) ∈ Mm,n (K). Inversement, toute matrice A ∈ Mm,n (K) définie une
appliaction linéaire g : E → F comme suit : g(x) = AX avec X est la matrice
colonne formée par les coordonnées du vecteur x dans la base B.

Théorème 1.11. Soient E et F deux K-espaces vectoriels de bases respectives


0 0
B(e1 , . . . , en ) et B(e1 , . . . , em ). Alors l’application

ϕ : L (E, F ) → Mm,n (K)


0
f → M (f, B, B )

est un isomorphisme d’espaces vectoriels, et par conséquent dimK L (E, F ) = mn.

Preuve. X La linéarité de ϕ résulte de la proposiotion 1.8.


X La surjectivité de ϕ : Soit A = (aij ) ∈ Mm,n (K), définissons f de E dans F par
0 0
f (ei ) = m
P
k=1 aki ek pour tout i = 1, . . . , n. Par construction, on a M (f, B, B ) = A.
8

Donc ϕ est surjective.


X L’injectivité de ϕ : soient f, g ∈ L (E, F ) telles que ϕ(f ) = ϕ(g), c’est-à-dire
0 0
M (f, B, B ) = M (g, B, B ), alors f (ei )/B 0 = g(ei )/B 0 pour tout i = 1, . . . , n. Ce
qui nous permet de conclure que f = g. Par conséquent, les K-espaces vectoriels
L (E, F ) et Mm,n (K) sont isomorphes, donc ils ont la même dimension. Puisque
la dimension de Mm,n (K) est mn, alors dimL (E, F ) = mn.

1.2.3 Rang d’une application linéaire

Définition 1.12. Soit f une application linéaire d’un K-espace vectoriel E dans
un K-espace vectoriel F . On appelle rang de f l’entier naturel, noté rg(f ), défini
par rg(f ) = dim(Im(f )).

Exemple 1.13. Soit f l’application linéaire définie de R3 dans R2 par f (x, y, z) =


(x, 2y). Pour déterminer le rg(f ) à partir de la définition il faut déterminer la
dimension de Im(f ). Or f est surjective ( à vérifier) donc Im(f ) = R2 et alors
rg(f ) = dim(Im(f )) = 2.

Remarque : Si f ∈ L (E, F ), et B une base de E, du fait que f (B) engendre


Im(f ), alors rg(f ) = rg(f (B)).

Proposition 1.14. Si f ∈ L (E, F ) et P une matrice associée à f relativement


à deux bases quelconques de E et F , alors rg(f ) = rg(P ).

Preuve. Soit f : E → F une application linéaire de K-espaces vectoriels et soit


0 0
B (resp B ) une base de E (resp base de F ). Posons P = M (f, B, B ) la matrice
0
associée à f relativement aux bases B et B . D’après la remarque précédente et le
fait que rg(f (B)) = dimK (Im(f )) on conclut que rg(f ) = rg(P ).
9

1.2.4 Matrices associées et changement de bases

Théorème 1.15. Si f est une application linéaire d’un K- espace vectoriel E dans
0 0
un K-espace vectoriel F et si B, B sont deux bases de E et S, S sont deux bases
de F alors
0 −1 0
M (f, B , S ) = PSS 0 M (f, B, S) PBB 0

Preuve. Représentons sur un diagramme les applications linéaires et leur matrice


dans les bases indiquées :

f
(E, B) −
−−−−−− →
M (f,B,S)
(F, S)
−1
PBB 0 ↑ IdE PSS 0 ↓ IdF

0 f 0
(E, B ) −−−−−−0−−→
0 (F, S )
M (f,B ,S )

On voit sur ce diagramme que IdF ne correspond pas au changement de base,


0
de S à S , mais à son inverse. C’est donc l’inverse de la matrice de passage qui
intervient à cet endroit. Pour ne pas faire d’erreur sur le sens des flèches on peut
préférer un diagramme en ligne.

E IdE E f F IdF F
0 −−−−−−−−−0
−→ −
−−−−−− → −−−−−−−−−→ 0 0
(B ) M (IdE ,B ,B) (B) M (f,B,S) (S) M (IdF ,S,S ) (S )

Pour obtenir la relation entre les matrices il suffit d’écrire les relations entre les
applications linéaires et d’appliquer la proposition 1.8(2) il s’ensuit que

f = IdF ◦ f ◦ IdE

D’où
0 0 0 0
M (f, B , S ) = M (IdF , S, S ) M (f, B, S) M (IdE , B , B)

0 −1 0
Or M (IdE , B , B) = PBB 0 et M (IdF , S, S ) = PS 0 S = PSS 0 , alors

0 −1 0
M (f, B , S ) = PSS 0 M (f, B, S) PBB 0 .
10

0 0 0
Notation : si on note M = M (f, B , S ), M = M (f, B, S), P = PBB 0 , Q = PSS 0
alors l’équation précédente se réduit à

0
M = Q−1 M P

Cas d’un endomorphisme : il est facile de particulariser le diagramme précédent


au cas E = F et f : E → E. Il suffit de retenir le schéma et la formule qui en
découle.
0
Proposition 1.16. Soient B et B deux bases d’un K- espace vectoriel E et f
0
un endomorphisme de E alors les matrices M (f, B) et M (f, B ) sont liées par la
relation suivante :
0 −1
M (f, B ) = PBB 0 M (f, B) PBB 0

Exemple 1.17. Soit E = R3 , on considère l’application f : R3 → R3 definie par


f (x, y, z) = (x − z, 2x − 3y + z, y − 2z).
1- Vérifier que f est linéaire.
0
2- Posons B = (1 , 2 , 2 ) avec 1 = (1, 1, 0), 2 = (0, −1, 0) et 3 = (3, 2, −1).
0
Montrer que B est aussi une base de R3 .
3- Donner la matrice de f relativement à la base canonique B de R3 .
−1
4- Déterminer les deux matrices PBB 0 et PBB 0 puis déduire la matrice de f dans

0
la base B .

1.2.5 Matrices équivalentes, matrices semblables

Définition 1.18. Soient A et B deux matrices de Mn,m (K). On dit que A et


B sont équivalentes s’il existe deux matrices inversibles P et Q d’ordre m et n
respectivement telles que A = Q−1 BP .

Remarques :
i) On peut vérifier que cette relation sur les matrices est une relation d’équivalence.
ii) Deux matrices de Mn,m (K) sont équivalentes ssi elles ont le même rang.
11

Définition 1.19. Soient A et B deux matrices de Mn (K). On dit que A et B sont


semblables s’il existe une matrice inversible P d’ordre n telle que A = P −1 BP .

Remarques :
i) Deux matrices semblables ont le même rang.
Attention, la réciproque est fausse en générale : par exemple, les matrices
   
1 0 1 1
A= et B =
0 1 0 1

ont le même rang (2), mais elles ne sont pas semblables car la matrice P −1 AP est
toujours égale à A et ne peut donc pas être égale à B.
ii) Attention : deux matrices carrées semblables ont méme rang, donc sont équivalentes.
Par contre, il existe des matrices carrées équivalentes mais qui ne sont pas sem-
blables :    
1 0 0 1
A= et B = .
0 0 0 0
Elles sont équivalentes puisqu’elles sont toutes les deux de rang 1. Supposons
qu’elles soient semblables. Alors A = P −1 BP , donc A2 = P −1 B 2 P . Or un calcul
direct donne A2 = A et B 2 = 0. Contradiction.
Chapitre 2

DÉTERMINANT D’UNE MATRICE CARRÉE ET SYSTEME DE


CRAMER

2.1 Définitions et propriétées

A chaque matrice carrée sur un corps K on peut associer un scalaire appelé le


déterminant de A, noté habitullement dét (A) ou |A|. Cette application déterminant
à été découverte pour la première fois lors de l’étude des systèmes d’équations
linéaires, elle vérifie les axiomes du Théorème suivant (théorème admis).

Théorème 2.1. (Théorème d’existence et d’unicité du déteminant)


Il existe une unique application de Mn (K) dans K, appelé déterminant, vérifiant
i) dét est linéaire par rapport à chaque vecteur colonne, les autres étant fixés.
ii) Si une matrice a deux vecteurs colonnes égaux, alors son déterminant est nul.
iii) Le déterminant de la matrice In vaut 1 , c.à.d, dét(In ) = 1.

Définition 2.2. Soit A = (aij ) ∈ Mn (K), l’image de A par l’application dét


relativement à la base canonique Kn est donnée par la somme suivante, qui obtenue
par la somme sur toutes les permutations possibles σ de Sn . Ainsi le déterminant
de A contient n! produits

X
dét(A) = ε(σ)a1σ(1) a2σ(2) . . . anσ(n) .
σ∈Sn
X
= ε(σ)aσ(1)1 aσ(2)2 . . . aσ(n)n .
σ∈Sn

12
13

Remarque : Si A = (aij ) ∈ Mn (K), on note aussi le déterminant de A en l’écrivant


sous l’une des formes :

a11 . . . a1n
X Première forme dét(A) = ... ..
.
..
.
an1 . . . ann

XX Deuxième forme dét(A) = |C1 , C2 , . . . , Cn |

Avec (Ci )i=1...n sont les vecteurs colonnes de la matrice A. En utilisant cette
deuxième formule, la propriété (i) du théorème précédent s’écrit
0 0
|C1 , . . . , Ci + λCi , . . . , Cn | = |C1 , . . . , Ci , . . . , Cn | + λ|C1 , . . . , Ci , . . . , Cn |
0
pour tout λ ∈ K et pour tout vecteur colonne Ci ∈ Mn1 (K).
Quand n augmente, le nombre de termes dans le déterminant devient très grand.
En conséquence, on utilise des méthodes indirectes pour calculer les déterminants,
plutôt que la définition. En fait nous allons énoncer un certain nombre de pro-
priétés qui vont nous permettre décourter considérablement le calcul.

2.1.1 Propositions

Soit A ∈ Mn (K), alors

1. Les détérminants de A et de sa transposée t A sont égaux, det(A) = det(t A).


D’après cette propriétée, toute autre propriété concernant le déterminant
d’une matrice A qui s’applique aux lignes de A aura une propriété analogue
s’appliquant aux colonnes de A.

2. Si A a deux lignes (resp deux colonnes) identiques, alors det(A) = 0.

3. det(A) = 0 si une ligne (resp. une colonne) est une combinaison linéaire des
autres lignes (resp. des autres colonnes) de A.

4. En particulier : si une ligne ( colonne) de A est nulle, alors det(A) = 0.

5. det(AB) = d(A)det(B) pour tout B ∈ Mn (K), (le dét est multiplicative).


14

6. A est inversible dans Mn (K) ssi rang(A) = n ssi det(A) 6= 0.

Soit B la matrice obtenue à partir de A par l’une des opérations suivantes :

7. Par multiplication d’une ligne (colonne) de A par un scalaire α, alors det(B) =


αdet(A).

8. En échangeant deux lignes (colonnes) de A, alors det(B) = −det(A).

9. En ajoutant à une ligne de A (resp colonne) de A un multiple des autres


lignes (resp un multiple des autres colonnes), alors det(B) = det(A).

2.1.2 Développement du déterminant

Soit A = (aij ) ∈ Mn (K). Notons Aij la sous matrice carrée (n − 1) × (n − 1)


obtenue de A en supprimant sa ième ligne et sa j ème colonne et ∆ = det(A ).
ij ij
 
2 0 3
Exemple 2.3. Considérons la matrice A de M3 (R) suivante A = 1 −1 4,
5 1 2
alors on a      
−1 4 1 4 1 −1
A11 = , A12 = , A13 =
1 2 5 2 5 1
     
0 3 2 3 2 0
A21 = , A22 = , A23 =
1 2 5 2 5 1
     
0 3 2 3 2 0
A31 = , A32 = , A33 =
−1 4 1 4 1 −1
ainsi

∆11 = det(A11 ) = −6, ∆12 = det(A12 ) = −18, ∆13 = det(A13 ) = 6

∆21 = det(A21 ) = −3, ∆22 = det(A22 ) = −11, ∆23 = det(A23 ) = 2

∆31 = det(A31 ) = 3, ∆32 = det(A32 ) = 5, ∆33 = det(A33 ) = −2


15

♦ Le scalaire ∆ij est appelé le mineur de l’élément aij de A, et le cofacteur de


aij noté Cij étant le mineur affecté par (−1)i+j , c.à.d Cij = (−1)i+j ∆ij .
♦ La matrice des cofacteurs des éléments aij de A, notée Com(A), est appelée
comatrice de A. Dans l’exemple précédent
 
−6 18 6
com(A) =  3 −11 −2
3 −5 −2

Théorème 2.4. Le déterminant de la matrice A = (aij ) égal à la somme des pro-


duits obtenus en multipliant les éléments d’une ligne (ou bien colonne) quelconque
par leurs cofacteurs respectifs.

n
(développement de det(A) suivant sa ième ligne).
X
det(A) = aik Cik
k=1
n
(développement de det(A) suivant sa j ème colonne).
X
= akj Ckj
k=1


2 0 3
Exemple 2.5. Reprenons la matrice de l’exemple précédent A = 1 −1 4
5 1 2
alors, si on développe det(A) suivant sa première colonne on trouve

−1 4 0 3 0 3
det(A) = 2 −1 +5 =6
1 2 1 2 −1 4

2.2 Quelques applications des déterminants

2.2.1 Inverse d’une matrice

Une méthode importante pour déterminer la matrice inverse, si elle existe, d’une
matrice carrée est citée dans la proposition suivante

Proposition 2.6. Soit A une matrice quelconque de Mn (K), on a


16

1. A t com(A) = t com(A) A = det(A)In .

2. Si de plus det(A) 6= 0, alors A est inversible est A−1 = 1


det(A)
t
com(A).
 
2 0 3
Exemple 2.7. Considérons la matrice A = 1 −1 4 de l’exemple précédent
5 1 2
pour
 laquelle det(A)
 = 6, il s’ensuit alors que A est inversible.
 Nous avons
com(A) =
−6 18 6 −6 3 3
 3 −11 −2, la proposition affirme que A−1 = 1  18 −11 −5.
6
3 −5 −2 6 −2 −2

2.2.2 Rang d’une matrice

Soit A ∈ Mn,m (K), ici A n’est pas nécessairement carrée, par définition le rang
de A est le nombre maximum de vecteurs colonnes (resp. lignes) linéairement
indépendants. Une autre façon de déterminer le rang d’une matrice en utilisant le
déterminant est donnée par la proposition qui suit

Proposition 2.8. Le rang d’une matrice A ∈ Mn,m (K) est le plus grand entier r,
(1 ≤ r ≤ inf (n, m)), des ordres des matrices carrées inversibles extraites de A.
 
1 2 0 −1
Exemple 2.9. déterminons le rang de la matrice M =  3 1 1 4 .
−1 5 2 3
1 2 2 0
Parmi les déterminants de M d’ordre 2 on peut citer = −5 et = 2.
3 1 1 1
1 2 0
Aussi parmi les déterminants de M d’ordre 3 on a 3 1 1 = −17, ce qui
−1 5 2
entraı̂ne que rg(M ) = 3.

Proposition 2.10. Soient A et B deux matrices de Mn (K).


♦ A est inversible ssi t A est inversible ssi rg(A) = n et dans ce cas on a
(t A)−1 = t (A−1 ).
♦ Si A et B sont inversibles alors AB est inversible et (AB)−1 = B −1 A−1 .
Attention la transposition inverse l’ordre dans le produit des matrices.
17

2.2.3 Déterminant d’un endomorphisme

En utilisant la propriété de la multiplicativité du déterminant, on montre faci-


lement que deux matrices semblables ont même déterminant. Ce résultat nous
permet de définir le déterminant d’un endomorphisme sur un K-espace vectoriel
E de dimension finie.

Définition 2.11. Soient E un K-espace vectoriel de dimension finie et f un en-


domorphisme de E. Le déterminant de f , écrit det(f ), est définit par

det(f ) = det(M (f, S))

où M (f, S) la matrice de f dans une base S de E.

Remarque : Cette définition est indépendante de la base choisie. En effet, soient S


0 0
et S deux bases de E et P la matrice de passage de la base S à S , alors

0
M (f, S ) = P −1 M (f, S)P

0 0
En conséquence, M (f, S) et M (f, S ) sont semblables. D’où det(M (f, S)) = det(M (f, S )).
Le Théorème suivant découle des théorèmes analogues sur les matrices

Théorème 2.12. Soient f et g deux endomorphismes sur un K-espace vectoriel


E de dimension finie n et S une base de E. Alors
det(IdE ) = 1 et det(f ◦ g) = det(f ) × det(g).
Aussi on a les équivalences suivantes : f est bijective ⇔ f est injective ⇔ f est
sujective ⇔ det(f ) 6= 0 ⇔ det(M (f, S)) 6= 0 ⇔ rg(M (f, S)) = n et on a

det(f −1 ) = (det(f ))−1 .


18

2.2.4 L’indépendance linéaire d’une famille de vecteurs

Définition 2.13. Soient E un K-espace vectoriel de base B = (e1 , . . . , en ) et


V = (v1 , . . . , vn ) un système de n vecteurs de E. On appelle le déterminant de
V relativement à la base B le déterminant de la matrice ayant pour colonnes les
composantes des vecteurs vi dans la base B.

(v1 )
↓ . . . (v↓n )
a11 . . . a1n e1
a21 . . . a2n e2
detB (v1 , . . . , vn ) = .. .. .. .. .. ..
. ... . .
an1 . . . ann en

0
Remarque : Si B et B sont deux bases de E, alors

detB 0 (v1 , . . . , vn ) = detB (v1 , . . . , vn ) × detB 0 (B).

Théorème 2.14. Soient E un K-espace vectoriel de dimension finie et (v1 , v2 . . . , vn )


un système de vecteurs de E. les propriétés suivantes sont équivalentes

1. les vecteurs v1 , v2 . . . , vn forment une famille liée.

2. Pour toute base B de E, detB (v1 , . . . , vn ) = 0.

3. Il existe une base de E telle que detB (v1 , . . . , vn ) = 0.

Conséquences : Immédiatemment, à partir de la définition et du théorème précédents


on déduit les deux conséquences suivantes :
0 0
1) detB (B ) × detB 0 (B) = 1, telles que B et B deux bases de E.
2) (v1 , v2 . . . , vn ) est libre ssi detB (v1 , . . . , vn ) 6= 0, B une base quelconque de E.

0 0 0
Exemple 2.15. Soient B = {e1 (1, 1), e2 (0, 1)} et B = {e1 (−1, 1), e2 (1, 2)} deux
bases de R2 et soit V = {v1 (2, 5), v2 (−2, 4)} un système de vecteurs de R2 .
Déterminons : detB (v1 , v2 ), detB 0 (v1 , v2 ) et detB 0 (B).
0
Exprimons tout d’abord les vecteurs v1 et v2 dans les deux bases B et B , on a
19

0 0
v1 = 13 e1 + 73 e2
 
v1 = 2e1 + 3e2
et 0 0
v2 = −2e1 + 6e2 v2 = 83 e1 + 23 e2

2 −2 1 8
Alors detB (v1 , v2 ) = = 18, detB 0 (v1 , v2 ) = 91 = −6.
3 6 7 2
Or detB 0 (v1 , v2 ) = detB (v1 , v2 ) × detB 0 (B) alors detB 0 (B) = −1
3
, il s’ensuit alors
que le système (v1 , v2 ) est libre dans R2 .

2.2.5 Résolution d’un système de Cramer

Considérons un système de n équations et p inconnues.




 a11 x1 + a12 x2 + . . . + a1p xp = b1
 a21 x1 + a22 x2 + . . . + a2p xp = b2

(S) .. .. ..


 . . .
an1 x1 + an2 x2 + . . . + anp xp = bn

Où les aij et les bi sont dans K (K = R ou C). Si les bi sont tous nuls, le système
(S) est dit système homogène. Le système (S) peut être représenter par l’écriture
matricielle AX = B comme suit
     
a11 a12 . . . a1p x1 b1
 a21 a22 . . . a2p  x2   b2 
     
 .. .. .. ..   ..  =  .. 
 . . . .  . .
an1 an2 . . . anp xp bn
| {z } | {z } | {z }
A X B

A est dite la matrice associée au système (S).

Définition 2.16. Un système d’équations linéaires (S) est dit de Cramer si le


nombre de ses équations est égal au nombre de ses inconnues, (n = p), et le
det(A) 6= 0 où A est la matrice associée à (S).

Dans le cas d’un système de Cramer (S), l’équation AX = B admet une unique
solution pour tout B. Dans ce cas, comme B = x1 A1 + x2 A2 + . . . + xn An où les Ai
20

représentent les vecteurs colonnes de A. Il en découle que relativement à la base


canonique C de Kn , on a

detC (A1 , ..., Ai−1 , B, Ai+1 , ..., An ) = xi detC (A1 , ..., An ) = xi det(A).

On en déduit que les composantes xi de X sont données par

detC (A1 , ..., Ai−1 , B, Ai+1 , ..., An )


xi = (formules de cramer)
det(A)

En conséquence, l’unique solution de (S) est


( !)
det(A1 ) det(A2 ) det(An )
, , ..., .
det(A) det(A) det(A)

Chaque matrice Ai est la matrice obtenue de A en remplaçant sa ième colonne


par B vecteur colonne du second membre du système (S).

Exemple 2.17. Soit à résoudre le système


 2x + 3y − z = 4
(S) x − 2y + 5z = 1
3x − y + 2z = −1

Calculons d’abord le déterminant de la matrice A associée à (S)

2 3 −1
det(A) = 1 −2 5 = 36
3 −1 2

Puisque det(A) 6= 0, alors le système (S) admet une solution unique. Nous avons
4 3 −1 2 4 −1
aussi det(A1 ) = 1 −2 5 = −14, det(A2 ) = 1 1 5 = 70
−1 −1 2 3 −1 2
2 3 4  
−7 35 19
et det(A3 ) = 1 −2 1 = 38. Donc S = 18
, 18 , 18 .
3 −1 −1
Chapitre 3

RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES

L’objectif principal de ce chapitre est d’apprendre à diagonaliser les matrices


carrées lorsque c’est possible. Dans les cas moins favorable, on pourra seulement
transformer une telle matrice en une matrice trangulaire et c’est déjà un enjeu
majeur pour une foule d’applications, de la physique à l’informatique, en passant
par la statistique et l’analyse numérique. Pour les endomorphismes, réduire un
endomorphisme consiste à chercher une base dans laquelle sa matrice soit simple.
La bijection f → M (f ), où M (f ) est la matrice d’un endomorphisme f d’un K-
espace vectoriel E de dimension finie nous permet d’étendre les notions définies
pour f à toute matrice Mn (K) et vice-versa.

Le long du chapitre, K désigne un corps commutatif (R, Q, C...), et E un espace


vectoriel de dimension finie n.
Vocabulaires :
• Un endomorphisme f de l’espace vectoriel E est dit diagonalisable (resp.
trigonalisable) s’il existe une base (e1 , ..., en ) de E pour la quelle la matrice de
f soit diagonale (resp. triangulaire supérieure).
• Une matrice A ∈ Mn (K) est dite diagonalisable (resp. trigonalisable) si elle
est semblable à une matrice diagonale (resp. triangulaire supérieure).

Exemple 3.1. 1) L’endomorphisme f de R2 définie par f (x, y) = (x + y, y) est


trigonalisable. En effet, dans la base canonique B de R2 on a
 
1 1
M (f, B) =
0 1

21
22

2) La matrice A ci-dessous est diagonalisable, car il existe une matrice diagonale


D et une matrice inversible P telles que
       
1 1 1
0 1 1 1 −1 0 1 0 0
 2 2 2

 −1 1 1 
     
 −1 3 −1 
 = 0 −1 0
1 0 1  
 2 2 2   2 2 2  
−1 1 −1 3 −3 1
2 2 2 2 2 2 0 1 −1 0 0 2
| {z } | {z } | {z } | {z }
P −1 A P D

3.0.1 Vecteurs et valeurs propres

Définition 3.2. Soient A ∈ Mn (K) et f ∈ L (E).


1- Un vecteur x de E est dit vecteur propre de f si x 6= 0E et s’il existe un scalaire
λ ∈ K tel que f (x) = λx. Dans ce cas, λ s’appelle la valeur propre de f associée
à x.
2- on appelle valeur propre de la matrice A, un scalaire λ pour le quel il existe
X ∈ Mn,1 (K) non nul tel que AX = λX. Dans ce cas, on dit aussi que X est un
vecteur propre de A associée à λ.

D’après cette définition, on remarque qu’une telle valeur propre associée à un


vecteur propre est unique, par contre on peut trouver plus d’un vecteur propre
attaché au même scalaire. En effet,
0
a) Soit λ une valeur propre associée à un vecteur non nul x, supposons que λ une
0
autre valeur associée au vecteur x. On aura alors λx = λ x ce qui implique que
0
λ = λ ; (car x est non nul).
b) Si x un vecteur propre d’un endomorphisme f ∈ L (E) associé à un scalaire λ,
alors pour tout élément non nul β ∈ K on aura f (βx) = βf (x) = λ(βx) ( on a
utiliser la commutativité de K). Donc βx est un vecteur non nul associé aussi à λ.

Exemple 3.3. 1) L’endomorphisme f de R2 défini par f (x, y) = (2x, 3x + 2y)


admet 2 comme valeur propre associée au vecteur propre e = (0, 1). En effet,
f ((0, 1)) = (0, 2) = 2(0, 1).
23

0
2) Soit f : Rn [x] → Rn [x] l’endomorphisme défini par f (P ) = xP . Alors pour
tout 1 ≤ k ≤ n, on a f (xk ) = kxk . Et par suite xk est un vecteur propre de f
associé au valeur propre k.

   
4 3 2 1
3) 4 est une valeur propre de 0 1 5 associée au vecteur 0 .
  
0 6 7 0

4) Soit D l’opérateur différentiel sur l’espace vectoriel V des fonctions differen-


tiables. Nous avons D(ekx ) = kekx . Donc k est une valeur propre de D associée
au vecteur propre ekx .

Définition 3.4. Soient f ∈ L (E) et A ∈ Mn (K). L’ensemble des valeurs propres


de f (resp. de A ) est appelé le spectre de f (resp. le spectre de A), noté Sp(f )
(resp. Sp(A)). En paticulier, si A la matrice de f , alors Sp(A) = Sp(f ).

Proposition 3.5. Soit A ∈ Mn (K), on a les propriétés suivantes


1. λ valeur propre de A ssi rg(A − λIn ) < n.

2. 0 ∈ Sp(A) ssi A non inversible ssi det(A) = 0.

3. Soient A, B ∈ Mn (K), on a Sp(AB) = Sp(BA). En effet, si λ = 0 est une


valeur propre de AB, alors on a les équivalences suivantes : (i) 0 valeur
propre de AB, (ii) AB est non inversible, (iii) A ou B non inversible,
(iv) BA non inversible, (v) 0 valeur propre de BA.
Supposons maintenant que λ 6= 0, alors il existe x vecteur propre non nul de
AB vérifiant ABx = λx 6= 0. Posons u = Bx, on a

ABx = Au = λx, donc u 6= 0

par conséquent,
BABx = BAu = λBx = λu.

Donc λ est une valeur propre de BA. De manière analogue, une valeur propre
de BA est une valeur propre de AB.
24

Définition 3.6. Soit λ ∈ Sp(f ), (resp. Sp(A)).


1) L’ensemble Eλ = {x ∈ E, f (x) = λx} = Ker(f − λIdE ) est un sous espace
vectoriel de E stable par f , appelé sous espace propre de E associé à la valeur
propre λ.
2) L’ensemble Eλ = {X ∈ Mn,1 (K), AX = λX} est un sous espace vectoriel de
Mn,1 (K) stable par A, appelé sous espace propre de Mn,1 (K) associé à la valeur
propre λ.

Remarquons que le sous-espace Eλ est composé des vecteurs propres associés à λ,


auxquels on a ajouté 0. Aussi E0 = kerf et par suite f est un isomorphisme si et
seulement si 0 n’est pas une valeur propre de f .

Théorème 3.7. Soient λ1 , ..., λk des valeurs propres distinctes deux à deux de
f , alors les sous espaces propres Eλ1 , ..., Eλk sont en somme directe, c’est à dire
Eλ1 + ... + Eλk = Eλ1 ⊕ ... ⊕ Eλk .

Preuve. On doit montrer que tout x ∈ Eλ1 + Eλ2 + ... + Eλk s’écrit d’une manière
unique sous la forme x = x1 + . . . + xk où les xi ∈ Eλi . En effet, supposons que
0 0 0 0 0
x = x1 +. . .+xk = x1 +. . .+xk avec xi , xi ∈ Eλi , alors (x1 −x1 )+. . .+(xk −xk ) = 0
0 0
où les (xi − xi ) ∈ Eλi . Il en resulte que xi = xi pour i = 1, . . . , k car sinon les
0 0
vecteurs (x1 − x1 ), . . . , (xk − xk ) forment un système lié.

3.0.2 Polynôme caractéristique

Définition 3.8. Soit A ∈ Mn (K). On appelle polynôme caractéristique de A le


polynôme de K[x] défini par PA (x) = det(A − xIn ).
Remarques :

1. Ce polynôme s’écrit sous la forme

PA (x) = (−1)n xn + (−1)n−1 tr(A)xn−1 + .... + det(A).


25

2. PA = Pt A , une matrice a même polynôme caractéristique que sa transposée.

3. deux matrices semblables ont même polynôme caractéristique.


En effet, A et B sont semblables entaı̂ne que B s’écrit sous la forme B =
P −1 AP , avec P ∈ GLn (K), ce qui implique B − xIn = P −1 AP − xIn =
P −1 (A − xI)P , d’où PB (x) = det(B − xI) = detP −1 det(A − xI) detP =
det(P −1 P ) det(A − xI) = det(A − xI) = PA (x). A cet effet, on définit le
polynôme caractéristique d’un endomorphisme.

Définition 3.9. Soit f ∈ L (E). Le polynôme caractéristique de la matrice de f


dans une base donnée de E ne dépend pas de cette base choisie. On l’appelle le
polynôme caractéristique de f et on le note Pf .

Exemple 3.10. 1) Dans  le cas n = 2, on aura PA (x) = x2 − tr(A)x + det(A).


0 1 1 −x 1 1
2) Soit A = −1 1 −1, alors PA (x) = −1 1 − x −1 = −x3 + 4x2 − 4x.
1 1 3 1 1 3−x
3) Considérons l’application g (rotation d’angle α ) de R2 dans R2 définie par
  
cosα −sinα x
g(x, y) = (xcosα − ysinα, xsinα + ycosα) = ,
sinα cosα y

cosα − t −sinα
alors Pg (t) = = t2 − (2cosα)t + 1.
sinα cosα − t

La proposition suivante montre la relation principale entre les polynômes ca-


ractéristiques et les valeurs propres.

Proposition 3.11. Soit A ∈ Mn (K) (resp. f ∈ EndK (E)). Un scalaire λ ∈ K est


une valeur propre de A (resp. de f ) si est seulement si λ est une racine de PA
(resp. racine de Pf ).

Preuve. ♦ soit λ ∈ K, λ est une valeur propre de A ssi A − λIn est non inversible
ssi det(A − λIn ) = 0 ssi λ est une racine de det(A − xIn ) = 0 ssi λ est une racine
de PA .
♦ Pour l’endomorphisme, λ est une valeur propre de f ssi f − λIdE n’est pas
26

injective ssi det(M (f − λIdE )) = 0 ssi det(M (f ) − λIdn ) = 0 ssi λ est une racine
de l’équation det(M (f ) − xIn ) = 0 ssi λ est une racine de Pf .

Corollaire 3.12. Si A ∈ Mn (K) avec K = R ou C, alors A admet au plus n


valeurs propres, de plus

1. Si A ∈ Mn (C), alors le Sp(A) est non vide. En effet, il suffit d’utiliser


le théorème fondamental de l’algèbre, chaque polynôme dans C admet une
racine.

2. Si A ∈ Mn (R), alors le Sp(A) dans R est inclus dans le Sp(A) dans C.

Exemple 3.13. Dans l’exemple précédent, on a


−x 1 1
1) PA (x) = −1 1 − x −1 = −x3 + 4x2 − 4x = −x(x − 2)2 . Donc A admet
1 1 3−x
deux valeurs propres 0 et 2.
2) De même, Pg (t) = t2 − (2cosα)t + 1.
Ainsi cosα − |sinα| et cosα + |sinα| sont les deux valeurs propres de l’endomor-
phisme g.
3) Pour bien 
comprendre
 le corollaire ci-dessus, il suffit de prendre par exemple la
1 −2
matrice A = , son polynôme caractéristique est
1 −1

1−x −2
PA (x) = det(A − xI2 ) = = x2 + 1.
1 −1 − x

— Sur le corps des réels R, A n’admet aucune valeur propre.


— Sur le corps des complexes C, A admet deux valeurs propres i et −i.

Proposition 3.14. Si λ1 , . . . , λm sont des valeurs propres distinctes d’une matrice


carrée A (resp. d’un endomorphisme f ) et e1 , . . . , em les vecteurs propres corres-
pondants, alors le système {e1 , . . . , em } est libre.
D’une manière plus générale, si de chaque Eλi (i = 1...m) on choisit une partie
S S S
libre (ei1 , . . . , eini ) alors la partie (e11 , . . . , e1n1 ) (e21 , . . . , e2n2 ) ... (em1 , . . . , emnm )
est libre.
27

Preuve. On procède par récurrence

α1 e1 + . . . + αm em = 0 (∗)

appliquant A à cette équation, on obtient

α1 λ1 e1 + . . . + αm λm em = 0,

on multiplie l’équation (∗) par λm et en soustrayant on obtient,

α1 (λm − λ1 )e1 + . . . + αm−1 (λm − λm−1 )em−1 = 0.

L’hypothèse de récurrence entraı̂ne αi = 0 pour i = 1, ..., m − 1. En remplaçant


dans (∗) on obtient αm = 0.

Théorème 3.15. Soit f un endomorphisme de E et Pf (x) son polynôme ca-


ractéristique admettant dans K une racine multiple λ d’ordre k, alors

1 ≤ dimK Eλ ≤ k

Preuve. Supposons dimK Eλ = r. Alors Eλ contient r vecteurs propres linéairement


indépendants v1 , . . . , vr . Nous pouvons compléter le système {v1 , . . . , vr } de manière
à obtenir une base S = {v1 , . . . , vr , w1 , w2 , ..., ws } de E. Nous avons

f (v1 ) = λv1 , f (v2 ) = λv2 , ..., f (vr ) = λvr

et
f (w1 ) = a11 v1 + ... + a1r vr + b11 w1 + ... + b1s ws
f (w2 ) = a21 v1 + ... + a2r vr + b21 w1 + ... + b2s ws
.........................................................................
.........................................................................
f (ws ) = as1 v1 + ... + asr vr + bs1 w1 + ... + bss ws
28

La matrice de f dans la base S est


 
λ 0 ... 0 a11 a21 . . . as1
0 λ ... 0 a12 a22 . . . as2 
 .. .. . . .. .. .. .. .. 
 
. . . . . . . . 
 
0 0 ... λ a1r a2r . . . asr 
 
M (f, S) = 



0 0 ... 0 b11 b21 . . . bs1 
 
0 0 ... 0 b12 b22 . . . bs2 
 
. .. .. .. .. .. .. .. 
 .. . . . . . . . 
0 0 ... 0 b1s b2s . . . bss

Pf (x) = det(M (f ) − xIn ) = (λ − x)r det(B − xIs ) où B est la matrice (bij ) et Is la
matrice unité d’ordre s. Comme par hypothèse Pf (x) = (λ − x)k g(x) où g(λ) 6= 0,
il s’ensuit que r ≤ k.

3.1 Endomorphismes et Matrices Diagonalisables

Soit f un endomorphisme d’un K-espace vectoriel E de dimension n et A une


matrice de Mn (K).

Théorème 3.16. Soient λ1 , ..., λp les valeurs propres de f . Les assertions sui-
vantes sont équivalentes

1. f est diagonalisable

2. dimE = pi=1 dimEλi .


P

3. E = ⊕pi=1 Eλi .

4. il existe p entiers γ1 , γ2 ..., γp non nuls tels que γ1 + γ2 + ... + γp = n et il


existe une base B de E telle que M (f, B) est diagonale sous forme
 
λ1 Iγ1 0 ... 0
 .. .. 
 0 λ2 Iγ2 . . 
..
 
 ... ... 
 . 0 
0 ... 0 λp Iγp
29

Remarque : ce théorème reste vrai en remplaçant f par la matrice A et E


par Mn,1 (K).

Le corollaire suivant découle du théorème précédent

Corollaire 3.17. Soient f ∈ EndK (E) et A ∈ Mn (K).


1. Si f (resp. A) admet n valeurs propres deux à deux distinctes, λ1 , ..., λn
alors f (resp. A) est diagonalisable et tous ses sous espaces propres sont de
dimension 1. De plus,
a) la matrice de f par rapport à une base B de vecteurs propres (x1 , x2 ..., xn )
associés à λ1 , ..., λn est
 
λ1 0 ... 0

0 ... .. 
λ2 .
M (f, B) = 
 .. .. ..

. . 0

.
0 . . . 0 λn

b) la matrice A est semblable à une matrice diagonale D dont les éléments


diagonaux sont les valeurs propres de A. Autrement dit, il existe une
matrice P ∈ Gln (K), telle que P −1 AP = D.
2. f (resp. A) est diagonalisable ssi f (resp.A) possède n vecteurs propres
linéairement indépendants.

Pour appliquer ce corollaire il suffit de montrer par exemple que le polynôme


caractéristique de f (resp. de A) admet n racines simples dans K, c.à.d Pf (x)
(resp. PA (x)) est scindé sur K et admet exactement n racines.
Remarque : Si f (resp. A) est diagonalisable, alors son polynôme caractéristique
est scindé sur K (pas de réciproque).

3.1.1 Pratique de la diagonalisation

La procédure est plus simple, il suffit d’appliquer les deux étapes suivantes :
30

1. Calculer et Factoriser le polynôme caractéristique. Si le polynôme caractéristique


a des racines complexes, la matrice n’est pas diagonalisable dans R, mais elle
peut l’être dans C.

2. Trouver une base pour chaque sous-espace propre Eλ .


 
2 0 4
Exemple 3.18. Diagonaliser dans R, si c’est possible, la matrice A = 3 −4 12.
1 −2 5
i) Détermination des valeurs propres.
On a

2−x 0 4
PA (x) = det(A − xI3 ) = 3 −4 − x 12 = x(x − 1)(2 − x).
1 −2 5−x

Il en résulte que A admet trois valeurs propres 0, 1, 2. Par suite il est facile de
déduire que dimE0 = dimE1 = dimE2 = 1. Ainsi dimE0 + dimE1 + dimE2 = 3.
En vertu du théorème précédent, A est diagonalisable.
ii) Détermination
  de E0 , E1 , E2 .
x
Soit X = y  un vecteur de M3,1 (R). on a
z
     
2 0 4 x 0  2x + 4z = 0
X ∈ E0 ssi AX = 0X ssi 3 −4 12
   y = 0 ssi
  3x − 4y + 12z = 0
1 −2 5 z 0 x − 2y + 5z = 0

 
  −2
x + 2z = 0 x = −2z
ce qui implique que c.à.d D’où X = z  23  .
−2y + 3z = 0 y = 32 z
1
3 3
Par conséquent E0 = V ect{(−2, 2 , 1)}, et on peut choisir alors B0 = {(−2, 2 , 1)}
comme base de E0 .
Aussi on a     
1 0 4 x 0
X ∈ E1 ssi AX = 1X ssi (A − 1I3 )X = 0 ssi 3 −5 12
   y = 0 ssi
 
1 −2 4 z 0
  
 x + 4z = 0  −4
x = −4z
3x − 5y + 12z = 0 plus précisement d’où X = z  0 . il en
y=0
x − 2y + 4z = 0 1

découle que E1 = V ect{(−4, 0, 1)} et B1 = {(−4, 0, 1)} une base de E1 .
31

En utilisant le même calcul, on arrive à E2 = V ect{(2, 1, 0)} et B2 = {(2, 1, 0)}


base de E2 .
Pour la construction d’une matrice P telle que P −1 AP soit diagonale, il suffit de
remarquer qu’on a
 
n −2 o
3 

E0 = X ∈ M3,1 (R)/AX = 0X = z 
2
,z ∈ R
1

 
−2
il en résulte alors que la première colonne de P est v0 =  32 .
1
On procède de la même manière pour les autres sous-espaces vectoriels propres on
déduit alors que La matrice de passage P sera constituée en juxtaposant les trois
vecteurs v0 , v1 , v2 (en colonnes).
 
−2 −4 2
P =  32 0 1
1 1 0

Ainsi la matrice P obtenue vérifie


 
0 0 0
P −1 AP = D = 0 1 0
0 0 2

Observons-nous que :
X La matrice diagonale D a pour coefficients diagonaux les trois valeurs propres,
attention l’ordre des valeurs propres et des vecteurs propres forment la base de
M3,1 (R) doit être le même.
X Nous n’insisterons pas sur le calcul de P −1 .
X la diagonalisation trouvée n’est pas nécessairement unique. En effet, on peut
choisir un ordre différent pour les valeurs propres, autrement dit une autre base,
et pour chaque valeur propre on peut choisir n’importe quel vecteur non nul pro-
portionnel à celui qui a été trouvé. On pourra vérifier par exemple, pour la même
32

matrice A que les matrices P et D ci-dessous vérifient également P −1 AP = D.


   
2 −4 −8 2 0 0
P = 1 0 6 et D = 0 1 0 .
0 1 4 0 0 0

 
3 0 0
Exemple 3.19. Considérons la matrice A = 0 2 −5.
0 1 −2
Son polynôme caractéristique est

PA (x) = (3 − x)(x2 + 1)

Considérons deux cas :


1. A est une matrice sur le corps R. Dans ce cas A admet seulement une seule
valeur propre c’est la valeur 3. Puisque dimE3 = 1 6= 3, alors A n’est pas
diagonalisable dans M3 (R).
2. A est une matrice sur le corps C. Alors A admet trois valeurs propres
différentes 3, i et −i. En conséquence la matrice A est diagonalisable dans
M3 (C), c.à.d il existe une matrice inversible P telle que
 
i 0 0
P −1 AP = 0 −i 0 .
0 0 3

3.1.2 Endomorphismes et matrices trigonalisables

Soient f un endomorphisme d’un K-espace vectoriel E de dimension finie n et A


une matrice de Mn (K).

Proposition 3.20. L’endomorphisme f (resp. la matrice A) est trigonalisable si


est seulement si Pf (x) (resp. PA (x)) est scindé sur K.
 
2 1 1
Exemple 3.21. Soit la matrice A = −2 3 −1.
0 −1 1
Première méthode : On peut considérer A comme matrice d’un endomorphisme f
33

de R3 dans la base canonique B = (e1 , e2 , e3 ).

f (x, y, z) = (2x + y + z, −2x + 3y − z, −y + z)

1) On calcule et on factorise le polynôme PA (x).


PA (x) = det(A − xI3 ) = −(x − 2)3 . Il est clair que 2 est une racine d’ordre 3 de
PA (x), d’où 2 est la seule valeur propre de A. Puisque PA admet toutes ses racines
dans R, alors A est au moins trigonalisable dans M3 (R).
2) Déterminons
  le sous espace propre E2 . 
x  y+z =0
Soit X = y ∈ M3,1 (R). On a X ∈ E2 ssi (A−2I3 )X = 0 ssi
  −2x + y − z = 0 ,
z −y − z = 0

 
 1
x = −z
ce qui implique que D’où X = −z  1 . Par suite E2 = V ect(v1 )
y = −z
−1
avec v1 = e1 + e2 − e3 . Or dimE2 = 1 6= 3, alors A est non diagonalisable, mais A
est trigonalisable dans M3 (R).
3) On complète le système libre {v1 }, en utilisant les vecteurs de la base B, pour
construire une base B1 = (v1 , v2 , v3 ) dont la quelle A est trigonalisable.

 
 v1 = e1 + e2 − e3  e1 = v1 − v2 + v3
Posons B1 = (v1 , e2 , e3 ), on a v2 = e2 ⇒ e2 = v2
v3 = e3 e3 = v3
 
d’où    
1 0 0 1 0 0
PBB1 =  1 1 0 et PB1 B = −1 1 0 .
−1 0 1 1 0 1

4) Calculons A1 = M (f, B1 ), on a

 f (v1 ) = f (e1 + e2 − e3 ) = 2v1
f (v2 ) = f (e2 ) = e1 + 3e2 − e3 = v1 + 2v2
f (v3 ) = f (e3 ) = e1 − e2 + e3 = v1 − 2v2 + 2v3

 
2 1 1
D’où A1 = M (f, B1 ) = 0 2 −2, ainsi P −1 AP = A1 avec P = PBB1 .
0 0 2
34

Deuxième méthode :
D’après ce qui précède, on a E2 = V ect(v1 ) avec v1 = e1 + e2 − e3 . Pour obtenir
une matrice P telle que P −1 AP soit triangulaire, il suffit de compléter le système
libre {v1 } par deux vecteurs v2 , v3 appartenant au ker(A − 2I)3 .
On sait que ker(A − 2I) ⊂ ker(A − 2I)2 ⊂ ker(A − 2I)3 , et vect(v1 ) = E2 =
ker(A − 2I). Il en résulte que

(A − 2I)v1 = 0

X Déterminons un vecteur v2 = (x, y, z) ∈ ker(A − 2I)2 et v2 ∈


/ ker(A − 2I).

on a (A − 2I)2 v2 = 0, ce qui entraı̂ne que (A − 2I) (A − 2I)v2 = 0 par suite
(A − 2I)v2 ∈ ker(A − 2I). Donc il suffit par exemple de  prendre (A − 2I)v2 = v1 .
 y+z =1
Autrement dit, le vecteur v2 vérifie le système suivant −2x + y − z = 1 . Or
−y − z = −1

l’ensemble de solution de ce système est {(x, x + 1, −x), x ∈ R} on prend, par
exemple, v2 = (0, 1, 0) tel que (A − 2I)v2 = v1 .
X Déterminons un vecteur v3 = (x, y, z) ∈ ker(A − 2I)3 et v3 ∈
/ ker(A − 2I)2 .

On a (A − 2I)3 v3 = 0, ce qui implique que (A − 2I)2 (A − 2I)v3 = 0. Par
conséquent, (A − 2I)v3 ∈ ker(A − 2I)2 . Onpeut supposer que (A − 2I)v3 = v2
 y+z =0
et on détermine v3 en résolvant le système −2x + y − z = 1 . L’ensemble de
−y − z = 0

−1
solution de ce système est donné par {( 2 − z, −z, z)/z ∈ R}. on prend, par
exemple, v3 = ( −1
2
, 0, 0).
3
 La famille (v1 , v2 , v3 ) forme une base de R , puisqueelle est 
X libre, de plus on a
 Av 1 = 2v 1 2 1 0
Av2 = v1 + 2v2 . Il en résulte que la matrice T = 0 2 1 est semblable à
Av3 = v2 + 2v3 0 0 2

−1
 
1 0 2
la matrice A et que P −1 AP = T avec P =  1 1 0  la matrice de passage
−1 0 0
de la base canonique B = (e1 , e2 , e3 ) à la base B1 = (v1 , v2 , v3 ).
35

3.1.3 Polynôme minimal

Soient f un endomorphisme d’un K-espace vectoriel E de dimension finie n > 0


et A ∈ Mn (K). On note par
 f 0 = IdE l’endomorphisme identité de E et f k = f ◦ f... ◦ f (k fois).
 A0 = In la matrice identité d’ordre n et Ak = A...A (k fois.)
 Ann(f ) = {Q(x) ∈ K[x] tel que Q(f ) = 0}.
 Ann(A) = {Q(x) ∈ K[x] tel que Q(A) = 0n }.

Théorème 3.22. (Théorème de Cayley-Hamilton)


Soit f ∈ End(E) (resp. A ∈ Mn (K)), alors Pf (f ) = 0 endomorphisme nul de E

resp. PA (A) = 0n matrice nulle de Mn (K) .
 
2 1 1
Exemple 3.23. A = −2 3 −1, PA (x) = −(x − 2)3 . Alors d’après le
0 −1 1
théorème de Cayley-Hamilton

 3  
0 1 1 0 0 0
PA (A) = −(A − 2In )3 = − −2 1 −1 = 0 0 0 .
0 −1 −1 0 0 0

D’après le théorème de Cayley-Hamilton, l’ensemble Ann(f ) (resp. Ann(A)) n’est


pas vide. Alors il existe un polynôme noté mf (x) (resp. mA (x)) unitaire de degré
minimal de K[x] appartenant à Ann(f ) (resp. Ann(A)). Ce polynôme est appelé
le polynôme minimal de f (resp. de A).

Proposition 3.24. Soit λi une racine de Pf (x) de multiplicité ni . Posons Ei =


ker(f − λi IdE )ni et gi la restriction de f − λi IdE à Ei . Alors λi est une racine de
mf (x) de multiplicité si telle que
i) 1 ≤ si ≤ ni et ii) si est l’indice de nilpotence de gi .

Preuve. Voir la définition des sous espaces caractéristiques, pages 189-190 , Math
en tête Algèbre.
36

Conséquences :
1) mf (x) divise Pf (x).
2) les polynômes mf (x) et Pf (x) ont les mêmes racines dans K.
3) Si Pf (x) = (λ1 − x)n1 (λ2 − x)n2 ...(λr − x)nr dans K[x] alors
mf (x) = (λ1 − x)s1 (λ2 − x)s2 ...(λr − x)sr .
Remarque : La proposition précédente reste vraie pour une matrice A ∈ Mn (K).

Théorème 3.25. Un endomorphisme f d’un K-espace vectoriel E resp. une ma-



trice A ∈ Mn (K) est diagonalisable ssi les racines de mf (x) (resp. de mA (x))
sont simples est appartiennent toutes à K.
 
4 1 −1
Exemple 3.26. 1) Soit f ∈ End(R3 ) de matrice A = −6 −1 2  dans la
2 1 1
base canonique de R . Puisque Pf (x) = (2 − x)(x − 1) = −(x − 2)(x − 1)2 , il en
3 2

découle que

mf (x) = (x − 2)(x − 1) ou mf (x) = (x − 2)(x − 1)2 .

Or (A − 2I3 )(A − I3 ) 6= 0, alors mf (x) = (x − 2)(x − 1)2 .


 
−1 1 1
2) Soit A =  1 −1 1 . Comme PA (x) = (1 − x)(2 + x)2 = −(x − 1)(x + 2)2 ,
1 1 −1
alors
mA (x) = (x − 1)(x + 2) ou mf (x) = (x − 1)(x + 2)2 .

Or     
−2 1 1 1 1 1 0 0 0
(A − I3 )(A + 2I3 ) =  1 −2 1  1 1 1 = 0 0 0
1 1 −2 1 1 1 0 0 0

il en résulte que mA (x) = (x − 1)(x + 2).

Applications 
−1 1 1
1) Soit A =  1 −1 1 . Puisque mA (x) = (x − 1)(x + 2) à toutes ses racines
1 1 −1
simples dans R alors A est diagonalisable.
37

 
−3 −3 2
2)Soit A =  1 1 −2. Comme PA (x) = −(x + 2)3 , nécessairement A est
2 4 −4
non diagonalisable. Car sinon, les racines de mA (x) seront simples, ce qui entraı̂ne
que mA (x) = x + 2 et par suite A + 2I3 = 0 de sorte que A = −2I3 , contradiction.

3) Calcul de
 l’inverse d’une
 matrice.
4 1 −1
Soit A = −6 −1 2 . En vertu de det(A) 6= 0, A est inversible. Comme
2 1 1
PA (x) = (2−x)(1−x) = −x3 +4x2 −5x+2, le théorème de Cayley-Hamilton assure
2

que PA (A) = 0, c.à.d −A3 + 4A2 − 5A + 2I3 = 0 de sorte que A3 − 4A2 + 5A = 2I3 .
Par conséquent A−1 = 12 (A2 − 4A + 5I3 ). Ainsi

 
−3 −2 1
1
A−1 =  10 6 −2 .
2
−4 −2 2

4) Puissances
 d’une matrice
4 1 −1
Soit A = −6 −1 2 . On se propose de calculer An avec n ≥ 3.
2 1 1
D’après (3) on a PA (x) = −x3 + 4x2 − 5x + 2. La division euclidiènne de xn par
PA (x) affirme que xn = Q(x)PA (x)+(ax2 +bx+c). Comme 1 est une racine double
0
de PA (x), alors PA (1) = 0 = PA (1). D’où

1=a+b+c
n = 2a + b

Puisque PA (2) = 0, alors 2n = 4a + 2b + c, et par suite on obtient le système


suivant 
 a = 2n − n − 1
b = −2n+1 + 3n + 2
c = 2n − 2n

38

Le théorème de Cayley-Hamilton implique que pour tout n ≥ 3, on a

An = (2n − n − 1)A2 + (−2n+1 + 3n + 2)A + 2n − 2n.

On vérifie facilement que la formule précédente reste vraie pour n = 0, 1, 2. Donc

An = (2n − n − 1)A2 + (−2n+1 + 3n + 2)A + 2n − 2n ∀n ∈ N.

Par conséquent, pour tout n ∈ N

2n + 2n −2n + 1
 
n
An = −2n+1 − 4n + 2 −2n + 1 2n+1 − 2 .
2n n 1
Chapitre 4

FORMES BILINÉAIRES ET
FORMES QUADRATIQUES

Dans ce qui suit, E et F sont deux espaces vectoriels sur un corps commutatif K.

4.1 Formes bilinéaires

Définition 4.1. Rappelons qu’une application f est dite forme linéaire sur E si
f : E → K est linéaire.
Par analogue, une forme bilinéaire de E × F est la donnée d’une application
0
ϕ : E × F → K vérifiant les propriétés suivantes pour toutes valeurs de x, x ∈ E
0
y, y ∈ F, α ∈ K

0 0 0 0
1. ϕ(x + x , y) = ϕ(x, y) + ϕ(x , y) 3. ϕ(x, y + y ) = ϕ(x, y) + ϕ(x, y )

2. ϕ(αx, y) = αϕ(x, y) 4. ϕ(x, αy) = αϕ(x, y)

 Remarquons qu’on peut exprimer cette définition d’une façon un peu plus for-
melle, en disant que ϕ est bilinéaire si elle est linéaire par rapport à chacune de
ses deux variables.
 Dans le cas où E = F ,
- on dit que ϕ est symétrique quand ϕ(x, y) = ϕ(y, x) pour tous x, y ∈ E.
Dans ce cas, pour montrer la bilinéarité de ϕ on vérifie simplement la linéarité par

39
40

rapport à une seule variable. L’ensemble des formes bilinéaires symétriques sur E
noté Bils (E) est un K-espace vectoriel.
- La forme bilinéaire ϕ est dite antisymétrique (ou bien alternée) si elle
vérifie ϕ(x, y) = −ϕ(y, x) pour tous x, y ∈ E.

Exemple 4.2. 1. Posons E = R, l’application ϕ : R × R → R définie par


ϕ(x, y) = xy est une forme bilinéaire symétrique.

2. Le produit scalaire usuel


Rn × Rn → R

(x1 , ..., xn ), (y1 , ..., yn ) 7→ x1 y1 + x2 y2 + ... + xn yn
est une forme bilinéaire sur Rn × Rn .

3. Si E désigne le R-espace vectoriel des fonctions continues de [0, 1] dans R,


l’application Z 1
2
ϕ:E →R ϕ(f, g) = f (x)g(x)dx
0

définit une forme bilinéaire sur E 2 .

4.1.1 Matrice d’une forme bilinéaire

Soient E et F deux K-espaces vectoriels de bases respectives B = (e1 , ..., en ) et


Pn
S = (ε1 , ..., εm ) et ϕ ∈ Bil(E, F ). Pour tout x = i=1 xi ei ∈ E et pour tout
Pm
y = j=1 yj εj ∈ F , En vertu de la bilinéarité de ϕ, on a

X
ϕ(x, y) = xi yj ϕ(ei , εj )
i,j

   
x1 y1
 ..   .. 
 
Posons X =  .  , Y =  .  et A = ϕ(ei , εj )
i,j
xn ym
Alors
t
ϕ(x, y) = XAY.
41

Preuve. Par définition de ϕ, on a

n
X m
X 
ϕ(x, y) = ϕ xi ei , y j εj
i=1 j=1
n
X  Xm 
= xi ϕ ei , yj εj
i=1 j=1
Xn m
X 
= xi yj ϕ(ei , εj )
i=1 j=1

P 
m t
Or AY = j=1 yj ϕ(ei , εj ) , il en découle que ϕ(x, y) = XAY .
(1≤i≤n)
 
Définition 4.3. La matrice A = ϕ(ei , εj ) est appelée la matrice de ϕ relati-
i,j 
vement aux bases B = (ei )i et S = (εj )j . On la note M (ϕ, B, S) = ϕ(ei , εj ) .
i,j

En particulier, si E = F et ϕ ∈ Bil(E), alors la matrice de ϕ par rapport à une


 
base B de E est notée M (ϕ, B, B) où tout simplement M (ϕ, B) = ϕ(ei , ej ) .
i,j

Théorème 4.4. Soient E et F deux K-espaces vectoriels de bases respectives


B = (e1 , ..., en ) et S = (ε1 , ..., εm ). L’application

φ : Bil(E, F ) → Mn,m (K)

 
ϕ 7→ φ(ϕ) = ϕ(ei , εj )
i,j

est un isomorphisme d’espaces vectoriels. En particulier dimBil(E, F ) = nm.

Preuve. il suffit de montrer que l’application φ est linéaire bijective. Pour montrer
la surjectivité de φ, soit ϕA la forme bilinéaire de matrice A telle que A ∈ Mn,m (K).
Il est clair que φ(ϕA ) = A d’où la surjectivité de φ.
0
Proposition 4.5. Soient E et F deux K-e.v de dimensions finies et B, B deux
0
bases de E et S, S deux bases de F . Si ϕ ∈ Bil(E, F ), alors on a

0 0 t
M (ϕ, B , S ) = P M (ϕ, B, S)Q
42

0 0
où P la matrice de passage de B à B et Q la matrice de passage de S à S .

0
Preuve. Soient x ∈ E et y ∈ F . Posons X = coordB (x) , X = coordB 0 (x) ,
0 0 0 0
Y = coordS (y) et Y = coordS 0 (y), A = M (ϕ, B, S) et A = M (ϕ, B , S ). Il
0 0
s’ensuit que X = P X , Y = QY et

t t 0 0 t 0 0 0
ϕ(x, y) = XAY = (P X )A(QY ) = XAY .

0 0 0 0 0 0
En conséquence, t X (t P AQ)Y = t
X A Y ce qui implique que A = t
P AQ
car, d’après le théorème précédent, la matrice associée à ϕ relativement aux bases
0 0
B , S est unique.

Corollaire 4.6. Soient ϕ une forme bilinéaire sur un K-espace vectoriel E de


0 0
dimension finie et B, B deux bases de E, P la matrice de passage de B à B . Si
0 0
M désigne la matrice de ϕ dans la base B et M sa matrice dans la base B , alors

0 t
M = P M P.

0
Remarquons que M et M sont congruentes, donc de même rang. Ce rang s’appelle
le rang de la forme bilinéaire ϕ, noté rg(ϕ). Le rang de ϕ est aussi la dimension
du s.e.v des formes linéaires ϕ(x, .) (x ∈ E) dans le dual de E.

Exemple 4.7. Soit f la forme bilinéaire symétrique sur E = R2 définie par :

f (x, y) = (x1 − x2 )y1 + (3x2 − x1 )y2 avec x = (x1 , x2 ), y = (y1 , y2 )


 
1 −1
La matrice de f dans la base canonique B est A = de rang 2 d’où
−1 3
rg(f ) = 2.    
0 1 0 0 2
Soit B la base formée des vecteurs e1 = et e2 = .
3 1
Alors
0 0 0 0
f (e1 , e1 ) = 22 f (e1 , e2 ) = 4
0 0 0 0
f (e2 , e1 ) = 4 f (e2 , e2 ) = 3
43

 
0 0 22 4
La matrice de f dans la base B est : A =
4 3
 
0 1 2
La matrice de passage de la base canonique B à la base B est P = .
3 1
t 0
Finalement P AP = A .

Proposition 4.8. Soit E un K-espace vectoriel de dimension finie n. Une forme


bilinéaire ϕ sur E est symétrique (resp. alternée) ssi sa matrice A dans une base
B = (e1 , ..., en ) de E est symétrique (resp. alternée).

Preuve. Si ϕ est symétrique, alors ϕ(ei , ej ) = ϕ(ej , ei ) ce qui entraı̂ne que A =


(ϕ(ei , ej ))ij est symétrique. Réciproquement, si A est symétrique alors pour tous
x, y ∈ E, on a

t t
ϕ(x, y) = XAY = X tA Y = t
( t Y AX) = t
(ϕ(y, x)) = ϕ(y, x).

D’où ϕ est symétrique, (une démonstration analogue pour alternée).

Proposition 4.9. Si la caractéristique de K est différente de 2, si on désigne



Sn (K) resp. An (K) s.e.v des matrices symétriques (resp. des matrices anti-
symétriques) de Mn (K), alors

Mn (K) = Sn (K) ⊕ An (K)

Preuve. Soit A ∈ Sn (K) ∩ An (K), alors A = t A = −A d’où A = 0.


De plus Mn (K) = Sn (K) + An (K) car pour tout A ∈ Mn (K), on a

1 1
A = (A + t A) + (A − t A) ∈ Sn (K) + An (K).
2 2

De deux propositions précédentes, en déduit que l’espace vectoriel Bils (E) est
n(n+1)
isomorphe au sous-espace vectoriel Sn (K) ; cet espace est de dimension 2
par
n(n+1)
suite dimBils (E) = 2
.
44

En effet, si Eij désigne la matrice dont tous ses coefficients sont nuls sauf celui
 
d’indice (i, j) qui vaut 1, la famille (Ei,i )i=1...n , (Ei,j +Ej,i )(1≤i<j≤n) est une base
 
de Sn (K), d’autre part la famille (Ei,j − Ej,i )(1≤i<j≤n) est une base de An (K)
ce qui entraı̂ne que la dimension du s.e.v Bila (E) formé des formes bilinéaires
n(n−1)
alternées est : dimBila (E) = 2
.
Conséquence : Si la caractéristique de K est différente de 2 et E de dimension
finie, alors
Bil(E) = Bils (E) ⊕ Bila (E).

4.2 Formes Quadratiques

Dans ce paragraphe et pour tout le reste du chapitre, le corps K est supposé


commutatif de caractéristique différente de 2, c.à.d 2 6= 0 dans K (par exemple,
Z/2Z est exclu).

Définition 4.10. On appelle forme quadratique sur E toute application q de la


forme
q:E→K q(x) = ϕ(x, x)

où ϕ est une forme bilinéaire sur E.

Remarque 4.11. 1) L’ensemble des formes quadratiques sur E, noté Q(E), est
un K-espace vectoriel.
2) La forme bilinéaire associée à q n’est pas nécessairement unique, par exemple
les deux formes bilinéaires ϕ et ψ définies sur R2 par : ϕ(x, y) = x1 y1 + x2 y2 et
ψ(x, y) = x1 y1 + x1 y2 − x2 y1 + x2 y2 définissent la même forme quadratique

q(x) = x21 + x22 .

3) la définition précédente est équivalente à la définition suivante


Définition : Une forme quadratique q sur E est une application q : E → K
45

vérifiant les assertions suivantes


- ∀x ∈ E, ∀λ ∈ K, q(λx) = λ2 q(x)
1

- l’application fq : E × E −→ K, fq (x, y) = 2
q(x + y) − q(x) − q(y) est
une forme bilinéaire symétrique sur E.

Proposition 4.12. Il existe une bijection entre Q(E) et Bils (E).

Preuve. Il suffit de vérifier que l’application f : Q(E) −→ Bils (E), q 7−→ fq


est bijective.

Théorème 4.13. Soit q une forme quadratique sur E, alors il existe une unique
forme linéaire symétrique ϕ sur E telle que q(x) = ϕ(x, x) pour tout x ∈ E. Cette
forme bilinéaire symétrique ϕ s’appelle la forme polaire de la forme quadratique q.

Preuve. D’après la prop précédente, si on pose ϕ = fq , alors la forme bilinéaire ϕ


définie sur E par ϕ(x, y) = 12 q(x + y) − q(x) − q(y) est symétrique, ce qui prouve


l’existence est l’unicité de ϕ.


Remarque : on peut montrer ceci d’une autre façon, d’après la première définition
il existe une forme bilinéaire ϕ0 sur E telle que q(x) = ϕ0 (x, x) pour tout x ∈ E.
Considérons l’application ϕ définie sur E × E par

1
ϕ(x, y) = (ϕ0 (x, y) + ϕ0 (y, x))
2

On a ϕ bilinéaire symétrique, de plus q(x) = ϕ(x, x) pour tout x ∈ E. En outre,

q(x + y) = ϕ(x + y, x + y)

= ϕ(x, x) + 2ϕ(x, y) + ϕ(y, y)

= q(x) + 2ϕ(x, y) + q(y)

Puisque K commutatif de caractéristique différente de 2, il s’ensuit que

1  1 
ϕ(x, y) = q(x + y) − q(x) − q(y) = q(x + y) − q(x − y) ,
2 4
46

ϕ est unique d’après son définition elle même.

Définition 4.14. (Matrice d’une forme quadratique )


Soit q une forme quadratique sur E, où E de dimension finie et B une base de E.
On appelle matrice de q la matrice de sa forme polaire ϕ dans la base B, et rang
de q le rang de cette matrice, i.e rg(q) = rg(ϕ).

Exemple 4.15. Sur R3 muni de la base canonique B = (e1 , e2 , e3 ), soit la forme


quadratique q définie par

u = (x, y, z) 7−→ q(u) = 3x2 + y 2 + 2xy − 3xz.

1

Alors on a la forme polaire de q est ϕ(u, v) = 2
q(u + v) − q(u) − q(v) pour tous
u, v ∈ R3 . Par conséquent la matrice de q est A = (ϕ(ei , ej ))i,j , plus précisement

−3
 
3 1 2
A=1 1 0
−3
2
0 0

Alors

t
ϕ(u, v) = U AV
−3
  
 3 1x2 2
= x1 y 1 z1  1 1
0   y2 
−3
2
0 0z2
3 3
= 3x1 x2 + y1 y2 + x1 y2 + x2 y1 − z1 x2 − z2 x1
2 2

Or det(A) 6= 0, alors A est inversible, d’où rg(q) = rg(ϕ) = rg(A) = 3.

Définition 4.16. (Expression Analytique )


Soit A = (aij ) la matrice d’une forme quadratique q et ϕ sa forme polaire. on a

t
ϕ(x, y) = XAY
n
X X
= aii xi yi + aij (xi yj + xj yi )
i=1 1≤i<j≤n
47

D’où
n
X X
q(x) = aii x2i + 2 aij xi xj
i=1 1≤i<j≤n

est l’expression analytique de la forme quadratique q.

Pn
aii x2i +
P
Réciproquement, si q(x) = i=1 1≤i<j≤n aij xi xj , alors q est une forme
quadratique et sa forme polaire est

n
X 1 X
ϕ(x, y) = aii xi yi + aij xi yj .
i=1
2 1≤i<j≤n

L’expression analytique permet une défnition alternative d’une forme quadratique,


bien sur équivalente à la première définition et la deuxième définition.

Définition 4.17. Soit E un K-espace vectoriel de dimension finie n. Une forme


quadratique sur E est un polynôme homogène de degré 2 en les coordonnées d’un
point de E.
n
X X
q(x) = aii x2i + 2 aij xi xj
i=1 1≤i<j≤n

Les n premiers termes sont les ”termes carrés” et les autres les ”termes rectangu-
laire”. La matrice associée a pour termes diagonaux les a11 , .., ann les autres termes
sont les aij où (i 6= j).

Proposition 4.18. (Règle de dédoublement)


Soient x = (x1 , ..., xn ) et y = (y1 , ..., yn ) deux éléments de E. Si on se donne une
forme quadratique q sur E, on a alors q(x) = ni=1 aii x2i + 2 1≤i<j≤n aij xi xj .
P P

Pour retrouver la forme bilinéaire associée à q, on utilise la règle du dédoublement


des termes :
X on remplace les termes x2i par xi yi
X on remplace le terme xi xj par 12 (xi yj + xj yi ),
alors on obtient

n
X X
ϕ(x, y) = aii xi yi + aij (xi yj + xj yi )
i=1 1≤i<j≤n
48

4.3 Orthogonalité

On considère ϕ une forme bilinéaire symétrique sur un K-e.v E et q la forme


quadratique associée à ϕ.

Définition 4.19. Deux vecteurs x, y ∈ E sont dites orthogonaux selon ϕ (où


selon q) si ϕ(x, y) = 0, on écrit x⊥y (ϕ).
X si A ⊆ E, l’orthogonal de A selon ϕ (où q), noté A⊥ est le sous ensemble de E
formé des vecteurs orthogonaux à tous les vecteurs de A, i.e

A⊥ = {y ∈ E / ϕ(x, y) = 0 ∀x ∈ A}

A⊥ est un sous espace vectoriel de E qui ne change pas si on remplace A par


vect(A), autrement dit A⊥ = (vect(A))⊥ .
X Deux sous ensembles A et B de E sont dit orthogonaux selon ϕ ( où selon q)
si pour tout x ∈ A et pour tout y ∈ B, ϕ(x, y) = 0. On note alors A⊥B (ϕ).

A partire de la définition de l’orthogonalité, on déduit les assertions de la propo-


sition suivante

Proposition 4.20. Soient A et B deux parties de E,


1) Si A = {0E }, alors A⊥ = E.
2) A ⊆ (A⊥ )⊥ .
3) Si A ⊆ B, alors B ⊥ ⊆ A⊥ . (orthogonalité selon même ϕ)

Définition 4.21. Un vecteur x de E est dit isotrope par rapport à ϕ s’il est
orthogonal à lui même, i.e ϕ(x, x) = 0.
L’ensemble des vecteurs isotropes de E selon ϕ, noté Cϕ , est le cône isotrope de
ϕ (où de q) et on a

Cϕ = {x ∈ E / ϕ(x, x) = 0} = q −1 ({0}).
49

En algèbre linéaire, un cône est une partie d’un espace vectoriel qui est stable par
multiplication scalaire.
En effet, ∀λ ∈ K, ∀x ∈ Cϕ = Cq , on a λx ∈ Cϕ car q(λx) = λ2 q(x) = 0.

Définition 4.22. Si ϕ ∈ Bils (E) et q la forme quadratique associée à ϕ. On


appelle le noyau de ϕ (où de q) l’ensemble

Ker(ϕ) = Ker(q) = {x ∈ E / ϕ(x, y) = 0, ∀y ∈ E} = E ⊥

c’est un sous-espace vectoriel de E.


la forme ϕ est dite non dégénérée si Ker(ϕ) = {0E }, elle est dégénérée si
Ker(ϕ) 6= {0E }.

Lemme 4.23. Soient E un K-e.v de dimension finie n, B = (ei )i=1...n une base
de E, A la matrice de ϕ ∈ Bils (E) dans la base B et u ∈ End(E) de matrice A
dans la base B. Alors Ker(ϕ) = Ker(u).

t
Preuve. On a x ∈ Ker(ϕ) ssi pour tout y ∈ E, ϕ(x, y) = 0 ssi ∀Y, XAY = 0
ssi t XA = 0 ssi AX = 0 ssi u(x) = 0 ssi x ∈ Ker(u).
A partir de ce lemme on déduit qu’en dimension finie,
i) On peut déterminer le noyau de ϕ en résolvant le système AX = 0.
ii) ϕ est non dégénérée ssi rg(ϕ) = dimE ssi A est inversible.
iii) rg(ϕ) = rg(u) = rg(A).
 
2 1 1
Exemple 4.24. 1) Soit ϕ la f.b.s sur R de matrice A = .
1 1
Alors Ker(ϕ) = vect(1, −1).Eneffet, soient
 x = (x1 , x2 ) et y = (y1 , y2 ) deux
x1 y
vecteurs de R2 . Posons X = et Y = 1 .
x2 y2
On a x ∈ Ker(ϕ) ssi ϕ(x, y) = 0 pour tout y ∈ R2 ⇔ t XAY = 0 ⇔ x1 y1 + x2 y1 +
x1 y2 + x2 y2 = 0 ⇔ (x1 + x2 )(y1 + y2 ) = 0 pour tous y1 , y2 ∈ R, d’où x1 = −x2
donc Ker(ϕ) = V ect(1, −1). Par suite, ϕ est dégénérée possède, par exemple, le
vecteur isotrope u = (1, −1).
50

2 2 2
2) Considérons la forme quadratique
 q(x) = x1 − x2 sur R .
1 0
La forme q est de matrice . le noyau de q est Ker(q) = {0}, alors la
0 −1
f.b.s ϕ associée à q est non dégénérée. Ainsi, par exemple, les vecteurs v = (α, α),
(α ∈ R), sont isotropes selon ϕ.
Cet exemple montre que, en général, Cϕ * Ker(ϕ), par contre on a toujours l’in-
clusion dans l’autre sens, i.e Ker(ϕ) ⊆ Cϕ .

3) La forme de Lorentz sur R4 , q(X) = x2 + y 2 + z 2 − c2 t2 où x, y, et z sont


les coordonnées d’espace, t le temps et c la vitesse de la lumière.
La forme de Lorentz est non-dégénérée mais elle a des vecteurs isotropes, par

exemple u = (1, 1, 1, − c 3 ) est un vecteur isotrope de q. Le cône isotrope est le
”cône de lumière”.

Définition 4.25. On dit qu’une forme quadratique q est définie si on a, pour tout
x ∈ E, (x 6= 0 ⇒ q(x) 6= 0).i.e Cq = {0}.

Proposition 4.26. Si q est une forme quadratique définie, alors sa forme bi-
linéaire associée est non dégénérée.

Preuve. Par la contraposée. Soit ϕ une forme bilinéaire dégénérée, alors il existe
x 6= 0 tel que, pour tout y ∈ E, ϕ(x, y) = 0. Donc q(x) = ϕ(x, x) = 0. Alors q est
non définie.
La réciproque est fausse en générale, il existe des formes bilinéaires non dégénérées
ayant une forme quadratique non définie. Voir l’exemple (2) ci-dessus ϕ(x, y) =
x1 y1 − x2 y2 est non dégénérée q(x) = x21 − x22 est non définie car q(1, 1) = 0.

4.4 Base orthogonale, décomposition en carrés

Cas général : Soient ϕ une f.b.s sur E et q la forme quadratique associée à ϕ.


On appelle famille orthogonale de E par rapport à ϕ (où q), toute famille (ei )
51

de vecteurs de E tels que

ϕ(ei , ej ) = 0 pour tout i 6= j.

X Cette famille est dite orthonormale selon ϕ (où q) si elle est orthogonale, de
plus ϕ(ei , ei ) = 1 pour tout i.

Exemple 4.27. La base canonique de R4 est orthogonale pour la forme de lorentz,


mais elle n’est pas orthonormale.

Théorème 4.28. Toute forme quadratique sur un espace vectoriel de dimension


finie admet des bases orthogonales.

Preuve. soit E un K-e.v de dimension finie n.


Si n = 1 c’est évident ; si n > 1 on suppose le résultat vrai pour la dimension
n − 1.
si tout x ∈ E est isotrope c.à.d ϕ(x, x) = 0, alors ϕ = 0 (à démontrer) de sorte
que toute bases est orthogonale.
sinon il existe un vecteur e1 non isotrope. posons

H = {x ∈ E / ϕ(x, e1 ) = 0}

H est le noyau de la forme linéaire non nulle ϕ(e1 , .), ce qui entraı̂ne que H est un
hyperplan de dimension n − 1. Dès lors H admet une base orthogonale (e2 , .., en ),
(hypothèse de récurrence), pour la restriction de ϕ à H. D’où (e1 , ..., en ) est une
base orthogonale de E.
Conséquences :
i) Une base est orthogonale pour q quand la matrice de q dans cette base est
diagonale.
ii) Les expressions de ϕ et de q par rapport à une base orthogonale (e1 , ..., en ) sont
52

de la forme
 Pn
 ϕ(x, y) = i=1 λi xi yi
pour tous les x, y ∈ E.
Pn 2
q(x) = i=1 λi xi

Proposition 4.29. Soient B = (e1 , ..., en ) une base orthogonale de E, ϕ une f.b.s
sur E et q la forme quadratique associée à ϕ. On pose ϕ(e1 , e1 ) = λ1 , ϕ(e2 , e2 ) =
λ2 , ..., ϕ(en , en ) = λn . Alors
 
λ1 0
a) A = M (ϕ, B) = 
 .. .

.
0 λn
b) le noyau de ϕ est le sous espace vectoriel engendrer par les ei tels que λi = 0.

c) rg(q) = rg(ϕ) = card{λi 6= 0 / 1 ≤ i ≤ n}.

d) ϕ est non dégénérée ssi λi 6= 0 pour tout i.

Preuve. (a) D’après la définition de la matrice de 


ϕ, ondéduit le résultat
 donné.
x1  λ 1 x1 = 0

 ..  ..
(b) Le Ker de ϕ est déterminer par le système A  .  = 0 c.à.d .

xn λ n xn = 0

cela signifie que xi = 0 pour les λi 6= 0.
(c) car rg(q) = rg(ϕ) = rg(A).
(d) résulte de (c).

Théorème 4.30. (Théorème de réduction de Gauss)


Soit q une forme quadratique sur un espace vectoriel E de dimension finie n.
Alors il existe des formes linéaires linéairement indépendantes l1 , . . . , lr ∈ E ∗ et
des constantes non nulles λ1 , . . . , λr ∈ K telles que

q = λ1 l12 + . . . + λr lr2

en outre on a,

rg(q) = r et Ker(q) = {x ∈ E / l1 (x) = ... = lr (x) = 0}


53

Preuve. On procède par recurrence sur n la dimension de E.


- Pour n = 1, c’est évident.
- Pour n = 2, alors q s’écrit sous la forme q(x) = ax21 + 2bx1 x2 + cx22 .
 Si a 6= 0, on aura

b δ
q(x) = a(x1 + x2 )2 + x22 où δ = ac − b2
a a
δ b
= al12 (x) + l22 (x) où l1 (x) = x1 + x2 et l2 (x) = x2
a a

1 0
l1 et l2 sont deux formes linéaires indépendantes car b = 1 6= 0.
a
1
 Si a = 0 et c 6= 0, on aura

b δ
q(x) = c( x1 + x2 )2 + x21 où δ = −b2 .
c c
δ b
= cl12 (x) + l22 (x) où l1 (x) = x1 + x2 et l2 (x) = x1 .
c c

b
1
l1 et l2 sont deux formes linéaires indépendantes car = −1 6= 0.
c
1 0
 Si a = 0 et c = 0, on aura nécessairement b =
6 0 et par suite

q(x) = 2bx1 x2
b
(x1 + x2 )2 − (x1 − x2 )2

q(x) =
2
b 2 b
= l1 (x) − l22 (x) où l1 (x) = x1 + x2 et l2 (x) = x1 − x2 .
2 2

1 1
l1 et l2 sont deux formes linéaires indépendantes car = −2 6= 0.
1 −1
- On suppose le résultat acquis au rang n − 1 et soit q une forme quadratique
définie dans une base B d’un espace vectoriel de dimension n ≥ 3 par :

n
X X
q(x) = aii x2i + 2 aij xi xj
i=1 1≤i<j≤n

 Si q contient au moins un terme carré, i.e il existe un indice i tel que


aii 6= 0, avec une permutation sur les vecteurs de base, on peut supposer que
54

a11 6= 0. Dans ce cas, en regroupant les termes contenant x1 , on obtient

n n
X  X a1j 
a11 x21 +2 a1j x1 xj = a11 x21 + 2x1 xj
j=1 j=2
a11
n n
 X a1j 2
X a1j 2 
= a11 (x1 + xj ) − ( xj )
j=2
a11 a
j=2 11
n n
X a1j 2 X a1j 2
= a11 (x1 + xj ) − a11 ( xj )
j=2
a11 a
j=2 11
n
X a1j 2
= a11 l12 (x) − a11 ( xj )
a
j=2 11

alors
0
q(x) = a11 l12 (x) + q (x2 , . . . , xn )

0
l1 est une forme linéaire sur E et q une forme quadratique sur le sous espace
vectoriel H = vect(e2 , e3 , ..., en ) de E.
0
→ si q = 0, alors q = a11 l12 avec a11 6= 0 et l1 6= 0.
0
→ si q 6= 0, l’hypothèse de récurrence entraı̂ne l’existence d’un entier r
compris entre 2 et n et des scalaires λ2 , ..., λr et des formes linéaires indépendantes
l2 , ..., lr définies sur H telles que

r n
0 0 0 0
X X
q (x ) = λi li2 (x ) pour tout x =( xi ei ) ∈ H.
i=2 i=2

0
En prolongeant les formes linéaires l2 , ..., lr à E par li (x) = li (x ) pour tout x ∈ E,
on aura
r r
0
X X
q(x) = a11 l12 (x) + λi li2 (x ) = a11 l12 (x) + λi li2 (x)
i=2 i=2

ce qui nous donne une décomposition de q comme combinaison linéaires des formes
linéaires sur E. vérifions-nous que l1 , l2 , ..., lr sont indépendantes sur E ∗ le dual de
E.
Pr Pr
On a i=1 αi li = 0 équivaut à dire que i=1 αi li (x) = 0 pour tout x ∈ E. En
particulier pour x = e1 , on a l1 (e1 ) = 1 et li (ei ) = 0 pour tout i > 1, ce qui donne
55

Pr
α1 = 0. En conséquence, i=2 αi li = 0. Or le système (l2 , ..., lr ) et libre dans H ∗ ,
il s’ensuit que αi = 0 pour tous les 2 ≤ i ≤ r, d’où αi = 0 pour tout i compris
entre 1 et r.
 Si q est sans facteurs carrés, i.e pour tout i on a aii = 0. Puisque q 6= 0
il existe nécessairement deux indices i et j tels que aij 6= 0. Pour faciliter les
notations, on peut supposer que a12 6= 0 (ceci est possible graçe à une permutation
des vecteurs de bases B). Dans ce cas, on regroupe dans l’expression de q tous les
termes contenant x1 et x2 , soit

n
X n
X
Q = a12 x1 x2 + x1 a1j xj + x2 a2j xj
j=3 j=3
n n n n
 X  X a1j   X  X a
1j

= a12 x1 + a2j xj x2 + xj − a2j xj xj .
j=3 j=3
a12 j=3
a
j=3 12

Ainsi,

X
q(x) = 2 aij xi xj
1≤i<j≤n
X
= 2Q + 2 aij xi xj
3≤i<j≤n
0
= 2L1 (x)L2 (x) + q (x3 , ..., xn )

   
Pn Pn a1j 0
avec L1 (x) = a12 x1 + j=3 a2j xj , L2 (x) = x2 + j=3 a12 xj et q une forme
quadratique définie sur le sous espace vectoriel H = vect(e3 , ..., en ). En écrivant
2L1 (x)L2 (x) sous forme

1 2 1  2
2L1 (x)L2 (x) = (L1 (x) + L2 (x) − (L1 (x) − L2 (x)
2 2
1 2 1
= l1 (x) − l22 (x).
2 2

D’où
1 1 0
q(x) = l12 (x) − l22 (x) + q (x3 , ..., xn )
2 2
56

0 1 2
→ Si q = 0, alors q(x) = l (x)
2 1
− 12 l22 (x) pour tout x ∈ E. Les formes
linéaires l1 etl2 sont linéairement indépendantes. En effet, α1 l1 + α2 l2 = 0 signifie
que α1 l1 (x)+α2 l2 (x) = 0 pour tout x ∈ E. En remplaçant x par e1 dans l’équation
précédente, et en vertu que K et de caractérisitique différente de 2, en déduit que
α1 = α2 = 0.
0
→ Si q 6= 0, alors l’hypothèse de la recurrence assure l’existence d’un entier
r compris entre 3 et n, des scalaires λ3 , ..., λr et des formes linéaires indépendantes
l3 , ..., lr définies sur H tels que

r
0 0 0 0 0
X
q (x ) = q (x3 , ..., xn ) = λi li2 (x ) pour tout x ∈ H.
i=3

0
En prolongeant les formes linéaires l3 , ..., lr à E en posant li (x) = li (x ) pour tout
x ∈ E, on obtient une décomposition de q comme somme de carrés de formes
linéaires sur E, pour tout x ∈ E on a

1 2 1 2 0
q(x) = l (x) − l2 (x) + q (x3 , ..., xn )
21 2
r
1 2 1 2 X 0
= l (x) − l2 (x) + λi li2 (x )
21 2 i=3
r
1 2 1 X
= l1 (x) − l22 (x) + λi li2 (x)
2 2 i=3
r
X
= λi li2 (x).
i=1

Pour achever cette démonstration, il reste à vérifier que les formes l1 , ..., lr sont
linéairement indépendantes dans E ∗ . En effet, on a

r
X r
X
αi li = 0E ∗ ⇔ αi li (x) = 0 ∀x ∈ E.
i=1 i=1

En particulier, prenant x = e1 et x = e2 dans la relation précédente, avec un


simple calcul on arrive à α1 = α2 = 0. Autrement dit, ri=1 αi li = 0H ∗ ce qui
P

entraı̂ne la nullité de tous les αi (i = 3...r) puisque le système (l3 , ..., lr ) est libre
57

dans H ∗ (ceci d’après l’hypothèse de récurrence). Finalement αi = 0 pour tout


i = 1...r, d’où le résultat voulu.

Remarque 4.31. i) A partir de la démonstration précédente, on déduit un algo-


rithme pour obtenir la réduction de Gauss pour une forme quadratique donnée.
ii) Il existe d’autres moyens d’écrire une forme quadratique comme combinaison
linéaire de carrés de formes linéaires qui ne sont pas linéairement indépendantes,
cette écriture n’a pas d’intérêt. L’avantage de la méthode de Gauss est qu’elle as-
sure l’indépendance des formes linéaires obtenues.
iii) La décomposition de Gauss n’est pas unique.

Exemple 4.32. En utilisant l’algorithme de Gauss, réduire la forme quadratique


q définie sur R3 par

q(x, y, z) = 2x2 + 2xy + 4xz − y 2 + 6yz + 2z 2

On commence par isoler tous les termes comprenant, par exemple, x. Alors

q(x, y, z) = (2x2 + 2xy + 4xz) − y 2 + 6yz + 2z 2

= 2(x2 + x(y + 2z)) − y 2 + 6yz + 2z 2


!
 1 2 1
= 2 x + (y + 2z) − (y + 2z)2 − y 2 + 6yz + 2z 2
2 4
 1  2 1
= 2 x + (y + 2z) − (y + 2z)2 − y 2 + 6yz + 2z 2
2 2
 1 2 3
= 2 x + (y + 2z) − y 2 + 4yz
2 2
 1 2 3  4 16 
= 2 x + (y + 2z) − (y − z)2 − z 2
2 2 3 9
 1 2 3  4 2 8 2
= 2 x + (y + 2z) − y− z + z
2 2 3 3
3 8
= 2l12 (x, y, z) − l22 (x, y, z) + l32 (x, y, z).
2 3

Les applications l1 , l2 et l3 sont des formes linéaires indépendantes sur R3 . En


conséquence, rg(q) = 3 = dimR3 donc q est non dégénérée.
58

4.5 Classification des formes quadratiques

4.5.1 Cas où le corps de base K est algèbriquement clos

Un corps commutatif K est dit algébriquement clos si tout polynôme de degré


supérieur ou égal à un, à coefficients dans K, admet (au moins) une racine dans
K. L’exemple le plus important est K = C graçe au théorème fondamental de
l’algèbre d’Alembert-Gauss.

Proposition 4.33. Soit ϕ une forme bilinéaire symétrique sur un K-e.v E de


dimension finie n. Si le corps K est algébriquement clos, alors
i) il existe une base (e1 , ..., en ) de E telle que l’expression de ϕ soit :

ϕ(x, y) = x1 y1 + x2 y2 + ... + xr yr

Pn Pn
pour tous x = i=1 xi ei et y = i=1 yi ei avec r ≤ n.
ii) Pour que ϕ soit non dégénérée, il faut et il suffit que r = n.

Preuve. (i) Soit (b1 , ..., bn ) une base orthogonale de E, on peut supposer ϕ(ei , ei ) =
αi 6= 0 pour 1 ≤ i ≤ r où r = rg(ϕ).
Puisque K est algébriquement clos il existe βi ∈ K tel que

βi2 ϕ(bi , bi ) = 1 = ϕ(βi bi , βi bi )

de sorte que les vecteurs ei = βi bi vérifient ϕ(ei , ei ) = 1 pour 1 ≤ i ≤ r .


Si on complète le système (e1 , ..., er ) par les vecteurs er+1 = br+1 , ..., en = bn , on
obtient une base (e1 , ..., en ) où l’on a

n
X n
X 
ϕ(x, y) = ϕ xi e i , yi ei = x1 y1 + x2 y2 + ... + xr yr .
i=1 i=1

(ii) résulte de (i).


59

Théorème 4.34. Soit ϕ une f.b.s non dégénérée sur un K-e.v E de dimension
finie n avec K algébriquement clos. Alors
i) il existe des bases orthonormales pour ϕ.
ii) Par rapport à une telle base orthonormale (e1 , ..., en ), la forme quadratique q
associée à ϕ est

n
X n
X
q(x) = x2i pour tout x = xi ei ∈ E.
i=1 i=1

Dans ce cas, à un automorphisme près de l’espace vectoriel, il y a une seule forme


quadratique non dégénérée définie sur E.

4.5.2 Cas réel, K = R

Théorème 4.35. (loi d’inertie de Sylvester )


Soit q une forme quadratique définie sur un espace réel E de dimension finie n > 0
et ϕ la forme bilinéaire symétrique associée à q. Il existe une base orthogonale
(e1 , ..., en ) de E et il existe un couple (s, t) d’entiers naturels avec s + t ≤ n tels
que
Pn Pn
1. Pour tous x = i=1 xi ei et y = i=1 yi ei de E, on a

ϕ(x, y) = x1 y1 + ... + xs ys − xs+1 ys+1 − ... − xs+t ys+t

2. ϕ est non dégénérée ssi s + t = n.

3. Les entiers s et t ne dépend que de la forme ϕ et non de la base choisie.

Le couple (s, t) s’appelle la signature de la forme quadratique q.

Preuve. i) Soit (b1 , .., bn ) une base orthogonale de E, on pose



 ϕ(bi , bi ) > 0 pour 1 ≤ i ≤ s
αi = ϕ(bi , bi ) < 0 pour s + 1 ≤ i ≤ s + t
ϕ(bi , bi ) = 0 pour s + t + 1 ≤ i ≤ n

60

On considère les vecteurs



√1 bi si 1 ≤ i ≤ s
αi


ei = √ 1 bi si s + 1 ≤ i ≤ s + t
 −αi
 b
i si s + t + 1 ≤ i ≤ n

D’où (e1 , .., en ) une base orthogonale de E qui donne

ϕ(x, y) = x1 y1 + ... + xs ys − xs+1 ys+1 − ... − xs+t ys+t

Pn Pn
pour tous x = i=1 xi ei et y = i=1 yi ei de E. En outre

n
X
q(x) = x21 + ... + x2s − x2s+1 − ... − x2s+t pour tout x = xi ei ∈ E
i=1

2) ϕ est non dégénérée ssi rg(ϕ) = n ssi s + t = n.


0
3) Soient (ei ) et (ei ) deux bases orthogonales de E pour la forme ϕ.
- On note s = card{1 ≤ i ≤ n / q(ei ) > 0} et t = card{1 ≤ i ≤ n / q(ei ) < 0}.
0 0 0 0
- De même s = card{1 ≤ i ≤ n / q(ei ) > 0} et t = card{1 ≤ i ≤ n / q(ei ) < 0}.
On sait que le rang de ϕ est égal au rang de sa matrice dans une base de E, donc

0 0
rg(ϕ) = s + t = s + t = cste

- Considérons les deux sous-espaces vectoriels F et G de E avec :


→ F = vect(e1 , ..., es ) = Re1 + ... + Res engendré par les vecteurs ei vérifient
q(ei ) > 0, on a dim F = s .
0 0 0 0 0
→ G = vect(es0 +1 , ..., en ) engendré par les ei tels que q(ei ) ≤ 0, on a dim G = n−s .
La restriction de q à F est positive, par contre la restriction de q à G est négative.
D’où x ∈ F ∩ G implique que q(x) ≥ 0 et q(x) ≤ 0, c.à.d q(x) = 0. Cela signifie
que x = 0 car x ∈ F s’écrit sous la forme x = x1 e1 + ... + xs es il s’ensuit que
q(x) = x21 + ... + x2s = 0 de sorte que x = 0. On obtient F ∩ G = {0}. Par
conséquent,
dim(F + G) = dimF + dimG ≤ dimE
61

0 0
c.à.d s + n − s ≤ n d’où s ≤ s . Un raisonnement analogue (en échangeant le rôle
0 0
des bases) permet de montrer que s ≤ s ce qui implique que s = s . En vertu de
0 0 0
l’égalité s + t = s + t en déduit que t = t ce qui signifie que le couple (s, t) est
invariant, il dépend seulement de ϕ.

Définition 4.36. Soit E un R espace vectoriel muni d’une forme quadratique q.


i) q est dite positive (resp. négative) si q(x) ≥ 0 (resp. q(x) ≤ 0) pour tout x ∈ E.
ii) q est dite définie positive (resp. définie négative) si q(x) > 0 (resp. q(x) < 0)
pour tout x ∈ E − {0E }.

Proposition 4.37. Soit q une forme quadratique sur un R espace vectoriel E de


dimension finie n de rang r et de signature (s, t). Alors

1. q est positive ⇔ sing(q) = (r, 0) c.à.d s = r.

2. q est définie positive ⇔ sing(q) = (n, 0) c.à.d s = n = r.

3. q est négative ⇔ sing(q) = (0, r) c.à.d t = r.

4. q est définie négative ⇔ sing(q) = (0, n) c.à.d t = n = r.

Exemple 4.38. Soit q la forme quadratique définie sur R3 par

q(x, y, z) = 2x2 + 2xy + 4xz − y 2 + 6yz + 2z 2

Est ce que q est définie positive, définie négative, positive, négative ?


On a déjà montrer que

11 2
q(x, y, z) = 2l12 (x, y, z) − l22 (x, y, z) − l (x, y, z).
2 3

Donc rg(q) = 3 et sing(q) = (1, 2). Par suite q n’est ni définie positive ni définie
négative ni positive ni négative.
62

4.5.3 Produit scalaire, Espace préhilbertien

Définition 4.39. Soit E un R-espace vectoriel.

1. On appelle produit scalaire sur E une forme bilinéaire symétrique ϕ telle


que la forme quadratique associée soit définie positive. On utilise souvent
la notation < x, y > pour désigner ϕ(x, y).

2. Un R-espace vectoriel E muni d’un produit scalaire s’appelle un espace préhilbertien.

Proposition 4.40. ϕ est un produit scalaire sur E si et seulement si il existe une


base de E orthogonale pour q, forme quadratique associée à ϕ , dans laquelle la
matrice de q est la matrice identité.

Proposition 4.41. (INÉGALITÉ DE CAUCHY-SCHWARZ)


Soit q une forme quadratique sur un R-e.v E et ϕ la forme bilinéaire symétrique
associée à q. Si q est positive, alors

2
∀(x, y) ∈ E 2 , ϕ(x, y) ≤ q(x)q(y).

Si de plus q est définie positive, on a l’égalité ssi x et y sont colinéaires.

Preuve. i) Soient (x, y) ∈ E 2 , pour tout t ∈ R, on a

q(tx + y) = t2 q(x) + 2tϕ(x, y) + q(y) ≥ 0 (∗)

♦ Si q(x) = 0, alors (∗) affirme que pour tout t ∈ R on aura 2tϕ(x, y) + q(y) ≥ 0
ce qui implique que ϕ(x, y) = 0, par suite l’inégalité voulue est évidente.
♦ Si q(x) 6= 0, alors le trinôme du second degré (∗) en t a un discriminant négatif,
ce qui entraı̂ne (ϕ(x, y))2 − q(x)q(y) ≤ 0, d’où le résultat.
ii) Supposons que (ϕ(x, y))2 = q(x)q(y),
→ si q(x) = 0, puisque q définie positive, alors x = 0 de sorte que x et y sont
colinéaires.
→ si q(x) 6= 0, le discriminant de (∗) sera nul, équivant à dire qu’il existe t0 ∈ R
63

tel que q(t0 x + y) = 0. Comme q est définie, il s’ensuit que t0 x + y = 0, i.e la


famille (x, y) est liée.

Corollaire 4.42. Si q est positive, alors Cq = Ker(q). En particulier, une forme


quadratique q est définie positive ssi elle est non dégénérée.

Preuve. il suffit de montrer l’inclusion Cq ⊆ Ker(q) puisque l’autre inclusion est


déjà acquis. Soit x ∈ Cq , alors q(x) = 0 et l’inégalité de Cauchy-Schwarz affirme
que ϕ(x, y) = 0 pour tout y ∈ E ce qui entraı̂ne x ∈ Ker(q).

Proposition 4.43. (INÉGALITÉ DE MINKOWSKI)


Soit q une forme quadratique positive sur un R-espace vectoriel E, alors

p p p
∀(x, y) ∈ E 2 , q(x + y) ≤ q(x) + q(y)

C’est une conséquence immédiate de l’inégalité de schwarz, il suffit de montrer que


p p 2
q(x + y) ≤ q(x) + q(y) pour tout (x, y) ∈ E 2 .

Remarque 4.44. L’inégalité de Minkwoski exprime que


p
a) si q est positive, alors l’application N : E → R+ définie par N (x) = q(x) est
une semi-norme sur E, c.à.d N vérifie :

i) N (x + y) ≤ N (x) + N (y) pour tout (x, y) ∈ E 2 .

ii) N (λx) = |λ|N (x) pour tout λ ∈ R et pour tout x ∈ E.

b) Si q est définie positive, alors N définie une norme sur E, notée k k, c’est à
dire que k k vérifie les trois assertions suivantes :

i) kxk = 0 ⇔ x = 0 pour tout x ∈ E.

ii) kx + yk ≤ kxk + kyk pour tout (x, y) ∈ E 2 .

iii) kλxk = |λ|kxk pour tout λ ∈ R et pour tout x ∈ E.


64

[Link] Cas particulier : Espaces Euclidiens

Définition 4.45. Un espace euclidien est un espace vectoriel réel de dimension


finie muni d’un produit scalaire.

Proposition 4.46. Soient (E, q) un espace euclidien et ϕ son produit scalaire.


i) Si F est un sous espace vectoriel de E, alors E = F ⊕ F ⊥ et F ⊥⊥ = F.
ii) Toute famille orthonormale {e1 , . . . , er } de E est libre.

Preuve. i) Puisque q est définie positive, alors q est non dégénérée. En conséquence,

dimF + dimF ⊥ = dimE. (∗∗)

Montrons que F ∩ F ⊥ = {0}, soit x ∈ F ∩ F ⊥ alors ϕ(x, y) = 0 pour tout y ∈ F .


D’où ϕ(x, x) = 0 = q(x), ce qui implique que x = 0 car q est définie, de sorte que
F ∩ F ⊥ = {0}. Il en résulte que F + F ⊥ = F ⊕ F ⊥ .
Comme dimF ⊕ dimF ⊥ = dimF + dimF ⊥ = dimE et F ⊕ F ⊥ est un sous-espace
vectoriel de E alors F ⊕ F ⊥ = E.
Montrons que F ⊥⊥ = F. On sait que F ⊂ F ⊥⊥ , alors pour montrer l’égalité il suffit
de prouver les égalités des dimensions. En effet, d’après (∗∗) on a dimF +dimF ⊥ =
dimE. Maintenant, appliquant la relation (∗∗) à F ⊥ , on obtient dimF ⊥ +dimF ⊥⊥ =
dimE. En retranchant les deux égalités on trouve dimF = dimF ⊥⊥ , il s’ensuit que
F = F ⊥⊥ .

ii) Soit α1 e1 + ... + αr er = 0, avec les αi ∈ R. Par bilinéarité de ϕ, pour tout j


compris entre 1 et r on a

r
X r
X
ϕ(ej , αi ei ) = αi ϕ(ej , ei ) = αj = 0
i=1 i=1

d’où la famille {e1 , . . . , er } est libre.


65

4.5.4 Procédé d’orthonormalisation de Gramm-Schmidt

Le procédé de Gram-Schmidt est un algorithme qui permet, à partir d’une base


quelconque d’un espace vectoriel euclidien E, de construire une base orthonormée
comme le montre le théorème suivant.

Théorème 4.47. Tout espace euclidien (E, q) admet une base orthonormale.

Preuve. Soit (b1 , ..., bn ) une base de E. On construit une base orthonormée (e1 , ..., en )
de E de la manière suivante :
1) On pose a1 = b1 . On détermine un réel λ tel que le vecteur a2 = b2 + λa1 soit
orthogonal à a1 , c.à.d ϕ(a1 , b2 + λb1 ) = 0. Par bilinéarité de ϕ, on obtient

ϕ(a1 , b2 ) ϕ(a1 , b2 ) ϕ(a1 , b2 ) ϕ(a1 , b2 )


λ=− =− =− =−
ϕ(a1 , b1 ) ϕ(a1 , a1 ) q(a1 ) ka1 k2

a2 est non nul car (b1 , b2 ) est libre de plus a2 ⊥ a1 .


2) L’idée donc est de chercher une base orthogonale (a1 , ..., an ) tel que chaque
ai , i ≥ 2, est une combiniaison linéaires des vecteurs a1 , a2 , ..., ai−1 , bi avec le
coefficient de bi vaut 1. Ce qui nous donne le système suivant


 a1 = b 1
a2 = b2 + λ21 a1 (λ21 = λ de (1))







 a3 = b3 + λ31 a1 + λ32 a2
 ..
.
ai = bi + λi1 a1 + λi2 a2 + λi3 a3 + ... + λij aj + ... + λi,i−1 ai−1





 ..



 .
an = bn + λn1 a1 + λn2 a2 + λn3 a3 + ... + λn,n−1 an−1

On peut déterminer d’une manière unique les coefficients λij , (j = 1, ..., i − 1),
de chaque vecteur ai en tenant compte le fait que ai est orthoganal aux vecteurs
66

a1 , ..., ai−1 de sorte que

0 = ϕ(ai , aj )

0 = ϕ bi + λi1 a1 + ... + λij aj + ... + λi,i−1 ai−1 , aj

0 = ϕ(bi , aj ) + λij ϕ(aj , aj ) (par bilinéarité de ϕ)

ce qui entraı̂ne que

−ϕ(bi , aj )
λij = pour tout j = 1, ..., i − 1.
k(aj k2

Les vecteurs non nuls obtenues a1 , ..., an sont 2 à 2 orthogonaux, ce qui implique
que le système (a1 , ..., an ) est libre car q est définie positive, il forme donc une base
orthogonale de E. Finalement, pour obtenir une base orthonormée de E, il suffit
a1 an
de normer les vecteurs a1 , ..., an en posant e1 = ka1 k
, ..., en = kan k
. D’où (e1 , ..., en )
est une base orthonormale de (E, q).

Exemple 4.48. Considérons R3 muni du produit scalaire usuel, c.à.d

< x, y >= x1 y1 + x2 y2 + x3 y3 .

Soit E le plan d’équation 3x − y + 2z = 0, c’est un sous espace vectoriel de R3 .


Une base de ce plan est B = (b1 , b2 ) où b1 = (1, 3, 0) et b2 = (0, 2, 1).
 Déterminons une base orthogonale (a1 , a2 ) de ce plan. Considérons le système
suivant (
a1 = b 1
−<b2 ,a1 > .
a2 = b2 + λ21 a1 avec λ21 = ka1 k2

On a
ka1 k2 =< b1 , b1 >= 10 et < b2 , a1 >=< b2 , b1 >= 6

a1 = (1, 3, 0)
de sorte que 6
a2 = (0, 2, 1) − 10 (1, 3, 0) = (− 35 , 15 , 1)
67

 Maintenant, on passe à la normalisations de la famille (a1 , a2 ) en posant

a1 1 a2 1
e1 = = √ (1, 3, 0) et e2 = = √ (−3, 1, 5).
ka1 k 10 ka2 k 35

Une base orthonormée de P est (e1 , e2 ).


Bibliographie

[1] L. Oukhtite, Cours d’Algèbre 2 (MIP, Module M122), Département de


Mathématiques, FST-Fès.

[2] M. Boulagouaz, Cours d’Algèbre 2 (MIP, Module M122), Département de


Mathématiques, FST-Fès.

[3] X. Gourdon, les maths en tête, Algèbre.

[4] Institut Galilée, Licence 2ème année, LSI-ATS, Algèbre 2, 2010-2011

[5] R. Khir, Module d’Algèbre 2, (Formation MIPC), Département de


Mathématiques, FST-Marrakech.

[6] S. Lipschutz, Algèbre linéaire cours et probmèmes, traduit de Theory and


problems of linear algebra, 1973.

[7] Luc Rozoy et Bernard Ycart, Cours Réduction des endomorphismes, Uni-
versité Joseph Fourier, Grenoble.

[8] UFR maths, Université de Rennes I, Préparation à l’agrégation interne.

[9] http ://[Link]/ alp.

68

Vous aimerez peut-être aussi