Réduction et Formes Quadratiques
Réduction et Formes Quadratiques
BÉNI MELLAL
Réalisé par
Pr. A. Raji
i
ii
iii
iv
Bibliographie 68
Chapitre 1
Soient E un K-espace
vectoriel de dimension finie n et B = (e1 , ..., en ) une base de
x1
..
E. Posons X = . la matrice colonne formée des coordonnées d’un vecteur
xn
x de E relativement à la base B. Il est naturelle de poser la question suivante :
Comment la représentation matricielle change-t-elle si nous choisissons une autre
0 0 0
base B = (e1 , . . . , en ) de E ?. Pour répondre à cette question nous avons besoin
de la définition suivante
0 0 0
Définition 1.1. Soient B = (e1 , . . . , en ) et B = (e1 , . . . , en ) deux bases d’un K-ev
0
E. Exprimons les vecteurs de B dans la base B :
0
e1 = a11 e1 + a21 e2 + . . . + an1 en
0
e2 = a12 e1 + a22 e2 + . . . + an2 en
.................................................
0
en = a1n e1 + a2n e2 + . . . + ann en
1
2
Exemple 1.2. Dans l’espace vectoriel R2 , on considère les deux bases B = (e1 , e2 )
0 0 0 0 0
base canonique et B = (e1 , e2 ) avec e1 = (−1, 1) et e2 = (1, 1). Il est simple de
0
vérifier que B et aussi une base de R2 .
Questions : 1- déterminons les deux matrices PBB 0 et PB 0 B .
2- Calculons le produit PBB 0 PB 0 B puis retirons une conclusion.
Proposition 1.3. La matrice de passage d’une base B = (e1 , ..., en ) à une autre
0 0 0 0
base B = (e1 , ..., en ) est inversible et son inverse est la matrice de passage de B
−1
à B, c.à.d PBB 0 = PB 0 B .
0 0
Preuve. Posons P = PBB 0 = (aij )1≤i,j≤n et P = PB 0 B = (aij )1≤i,j≤n . Il suffit de
0 0
montrer que P P = P P = In . On a
n n n
X n X
n
0 0 0 0
X X X
es = ars er = ars akr ek = akr ars ek
r=1 r=1 k=1 k=1 r=1
Pn 0
puisque le nombre αk = r=1 akr ars = 1 si k = s et 0 si k 6= s, il s’ensuit que
0 0
(P P )ks = 1 si k = s et 0 sinon. Ce qui signifie que P P = In . Pour l’autre égalité
0 0
P P = In il suffit de faire une démonstration analogue que celle de P P = In .
Le théorème suivant montre comment les vecteurs coordonnées sont affectés par
un changement de base.
Insistons sur le fait que, bien que la matrice P soit la matrice de passage de l’an-
0
cienne base B à la nouvelle base B , elle a pour effet de transformer les coordonnées
0
d’un vecteur de la nouvelle base B en les coordonnées de ce vecteur dans la base
B.
0 0
Nous avons aussi e1 = (1, 0) = 0(1, 1) − (−1, 0) = 0e1 − e2
0 0
e2 = (0, 1) = (1, 1) + (−1, 0) = e1 + e2
0
Il en résulte que la matrice de passage de la base B à la base B est
0 1
PB 0 B =
−1 1
0 0 0
Soit x = 2e1 + 3e2 . En exprimant x dans la base B on obtient x = αe1 + βe2 .
Ainsi d’après le théorème précédent on a
1 −1 α 2
PBB 0 XB 0 = = = XB
1 0 β 3
4
0 0
il s’en suit alors que x = 3e1 + e2 .
f : R2 → R3 et g : R2 → R2
(x, y) → (x, y, y) (x, y) → (x, x − 2y)
Soient B = {(1, 0), (0, 1)} et C = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} les bases canoniques
respectivement de R2 et R3 . Il simple de vérifie que D = {(1, 0), (1, 1)} est une
base de R2 et proposons nous de déterminer M (f, B, C) et M (g, D).
1) La matrice M (f, B, C) associée à l’application linéaire f relativement aux bases
B et C est donnée par :
D’où
1 0
M (f, B, C) = 0 1 ∈ M3,2 (R).
0 1
Ainsi
0 2
M (g, D) = .
1 −1
m
X m
X
(g ◦ f )(ej ) = g f (ej ) = g alj cl = alj g(cl )
l=1 l=1
m
X r
X m X
X r
= alj bkl dk = alj bkl dk
l=1 k=1 l=1 k=1
r
X X m
= alj bkl dk .
k=1 l=1
6
a1j
Ce qui implique que ωkj = m ... , pour
P Pm
l=1 alj bkl = l=1 bkl alj = (bk1 , . . . , bkm )
amj
(1 ≤ k ≤ r, 1 ≤ j ≤ n). Par conséquent M (g ◦ f, B, D) = M (g, C, D)M (f, B, D).
0 0 0
Soient f une application linéaire de E dans F et B = (e1 , . . . , en ), B = (e1 , . . . , em )
bases de E et F respectivement. Pour un vecteur x de E notons x1 , . . . , xn ses
coordonnées dans la base B et désignons par y1 , . . . , ym les coordonnées de f (x)
0
dans la base B . Posons
x1
XB = ... la matrice des coordonnées de x dans la base B.
xn
et
y1
= ... la matrice des coordonnées de f (x) dans la base B
0
YB 0
ym
alors on a :
0
M (f, B, B )XB = YB 0
a pour solution
2
x1 = 2, x2 = −3 donc XB =
−3
D’où
y1 0 1 −3
2
YB 0 = y2 = 1 −1
= 5 .
−3
y3 1 0 2
Définition 1.12. Soit f une application linéaire d’un K-espace vectoriel E dans
un K-espace vectoriel F . On appelle rang de f l’entier naturel, noté rg(f ), défini
par rg(f ) = dim(Im(f )).
Théorème 1.15. Si f est une application linéaire d’un K- espace vectoriel E dans
0 0
un K-espace vectoriel F et si B, B sont deux bases de E et S, S sont deux bases
de F alors
0 −1 0
M (f, B , S ) = PSS 0 M (f, B, S) PBB 0
f
(E, B) −
−−−−−− →
M (f,B,S)
(F, S)
−1
PBB 0 ↑ IdE PSS 0 ↓ IdF
0 f 0
(E, B ) −−−−−−0−−→
0 (F, S )
M (f,B ,S )
E IdE E f F IdF F
0 −−−−−−−−−0
−→ −
−−−−−− → −−−−−−−−−→ 0 0
(B ) M (IdE ,B ,B) (B) M (f,B,S) (S) M (IdF ,S,S ) (S )
Pour obtenir la relation entre les matrices il suffit d’écrire les relations entre les
applications linéaires et d’appliquer la proposition 1.8(2) il s’ensuit que
f = IdF ◦ f ◦ IdE
D’où
0 0 0 0
M (f, B , S ) = M (IdF , S, S ) M (f, B, S) M (IdE , B , B)
0 −1 0
Or M (IdE , B , B) = PBB 0 et M (IdF , S, S ) = PS 0 S = PSS 0 , alors
0 −1 0
M (f, B , S ) = PSS 0 M (f, B, S) PBB 0 .
10
0 0 0
Notation : si on note M = M (f, B , S ), M = M (f, B, S), P = PBB 0 , Q = PSS 0
alors l’équation précédente se réduit à
0
M = Q−1 M P
0
la base B .
Remarques :
i) On peut vérifier que cette relation sur les matrices est une relation d’équivalence.
ii) Deux matrices de Mn,m (K) sont équivalentes ssi elles ont le même rang.
11
Remarques :
i) Deux matrices semblables ont le même rang.
Attention, la réciproque est fausse en générale : par exemple, les matrices
1 0 1 1
A= et B =
0 1 0 1
ont le même rang (2), mais elles ne sont pas semblables car la matrice P −1 AP est
toujours égale à A et ne peut donc pas être égale à B.
ii) Attention : deux matrices carrées semblables ont méme rang, donc sont équivalentes.
Par contre, il existe des matrices carrées équivalentes mais qui ne sont pas sem-
blables :
1 0 0 1
A= et B = .
0 0 0 0
Elles sont équivalentes puisqu’elles sont toutes les deux de rang 1. Supposons
qu’elles soient semblables. Alors A = P −1 BP , donc A2 = P −1 B 2 P . Or un calcul
direct donne A2 = A et B 2 = 0. Contradiction.
Chapitre 2
X
dét(A) = ε(σ)a1σ(1) a2σ(2) . . . anσ(n) .
σ∈Sn
X
= ε(σ)aσ(1)1 aσ(2)2 . . . aσ(n)n .
σ∈Sn
12
13
a11 . . . a1n
X Première forme dét(A) = ... ..
.
..
.
an1 . . . ann
Avec (Ci )i=1...n sont les vecteurs colonnes de la matrice A. En utilisant cette
deuxième formule, la propriété (i) du théorème précédent s’écrit
0 0
|C1 , . . . , Ci + λCi , . . . , Cn | = |C1 , . . . , Ci , . . . , Cn | + λ|C1 , . . . , Ci , . . . , Cn |
0
pour tout λ ∈ K et pour tout vecteur colonne Ci ∈ Mn1 (K).
Quand n augmente, le nombre de termes dans le déterminant devient très grand.
En conséquence, on utilise des méthodes indirectes pour calculer les déterminants,
plutôt que la définition. En fait nous allons énoncer un certain nombre de pro-
priétés qui vont nous permettre décourter considérablement le calcul.
2.1.1 Propositions
3. det(A) = 0 si une ligne (resp. une colonne) est une combinaison linéaire des
autres lignes (resp. des autres colonnes) de A.
n
(développement de det(A) suivant sa ième ligne).
X
det(A) = aik Cik
k=1
n
(développement de det(A) suivant sa j ème colonne).
X
= akj Ckj
k=1
2 0 3
Exemple 2.5. Reprenons la matrice de l’exemple précédent A = 1 −1 4
5 1 2
alors, si on développe det(A) suivant sa première colonne on trouve
−1 4 0 3 0 3
det(A) = 2 −1 +5 =6
1 2 1 2 −1 4
Une méthode importante pour déterminer la matrice inverse, si elle existe, d’une
matrice carrée est citée dans la proposition suivante
Soit A ∈ Mn,m (K), ici A n’est pas nécessairement carrée, par définition le rang
de A est le nombre maximum de vecteurs colonnes (resp. lignes) linéairement
indépendants. Une autre façon de déterminer le rang d’une matrice en utilisant le
déterminant est donnée par la proposition qui suit
Proposition 2.8. Le rang d’une matrice A ∈ Mn,m (K) est le plus grand entier r,
(1 ≤ r ≤ inf (n, m)), des ordres des matrices carrées inversibles extraites de A.
1 2 0 −1
Exemple 2.9. déterminons le rang de la matrice M = 3 1 1 4 .
−1 5 2 3
1 2 2 0
Parmi les déterminants de M d’ordre 2 on peut citer = −5 et = 2.
3 1 1 1
1 2 0
Aussi parmi les déterminants de M d’ordre 3 on a 3 1 1 = −17, ce qui
−1 5 2
entraı̂ne que rg(M ) = 3.
0
M (f, S ) = P −1 M (f, S)P
0 0
En conséquence, M (f, S) et M (f, S ) sont semblables. D’où det(M (f, S)) = det(M (f, S )).
Le Théorème suivant découle des théorèmes analogues sur les matrices
(v1 )
↓ . . . (v↓n )
a11 . . . a1n e1
a21 . . . a2n e2
detB (v1 , . . . , vn ) = .. .. .. .. .. ..
. ... . .
an1 . . . ann en
0
Remarque : Si B et B sont deux bases de E, alors
0 0 0
Exemple 2.15. Soient B = {e1 (1, 1), e2 (0, 1)} et B = {e1 (−1, 1), e2 (1, 2)} deux
bases de R2 et soit V = {v1 (2, 5), v2 (−2, 4)} un système de vecteurs de R2 .
Déterminons : detB (v1 , v2 ), detB 0 (v1 , v2 ) et detB 0 (B).
0
Exprimons tout d’abord les vecteurs v1 et v2 dans les deux bases B et B , on a
19
0 0
v1 = 13 e1 + 73 e2
v1 = 2e1 + 3e2
et 0 0
v2 = −2e1 + 6e2 v2 = 83 e1 + 23 e2
2 −2 1 8
Alors detB (v1 , v2 ) = = 18, detB 0 (v1 , v2 ) = 91 = −6.
3 6 7 2
Or detB 0 (v1 , v2 ) = detB (v1 , v2 ) × detB 0 (B) alors detB 0 (B) = −1
3
, il s’ensuit alors
que le système (v1 , v2 ) est libre dans R2 .
Où les aij et les bi sont dans K (K = R ou C). Si les bi sont tous nuls, le système
(S) est dit système homogène. Le système (S) peut être représenter par l’écriture
matricielle AX = B comme suit
a11 a12 . . . a1p x1 b1
a21 a22 . . . a2p x2 b2
.. .. .. .. .. = ..
. . . . . .
an1 an2 . . . anp xp bn
| {z } | {z } | {z }
A X B
Dans le cas d’un système de Cramer (S), l’équation AX = B admet une unique
solution pour tout B. Dans ce cas, comme B = x1 A1 + x2 A2 + . . . + xn An où les Ai
20
detC (A1 , ..., Ai−1 , B, Ai+1 , ..., An ) = xi detC (A1 , ..., An ) = xi det(A).
2x + 3y − z = 4
(S) x − 2y + 5z = 1
3x − y + 2z = −1
2 3 −1
det(A) = 1 −2 5 = 36
3 −1 2
Puisque det(A) 6= 0, alors le système (S) admet une solution unique. Nous avons
4 3 −1 2 4 −1
aussi det(A1 ) = 1 −2 5 = −14, det(A2 ) = 1 1 5 = 70
−1 −1 2 3 −1 2
2 3 4
−7 35 19
et det(A3 ) = 1 −2 1 = 38. Donc S = 18
, 18 , 18 .
3 −1 −1
Chapitre 3
21
22
0
2) Soit f : Rn [x] → Rn [x] l’endomorphisme défini par f (P ) = xP . Alors pour
tout 1 ≤ k ≤ n, on a f (xk ) = kxk . Et par suite xk est un vecteur propre de f
associé au valeur propre k.
4 3 2 1
3) 4 est une valeur propre de 0 1 5 associée au vecteur 0 .
0 6 7 0
par conséquent,
BABx = BAu = λBx = λu.
Donc λ est une valeur propre de BA. De manière analogue, une valeur propre
de BA est une valeur propre de AB.
24
Théorème 3.7. Soient λ1 , ..., λk des valeurs propres distinctes deux à deux de
f , alors les sous espaces propres Eλ1 , ..., Eλk sont en somme directe, c’est à dire
Eλ1 + ... + Eλk = Eλ1 ⊕ ... ⊕ Eλk .
Preuve. On doit montrer que tout x ∈ Eλ1 + Eλ2 + ... + Eλk s’écrit d’une manière
unique sous la forme x = x1 + . . . + xk où les xi ∈ Eλi . En effet, supposons que
0 0 0 0 0
x = x1 +. . .+xk = x1 +. . .+xk avec xi , xi ∈ Eλi , alors (x1 −x1 )+. . .+(xk −xk ) = 0
0 0
où les (xi − xi ) ∈ Eλi . Il en resulte que xi = xi pour i = 1, . . . , k car sinon les
0 0
vecteurs (x1 − x1 ), . . . , (xk − xk ) forment un système lié.
cosα − t −sinα
alors Pg (t) = = t2 − (2cosα)t + 1.
sinα cosα − t
Preuve. ♦ soit λ ∈ K, λ est une valeur propre de A ssi A − λIn est non inversible
ssi det(A − λIn ) = 0 ssi λ est une racine de det(A − xIn ) = 0 ssi λ est une racine
de PA .
♦ Pour l’endomorphisme, λ est une valeur propre de f ssi f − λIdE n’est pas
26
injective ssi det(M (f − λIdE )) = 0 ssi det(M (f ) − λIdn ) = 0 ssi λ est une racine
de l’équation det(M (f ) − xIn ) = 0 ssi λ est une racine de Pf .
1−x −2
PA (x) = det(A − xI2 ) = = x2 + 1.
1 −1 − x
α1 e1 + . . . + αm em = 0 (∗)
α1 λ1 e1 + . . . + αm λm em = 0,
1 ≤ dimK Eλ ≤ k
et
f (w1 ) = a11 v1 + ... + a1r vr + b11 w1 + ... + b1s ws
f (w2 ) = a21 v1 + ... + a2r vr + b21 w1 + ... + b2s ws
.........................................................................
.........................................................................
f (ws ) = as1 v1 + ... + asr vr + bs1 w1 + ... + bss ws
28
Pf (x) = det(M (f ) − xIn ) = (λ − x)r det(B − xIs ) où B est la matrice (bij ) et Is la
matrice unité d’ordre s. Comme par hypothèse Pf (x) = (λ − x)k g(x) où g(λ) 6= 0,
il s’ensuit que r ≤ k.
Théorème 3.16. Soient λ1 , ..., λp les valeurs propres de f . Les assertions sui-
vantes sont équivalentes
1. f est diagonalisable
3. E = ⊕pi=1 Eλi .
La procédure est plus simple, il suffit d’appliquer les deux étapes suivantes :
30
2−x 0 4
PA (x) = det(A − xI3 ) = 3 −4 − x 12 = x(x − 1)(2 − x).
1 −2 5−x
Il en résulte que A admet trois valeurs propres 0, 1, 2. Par suite il est facile de
déduire que dimE0 = dimE1 = dimE2 = 1. Ainsi dimE0 + dimE1 + dimE2 = 3.
En vertu du théorème précédent, A est diagonalisable.
ii) Détermination
de E0 , E1 , E2 .
x
Soit X = y un vecteur de M3,1 (R). on a
z
2 0 4 x 0 2x + 4z = 0
X ∈ E0 ssi AX = 0X ssi 3 −4 12
y = 0 ssi
3x − 4y + 12z = 0
1 −2 5 z 0 x − 2y + 5z = 0
−2
x + 2z = 0 x = −2z
ce qui implique que c.à.d D’où X = z 23 .
−2y + 3z = 0 y = 32 z
1
3 3
Par conséquent E0 = V ect{(−2, 2 , 1)}, et on peut choisir alors B0 = {(−2, 2 , 1)}
comme base de E0 .
Aussi on a
1 0 4 x 0
X ∈ E1 ssi AX = 1X ssi (A − 1I3 )X = 0 ssi 3 −5 12
y = 0 ssi
1 −2 4 z 0
x + 4z = 0 −4
x = −4z
3x − 5y + 12z = 0 plus précisement d’où X = z 0 . il en
y=0
x − 2y + 4z = 0 1
découle que E1 = V ect{(−4, 0, 1)} et B1 = {(−4, 0, 1)} une base de E1 .
31
−2
il en résulte alors que la première colonne de P est v0 = 32 .
1
On procède de la même manière pour les autres sous-espaces vectoriels propres on
déduit alors que La matrice de passage P sera constituée en juxtaposant les trois
vecteurs v0 , v1 , v2 (en colonnes).
−2 −4 2
P = 32 0 1
1 1 0
Observons-nous que :
X La matrice diagonale D a pour coefficients diagonaux les trois valeurs propres,
attention l’ordre des valeurs propres et des vecteurs propres forment la base de
M3,1 (R) doit être le même.
X Nous n’insisterons pas sur le calcul de P −1 .
X la diagonalisation trouvée n’est pas nécessairement unique. En effet, on peut
choisir un ordre différent pour les valeurs propres, autrement dit une autre base,
et pour chaque valeur propre on peut choisir n’importe quel vecteur non nul pro-
portionnel à celui qui a été trouvé. On pourra vérifier par exemple, pour la même
32
3 0 0
Exemple 3.19. Considérons la matrice A = 0 2 −5.
0 1 −2
Son polynôme caractéristique est
PA (x) = (3 − x)(x2 + 1)
v1 = e1 + e2 − e3 e1 = v1 − v2 + v3
Posons B1 = (v1 , e2 , e3 ), on a v2 = e2 ⇒ e2 = v2
v3 = e3 e3 = v3
d’où
1 0 0 1 0 0
PBB1 = 1 1 0 et PB1 B = −1 1 0 .
−1 0 1 1 0 1
4) Calculons A1 = M (f, B1 ), on a
f (v1 ) = f (e1 + e2 − e3 ) = 2v1
f (v2 ) = f (e2 ) = e1 + 3e2 − e3 = v1 + 2v2
f (v3 ) = f (e3 ) = e1 − e2 + e3 = v1 − 2v2 + 2v3
2 1 1
D’où A1 = M (f, B1 ) = 0 2 −2, ainsi P −1 AP = A1 avec P = PBB1 .
0 0 2
34
Deuxième méthode :
D’après ce qui précède, on a E2 = V ect(v1 ) avec v1 = e1 + e2 − e3 . Pour obtenir
une matrice P telle que P −1 AP soit triangulaire, il suffit de compléter le système
libre {v1 } par deux vecteurs v2 , v3 appartenant au ker(A − 2I)3 .
On sait que ker(A − 2I) ⊂ ker(A − 2I)2 ⊂ ker(A − 2I)3 , et vect(v1 ) = E2 =
ker(A − 2I). Il en résulte que
(A − 2I)v1 = 0
3
0 1 1 0 0 0
PA (A) = −(A − 2In )3 = − −2 1 −1 = 0 0 0 .
0 −1 −1 0 0 0
Preuve. Voir la définition des sous espaces caractéristiques, pages 189-190 , Math
en tête Algèbre.
36
Conséquences :
1) mf (x) divise Pf (x).
2) les polynômes mf (x) et Pf (x) ont les mêmes racines dans K.
3) Si Pf (x) = (λ1 − x)n1 (λ2 − x)n2 ...(λr − x)nr dans K[x] alors
mf (x) = (λ1 − x)s1 (λ2 − x)s2 ...(λr − x)sr .
Remarque : La proposition précédente reste vraie pour une matrice A ∈ Mn (K).
découle que
Or
−2 1 1 1 1 1 0 0 0
(A − I3 )(A + 2I3 ) = 1 −2 1 1 1 1 = 0 0 0
1 1 −2 1 1 1 0 0 0
Applications
−1 1 1
1) Soit A = 1 −1 1 . Puisque mA (x) = (x − 1)(x + 2) à toutes ses racines
1 1 −1
simples dans R alors A est diagonalisable.
37
−3 −3 2
2)Soit A = 1 1 −2. Comme PA (x) = −(x + 2)3 , nécessairement A est
2 4 −4
non diagonalisable. Car sinon, les racines de mA (x) seront simples, ce qui entraı̂ne
que mA (x) = x + 2 et par suite A + 2I3 = 0 de sorte que A = −2I3 , contradiction.
3) Calcul de
l’inverse d’une
matrice.
4 1 −1
Soit A = −6 −1 2 . En vertu de det(A) 6= 0, A est inversible. Comme
2 1 1
PA (x) = (2−x)(1−x) = −x3 +4x2 −5x+2, le théorème de Cayley-Hamilton assure
2
que PA (A) = 0, c.à.d −A3 + 4A2 − 5A + 2I3 = 0 de sorte que A3 − 4A2 + 5A = 2I3 .
Par conséquent A−1 = 12 (A2 − 4A + 5I3 ). Ainsi
−3 −2 1
1
A−1 = 10 6 −2 .
2
−4 −2 2
4) Puissances
d’une matrice
4 1 −1
Soit A = −6 −1 2 . On se propose de calculer An avec n ≥ 3.
2 1 1
D’après (3) on a PA (x) = −x3 + 4x2 − 5x + 2. La division euclidiènne de xn par
PA (x) affirme que xn = Q(x)PA (x)+(ax2 +bx+c). Comme 1 est une racine double
0
de PA (x), alors PA (1) = 0 = PA (1). D’où
1=a+b+c
n = 2a + b
2n + 2n −2n + 1
n
An = −2n+1 − 4n + 2 −2n + 1 2n+1 − 2 .
2n n 1
Chapitre 4
FORMES BILINÉAIRES ET
FORMES QUADRATIQUES
Dans ce qui suit, E et F sont deux espaces vectoriels sur un corps commutatif K.
Définition 4.1. Rappelons qu’une application f est dite forme linéaire sur E si
f : E → K est linéaire.
Par analogue, une forme bilinéaire de E × F est la donnée d’une application
0
ϕ : E × F → K vérifiant les propriétés suivantes pour toutes valeurs de x, x ∈ E
0
y, y ∈ F, α ∈ K
0 0 0 0
1. ϕ(x + x , y) = ϕ(x, y) + ϕ(x , y) 3. ϕ(x, y + y ) = ϕ(x, y) + ϕ(x, y )
Remarquons qu’on peut exprimer cette définition d’une façon un peu plus for-
melle, en disant que ϕ est bilinéaire si elle est linéaire par rapport à chacune de
ses deux variables.
Dans le cas où E = F ,
- on dit que ϕ est symétrique quand ϕ(x, y) = ϕ(y, x) pour tous x, y ∈ E.
Dans ce cas, pour montrer la bilinéarité de ϕ on vérifie simplement la linéarité par
39
40
rapport à une seule variable. L’ensemble des formes bilinéaires symétriques sur E
noté Bils (E) est un K-espace vectoriel.
- La forme bilinéaire ϕ est dite antisymétrique (ou bien alternée) si elle
vérifie ϕ(x, y) = −ϕ(y, x) pour tous x, y ∈ E.
X
ϕ(x, y) = xi yj ϕ(ei , εj )
i,j
x1 y1
.. ..
Posons X = . , Y = . et A = ϕ(ei , εj )
i,j
xn ym
Alors
t
ϕ(x, y) = XAY.
41
n
X m
X
ϕ(x, y) = ϕ xi ei , y j εj
i=1 j=1
n
X Xm
= xi ϕ ei , yj εj
i=1 j=1
Xn m
X
= xi yj ϕ(ei , εj )
i=1 j=1
P
m t
Or AY = j=1 yj ϕ(ei , εj ) , il en découle que ϕ(x, y) = XAY .
(1≤i≤n)
Définition 4.3. La matrice A = ϕ(ei , εj ) est appelée la matrice de ϕ relati-
i,j
vement aux bases B = (ei )i et S = (εj )j . On la note M (ϕ, B, S) = ϕ(ei , εj ) .
i,j
ϕ 7→ φ(ϕ) = ϕ(ei , εj )
i,j
Preuve. il suffit de montrer que l’application φ est linéaire bijective. Pour montrer
la surjectivité de φ, soit ϕA la forme bilinéaire de matrice A telle que A ∈ Mn,m (K).
Il est clair que φ(ϕA ) = A d’où la surjectivité de φ.
0
Proposition 4.5. Soient E et F deux K-e.v de dimensions finies et B, B deux
0
bases de E et S, S deux bases de F . Si ϕ ∈ Bil(E, F ), alors on a
0 0 t
M (ϕ, B , S ) = P M (ϕ, B, S)Q
42
0 0
où P la matrice de passage de B à B et Q la matrice de passage de S à S .
0
Preuve. Soient x ∈ E et y ∈ F . Posons X = coordB (x) , X = coordB 0 (x) ,
0 0 0 0
Y = coordS (y) et Y = coordS 0 (y), A = M (ϕ, B, S) et A = M (ϕ, B , S ). Il
0 0
s’ensuit que X = P X , Y = QY et
t t 0 0 t 0 0 0
ϕ(x, y) = XAY = (P X )A(QY ) = XAY .
0 0 0 0 0 0
En conséquence, t X (t P AQ)Y = t
X A Y ce qui implique que A = t
P AQ
car, d’après le théorème précédent, la matrice associée à ϕ relativement aux bases
0 0
B , S est unique.
0 t
M = P M P.
0
Remarquons que M et M sont congruentes, donc de même rang. Ce rang s’appelle
le rang de la forme bilinéaire ϕ, noté rg(ϕ). Le rang de ϕ est aussi la dimension
du s.e.v des formes linéaires ϕ(x, .) (x ∈ E) dans le dual de E.
0 0 22 4
La matrice de f dans la base B est : A =
4 3
0 1 2
La matrice de passage de la base canonique B à la base B est P = .
3 1
t 0
Finalement P AP = A .
t t
ϕ(x, y) = XAY = X tA Y = t
( t Y AX) = t
(ϕ(y, x)) = ϕ(y, x).
1 1
A = (A + t A) + (A − t A) ∈ Sn (K) + An (K).
2 2
De deux propositions précédentes, en déduit que l’espace vectoriel Bils (E) est
n(n+1)
isomorphe au sous-espace vectoriel Sn (K) ; cet espace est de dimension 2
par
n(n+1)
suite dimBils (E) = 2
.
44
En effet, si Eij désigne la matrice dont tous ses coefficients sont nuls sauf celui
d’indice (i, j) qui vaut 1, la famille (Ei,i )i=1...n , (Ei,j +Ej,i )(1≤i<j≤n) est une base
de Sn (K), d’autre part la famille (Ei,j − Ej,i )(1≤i<j≤n) est une base de An (K)
ce qui entraı̂ne que la dimension du s.e.v Bila (E) formé des formes bilinéaires
n(n−1)
alternées est : dimBila (E) = 2
.
Conséquence : Si la caractéristique de K est différente de 2 et E de dimension
finie, alors
Bil(E) = Bils (E) ⊕ Bila (E).
Remarque 4.11. 1) L’ensemble des formes quadratiques sur E, noté Q(E), est
un K-espace vectoriel.
2) La forme bilinéaire associée à q n’est pas nécessairement unique, par exemple
les deux formes bilinéaires ϕ et ψ définies sur R2 par : ϕ(x, y) = x1 y1 + x2 y2 et
ψ(x, y) = x1 y1 + x1 y2 − x2 y1 + x2 y2 définissent la même forme quadratique
Théorème 4.13. Soit q une forme quadratique sur E, alors il existe une unique
forme linéaire symétrique ϕ sur E telle que q(x) = ϕ(x, x) pour tout x ∈ E. Cette
forme bilinéaire symétrique ϕ s’appelle la forme polaire de la forme quadratique q.
1
ϕ(x, y) = (ϕ0 (x, y) + ϕ0 (y, x))
2
q(x + y) = ϕ(x + y, x + y)
1 1
ϕ(x, y) = q(x + y) − q(x) − q(y) = q(x + y) − q(x − y) ,
2 4
46
1
Alors on a la forme polaire de q est ϕ(u, v) = 2
q(u + v) − q(u) − q(v) pour tous
u, v ∈ R3 . Par conséquent la matrice de q est A = (ϕ(ei , ej ))i,j , plus précisement
−3
3 1 2
A=1 1 0
−3
2
0 0
Alors
t
ϕ(u, v) = U AV
−3
3 1x2 2
= x1 y 1 z1 1 1
0 y2
−3
2
0 0z2
3 3
= 3x1 x2 + y1 y2 + x1 y2 + x2 y1 − z1 x2 − z2 x1
2 2
t
ϕ(x, y) = XAY
n
X X
= aii xi yi + aij (xi yj + xj yi )
i=1 1≤i<j≤n
47
D’où
n
X X
q(x) = aii x2i + 2 aij xi xj
i=1 1≤i<j≤n
Pn
aii x2i +
P
Réciproquement, si q(x) = i=1 1≤i<j≤n aij xi xj , alors q est une forme
quadratique et sa forme polaire est
n
X 1 X
ϕ(x, y) = aii xi yi + aij xi yj .
i=1
2 1≤i<j≤n
Les n premiers termes sont les ”termes carrés” et les autres les ”termes rectangu-
laire”. La matrice associée a pour termes diagonaux les a11 , .., ann les autres termes
sont les aij où (i 6= j).
n
X X
ϕ(x, y) = aii xi yi + aij (xi yj + xj yi )
i=1 1≤i<j≤n
48
4.3 Orthogonalité
A⊥ = {y ∈ E / ϕ(x, y) = 0 ∀x ∈ A}
Définition 4.21. Un vecteur x de E est dit isotrope par rapport à ϕ s’il est
orthogonal à lui même, i.e ϕ(x, x) = 0.
L’ensemble des vecteurs isotropes de E selon ϕ, noté Cϕ , est le cône isotrope de
ϕ (où de q) et on a
Cϕ = {x ∈ E / ϕ(x, x) = 0} = q −1 ({0}).
49
En algèbre linéaire, un cône est une partie d’un espace vectoriel qui est stable par
multiplication scalaire.
En effet, ∀λ ∈ K, ∀x ∈ Cϕ = Cq , on a λx ∈ Cϕ car q(λx) = λ2 q(x) = 0.
Lemme 4.23. Soient E un K-e.v de dimension finie n, B = (ei )i=1...n une base
de E, A la matrice de ϕ ∈ Bils (E) dans la base B et u ∈ End(E) de matrice A
dans la base B. Alors Ker(ϕ) = Ker(u).
t
Preuve. On a x ∈ Ker(ϕ) ssi pour tout y ∈ E, ϕ(x, y) = 0 ssi ∀Y, XAY = 0
ssi t XA = 0 ssi AX = 0 ssi u(x) = 0 ssi x ∈ Ker(u).
A partir de ce lemme on déduit qu’en dimension finie,
i) On peut déterminer le noyau de ϕ en résolvant le système AX = 0.
ii) ϕ est non dégénérée ssi rg(ϕ) = dimE ssi A est inversible.
iii) rg(ϕ) = rg(u) = rg(A).
2 1 1
Exemple 4.24. 1) Soit ϕ la f.b.s sur R de matrice A = .
1 1
Alors Ker(ϕ) = vect(1, −1).Eneffet, soient
x = (x1 , x2 ) et y = (y1 , y2 ) deux
x1 y
vecteurs de R2 . Posons X = et Y = 1 .
x2 y2
On a x ∈ Ker(ϕ) ssi ϕ(x, y) = 0 pour tout y ∈ R2 ⇔ t XAY = 0 ⇔ x1 y1 + x2 y1 +
x1 y2 + x2 y2 = 0 ⇔ (x1 + x2 )(y1 + y2 ) = 0 pour tous y1 , y2 ∈ R, d’où x1 = −x2
donc Ker(ϕ) = V ect(1, −1). Par suite, ϕ est dégénérée possède, par exemple, le
vecteur isotrope u = (1, −1).
50
2 2 2
2) Considérons la forme quadratique
q(x) = x1 − x2 sur R .
1 0
La forme q est de matrice . le noyau de q est Ker(q) = {0}, alors la
0 −1
f.b.s ϕ associée à q est non dégénérée. Ainsi, par exemple, les vecteurs v = (α, α),
(α ∈ R), sont isotropes selon ϕ.
Cet exemple montre que, en général, Cϕ * Ker(ϕ), par contre on a toujours l’in-
clusion dans l’autre sens, i.e Ker(ϕ) ⊆ Cϕ .
Définition 4.25. On dit qu’une forme quadratique q est définie si on a, pour tout
x ∈ E, (x 6= 0 ⇒ q(x) 6= 0).i.e Cq = {0}.
Proposition 4.26. Si q est une forme quadratique définie, alors sa forme bi-
linéaire associée est non dégénérée.
Preuve. Par la contraposée. Soit ϕ une forme bilinéaire dégénérée, alors il existe
x 6= 0 tel que, pour tout y ∈ E, ϕ(x, y) = 0. Donc q(x) = ϕ(x, x) = 0. Alors q est
non définie.
La réciproque est fausse en générale, il existe des formes bilinéaires non dégénérées
ayant une forme quadratique non définie. Voir l’exemple (2) ci-dessus ϕ(x, y) =
x1 y1 − x2 y2 est non dégénérée q(x) = x21 − x22 est non définie car q(1, 1) = 0.
X Cette famille est dite orthonormale selon ϕ (où q) si elle est orthogonale, de
plus ϕ(ei , ei ) = 1 pour tout i.
H = {x ∈ E / ϕ(x, e1 ) = 0}
H est le noyau de la forme linéaire non nulle ϕ(e1 , .), ce qui entraı̂ne que H est un
hyperplan de dimension n − 1. Dès lors H admet une base orthogonale (e2 , .., en ),
(hypothèse de récurrence), pour la restriction de ϕ à H. D’où (e1 , ..., en ) est une
base orthogonale de E.
Conséquences :
i) Une base est orthogonale pour q quand la matrice de q dans cette base est
diagonale.
ii) Les expressions de ϕ et de q par rapport à une base orthogonale (e1 , ..., en ) sont
52
de la forme
Pn
ϕ(x, y) = i=1 λi xi yi
pour tous les x, y ∈ E.
Pn 2
q(x) = i=1 λi xi
Proposition 4.29. Soient B = (e1 , ..., en ) une base orthogonale de E, ϕ une f.b.s
sur E et q la forme quadratique associée à ϕ. On pose ϕ(e1 , e1 ) = λ1 , ϕ(e2 , e2 ) =
λ2 , ..., ϕ(en , en ) = λn . Alors
λ1 0
a) A = M (ϕ, B) =
.. .
.
0 λn
b) le noyau de ϕ est le sous espace vectoriel engendrer par les ei tels que λi = 0.
q = λ1 l12 + . . . + λr lr2
en outre on a,
b δ
q(x) = a(x1 + x2 )2 + x22 où δ = ac − b2
a a
δ b
= al12 (x) + l22 (x) où l1 (x) = x1 + x2 et l2 (x) = x2
a a
1 0
l1 et l2 sont deux formes linéaires indépendantes car b = 1 6= 0.
a
1
Si a = 0 et c 6= 0, on aura
b δ
q(x) = c( x1 + x2 )2 + x21 où δ = −b2 .
c c
δ b
= cl12 (x) + l22 (x) où l1 (x) = x1 + x2 et l2 (x) = x1 .
c c
b
1
l1 et l2 sont deux formes linéaires indépendantes car = −1 6= 0.
c
1 0
Si a = 0 et c = 0, on aura nécessairement b =
6 0 et par suite
q(x) = 2bx1 x2
b
(x1 + x2 )2 − (x1 − x2 )2
q(x) =
2
b 2 b
= l1 (x) − l22 (x) où l1 (x) = x1 + x2 et l2 (x) = x1 − x2 .
2 2
1 1
l1 et l2 sont deux formes linéaires indépendantes car = −2 6= 0.
1 −1
- On suppose le résultat acquis au rang n − 1 et soit q une forme quadratique
définie dans une base B d’un espace vectoriel de dimension n ≥ 3 par :
n
X X
q(x) = aii x2i + 2 aij xi xj
i=1 1≤i<j≤n
n n
X X a1j
a11 x21 +2 a1j x1 xj = a11 x21 + 2x1 xj
j=1 j=2
a11
n n
X a1j 2
X a1j 2
= a11 (x1 + xj ) − ( xj )
j=2
a11 a
j=2 11
n n
X a1j 2 X a1j 2
= a11 (x1 + xj ) − a11 ( xj )
j=2
a11 a
j=2 11
n
X a1j 2
= a11 l12 (x) − a11 ( xj )
a
j=2 11
alors
0
q(x) = a11 l12 (x) + q (x2 , . . . , xn )
0
l1 est une forme linéaire sur E et q une forme quadratique sur le sous espace
vectoriel H = vect(e2 , e3 , ..., en ) de E.
0
→ si q = 0, alors q = a11 l12 avec a11 6= 0 et l1 6= 0.
0
→ si q 6= 0, l’hypothèse de récurrence entraı̂ne l’existence d’un entier r
compris entre 2 et n et des scalaires λ2 , ..., λr et des formes linéaires indépendantes
l2 , ..., lr définies sur H telles que
r n
0 0 0 0
X X
q (x ) = λi li2 (x ) pour tout x =( xi ei ) ∈ H.
i=2 i=2
0
En prolongeant les formes linéaires l2 , ..., lr à E par li (x) = li (x ) pour tout x ∈ E,
on aura
r r
0
X X
q(x) = a11 l12 (x) + λi li2 (x ) = a11 l12 (x) + λi li2 (x)
i=2 i=2
ce qui nous donne une décomposition de q comme combinaison linéaires des formes
linéaires sur E. vérifions-nous que l1 , l2 , ..., lr sont indépendantes sur E ∗ le dual de
E.
Pr Pr
On a i=1 αi li = 0 équivaut à dire que i=1 αi li (x) = 0 pour tout x ∈ E. En
particulier pour x = e1 , on a l1 (e1 ) = 1 et li (ei ) = 0 pour tout i > 1, ce qui donne
55
Pr
α1 = 0. En conséquence, i=2 αi li = 0. Or le système (l2 , ..., lr ) et libre dans H ∗ ,
il s’ensuit que αi = 0 pour tous les 2 ≤ i ≤ r, d’où αi = 0 pour tout i compris
entre 1 et r.
Si q est sans facteurs carrés, i.e pour tout i on a aii = 0. Puisque q 6= 0
il existe nécessairement deux indices i et j tels que aij 6= 0. Pour faciliter les
notations, on peut supposer que a12 6= 0 (ceci est possible graçe à une permutation
des vecteurs de bases B). Dans ce cas, on regroupe dans l’expression de q tous les
termes contenant x1 et x2 , soit
n
X n
X
Q = a12 x1 x2 + x1 a1j xj + x2 a2j xj
j=3 j=3
n n n n
X X a1j X X a
1j
= a12 x1 + a2j xj x2 + xj − a2j xj xj .
j=3 j=3
a12 j=3
a
j=3 12
Ainsi,
X
q(x) = 2 aij xi xj
1≤i<j≤n
X
= 2Q + 2 aij xi xj
3≤i<j≤n
0
= 2L1 (x)L2 (x) + q (x3 , ..., xn )
Pn Pn a1j 0
avec L1 (x) = a12 x1 + j=3 a2j xj , L2 (x) = x2 + j=3 a12 xj et q une forme
quadratique définie sur le sous espace vectoriel H = vect(e3 , ..., en ). En écrivant
2L1 (x)L2 (x) sous forme
1 2 1 2
2L1 (x)L2 (x) = (L1 (x) + L2 (x) − (L1 (x) − L2 (x)
2 2
1 2 1
= l1 (x) − l22 (x).
2 2
D’où
1 1 0
q(x) = l12 (x) − l22 (x) + q (x3 , ..., xn )
2 2
56
0 1 2
→ Si q = 0, alors q(x) = l (x)
2 1
− 12 l22 (x) pour tout x ∈ E. Les formes
linéaires l1 etl2 sont linéairement indépendantes. En effet, α1 l1 + α2 l2 = 0 signifie
que α1 l1 (x)+α2 l2 (x) = 0 pour tout x ∈ E. En remplaçant x par e1 dans l’équation
précédente, et en vertu que K et de caractérisitique différente de 2, en déduit que
α1 = α2 = 0.
0
→ Si q 6= 0, alors l’hypothèse de la recurrence assure l’existence d’un entier
r compris entre 3 et n, des scalaires λ3 , ..., λr et des formes linéaires indépendantes
l3 , ..., lr définies sur H tels que
r
0 0 0 0 0
X
q (x ) = q (x3 , ..., xn ) = λi li2 (x ) pour tout x ∈ H.
i=3
0
En prolongeant les formes linéaires l3 , ..., lr à E en posant li (x) = li (x ) pour tout
x ∈ E, on obtient une décomposition de q comme somme de carrés de formes
linéaires sur E, pour tout x ∈ E on a
1 2 1 2 0
q(x) = l (x) − l2 (x) + q (x3 , ..., xn )
21 2
r
1 2 1 2 X 0
= l (x) − l2 (x) + λi li2 (x )
21 2 i=3
r
1 2 1 X
= l1 (x) − l22 (x) + λi li2 (x)
2 2 i=3
r
X
= λi li2 (x).
i=1
Pour achever cette démonstration, il reste à vérifier que les formes l1 , ..., lr sont
linéairement indépendantes dans E ∗ . En effet, on a
r
X r
X
αi li = 0E ∗ ⇔ αi li (x) = 0 ∀x ∈ E.
i=1 i=1
entraı̂ne la nullité de tous les αi (i = 3...r) puisque le système (l3 , ..., lr ) est libre
57
On commence par isoler tous les termes comprenant, par exemple, x. Alors
ϕ(x, y) = x1 y1 + x2 y2 + ... + xr yr
Pn Pn
pour tous x = i=1 xi ei et y = i=1 yi ei avec r ≤ n.
ii) Pour que ϕ soit non dégénérée, il faut et il suffit que r = n.
Preuve. (i) Soit (b1 , ..., bn ) une base orthogonale de E, on peut supposer ϕ(ei , ei ) =
αi 6= 0 pour 1 ≤ i ≤ r où r = rg(ϕ).
Puisque K est algébriquement clos il existe βi ∈ K tel que
n
X n
X
ϕ(x, y) = ϕ xi e i , yi ei = x1 y1 + x2 y2 + ... + xr yr .
i=1 i=1
Théorème 4.34. Soit ϕ une f.b.s non dégénérée sur un K-e.v E de dimension
finie n avec K algébriquement clos. Alors
i) il existe des bases orthonormales pour ϕ.
ii) Par rapport à une telle base orthonormale (e1 , ..., en ), la forme quadratique q
associée à ϕ est
n
X n
X
q(x) = x2i pour tout x = xi ei ∈ E.
i=1 i=1
Pn Pn
pour tous x = i=1 xi ei et y = i=1 yi ei de E. En outre
n
X
q(x) = x21 + ... + x2s − x2s+1 − ... − x2s+t pour tout x = xi ei ∈ E
i=1
0 0
rg(ϕ) = s + t = s + t = cste
0 0
c.à.d s + n − s ≤ n d’où s ≤ s . Un raisonnement analogue (en échangeant le rôle
0 0
des bases) permet de montrer que s ≤ s ce qui implique que s = s . En vertu de
0 0 0
l’égalité s + t = s + t en déduit que t = t ce qui signifie que le couple (s, t) est
invariant, il dépend seulement de ϕ.
11 2
q(x, y, z) = 2l12 (x, y, z) − l22 (x, y, z) − l (x, y, z).
2 3
Donc rg(q) = 3 et sing(q) = (1, 2). Par suite q n’est ni définie positive ni définie
négative ni positive ni négative.
62
2
∀(x, y) ∈ E 2 , ϕ(x, y) ≤ q(x)q(y).
♦ Si q(x) = 0, alors (∗) affirme que pour tout t ∈ R on aura 2tϕ(x, y) + q(y) ≥ 0
ce qui implique que ϕ(x, y) = 0, par suite l’inégalité voulue est évidente.
♦ Si q(x) 6= 0, alors le trinôme du second degré (∗) en t a un discriminant négatif,
ce qui entraı̂ne (ϕ(x, y))2 − q(x)q(y) ≤ 0, d’où le résultat.
ii) Supposons que (ϕ(x, y))2 = q(x)q(y),
→ si q(x) = 0, puisque q définie positive, alors x = 0 de sorte que x et y sont
colinéaires.
→ si q(x) 6= 0, le discriminant de (∗) sera nul, équivant à dire qu’il existe t0 ∈ R
63
p p p
∀(x, y) ∈ E 2 , q(x + y) ≤ q(x) + q(y)
b) Si q est définie positive, alors N définie une norme sur E, notée k k, c’est à
dire que k k vérifie les trois assertions suivantes :
Preuve. i) Puisque q est définie positive, alors q est non dégénérée. En conséquence,
r
X r
X
ϕ(ej , αi ei ) = αi ϕ(ej , ei ) = αj = 0
i=1 i=1
Théorème 4.47. Tout espace euclidien (E, q) admet une base orthonormale.
Preuve. Soit (b1 , ..., bn ) une base de E. On construit une base orthonormée (e1 , ..., en )
de E de la manière suivante :
1) On pose a1 = b1 . On détermine un réel λ tel que le vecteur a2 = b2 + λa1 soit
orthogonal à a1 , c.à.d ϕ(a1 , b2 + λb1 ) = 0. Par bilinéarité de ϕ, on obtient
On peut déterminer d’une manière unique les coefficients λij , (j = 1, ..., i − 1),
de chaque vecteur ai en tenant compte le fait que ai est orthoganal aux vecteurs
66
0 = ϕ(ai , aj )
0 = ϕ bi + λi1 a1 + ... + λij aj + ... + λi,i−1 ai−1 , aj
−ϕ(bi , aj )
λij = pour tout j = 1, ..., i − 1.
k(aj k2
Les vecteurs non nuls obtenues a1 , ..., an sont 2 à 2 orthogonaux, ce qui implique
que le système (a1 , ..., an ) est libre car q est définie positive, il forme donc une base
orthogonale de E. Finalement, pour obtenir une base orthonormée de E, il suffit
a1 an
de normer les vecteurs a1 , ..., an en posant e1 = ka1 k
, ..., en = kan k
. D’où (e1 , ..., en )
est une base orthonormale de (E, q).
< x, y >= x1 y1 + x2 y2 + x3 y3 .
On a
ka1 k2 =< b1 , b1 >= 10 et < b2 , a1 >=< b2 , b1 >= 6
a1 = (1, 3, 0)
de sorte que 6
a2 = (0, 2, 1) − 10 (1, 3, 0) = (− 35 , 15 , 1)
67
a1 1 a2 1
e1 = = √ (1, 3, 0) et e2 = = √ (−3, 1, 5).
ka1 k 10 ka2 k 35
[7] Luc Rozoy et Bernard Ycart, Cours Réduction des endomorphismes, Uni-
versité Joseph Fourier, Grenoble.
68