0% ont trouvé ce document utile (0 vote)
157 vues137 pages

Géométrie Affine et Projective en Mathématiques

Transféré par

Sarah Wajsbrot
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
157 vues137 pages

Géométrie Affine et Projective en Mathématiques

Transféré par

Sarah Wajsbrot
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université Pierre et Marie Curie

Master de Sciences et Technologies


Mention Mathématiques et
applications
M1, Année 2016–2017

4M001
GÉOMÉTRIE AFFINE
ET PROJECTIVE

Patrick Polo
Patrick Polo
Université P. & M. Curie
Institut de Mathématiques de Jussieu (UMR 7586 du CNRS)
URL : [Link]
E-mél : [Link]@[Link]
CHAPITRE 1

ACTIONS DE GROUPES, ESPACES ET


APPLICATIONS AFFINES

(1)
Ceci est le chap. 1 du polycopié 2015-16. En 2016-17, certains numéros ne seront pas traités en
cours, afin de dégager du temps pour parler de l’algèbre extérieure d’un espace vectoriel et, si possible, des
variétés grassmanniennes. Plutôt que de supprimer des numéros, on indiquera en tête (ou fin) de chapitre
les numéros qui n’ont pas été traités. Leur présence dans le polycopié peut donc être considéré comme des
compléments de cours.
Ainsi, les numéros 1.8, 1.9 et 1.12 à 1.15 n’ont pas été traités (mais ils le seront peut-être en TD). Le
numéro 3.4 ne sera pas traité.

1. Actions de groupes
Rappels 1.0. — On rappelle qu’un groupe est un ensemble non vide G muni d’une « loi de
composition » G ⇥ G ! G, (g, h) 7! gh, qui vérifie les trois propriétés suivantes :
(1) (Associativité) Pour tout x, y, z 2 G, (xy)z = x(yz).
(2) (Neutre) Il existe un élément e de G tel que eg = g = ge pour tout g 2 G. Cet élément est
appelé l’élément neutre de G. Il est unique (car si e0 est aussi élément neutre, alors e0 = ee0 = e).
(3) (Inverse) Pour tout g 2 G, il existe un élément g 0 2 G tel que gg 0 = e = g 0 g. Cet élément
est appelé l’inverse de g et est noté g 1 . Il est unique, car si h est un autre inverse, alors h =
h(gg 0 ) = (hg)g 0 = g 0 .
Si de plus la loi de composition vérifie gh = hg pour tout g, h 2 G, on dit que G est un groupe
commutatif ou abélien. Dans ce cas, la loi est souvent notée + et le neutre est noté 0. Par exemple,
(Z, +) est un groupe abélien, de même que (Z/nZ, +).

Exemples. — Soit k un corps (par exemple k = R).


(1) Si E est un k-espace vectoriel, alors E muni de l’addition est un groupe abélien.
(2) Le groupe GL(E) (isomorphe à GLn (k) si dim(E) = n) est non commutatif si dim(E) > 1.
(3) Soit n 2 N⇤ . On note Sn le groupe de toutes les permutations de {1, . . . , n}, i.e. des bi-
jections de l’ensemble {1, . . . , n} dans lui-même. C’est un groupe non commutatif si n > 2. Par
exemple, si on note (ij) la transposition qui échange i et j alors (12)(23) est la permutation
✓ ◆
1 2 3
c=
2 3 1

qui est un 3-cycle et est notée (123). Mais (23)(12) est le 3-cycle (132), égal à c 1.

(1)
Version du 4 octobre 2016 : une coquille corrigée dans la démo de 7.2.
2 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

Définition 1.1 (Actions). — Soient G un groupe et X un ensemble. Une action à


gauche de G sur X est une application G ⇥ X ! X, (g, x) 7! g · x, qui vérifie les deux
propriétés suivantes :
(1) Pour tout g, h 2 G et x 2 X, g · (h · x) = (gh) · x.
(2) Pour tout x 2 X, e · x = x.
De même, une action à droite de G sur X est une application X ⇥ G ! X, (x, g) 7! x · g,
qui vérifie les deux propriétés suivantes :
(1) Pour tout g, h 2 G et x 2 X, (x · h) · g = x · (hg).
(2) Pour tout x 2 X, x · e = x.
Souvent on omettra le · et l’on écrira simplement gx (resp. xg) au lieu de g ·x (resp. x·g).
Exemples 1.2. — 1) Soient G un groupe et H un sous-groupe. On a une action à gauche
(resp. à droite) de H sur G définie par h · g = hg (resp. g · h = gh). La vérification
des propriétés (1) et (2) est immédiate. Cette action s’appelle l’action de H sur G par
translations à gauche (resp. à droite).
2) Sn agit à gauche sur {1, . . . , n}.
3) On munit Rn du produit scalaire standard : (x | y) = x1 y1 + · · · + xn yn et l’on
note O(n) le sous-groupe de GLn (R) formé des automorphismes qui préservent ce produit
scalaire. Alors O(n) agit à gauche sur Rn et aussi, pour tout r 0, sur la sphère
S n 1 (r) = {x 2 Rn | (x | x) = r2 }.
Remarques 1.3. — Dans les exemples précédents, on voit à l’oeuvre deux principes gé-
néraux utiles. Soit donnée une action à gauche : G ⇥ X ! X, (g, x) 7! gx.
(1) Pour tout sous-groupe H de G, la restriction de à H ⇥ X, définie par (h, x) 7! hx,
est une action à gauche de H sur X. Idem bien sûr pour les actions à droite. Ainsi, l’exemple
1) plus haut est la restriction à H de l’action de G sur lui-même par translations à gauche
(ou à droite).
(2) Soit Y un sous-ensemble de X stable par G, i.e. tel que gy 2 Y pour tout y 2 Y .
Alors la restriction de à G ⇥ Y , définie par (g, y) 7! gy, est une action à gauche de G sur
Y . (Idem bien sûr pour les actions à droite.)
L’exemple 3) plus haut est une combinaison de ces deux points : l’action à gauche de
GLn (R) sur Rn induit, par restriction, une action à gauche de O(n) sur Rn . Chaque sphère
S n 1 (r) est stable pour cette action, donc on obtient une action à gauche de O(n) sur
S n 1 (r).
Exemple 1.4 (Important). — Soient X un ensemble non vide et n un entier 2. Alors,
« on voit bien » que le groupe Sn agit sur le produit X n = {(x1 , . . . , xn ) | xi 2 X}, disons
à gauche. Mais quelle est la bonne formule :
(
(x (1) , . . . , x (n) ) ?
(⇤) · (x1 , . . . , xn ) =
(x 1 (1) , . . . , x 1 (n) ) ?
(2)
Comment se souvenir laquelle des deux est la bonne ? Voici deux façons de répondre à
la question.
(2)
Ceci a longtemps troublé l’auteur de ces lignes.
1. ACTIONS DE GROUPES 3

(a) On prend un exemple pour n = 3 : pour une transposition ⌧ = (ij), on a ⌧ 1 =


⌧ donc il n’y a aucun doute possible : (12) · (a, b, c) = (b, a, c) puis (23) · (b, a, c) =
(b, c, a). Donc le 3-cycle c = (132) = (23)(12) transforme (x1 , x2 , x3 ) en (x2 , x3 , x1 ) qui
est (xc 1 (1) , xc 1 (2) , xc 1 (3) ), donc si l’une des formules de (⇤) est correcte, c’est la 2ème.
(b) En réfléchissant un cran au-dessus, il faut comprendre que X n est la même chose
que l’ensemble des applications f : {1, . . . , n} ! X, une telle application correspondant
au n-uplet (f (1), . . . , f (n)). D’autre part, G = Sn agit à gauche sur l’ensemble de départ
Y = {1, . . . , n} donc il agit à droite sur l’ensemble Applic(Y, X) par la formule :
(?) (f · g)(y) = f (gy).
En e↵et, notant e le neutre de G, on a pour tout g, h 2 G et y 2 Y : (f ·e)(y) = f (ey) = f (y)
et
(f · g) · h (y) = (f · g)(hy) = f (g(hy)) = f ((gh)y) = f · (gh) (y)
et donc f · e = f et (f · g) · h = f · (gh). Ceci montre que (?) est bien une action à droite,
et on peut la transformer en une action à gauche en posant (exercice : vérifier ceci)
1
g·f =f ·g i.e. 8y 2 Y, (g · f )(y) = f (g 1 y).
On obtient ainsi que l’action à gauche de Sn sur X n est donnée par la 2ème formule de (⇤).
Remarque 1.5. — Dans l’exemple précédent, on voit (encore) à l’oeuvre deux principes
généraux utiles.
(1) Si l’on a une action à gauche G ⇥ X ! X, (g, x) 7! gx, on peut la transformer
en une action à droite en posant x · g = g 1 x. Et idem dans l’autre sens. Donc le choix
d’avoir une action à gauche ou à droite est un peu une question de goût. La plupart du
temps on considèrera des actions à gauche, mais dans certains cas il est naturel (ou usuel)
de considérer une action à droite.
Attention, on prendra garde que si l’on a une action à gauche G ⇥ X ! X, (g, x) 7! gx alors en général
la formule x · g = gx ne définit pas une action à droite, sauf si G est commutatif. En e↵et, on a alors par
définition : (x · g) · h = h(x · g) = h(gx) = (hg)x tandis que x · (gh) = (gh)x et les deux peuvent être
di↵érents si hg 6= gh.

(2) Si l’on a une action à gauche G ⇥ X ! X et si Y est un second ensemble, l’ensemble


Applic(X, Y ) est muni d’une action de G à droite.
Remarque (Agrég). — Un cas particulier important du point (2) plus haut est celui où X = V
est un k-espace vectoriel et où l’action de G est linéaire, i.e. pour tout g 2 G l’application x 7! gx
est linéaire (exercice : se donner une telle action linéaire équivaut à se donner un morphisme de
groupes ⇢ : G ! GL(V )) ; on dit alors que V (ou, plus précisément, ⇢) est une représentation
linéaire de G. Alors l’espace vectoriel dual V ⇤ est un sous-espace vectoriel de l’espace vectoriel
Applic(V, k) et est muni d’une action à droite de G définie, pour tout f 2 V ⇤ , g 2 G et v 2 V par
(f · g)(v) = f (gv),
i.e. f · g n’est autre que t ⇢(g)(f ), où t ⇢(g) : V ⇤ ! V ⇤ est la transposée de ⇢(g). En changeant ceci
en une action à gauche, on obtient que l’action à gauche de G sur V ⇤ est donnée par le morphisme
⇢⇤ : G ! GL(V ⇤ ), g 7! t ⇢(g 1 ). On dit que ⇢⇤ est la représentation duale (ou, en langage ancien :
contragrédiente) de ⇢.

Définitions 1.6 (Orbites, stabilisateurs, action transitive ou libre)


Soit G ⇥ X ! X une action à gauche.
4 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

(1) Pour tout x 2 X, l’ensemble Ox = {gx | g 2 G} des transformés de x par les


éléments de G s’appelle l’orbite de x sous (l’action de) G ou, plus simplement, la G-orbite
de x.
(2) Deux orbites distinctes sont disjointes. En e↵et, si z 2 Ox \ Oy alors il existe g, h 2 G
tels que z = gx = hy, d’où y = h 1 gx et donc y 2 Ox et Oy = Ox . Par conséquent, les
G-orbites forment une partition de X.
(3) L’ensemble des orbites est noté X/G et appelé l’ensemble quotient de X par G.
(4) Pour tout x 2 X, l’ensemble Gx = {g 2 G | gx = x} est un sous-groupe de G appelé
le stabilisateur (ou fixateur ) de x dans G.
(5) Si x, y sont dans la même orbite, leurs stabilisateurs Gx et Gy sont conjugués dans
G. En e↵et, soit g 2 G tel que gx = y. Alors, pour tout h 2 G on a :
h 2 Gy () y = hy = hgx () x = g 1 y = (g 1 hg)x () g 1 hg 2 Gx
et donc on a Gy = gGx g 1 .
(6) On dit que l’action est transitive si X est une seule orbite, i.e. si pour tout x, y 2 X
il existe g 2 G tel que gx = y.
(7) On dit que l’action est libre si tous les stabilisateurs sont triviaux, i.e. si Gx = {e}
pour tout x 2 X.
(8) Si l’action est transitive, il résulte de (5) que tous les stabilisateurs sont conjugués,
donc si l’un d’eux est trivial alors ils le sont tous. On obtient ainsi que :
L’action est libre et transitive ssi il existe x 2 X tel que l’application
G ! X, g 7! gx soit bijective. Dans ce cas, ceci a lieu pour tout x 2 X.

Terminologie. — Reprenons l’exemple 1) de 1.2 : soit H un sous-groupe de G ; pour tout g 2 G,


son orbite sous l’action par translation à droite de H est notée gH. Elle est appelée la classe à
gauche de g modulo H, le motif étant que « G agit à gauche sur l’ensemble des classes à gauche »
via g · g 0 H = gg 0 H, pour tout g, g 0 2 G.(3)
De même, l’orbite Hg = {hg | h 2 H} sous l’action par translation à gauche est appelée la
classe à droite de g modulo H.
On peut aussi considérer l’action à gauche de H ⇥ H sur G définie par (h0 , h) · g = h0 gh 1
; dans ce cas,
l’orbite HgH de g est appelée la « double classe » de g modulo H.

Rappel 1.7. — Un sous-groupe H de G est dit distingué (4) si pour tout g 2 G on a


gHg 1 = H, i.e. si pour tout g 2 G et h 2 H on a ghg 1 2 H. (5) Dans ce cas, pour
tout g 2 G on a gH = (gHg 1 )g = Hg, donc les classes à gauche et à droite sont
identiques. De plus, l’ensemble des classes G/H est muni d’une structure de groupe définie
par (gH)(g 0 H) = gg 0 H. (Exercice : vérifier que ceci est bien défini.)

Proposition 1.8 (Théorème de Lagrange). — Soit H un sous-groupe d’un groupe


fini G et soit G/H l’ensemble des classes (à gauche) modulo H. Alors on a |G/H| =
|G|/|H|. En particulier, |H| divise |G|.

(3)
Mais attention, en anglais gH est un right coset.
(4)
En anglais normal.
(5)
Faisant varier h, ceci donne gHg 1 ⇢ H. Appliquant ceci à g 1
on a aussi g 1
Hg ⇢ H d’où H =
g(g 1 Hg)g 1 ⇢ gHg 1 , d’où gHg 1 = H.
1. ACTIONS DE GROUPES 5

Démonstration. — Pour tout g 2 G, l’application h 7! gh est une bijection de H sur la


classe gH (la bijection inverse étant donnée par x 7! g 1 x), donc |gH| = |H|. De plus, G est la
réunion disjointe des classes gH, dont le nombre est par définition |G/H|. On en déduit
que |G| = |G/H| ⇥ |H|, d’où la proposition.
Proposition 1.9. — Soit G ⇥ X ! X une action à gauche et soit x 2 X.

(i) L’application x : G ! X, g 7! gx induit une bijection G/Gx ! Ox .
(ii) En particulier, si |G| < 1, on a |Ox | = |G|/|Gx |.
Démonstration. — Posons H = Gx . L’application x : G/H ! Ox , gH 7! gx est bien
définie, car si g 0 = gh avec h 2 H on a bien g 0 x = ghx = gx. Elle est surjective, puisque tout
élément de Ox égale gx pour un certain g 2 G. Montrons qu’elle est injective : supposons
que gH et g 0 H aient même image, i.e. que gx = g 0 x. Alors x = g 1 g 0 x donc h = g 1 g 0
appartient à Gx = H. Comme g 0 = gh, ceci entraı̂ne que g 0 H = gH. Ceci montre que x
est injective, d’où le point (i). Le point (ii) découle alors de la proposition précédente.
Exemple 1.10. — Soit n 2. On munit Rn de la norme euclidienne standard. Soit r 2 R⇤+
et x, y 2 R de norme r. Notons e1 et f1 les vecteurs unitaires associés, i.e. e1 = (1/r)x et
n

f1 = (1/r)y. On peut compléter e1 (resp. f1 ) en une base orthonormée B = (e1 , . . . , en ) et


C = (f1 , . . . , fn ). Soit P l’automorphisme de Rn qui envoie B sur C ; comme ce sont deux bases
orthonormées, P 2 O(n) (et donc dét(P ) = ±1). Si dét(P ) = 1 alors, comme n 2 on peut
changer fn en fn tout en préservant la condition P (e1 ) = f1 . On obtient ainsi un élément
g 2 SO(n) tel que g(e1 ) = f1 et donc g(x) = y. Ceci montre que G = SO(n) agit transitivement
sur chaque sphère S n 1 (r), donc celles-ci sont les orbites de G dans Rn {0}. Et {0} est bien sûr
une orbite.
On obtient ainsi que Rn est partitionné par les G-orbites S n 1 (r), pour r 2 R+ , et l’application
naturelle Rn ! R+ , x 7! kxk induit une bijection de l’espace des orbites Rn /G avec R+ .
D’autre part, supposons pour fixer les idées que n = 3 et notons (e1 , e2 , e3 ) la base canonique
0 1
cos(✓) sin(✓) 0
de R3 . Le stabilisateur dans SO(3) du vecteur e3 est formé des rotations @ sin(✓) cos(✓) 0A,
0 0 1
avec ✓ 2 R/2⇡Z. Elles forment un groupe isomorphe à SO(2), et l’on a donc une bijection(6)

SO(3)/SO(2) ! S 2 (1).

Exemple 1.11. — Dans R3 muni du produit scalaire standard, soit C le cube de centre 0 dont
les sommets sont les huits points (±1, ±1, ±1) et soit G le groupe des isométries directes(7) de R3
qui laissent C stable. Soit I le centre de la face supérieure, i.e. I = (0, 0, 1) et soit H le stabilisateur
de I dans G. On voit que H est le groupe isomorphe à Z/4Z engendré par la rotation d’axe orienté
par e3 et d’angle ⇡/4.
D’autre part, on se convainc facilement que la G-orbite de I est formée des centres des six faces
de C, donc est de cardinal 6. D’après le point (i) de la proposition précédente, on en déduit que
|G| = 24.

Terminologie. — Soit G un groupe agissant sur un ensemble fini X et soient O1 , . . . , On


les orbites. Si, pour i = 1, . . . , n on choisit (arbitrairement) un élément xi 2 Oi , on dit que
(x1 , . . . , xn ) est un « système de représentants (de l’ensemble) des orbites » (i.e. on a choisi
un élément et un seul dans chaque orbite).
(6)
(Agrég) Par ailleurs, on peut montrer que c’est un homéomorphisme.
(7)
i.e. de déterminant 1.
6 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

Proposition 1.12 (Formule des classes). — Soit G un groupe fini opérant sur un en-
semble fini X et soit x1 , . . . , xn un système de représentants des orbites. Pour tout i, notons
P |G|
Gi le stabilisateur dans G de xi . Alors |X| = ni=1 .
|Gi |
P
Démonstration. — X est la réunion disjointe des orbites Oi donc |X| = ni=1 |Oi |. D’autre
part, pour tout i on a |Oi | = |G|/|Gi |.
Donnons deux applications (disons en vue de l’Agrégation). Soit p un nombre premier.
Rappel. — Soient G un groupe et g 2 G. On dit que g est d’ordre fini s’il existe un entier n > 0
tel que g n = e ; dans ce cas, notant d le plus petit tel entier, on dit que G est d’ordre d. Alors,
tout n > 0 tel que g n = e est un multiple de d : en e↵et, par division euclidienne on a n = dq + r
avec 0  r < d, d’où e = g n = g dq g r = g r et comme r < d ceci entraı̂ne r = 0. Par conséquent, si
p est un nombre premier et si g p = e alors g = e ou bien g est d’ordre p.

Proposition 1.13 (Théorème de Cauchy). — Soit G un groupe fini de cardinal divi-


sible par p. Alors G contient au moins un élément d’ordre p.
Démonstration. — Soit H le sous-groupe de Sp engendré par le p-cycle c = (12 · · · p) ;
il est isomorphe à Z/pZ. Comme Sp agit sur le produit Gp , on obtient par restriction
une action de H sur Gp et, d’après 1.4, on a c · (g1 , . . . , gp ) = (gp , g1 , . . . , gp 1 ) pour tout
(g1 , . . . , gp ) 2 Gp . Montrons que H laisse stable le sous-ensemble
X = {(g1 , . . . , gp ) 2 Gp | g1 · · · gp = e}.
Comme H = {c, . . . , cp } il suffit de montrer que c · x 2 X pour tout x = (g1 , . . . , gp ) 2 X.
Or l’égalité g1 · · · gp = e entraı̂ne que gp est l’inverse de h = g1 · · · gp 1 , donc on a aussi
gp h = e d’où c · x 2 X.
Comme H n’a pas de sous-groupe autre que {e} et H (pourquoi ?), ses orbites dans X
sont donc soit de cardinal p, soit des points fixes. Or (g1 , . . . , gp ) est un point fixe de c si
et seulement si les gi sont tous égaux à un élément g qui vérifie g p = e. Donc il s’agit de
montrer qu’il existe dans X un point fixe distinct de x0 = (e, . . . , e).
Notant O1 , . . . , Or les orbites de cardinal p et m le nombre de points fixes, on a donc
|X| = m + pn.
D’autre part, l’application X ! Gp 1 , (g1 , . . . , gp ) 7! (g1 , . . . , gp 1 ) est une bijection (car
gp est déterminé par gp = (g1 · · · gp 1 ) 1 ), donc on a
|X| = |G|p 1

et comme p divise |G| il divise aussi |X| et donc m. Or m > 0 car x0 = (e, . . . , e) est un
point fixe. Donc m est un multiple non nul de p, donc il existe au moins p 1 points fixes
distincts de x0 .
Définitions 1.14. — 1) Le centre Z(G) d’un groupe G est l’ensemble des éléments de G qui
commutent à tout les autres, i.e.
Z(G) = {z 2 G | 8g 2 G, zg = gz}.
On vérifie facilement que c’est un sous-groupe distingué de G (exercice).
2) Un p-groupe fini est un groupe fini dont le cardinal est une puissance de p.

Proposition 1.15. — Le centre d’un p-groupe fini G est non trivial.


1. ACTIONS DE GROUPES 7

Démonstration. — Posons |G| = pN et considérons l’action de G sur lui-même par conjugaison :


g · g 0 = gg 0 g 1 . Les orbites sont les classes de conjugaison, et les orbites formées d’un seul point
correspondent aux éléments de Z(G). Notons x1 , . . . , xn un système de représentants des autres
classes de conjugaison et pour tout i notons Gi le stabilisateur de xi , i.e.
1
Gi = {g 2 G | gxi g = xi } = {g 2 G | gxi = xi g}. (8)

D’après la formule des classes, on a :


n
X
N pN
(†) p = |G| = |Z(G)| + .
|Gi |
i=1

De plus, chaque Gi est un sous-groupe de G distinct de G donc de cardinal pmi avec 0  mi < n,
donc pN /|Gi | = pn mi est divisible par p.
Donc, d’après (†), |Z(G)| est divisible par p, donc Z(G) est non trivial (i.e. n’est pas égal à
{e}).

Terminons cette section avec les produits semi-directs de groupes. Même si cette notion ne
figure plus explicitement au programme de l’Agrégation, elle est utile pour décrire la structure de certains
groupes, dont le groupe affine et celui des homothéties-translations (voir plus loin) et le groupe symétrique
S4 (en lien avec le birapport).

Définition 1.16 (Produits semi-directs). — (1) Soient H un groupe, G et N deux


sous-groupes, N étant distingué dans H. On dit que H est le produit semi-direct de N par
G, et l’on note H = N o G, si tout h 2 H s’écrit de façon unique h = ng, avec n 2 N
et g 2 G, i.e. si l’application N ⇥ G ! H, (n, g) 7! ng est bijective. Attention, cette
application n’est pas un morphisme de groupes en général : le produit de ng et de n0 g 0 est
donné par : (ng)(n0 g 0 ) = n(gn0 g 1 ) gg 0 (noter que gn0 g 1 2 N puisque N est distingué).(9)
(1 bis) Remarquons que l’application G ⇥ N ! N , (g, n) 7! gng 1 est une action à
gauche de G sur N . De plus, cette action respecte la structure de groupe de N , i.e. pour
tout g 2 G l’application n 7! g· = gng 1 est un morphisme de groupes. En e↵et, pour tout
g 2 G et n, n0 2 N , on a :
g(nn0 )g 1
= (gng 1 )(gn0 g 1 ).
Notant S (N ) le groupe de toutes les bijections N ! N , on peut exprimer ceci en disant
que le morphisme de groupes G ! S (N ) donné par l’action, est à valeurs dans le sous-
groupe Aut(N ) de S (N ) formé des automorphismes de groupe.
(2) On peut alors reformuler la définition de façon plus abstraite (mais plus souple).
Soient G, N deux groupes ; on dit que G agit sur N « par automorphismes de groupe »
si l’on s’est donné un morphisme de groupes ' : G ! Aut(N ). On peut alors former le
produit semi-direct de N par G (relativement à l’action '), noté N o' G (ou simplement
N o G), en déclarant que c’est l’ensemble produit N ⇥ G muni de la loi de groupe ainsi
définie :
(n, g) · (n0 , g 0 ) = n'(g)(n0 ), gg 0 . (10)

(8)
Gi s’appelle le centralisateur de xi et se note CG (xi ).
(9)
Tout h 2 H s’écrit aussi de façon unique gn0 , avec g 2 G et n0 2 N , puisque ng = g(g 1
ng).
(10)
On laisse au lecteur le soin de vérifier que ceci est bien une loi de groupe.
8 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

Dans le cas particulier où l’action de G sur N est triviale (11) le groupe obtenu est noté
N ⇥ G et appelé le produit direct de N et G : c’est l’ensemble produit N ⇥ G muni de la
loi de groupe (n, g) · (n0 , g 0 ) = (nn0 , gg 0 ).
(3) Dans la situation de (1), lorsque N et G sont des sous-groupes d’un groupe H dans
lequel N est distingué, l’action ' est la conjugaison : '(g)(n) = gng 1 . En fait, la situation
(2) n’est pas plus générale que (1), car posant H = N o' G et notant eN (resp. eG ) l’élément
neutre de N (resp. G), le groupe N (resp. G) s’identifie au sous-groupe {(n, eG ) | n 2 N }
(resp. {(eN , g) | g 2 G}) de H, et alors pour tout n 2 N et g 2 G on a :
1
gng = (eN , g)(n, eG )(eN , g 1 ) = (eN , g)(n, g 1 ) = ('(g)(n), eG ) = '(g)(n),
i.e. l’action donnée ' de G sur N devient dans H = N o' G l’action par conjugaison de G
sur le sous-groupe distingué N .
(4) Si H = N o G, alors le groupe quotient H/N est isomorphe à G. (Exercice !)

2. Sous-espaces affines
Commençons par les exemples suivants.

Exemple 2.1 (Droites affines dans R2 ). — Soit u = (u1 , u2 ) 2 R2 un vecteur non nul
et soit A = (x0 , y0 ) un « point » de R2 . La droite affine passant par A et de vecteur directeur
u est
D = {A + tu | t 2 R};
!
c’est l’ensemble des « points » B = (x, y) tels que le vecteur AB = (x x0 , y y0 ) soit
colinéaire à u. Une équation de D est donnée par
x x0 u1
0= = (x x0 )u2 (y y0 )u1 , i.e. u2 x u1 y = u 2 x 0 u1 y 0 .
y y0 u2
Une telle droite affine apparaı̂t par exemple en analyse : si f : I ! R une fonction dérivable,
où I est un intervalle ouvert de R, et si x0 2 I et f (x0 ) = y0 , la tangente au graphe f de
f en x0 (i.e. au point (x0 , y0 )) est la droite affine d’équation y y0 = f 0 (x0 )(x x0 ). Elle
passe par A = (x0 , y0 ) et a pour vecteur directeur le vecteur u = (1, f 0 (x0 )).
Plus généralement, dans un cours de fonctions de plusieurs variables, vous avez peut-être vu
que si F : U ! R est une application di↵érentiable, où U est un ouvert de R2 , si C désigne la
courbe d’équation F (x, y) = 0 et si p = (x0 , y0 ) est un point de C en lequel les dérivées partielles
@F @F
↵= (p) et = (p) ne sont pas toutes les deux nulles, alors la tangente à C en p est la
@x @y
droite affine d’équation
(y y0 ) + ↵(x x0 ) = 0.
Dans le cas précédent, prenant U = I ⇥R et F (x, y) = y f (x), on retrouve comme cas particulier
la tangente à f au point p = (x0 , f (x0 )). Exercice : déterminer la tangente au cercle d’équation
x2 + y 2 = 1 au point p = (1, 0).

(11)
Si G est un groupe et X un ensemble, l’action triviale de G sur X est donnée par g · x = x pour tout
g 2 G et x 2 X.
2. SOUS-ESPACES AFFINES 9

Exemple 2.2 (Plans affines dans R3 ). — De même, si f : U ! R est une application


di↵érentiable, où U est un ouvert de R2 , on peut considérer dans R3 = R2 ⇥ R son graphe :
f = {(x, y, z) 2 U ⇥ R | z = f (x, y)}.
Le plan tangent à f « en p = (x0 , y0 ) » (i.e. au point A = (x0 , y0 , f (x0 , y0 ))) est le « plan
affine » P d’équation
z z0 = ↵(x x0 ) + (y y0 ),
@f @f
où ↵ = (p) et = (p). On a P = A + P = {A + u | u 2 P }, où P désigne le
@x @y
sous-espace vectoriel de R3 d’équation
z = ↵x + y.
(Exercice : vérifier ceci).
Plus généralement, si F : ⌦ ! R est une application di↵érentiable, où ⌦ est un ouvert de R3 ,
si S désigne la surface d’équation F (x, y, z) = 0 et si p = (x0 , y0 , z0 ) est un point de S en lequel
@F @F @F
les dérivées partielles ↵ = (p), = (p) et = (p) ne sont pas toutes les trois nulles,
@x @y @z
alors le plan tangent à S en p est le plan affine d’équation
(z z0 ) + (y y0 ) + ↵(x x0 ) = 0.
Dans le cas précédent, prenant ⌦ = U ⇥ R et F (x, y, z) = z f (x, y), on retrouve comme cas
particulier le plan tangent à f au point p = (x0 , y0 , f (x0 , y0 )). Exercice : déterminer le plan
tangent à la sphère d’équation x2 + y 2 + z 2 = 1 au point p = (1, 0, 0).

Ces exemples conduisent à la définition suivante.


Définition 2.3 (Sous-espaces affines de Rn ). — Soit F un sous-espace vectoriel (sev)
de E = Rn et p = (x1 , . . . , xn ) un « point » de Rn . Alors
p + F = {p + u | u 2 F } = {y 2 Rn | y p 2 F}
est appelé le « sous-espace affine de direction F » passant par p. Remarquons tout de suite
que si q 2 p + F alors q = p + u0 pour un certain u0 2 F et donc, comme l’application
F ! F , u 7! u0 + u est une bijection (d’inverse v 7! v u0 ), on a :
q + F = {p + u0 + u | u 2 F } = {p + v | v 2 F } = p + F.
Donc, si on pose F = p + F , alors pour tout q 2 F on a F = q + F donc F est aussi le
« sous-espace affine de direction F » passant par q.
Bien entendu, on peut remplacer ci-dessus R par un corps quelconque k et Rn par un
k-espace vectoriel (en abrégé : k-ev) arbitraire E. On obtient ainsi la notion de « sous-
espace affine(12) de E de direction F », qui est suffisante pour la plupart des applications
mathématiques.
Exemple 2.4 (fondamental). — Soient E, V des k-espaces vectoriels, f : E ! V une
application linéaire et v un élément de V appartenant à Im(f ). Alors
1
F =f (v) = {x 2 E | f (x) = v}
est un sous-espace affine de E de direction F = Ker(f ).

(12)
Pour abréger on écrira souvent « sea » pour « sous-espace affine ».
10 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

Démonstration. — F est non vide puisque v 2 Im(f ). Fixons p 2 F et soit u un élément


arbitraire de E, on a :
p + u 2 F () v = f (p + u) = f (p) + f (u) = v + f (u) () f (u) = 0.
Ceci montre que F = {p + u | u 2 Ker(f )} = p + Ker(f ).

Déclinons quelques exemples « concrets » de l’exemple fondamental ci-dessus.

Exemple 2.5 (Systèmes linéaires). — Considérons une matrice A 2 Mp,n (k), un vecteur fixé
Y 2 k p et le système linéaire d’inconnue X 2 k n donné par AX = Y (c’est un système linéaire
de p équations à n inconnues, avec second membre Y ). Soit S l’ensemble des solutions de ce
système.
Si S 6= ? (i.e. si Y 2 Im(A)) alors S est un sous-espace affine de k n de direction le sev
Ker(A) (= l’ensemble des solutions du système homogène AX = 0). En e↵et, si X0 est une
solution arbitraire, on sait que S = X0 + Ker(A).

Exemple 2.6 (sea défini par des équations). — Considérons l’exemple « géométri-
que » suivant : soit E un k-ev, soient f1 , . . . , fr des formes linéaires sur E et c1 , . . . , cr 2 k.
On suppose que le sous-ensemble
F = {p 2 E | f1 (p) = c1 , . . . , fr (p) = cr }
est non vide. Alors c’est un sea de E de direction le sev suivant :
r
\
F = {u 2 E | f1 (u) = 0, . . . , fr (u) = 0} = Ker(fi ).
i=1

En e↵et, si l’on considère l’application linéaire f : E ! k r dont les composantes sont


f1 , . . . , fr , alors Ker(f ) = F et F = f 1 (v), où v = (c1 , . . . , cr ).
En particulier, prenons k = R et f la forme linéaire sur R2 définie par f (x1 , x2 ) = x1 +x2 .
Alors
D = {(x1 , x2 ) 2 R2 | x1 + x2 = 1}
est une droite affine de direction la droite vectorielle D d’équation x1 + x2 = 0 ; celle-ci est
engendrée, par exemple, par le vecteur u = (1, 1) et l’on a D = (0, 1) + Ru = (1, 0) + Ru :

@
@
@
@
@
(0,1)@@
@
@
@
@
(0,0) (1,0)@@
@ D
@
@
@

Donnons encore un exemple, plus élaboré (Agrég.) Dans ce qui suit, EDL signifie Équation Di↵érentielle
Linéaire.
3. ESPACES AFFINES ET REPÈRES 11

Exemple 2.7 (EDL avec second membre). — Soient I un intervalle ouvert de R, y : I ! R une
fonction continue, et a 2 R. On considère l’EDL avec second membre :

(⇤) x0 (t) ax(t) = y(t) 8t 2 I.

On sait que l’ensemble des solutions de l’équation homogène (i.e. sans second membre) est le R-ev F de
dimension 1 formé des fonctions t 7! eat , pour 2 R. On peut résoudre l’équation (⇤) par la méthode
« de variation de la constante », i.e. on cherche x(t) sous la forme (t)eat ; on obtient alors que
0 0
(t)eat = y(t) i.e. (t) = e at
y(t).
Rt
Fixant un point t0 2 I, on obtient que (t) = c + t0
e as
y(s)ds, avec c 2 R arbitraire. Posant
Z t
x0 (t) = eat e as
y(s)ds
t0

on obtient que l’ensemble des solutions de (⇤) est F = {x0 (t) + ceat | c 2 R} = x0 + F . Notant E le R-ev
des fonctions I ! R de classe C 1 , on voit donc que F est le sea de E de direction F passant par x0 .

3. Espaces affines et repères


Ce qui précède n’est pas suffisant pour faire de la géométrie, ou de la physique, par
exemple car le monde dans lequel nous vivons est, en 1ère approximation, assimilable à un
espace affine (euclidien) de dimension 3, mais ce n’est pas un espace vectoriel, car il n’y a
pas d’origine privilégiée. Pour rendre compte de cette situation, on est amené à introduire
le concept d’espace affine, donné par la définition abstraite suivante.

Définition 3.1 (Espaces affines). — Soient k un corps et E un k-ev. Un espace affine


de direction E est un ensemble non vide E muni de l’une des structures équivalentes
suivantes :
!
(i) On s’est donné une application : E ⇥ E ! E, (A, B) 7! AB vérifiant les deux
propriétés suivantes :
! ! !
(1) Relation de Chasles : AC = AB + BC 8A, B, C 2 E .

!
(2) Pour tout A 2 E , l’application A : E ! E, B 7! AB est bijective.
On notera ! u 7! A + !u la bijection inverse, c.-à-d., pour tout A 2 E et !
u 2 E, A + ! u
! !
désigne l’unique B 2 E tel que AB = u .
(ii) On s’est donné une action à droite E ⇥ E ! E , (A, !u ) 7! A + !
u qui est libre et
transitive.(13)
Vocabulaire : les éléments de E sont appelés « points », ceux de E sont appelés « vecteurs ».
Si E est de dimension finie n, ce que nous supposerons par la suite, on pose dim E = dim E. Si
dim E = 1, resp. 2, on dira que E est une droite affine, resp. un plan affine.
Notation : pour abréger, on dira : « (E , E) est un espace affine ».

Remarque 3.2. — Appliquant la relation de Chasles d’abord à A = B = C, on obtient


! ! ! ! !
AA = AA + AA d’où AA = 0 pour tout A ; en l’appliquant ensuite à A, B arbitraires et
! !
C = A, on obtient BA = AB.

(13)
Ici, E est considéré juste comme un groupe abélien.
12 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

Remarque 3.3. — Supposons donnée vérifiant la relation de Chasles. Alors, pour montrer (2), il suffit
de montrer qu’il existe A0 2 E tel que A0 est bijective. En e↵et, supposons que ce soit le cas et soit A
! ! !
un autre point, arbitraire mais fixé. Alors, pour B variant dans E , on a A (B) = AB = A0 B A0 A =
!
A0 (B) u0 , où l’on a posé u0 = A0 A. Ceci montre que A : E ! E est la composée de A0 et de
l’application E ! E, u 7! u u0 . Or cette dernière est bijective, car elle admet comme réciproque
l’application E ! E, v 7! v + u0 . Comme on a supposé A0 bijective, il en résulte que A l’est aussi.

(14)
Avant de donner un exemple non trivial d’espace affine, démontrons l’équivalence entre (i) et (ii).

Démonstration. — Supposons (i) vérifié. Alors, pour tout I 2 E et u 2 E, on note I + u


! !
l’unique point J tel que IJ = u. Fixons A 2 E . Comme AA = 0, on a déjà que A + 0 = A.
!
Fixons maintenant u, v 2 E et posons B = A + u et C = B + v. On a donc u = AB
! !
et v = BC. Par définition, on a aussi C = A + AC. D’autre part, d’après la relation de
! ! !
Chasles, on a AC = AB + BC = u + v, d’où C = A + (u + v). On a donc, pour tout A 2 E
et u, v 2 E :
A + (u + v) = C = B + v = (A + u) + v.
Joint à l’égalité A + 0 = A, ceci montre que l’application E ⇥ E ! E , (A, u) 7! A + u,
définit une action à droite de E sur E . De plus, d’après l’axiome (2) de (i), cette action est
libre et transitive. Ceci montre que (i) implique (ii).
Réciproquement, supposons (ii) vérifié. Soit A 2 E arbitraire mais fixé. Par hypothèse,
l’application E ! E , u 7! A + u est bijective donc à tout B 2 E on peut associer l’unique
!
u 2 E tel que B = A + u, qu’on notera AB. Ceci définit une application E ⇥ E ! E,
!
(A, B) 7! AB qui vérifie l’axiome (2) de (i).
Il ne reste qu’à vérifier la relation de Chasles. Soit A, B, C 2 E et soient u, v les éléments
de E (uniques) tels que B = A + u et C = B + v. Alors C = (A + u) + v = A + (u + v) et
! ! !
donc AC = u + v = AB + BC. Ceci montre que (ii) implique (i).

Exemple 3.4 (fondamental). — (15) On prend k = R. Historiquement, les notions de


droite affine, de plan affine et d’espace affine ont été introduites dans l’Antiquité grecque,
sur des bases axiomatiques suggérés par l’observation physique du monde dans lequel nous
vivons.
On « sait bien » ce qu’est une droite affine réelle D :

Elle est formée de « points », chacun d’épaisseur nulle, et si l’on se donne deux points
A, B de D, le segment [A, B] possède une certaine « longueur » AB. Le rapport de deux
longueurs est un nombre réel ; plus précisément, si l’on fixe un segment orienté [O, I],
d’origine O et d’extrémité I 6= O, pris comme « segment unité » alors à tout point B de D
on peut associer le réel " OB/OI, où " = +1 si B est dans la demi-droite fermée de sommet
O contenant I, et " = 1 sinon. On pose les deux axiomes suivants, qui sont conformes à
l’intuition physique de mesure des longueurs.

(14)
Pour alléger l’écriture, un élément arbitraire de E (resp. le vecteur nul) sera noté u (resp. 0) au lieu de
! !
u (resp. 0 ).
(15)
Cet exemple a pour but d’expliquer la raison d’être de la définition 3.1, mais ne prétend pas être de
lecture facile. Le lecteur qui voudra bien accepter 3.1 comme point de départ de la théorie peut en omettre
la lecture.
3. ESPACES AFFINES ET REPÈRES 13

• Axiome 1. Ce qui précède définit une bijection B 7! xB entre D et R, et xB est appelé


l’abscisse de B dans le repère (O, I). Noter que xI = +1.
• Axiome 2. Ces bijections sont « compatibles » entre elles au sens suivant.
(1) (Changement d’origine) Fixons un point A, d’abscisse xA dans le repère (O, I), et
soit J l’unique point de D d’abscisse xA + 1. Alors, pour tout point B, ses abscisses xB et
x0B dans les repères (O, I) et (A, J) respectivement, sont reliées par : x0B = xB xA .
(2) (Changement d’unité (16) ) Fixons un point K, d’abscisse t 6= 0 dans le repère (O, I).
Alors, pour tout point B, ses abscisses xB et x0B dans les repères (O, I) et (O, K) respec-
tivement, sont reliées par : x0B = xB /t.
(3) Bien sûr, on peut combiner les deux : si dans le repère (O, I) les abscisses de A et K sont xA
et xA + t avec t 6= 0, alors pour tout point B, ses abscisses xB et x0B dans les repères (O, I) et (A, K)
respectivement, sont reliées par : x0B = (xB xA )/t.

On peut alors construire un R-ev V de dimension 1 comme suit. On appelle bipoint un


couple (A, B) de points de D. Fixant un repère R0 = (O, I), on dit que deux bipoints
(A, B) et (C, D) sont équipollents si les abscisses xA , . . . , xD vérifient

xB xA = xD xC .

Ceci est clairement une relation d’équivalence. De plus, il résulte des formules de chan-
gement de repère données plus haut que cette relation d’équivalence ne dépend pas du
!
choix du repère R0 . La classe d’équivalence du bipoint (A, B) sera notée AB et appelée un
vecteur ; on la représente par une flèche allant de A vers B :
!
AB -
D
A B
! !
Le vecteur AA est noté 0 et appelé vecteur nul. Alors deux vecteurs sont égaux ssi ils
sont tous deux nuls ou bien si les flèches correspondantes ont la même longueur 6= 0 et le
même sens.
!
On voit de plus que pour tout point A et tout vecteur BC, il existe un unique point D
! !
tel que AD = BC : ceci équivaut à la condition xD xA = xC xB (qui, encore une fois,
ne dépend pas du repère R0 ). L’ensemble V des vecteurs est donc en bijection avec D via
!
A 7! OA, et l’on a des applications
! ! ! ! ! ! ! !
R⇥V ! V, ( , OA) 7! ·OA = OA , V ⇥V ! V, (OA, OB) 7! OA+OB = OC,

où A (resp. C) est le point d’abscisse xA (resp. xA + xB ) dans le repère R0 . D’une part,
ceci munit V d’une structure de R-espace vectoriel de dimension 1, engendré par le vecteur
!
OI : la vérification des axiomes découle immédiatement des propriétés de l’addition et la
multiplication dans R. D’autre part, ces applications ne dépendent pas, en fait, du choix
de R0 , donc la structure de R-ev sur V ainsi obtenue est « canonique ».
!
Enfin, il résulte de la construction que l’application D ⇥ D ! V , (A, B) 7! AB vérifie
les conditions (1) et (2) de 3.1 (i). Donc la « droite affine réelle » D est bien un espace affine
de direction V .

(16)
et aussi de sens si t < 0.
14 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

Ayant fait tout ce travail (non trivial !), on voit alors que les axiomes 1 et 2 sont des
conséquences de la structure d’espace affine, et lui sont donc équivalents. Ceci justifie de
définir la droite affine réelle D :

comme un espace affine sous le R-ev V (de dimension 1) des vecteurs « flèches » :
p !
2u !
u- (⇡/2)! u
-
!
0
(À la di↵érence de R, qui possède 1 comme générateur canonique, V n’a pas de générateur canonique.)
De même, en se basant sur l’intuition physique donnée par une feuille de papier ou un
tableau noir, tous deux supposés de largeur et hauteur infinies, on peut définir le « plan
affine réel » en se donnant :
(1) Un ensemble non vide P, formé de points.
(2) Une famille de parties de P, appelées les droites.
(3) Un certain nombre d’axiomes, plusieurs choix étant possibles pour arriver au même
résultat. Par exemple, pour tout triplet (O, I, J) de points non alignés, une bijection entre
P et R2 , ces bijections étant soumises à des conditions de compatibilité comme plus haut.
Ou bien, des axiomes plus géométriques : l’axiome que toute « droite » est une droite affine
réelle, des axiomes d’incidence et un axiome assurant la validité du théorème de Thalès.
Dans ce cas aussi, en partant d’axiomes géométriques suggérés par l’intuition physique, on
arrive à montrer (avec pas mal de travail !) que le plan affine réel P est un espace affine
au sens de 3.1 sous le R-ev (de dimension 2) des vecteurs « flèches » ci-dessous :

! !
v u +!
v
⌘3







⌘ -!
u
!
0

la somme de deux vecteurs non colinéaires étant définie par la règle du parallélogramme.
Ceci étant obtenu, on voit alors que les axiomes de départ découlent facilement de la
structure affine, donc lui sont équivalents, et que finalement, la définition 3.1 est la plus
commode en pratique.

Remarque 3.5 (importante). — Soit E un k-espace vectoriel.


a) E lui-même est un espace affine E de direction E. En e↵et, l’addition définit une
action à droite E ⇥ E ! E, (x, u) 7! x + u. En termes du point (i) de 3.1, ceci revient à définir
: E⇥E ! E par (x, y) 7! y x. Alors (1) est vérifiée car (x, z) = z x = (z y)+(y x) = (x, y)+ (y, z)
3. ESPACES AFFINES ET REPÈRES 15

et (2) est vérifiée car pour tout x fixé dans E, l’application y 7! y x est une bijection de E sur lui-même
(sa réciproque étant l’application u 7! x + u).
b) Pour tout sev F de E et tout p 2 E, on laisse au lecteur le soin de vérifier que le sea
F = p + F défini dans la section 2 est bien un espace affine de direction F . (Ce qui justifie
la terminologie employée dans la section 2.) Ceci est généralisé dans la proposition suivante.

Définition et proposition 3.6. — Soit E un espace affine de direction E. Soit A0 2 E


et soit F un sous-espace vectoriel (en abrégé, sev) de E. On pose
F = A0 + F = {A0 + u | u 2 F }.
Alors F est un espace affine de direction F . On dira que c’est un sous-espace affine (en
abrégé, sea) de E .
Démonstration. — E est muni d’une action à droite de E, qui est libre (et transitive).
Donc, par restriction (cf. 1.3), E est muni d’une action de F , qui est libre. Cette action
laisse stable F , qui est l’orbite de A0 sous l’action de F , donc on obtient une action de
F sur F , qui est libre et transitive. Ceci prouve que F est un espace affine de direction
F.
Définition 3.7 (Repères affines). — Soit (E , E) un espace affine de dimension n. Un
repère affine de E est un (n + 1)-uplet (A0 , . . . , An ) de points de E tel que les n vecteurs
! !
A0 A1 , . . . , A0 An engendrent E et donc en forment une base.(17)
! P !
Dans ce cas, pour tout M 2 E le vecteur A0 M s’écrit de façon unique ni=1 xi A0 Ai et
l’on dit que (x1 , . . . , xn ) sont les coordonnées de M dans le repère R = (A0 , . . . , An ).
De façon équivalente, se donner un repère équivaut à se donner un point O pris comme
origine, et une base B = (e1 , . . . , en ). Ceci équivaut à se donner le repère (O, A1 , . . . , An ), où
!
Ai = O+ei , et donc un point M a pour coordonnées (x1 , . . . , xn ) ssi OM = x1 e1 +· · ·+xn en .
Théorème 3.8 (Changement de repère). — Soit (E , E) un espace affine de dimen-
sion n, B = (e1 , . . . , en ) et C = (f1 , . . . , fn ) deux bases de E, soit P = MatB (C ) la matrice
!
de passage, et soient O, O0 2 E . Posons OO0 = t1 e1 + · · · + tn en . Pour M 2 E arbitraire,
notons (x1 , . . . , xn ) (resp. (x01 , . . . , x0n )) ses coordonnées dans le repère R = (O, B) (resp.
R 0 = (O0 , C )). Alors on a
0 1 0 01 0 1 0 01 0 1
x1 x1 t1 x1 x1 t 1
B .. C B . C B.C B .. C 1B . C
@ . A = P @ .. A + @ .. A donc aussi @ . A = P @ .. A .
xn x0n tn x0n xn t n
De façon abrégée, si l’on note X, X 0 et T les vecteurs colonnes ci-dessus, on a
X = P X0 + T X0 = P 1
(X T ).

Démonstration. — Soient X, X 0 comme ci-dessus et notons Y le vecteur colonne P X 0 .


Alors, d’après la formule de changement de base dans E, on a :
!
O0 M = x01 f1 + · · · + x0n fn = y1 e1 + · · · + yn en ,

(17) ! ! !
Ceci est une propriété du (n + 1)-uplet lui-même, car pour tout j fixé on a Aj Ai = A0 Ai A0 Aj
! ! !
donc l’espace vectoriel Vect(Aj Ai | i = 0, . . . , n} engendré par les Aj Ai est le même que Vect(A0 Ai | i =
0, . . . , n}.
16 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

! ! !
et comme OM = OO0 + O0 M on obtient
n
! X
X = OM = (ti + yi )ei = T + P X 0
i=1

et l’on a donc aussi X 0 = P 1


(X T ).
Remarque. — Le théorème précédent donne un exemple d’application affine : si (E 0 , E 0 ) et (E , E) sont
deux espaces affines, de dimension n et p respectivement, et si l’on s’est fixé des repères R 0 et R, d’où des
coordoonnées X 0 et X sur E 0 et E , vues comme des vecteurs colonnes, on dit qu’une application f : E 0 ! E
est affine s’il existe une matrice A 2 Mp,n (k) et un vecteur colonne T 2 Rp tels que f (X 0 ) = AX 0 + T .
En utilisant le théorème précédent(18) , on peut montrer que si f vérifie cette propriété pour un couple de
repères (R 0 , R) alors elle la vérifie pour tout tel couple, donc la notion d’application affine est une notion
intrinsèque, qui ne dépend pas du choix des repères. On va reprendre ce point, de façon plus abstraite,
dans la section suivante.

4. Applications affines : définition, exemples, th. de Thalès


Définition et proposition 4.1 (Applications affines). — Soient (E , E) et (E 0 , E 0 )
deux espaces affines. Une application f : E ! E 0 est une application affine s’il existe
un point O 2 E tel que l’application : E ! E 0 définie par :
! !
8! u 2 E, f (O + ! u ) = f (O) + (!u) c.-à-d. 8P 2 E , f (O)f (P ) = (OP )
!
est linéaire. Dans ce cas, est notée f et appelée la partie linéaire de f ; de plus les
égalités ci-dessus sont vraies en remplaçant O par un point I arbitraire, i.e. on a :
! ! !
8I, P 2 E , f (I)f (P ) = f (IP )
!
et 8I 2 E , 8!
u 2 E, f (I + !
u ) = f (I) + f (!
u ).

Démonstration. — Fixons un point O 2 E , posons O0 = f (O) et notons ✓ : E ! E et


✓0 : E 0 ! E 0 les bijections u 7! O + u et u0 7! O0 + u0 . Alors l’application de l’énoncé est
✓0 1 f ✓ : en e↵et, la 1ère égalité définissant équivaut à l’égalité f ✓ = ✓0 .
On suppose que, pour ce choix de O, l’application : E ! E 0 est linéaire. Soit I 2 E
arbitraire. D’après la relation de Chasles, et la définition de , on a, pour tout P 2 E :
! ! ! ! !
f (I)f (P ) = f (O)f (P ) f (O)f (I) = (OP ) (OI)
! !
et comme est supposée linéaire, ceci égale (OP OI). D’après la relation de Chasles,
! ! ! !
à nouveau, on a OP OI = IP . Posant f = , on a donc obtenu :
! ! !
8I, P 2 E , f (I)f (P ) = f (IP ).
La proposition est démontrée.
Remarque. — Pour f : E ! E arbitraire et O 2 E , l’application : E ! E définie plus haut n’a aucune
raison d’être linéaire : prendre par exemple E = E = R, O = 0 et f (t) = t2 pour tout t 2 R, alors
(t) = f (t) n’est pas linéaire.

Commençons par un exemple important d’applications affines E ! E .

(18)
qui est le cas où (E 0 , E 0 ) = (E , E) et f est l’identité, mais où les repères R 0 et R peuvent être di↵érents.
4. APPLICATIONS AFFINES : DÉFINITION, EXEMPLES, TH. DE THALÈS 17

Définition 4.2 (Translations). — Pour tout u 2 E, on note tu la « translation de


vecteur u », définie par tu (A) = A + u pour tout A 2 E . Posant A0 = tu (A) et B 0 = tu (B),
! !
on a AA0 = u = BB 0 et donc :
! ! ! ! ! !
A0 B 0 = A0 A + AB + BB 0 = u + AB + u = AB.
Ceci prouve que tu est affine, de partie vectorielle idE , l’application identique de E. Noter
au passage que la translation de vecteur nul t0 est idE , l’application identique de E .
!
Exercice 4.3. — Réciproquement, montrer que si f : E ! E est affine et vérifie f = idE alors
f = tu pour un certain u 2 E.

Proposition 4.4. — Pour tout u, v 2 E, on a tv tu = tu+v = tu tv . Par conséquent,


l’ensemble T des translations forme un groupe commutatif (isomorphe à E ) : l’élément neutre
est t0 = idE et l’inverse de tu est t u .

Démonstration. — Soit A 2 E , posons B = tu (A) et C = tv (B) = (tv tu )(A). Alors


! ! !
AC = AB + BC = u + v d’où l’égalité tu+v (A) = C = (tv tu )(A). Ceci prouve que
tv tu = tu+v , et comme u + v = v + u, ceci égale aussi tu tv . Il est clair que t0 = idE est
élément neutre, et l’égalité tu t u = t0 montre que t u est l’inverse de tu (ce qui est aussi
évident géométriquement).
L’application E ! T , u 7! tu est donc un morphisme de groupes, surjectif par définition. Il est injectif
! !
car si tu = idE alors u = AA = 0 . Donc c’est un isomorphisme de E, considéré comme groupe abélien,
sur le groupe des translations.

Donnons maintenant quelques propriétés générales (et utiles) des applications affines.

Proposition 4.5. — Soient (E , E), (E 0 , E 0 ), (E 00 , E 00 ) trois espaces affines, f : E ! E 0


et g : E 0 ! E 00 des applications affines.
! !
(i) Alors l’application g f est affine, de partie linéaire g f = ! g f.
!
(ii) D’autre part, f est bijective ssi f l’est. Dans ce cas, f 1 est affine, de partie linéaire
!
( f ) 1.

Démonstration. — (i) Soient A, B 2 E , posons A0 = f (A) et A00 = g(A0 ) = (g f )(A) et


définissons de même B 0 et B 00 . On a :
! !
A00 B 00 = !g ( A0 B 0 ) (car g est affine)
! !
=!g f (AB) (car f est affine)
! !
= (!
g f )(AB).
!
Ceci prouve que g f est affine, de partie linéaire égale à !
g f.
(ii) Fixons O 2 E , posons O0 = f (O) et notons ✓ : E ! E et ✓0 : E 0 ! E 0 les bijections
! !
u 7! O + u et u0 7! O0 + u0 . Comme f ✓ = ✓0 f , on voit que f est bijective ssi f l’est.
!
Dans ce cas, on a f 1 (O0 ) = O et ✓ ( f ) 1 = f 1 ✓0 , i.e. le diagramme :
f 1
EO o EO 0
✓ ✓0
! 1
(f )
Eo E0
18 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

1 ! 1
est commutatif, et ceci montre que f est affine de partie linéaire ( f ) (cf. la preuve de
4.1).

Proposition 4.6 (Écriture d’une application affine dans des repères)


Soient (E , E) et (E 0 , E 0 ) deux espaces affines, de dimensions respectives m et n, et munis
de repères R = (O, B) et R 0 = (O0 , C ).
!
(i) Soit f : E ! E 0 une application affine. Soit A = MatC ,B ( f ) 2 Mn,m (R) et soient
(b01 , . . . , b0n ) les coordonnées de f (O) dans R 0 . Alors, pour tout P 2 P, de coordonnées
(x1 , . . . , xm ) dans R, les coordonnées (y1 , . . . , yn ) de f (P ) dans R 0 sont données par :
0 1 0 1 0 01
y1 x1 b1
B .. C B .. C B .. C
@ . A = A@ . A + @ . A.
yn xm b0n

(ii) Réciproquement, si f est donnée par la formule ci-dessus, alors f est affine et A est
!
la matrice de f dans les bases B (au départ) et C (à l’arrivée).
0 1 0 1
y1 b01 x1
B .. C ! ! ! B .. C
Démonstration. — (i) En e↵et, on a @ . A = f (O)f (P ) = f (OP ) = A @ . A.
yn b0n xm
0
(ii) Notons : E ! E l’application définie par f (O + u) = f (O) + (u) et notons X,
resp. Z, le vecteur colonne représentant u dans la base B (resp. (u) dans la base C ). La
formule donnée entraı̂ne que Z = AX : ceci montre que est linéaire, donc f est affine et
! !
= f , et que MatC ,B ( f ) = A.
Remarques 4.7. — (1) On dit que deux espaces affines (E , E) et (E 0 , E 0 ) sont isomorphes s’il existe une
!
application affine bijective f : E ! E 0 . Dans ce cas, f est un isomorphisme de E sur E 0 , donc si E est de
dimension finie n, il en est de même de E 0 .
(2) Exercice. Soit (E , E) un espace affine de dimension n et R = (O, B) un repère de E . Montrer que
l’application f : E ! k n , p 7! (x1 , . . . , xn ), où (x1 , . . . , xn ) sont les coordonnées de p dans R, est affine et
bijective.

Donnons un autre exemple important d’applications affines E ! E .

Définition 4.8 (Homothéties). — Soit 2 k ⇥ = k {0}. Pour A fixé dans E , on note


! !
h = h(A, ) l’application qui à tout M de E associe l’unique point M 0 tel que AM 0 = AM .
Remarquons que :
! !
a) Pour M = A, on a AA0 = 0 d’où h(A) = A, donc A est un point fixe de h.
! ! !
b) Pour tout M , on a donc : A0 M 0 = AM 0 = AM . Ceci montre que h est affine, de
partie linéaire l’homothétie vectorielle h = idE (définie par h (u) = u pour tout u 2 E).
c) Si = 1 alors h est l’application identique idE de E .
!
d) Si 6= 1 alors A est l’unique point fixe de h. En e↵et si M = h(M ) alors AM =
! ! ! ! ! !
Ah(M ) = AM d’où (1 )AM = 0 et si 6= 1 ceci entraı̂ne AM = 0 d’où M = A.
Donc, si 6= 1, on dira que h(A, ) est « l’homothétie de rapport et de centre A ».
e) On voit facilement que h(A, ) h(A, µ) = h(A, µ) donc les homothéties fixant A
(i.e. l’identité et celles de centre A et rapport 6= 1) forment un groupe isomorphe au groupe
multiplicatif k ⇥ .
4. APPLICATIONS AFFINES : DÉFINITION, EXEMPLES, TH. DE THALÈS 19

!
Proposition 4.9. — Soit h : E ! E une application affine telle que h = idE avec
6= 1. Alors h possède un unique point fixe A, et si 6= 0 alors h = h(A, ).

Démonstration. — Fixons un point O 2 E . Alors, un point A 2 E arbitraire vérifie h(A) =


! !
A si et seulement si l’on a Oh(A) = OA. Or on a
! ! ! ! ! ! ! !
Oh(A) = Oh(O) + h(O)h(A) = Oh(O) + h (OA) = Oh(O) + OA
! !
donc on voit que h(A) = A équivaut à (1 )OA = Oh(O) et comme 6= 1 ceci détermine
! !
A de façon unique, i.e. on a OA = (1 ) 1 Oh(O).
! ! !
Alors, pour tout M 2 E , on a Ah(M ) = h(A)h(M ) = AM donc, si 6= 0 alors h
! !
est bien l’homothétie h(A, ) de centre A et de rapport . (Si = 0 alors Ah(M ) = 0 donc
h(M ) = A pour tout M i.e. h est l’application « constante » qui envoie tout M sur A).

Exercice 4.10. — Soient A, B 2 E et , µ 2 k ⇥ , on considère la composée h(A, )


h(B, µ). Montrer que si µ 6= 1 (resp. = 1), c’est h(C, µ) pour un point C à déterminer
(resp. une translation, de vecteur à déterminer).

Avant d’introduire d’autres exemples : les projections et, si car(k) 6= 2, les symétries,
démontrons la proposition suivante.

Proposition 4.11. — Soient (E , E) un espace affine, P, Q 2 E , F, G deux sev de E. On


considère les deux sous-espaces affines F = P + F et G = Q + G.
a) Si F \ G est non vide, c’est un sous-espace affine de direction F \ G.
!
b) Ceci est le cas ssi P Q appartient au sev F + G.
c) Par conséquent, si F G = E alors F \ G est un singleton {I}.

Démonstration. — (a) Supposons que F \ G contienne un point R. Pour un point M 2 E


!
arbitraire, on a les équivalences : M 2 F \ G , (M 2 F et M 2 G ) , (RM 2 F et
! !
RM 2 G) , RM 2 F \ G , M 2 R + (F \ G). Ceci montre que F \ G = R + (F \ G).
(b) F \ G est non vide ssi il existe u 2 F et v 2 G tels que P + u = R = Q + v, ce qui
! !
équivaut à Q = P + u v ou encore à P Q = u v. Ceci équivaut à dire que P Q appartient
au sous-espace vectoriel F + G = {u + w | u 2 F, w 2 G} = {u v | u 2 F, v 2 G}.
!
(c) Supposons que F + G = E. Alors P Q appartient à F + G donc, d’après (b) et (a),
F \ G est un sous-espace affine R + (F \ G) de direction (F \ G). Si de plus F et G sont
en somme directe, c.-à-d. si F \ G = {0} alors F \ G est le singleton {R}. (Noter que, pour
tout point I 2 E , le sous-espace affine de direction {0} passant par I est le singleton {I}.)

Définition et proposition 4.12 (Projections et symétries)


Soient (E , E) un espace affine, F, G deux sev de E qui sont supplémentaires, et F un
sous-espace affine de E de direction F .
!
(i) Pour tout M 2 E , il existe un unique point p(M ) 2 F tel que M p(M ) 2 G. L’ap-
plication p : M 7! p(M ) est affine, de partie linéaire la projection ⇡ de E sur F de noyau
G. On dit que p est la projection de E sur F de direction G. (19)

(19)
On dit aussi : « parallèlement à G ».
20 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

!
(ii) Supposons car(k) 6= 2. Alors, pour tout M 2 E , on pose s(M ) = M + 2M p(M ). L’applica-
tion s : M 7! s(M ) est affine, de partie linéaire la symétrie par rapport à F de direction G. On
dit que s est la symétrie par rapport à F de direction G. (19)

Démonstration. — (i) Comme F G = E, les sous-espaces affines F et M + G se coupent


!
en un unique point, qu’on note M 0 = p(M ). Pour P 2 E , le vecteur M P s’écrit de façon
! !
unique M P = u + v avec u 2 F et v 2 G, et par définition l’on a ⇡(M P ) = u. D’autre
part, posant P 0 = p(P ) on a :
! ! ! !
M P = M M 0 + M 0P 0 + P 0P
! ! ! !
et comme M M 0 , P P 0 2 G et M 0 P 0 2 F (puisque M 0 , P 0 2 F ), il en résulte que M 0 P 0 =
!
⇡(M P ). Ceci montre que p est affine, de partie linéaire ⇡.
La démonstration de (ii) est laissée au lecteur. (On n’en a pas besoin pour le moment.)
G =M +G
M

p(M )
F
! !
p(M )s(M )=M p(M )

s(M )

Projection p sur F et symétrie s par rapport à F , de direction G.


Une conséquence du fait que les projections sont des applications affines est le théorème
de Thalès. (20) Avant de l’énoncer, on a besoin de la notation suivante.
Notation 4.13. — Soient u, v deux vecteurs non nuls d’un k-espace vectoriel V . S’ils sont
u
colinéaires, il existe un unique 2 k ⇥ tel que u = v. Dans ce cas, on désigne par le
v
scalaire .
Théorème 4.14 (de Thalès). — Soit (E , E) un espace affine de dimension 2, soient
H un hyperplan de E, D, D 0 deux droites distinctes dont les directions D et D0 ne sont
pas contenues dans H, et H1 , H2 , H3 trois hyperplans de E de direction H, deux à deux
distincts. Alors :
(i) D (resp. D 0 ) coupe chaque Hi en un unique point Ai (resp. Bi ).
! !
A3 A2 B3 B2
(ii) On a ! = ! . De plus, A3 et A1 étant fixés, ce scalaire détermine A2 ,
A3 A1 B3 B1
!
A3 M
i.e. si un point M de D vérifie ! = alors M = A2 .
A3 A1
!
0 A2 B 2
(iii) Si de plus D et D sont concourantes en A3 = B3 , on a aussi != .
A1 B 1
(20)
Thalès de Milet, mathématicien grec qui vécut d’environ -624 à -547 de notre ère.
5. GROUPE AFFINE ET PRODUITS SEMI-DIRECTS 21

Démonstration. — (i) Comme D 6⇢ H alors E = D H donc D coupe chaque Hi en un


unique point Ai , et de même pour D 0 .
!
(ii) Soit p la projection de E sur D 0 parallèlement à H. Comme Ai Bi 2 H, alors p(Ai ) =
! !
Bi pour i = 1, 2, 3. Posons A3 A2 = A3 A1 . Alors on a
! ! ! ! ! !
B3 B2 = p(A3 )p(A2 ) = ⇡(A3 A2 ) = ⇡(A3 A1 ) = p(A3 )p(A1 ) = B3 B1 .
!
A3 M
Ceci prouve la première assertion de (ii). De plus, si un point M 2 D vérifie ! =
A3 A1
! ! !
alors on a A3 M = A3 A1 = A3 A2 et donc M = A2 .
(iii) Dans ce cas, posons O = A3 = B3 . Alors l’homothétie de centre O et de rapport
! !
envoie A1 sur A2 et B1 sur B2 , donc on a A2 B2 = A1 B1 , ce qui prouve (iii).
Remarque. — L’assertion (iii) admet une réciproque partielle : soient D et D 0 deux droites
concourantes en un point O et A1 , A2 (resp. B1 , B2 ) deux points de D (resp. D 0 ) distincts de O.
! !
OA2 OB2
Si ! et ! sont égaux au même scalaire , alors l’homothétie de centre O et de rapport
OA1 OB1
! !
envoie A1 sur A2 et B1 sur B2 , donc on a A2 B2 = A1 B1 . Par conséquent, les droites (A1 B1 ) et
(A2 B2 ) sont parallèles.
Si de plus dim(E ) = 2 ces droites sont des hyperplans H1 , H2 et l’on obtient donc l’énoncé
suivant.

Théorème 4.15 (réciproque de Thalès dans le plan). — Dans un plan affine P,


soient D, D 0 deux droites distinctes, sécantes en un point O. Soient A1 , A2 (resp. B1 , B2 )
! !
0 OA2 OB2
deux points de D (resp. D ), distincts de O. Si ! = ! alors les droites H1 = (A1 B1 )
OA1 OB1
et H2 = (A2 B2 ) sont parallèles.

5. Groupe affine et produits semi-directs


Soit (E , E) un espace affine. Dans cette section, on étudie plus en détail la structure du
groupe affine GA(E ), formé des applications affines bijectives E ! E , et de certains de ses
sous-groupes. Commençons par quelques propriétés valables pour toute application affine
f : E ! E (pas nécessairement bijective).

Notation. — On note Ta↵(E ) l’ensemble des transformations affines de E , i.e. applications


affines E ! E .

Proposition 5.1. — Soit (E , E) un espace affine.


(i) Ta↵(E ) est stable par composition, c.-à-d., si f, g 2 Ta↵(E ) alors g f 2 Ta↵(E ).
!
(ii) Soit f 2 Ta↵(E ), alors f bijective , f bijective ; dans ce cas f 1 2 Ta↵(E ) et sa
!
partie linéaire est ( f ) 1 .
(iii) On note GA(E ) = {f 2 Ta↵(E ) | f bijective} ; c’est un groupe et l’application
!
GA(E ) ! GL(E), f 7! f est un morphisme de groupes.
(iv) Pour tout f 2 Ta↵(E ) et u 2 E, on a f tu = t!
f (u)
f ; en particulier si f 2 GA(E )
1
alors f tu f = t! f (u)
.
22 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

(v) Pour tout O 2 E , tout f 2 Ta↵(E ) s’écrit f = tOf (O)


! O , où O est l’application
! ! ⇠
affine définie par O (P ) = O + f (OP ). (i.e. via la bijection E ! E , u 7! O + u, O
!
correspond à f ).
Démonstration. — (i), (ii) et (iii) découlent de 4.5. Prouvons (iv) : pour tout P 2 E , on a
!
(f tu )(P ) = f (P + u) = f (P ) + f (u) = (t! f (u)
f )(P )
ce qui prouve le premier point de (iv), et le second en découle.
!
Enfin, soient O 2 E et f 2 Ta↵(E ), posons u = Of (O) et g = t u f . Alors g est
! !
affine, sa partie linéaire est idE f = f , et l’on a g(O) = O. Donc, pour tout P 2 E , on a
! ! ! !
Og(P ) = g(O)g(P ) = f (OP ) donc g égale O , et l’on a f = tu O . Ceci prouve (v).

Terminologie 5.2. — Le groupe GA(E ) s’appelle le groupe affine de E .


Remarques 5.3. — Il résulte du point (iv) de la proposition précédente que le sous-
groupe T des translations est un sous-groupe distingué de GA(E ). D’autre part, il résulte
!
de l’exercice 4.3 que T est le noyau du morphisme de groupes GA(E ) ! GL(E), f 7! f .

On a donc un isomorphisme canonique GA(E )/T ! GL(E).
De plus, on a le théorème suivant.
Théorème 5.4. — Soient (E , E) un espace affine, GA(E ) le groupe affine de E et T le
sous-groupe des translations (isomorphe à E). Pour tout O 2 E on a :
(i) Le sous-groupe GO = {g 2 GA(E ) | g(O) = O} est isomorphe à GL(E) via le
!
morphisme f 7! f .
(ii) GA(E ) est le produit semi-direct de T par GO .
!
Démonstration. — Fixons O 2 E . Alors l’application GO ! GL(E), f 7! f est un
isomorphisme de groupes, sa réciproque étant le morphisme qui à tout 2 GL(E) associe
!
l’application affine M 7! O + (OM ). Ceci prouve (i).
De plus, pour tout h 2 GA(E ), l’application affine th(O)O
! h appartient à GO et l’on
obtient ainsi des bijections réciproques :
T ⇥ GO ! GA(E ) et GA(E ) ! T ⇥ GO
(tu , g) 7 ! tu g h 7 ! tOh(O)
!, t ! h .
h(O)O

Ceci prouve (ii).


Remarque 5.5. — Le théorème dit que l’on a des isomorphismes GA(E ) ' T o GL(E) '
E o GL(E). Mais attention, le 1er isomorphisme n’est pas canonique, car GL(E) n’est pas de
façon naturelle un sous-groupe de GL(E ) : il faut choisir une origine O pour avoir le sous-groupe
GO !

Théorème 5.6. — Soient (E , E) un espace affine, GA(E ) son groupe affine et T le sous-
groupe des translations.
(i) L’ensemble G des translations et des homothéties forme un groupe (non commutatif ),
appelé le groupes des homothéties et translations et noté HT(E ).
(ii) T en est un sous-groupe distingué et le quotient HT(E )/T est isomorphe au groupe
des homothéties de E, lui-même isomorphe au groupe multiplicatif k ⇥ .
6. BARYCENTRES 23

(iii) Pour tout O 2 E , le sous-groupe HO = {h 2 HT(E ) | h(O) = O} est formé des


homothéties fixant O, donc isomorphe à k ⇥ , et HT(E ) est le produit semi-direct de T par
HO .
(iv) HT(E ) est un sous-groupe distingué de GA(E ).

Démonstration. — (i), (ii) et (iii) sont laissés en exercice. Prouvons (iv). Soient f 2 GA(E )
et h 2 HT(E ). Si h = tu on sait déjà que f tu f 1 = t! f (u)
. Donc on peut supposer que
h = h(A, ) avec 6= 1. Notant L(·) la partie linéaire, comme L(h) = idE est dans le
centre de GL(E), on a L(f h f 1 ) = L(f ) ( idE ) L(f ) 1 = idE .
Donc, d’après la proposition 4.9, f h f 1 est une homothétie de rapport et de centre
B à déterminer. Or on voit que f (A) est laissé fixe, donc c’est le centre B cherché.
A posteriori (i.e. connaissant le résultat), on peut aussi faire le calcul suivant : pour tout
u 2 E on a
! !
(f h f 1 )(f (A) + u) = (f h) A + ( f ) 1 (u) = f A + ( f ) 1 (u) = f (A) + u
1
et ceci montre que f h f = h(f (A), ).

6. Barycentres
On fixe un k-espace vectoriel E et un espace affine E de direction E.

Définition et proposition 6.1. — Soient A1 , . . . , An 2 E et 1, . . . , n 2 k.


(1) On suppose 1 + · · · + n = 1. Alors, si on choisit un point auxiliaire O et qu’on
définit le point G par l’égalité
n
! X !
OG = i OAi
i=1

ce point G ne dépend pas en fait du point O choisi, i.e. pour tout I 2 E , on aura
n
! X !
(⇤) IG = i IAi .
i=1

Ce point G est appelé « barycentre des points pondérés (Ai , i) » et l’on écrira :
G= 1 A1 + ··· + n An .

Remarquons encore qu’en prenant I = G dans (⇤), le point G est caractérisé par l’égalité
Pn ! !
i=1 i GAi = 0 .

(10 ) Plus généralement, si S = 1 + · · · + n 6= 0, il existe un unique point G 2 E tel


! P !
que, pour tout O 2 E , on ait ( 1 + · · · + n )OG = ni=1 i OAi . Par abus de langage, on
dit encore parfois que G est le barycentre des points pondérés (Ai , i ). (21)
P !
(2) Au contraire, si 1 +· · ·+ n = 0 alors le vecteur !u = ni=1 i OAi est indépendant
du choix de O. On écrit alors que ! u = 1 A1 + · · · + n An .

(21)
En sous-entendant qu’on remplace chaque i par i /S pour avoir une somme égale à 1.
24 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

!
Démonstration. — (1) Fixons un point O 2 E et définissons G par l’égalité OG =
Pn ! 0
i=1 i OAi . Alors, pour tout point O on a, d’après la relation de Chasles :
n
X n n n
0
! X 0
! ! X
0
! X ! ! ! !
i O Ai = i (O O + OAi ) = ( i )O O + i OAi = O0 O + OG = O0 G.
i=1 i=1
|i=1
{z } i=1
=1
! P !
Ceci montre que O0 G = ni=1 i O0 Ai pour tout O0 2 E , et G est bien sûr unique, car cette
égalité pour un O0 fixé suffit à déterminer G.
P
(10 ) Posons S = ni=1 i . On voit que (10 ) se ramène au cas (1) en remplaçant chaque
0 0 0 0
i par i = i /S, car alors la somme des i vaut 1 donc G = 1 A1 + · · · + n An est bien
défini et pour tout point O, on a
n n
! X i ! ! X !
OG = OAi i.e. ( 1 + ··· + n ) OG = i OAi .
i=1
S i=1

P !
(2) Fixons un point O 2 E et posons !
u = ni=1 i OAi . Alors, pour tout point O0 on a,
d’après la relation de Chasles :
n
X n n n
! X ! ! X ! X !
0
i O Ai =
0
i (O O + OAi ) = (
0
i )O O + i OAi =!
u.
i=1 i=1
|i=1
{z } i=1
=0

Ceci montre que !


u est indépendant du choix de O.

Terminologie 6.2 (Centre de gravité). — Soient A1 , . . . , An 2 E . Si k est un corps


de caractéristique nulle, par exemple si k = R, alors on peut prendre i = 1/n pour
i = 1, . . . , n. Dans ce cas, G s’appelle l’isobarycentre ou centre de gravité (22) des points
A1 , . . . , An .

Exemple 6.3 (Médianes d’un triangle). — Par exemple, soient A, B, C trois points
non alignés du plan affine réel et soit G leur isobarycentre, appelé le « centre de gravité
du triangle ABC » ; on a donc :
! ! ! !
(⇤) 0 = GA + GB + GC.
D’autre part, notons A0 le milieu du segment [B, C] et définissons de même B 0 et C 0 . Alors
! ! !
A0 est l’isobarycentre de B et C donc pour tout point P on a 2P A0 = P B + P C. Appliquant
ceci à P = G, on déduit de (⇤) que :
! ! ! !
GA = GB + GC = 2GA0 .
!
Ceci montre que le point G appartient au segment [AA0 ] et que le vecteur GA est deux
!
fois plus long (et de sens contraire) que le vecteur GA0 . On a le même résultat pour [BB 0 ]
et [CC 0 ]. Ceci montre que les médianes du triangle, i.e. les droites (AA0 ), (BB 0 ) et (CC 0 ),
sont concourantes et que G est situé sur chaque segment [AA0 ], etc. aux deux-tiers de la
longueur, en partant du sommet.

(22)
On dit aussi centre d’inertie, notamment en physique.
6. BARYCENTRES 25

Remarque 6.4. — Dans l’exemple précédent, l’hypothèse que car(k) soit distincte de 2 et 3 est essentielle.
En e↵et, si car(k) = 2 et A 6= B, le milieu du segment [A, B] n’existe pas : il n’existe aucun point M tel
! ! ! ! ! ! !
que M A + M B = 0 car comme 1 + 1 = 0, le vecteur M A + M B est indépendant de M et égale AB 6= 0 .
Si car(k) = 3, les milieux A0 , B 0 , C 0 existent, mais les médianes (AA0 ), (BB 0 ) et (CC 0 ) ne sont pas
concourantes ; en fait elles sont parallèles ! (cf. [Du, 3.8]). En e↵et, prenons A comme origine et les vecteurs
! !
e1 = AB et e2 = AC comme base de E (supposé de dimension 2), de sorte que B et C ont pour coordonnées
(1, 0) et (0, 1). Alors C 0 a pour coordonnées (1/2, 0) = (2, 0) (car 22 ⌘ 1 mod. 3). De même, B 0 et A0 ont
✓ ◆
! 2
pour coordonnées (0, 2) et (2, 2). Tenant compte de l’égalité 1 ⌘ 2 mod. 3, on a donc : AA0 = ,
2
✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
! 1 2 ! 2 2
BB 0 = = et CC 00 = = .
2 2 1 2

Remarque 6.5. — Dans l’exemple précédent, on a vu que G est le barycentre de (A, 1) et de (A0 , 2),
où A0 est le milieu de [B, C], i.e. le barycentre de (B, 1) et (C, 1). Ceci est généralisé dans la proposition
suivante, qui facilite dans certains cas le calcul du barycentre.

Proposition 6.6 (Associativité des barycentres). — Soient t1 , . . . , tn 2 k de somme


égale à 1, A1 , . . . , An 2 E , et G le barycentre des points pondérés (A1 , t1 ), . . . , (An , tn ). Soit
P
I un sous-ensemble de {1, . . . , n} tel que µ = i2I ti et 1 µ soient non nuls et soit H
(resp. H 0 ) le barycentre des points pondérés (Ai , ti ) pour i 2 I (resp. i 62 I). Alors G est le
barycentre des points pondérés (H, µ) et (H 0 , 1 µ).
! 1P !
Démonstration. — Fixons O 2 E . Alors H et H 0 sont définis par OH = i2I ti OAi et
µ
!0 1 P !
OH = ti OAi . Notant G0 le barycentre de (H, µ) et de (H 0 , 1 µ), on a donc
1 µ i62I
n
!0 ! !0 X ! !
OG = µOH + (1 µ)OH = ti OAi = OG,
i=1
0
d’où G = G.
Proposition 6.7. — Soit f : E ! E 0 une application affine. Alors f « préserve les
barycentres », c.-à-d. pour tous A1 , . . . , An 2 E et 1 , . . . , n 2 k de somme égale à 1, si
P P
G = ni=1 i Ai alors on a f (G) = ni=1 i f (Ai ).
! P ! !
Démonstration. — On a 0 = ni=1 i GAi . Comme f est linéaire, on a :
n n
! X ! ! X !
0 = i f (GAi ) = i f (G)f (Ai )
i=1 i=1

et ceci montre que f (G) est le barycentre (dans E 0 ) des points pondérés (f (Ai ), i ).

Définition et proposition 6.8 (Sea engendré). — Soient k un corps, E un k-ev, E


un espace affine de direction E, X une partie non vide de E et F le sev de E engendré
! pour x, y 2 X.
par les vecteurs xy,
(i) Pour tout x0 2 X, le sea F = x0 + F est le plus petit sea de E contenant X ; en
particulier il ne dépend pas du choix de x0 2 X. On dira que c’est le sea engendré par X
et on le notera A↵hXi.
(ii) On peut aussi le décrire comme suit : c’est l’ensemble des combinaisons barycentriques de
points de X, i.e. un point p de E appartient à A↵hXi ssi il existe un entier n 1, des points
x1 , . . . , xn de X et des scalaires ti 2 k de somme 1 tels que p = t1 x1 + · · · + tn xn .
26 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

Démonstration. — En e↵et, F contient X et si F 0 est un sea contenant X alors sa direction


! pour x, y 2 X, donc F 0 contient F . Ceci prouve (i)
F 0 contient tous les vecteurs xy,
Pour prouver (ii), notons provisoirement F 0 l’ensemble introduit en (ii). Si p est comme en
Pn
(ii), on a x!
0p =
!
i=1 ti x0 xi et donc p 2 F .
Réciproquement, notons que F est engendré par les vecteurs x0! !=
x pour x 2 X, puisque xy
! !
x0 y x0 x. Donc un élément arbitraire de F s’écrit sous la forme :
n
X
p = x0 + ti x0!
xi
i=1
Pn
pour certains xi 2 X et ti 2 k. Posons t0 = 1 i=1 ti ; d’après la définition du barycentre
(cf. 6.1), ceci signifie que p est le barycentre des points pondérés (xi , ti ) pour i = 0, . . . , n, donc
p 2 F 0 . Ceci montre l’égalité F = F 0 .

Définition 6.9 (Points affinement indépendants ou liés)


Soit (E , E) un espace affine et soit p 2 N⇤ . On dit que (p + 1) points A0 , . . . , Ap 2 E sont
affinement indépendants si A↵hA0 , . . . , Ap i est de dimension p. Dans le cas contraire,
on dit que A0 , . . . , Ap 2 E sont affinement liés.
Terminologie. Si p = 2, trois points A0 , A1 , A2 sont affinement liés , ils sont alignés. Donc A0 , A1 , A2
sont affinement indépendants , ils sont non alignés.
On dit que des points A0 , . . . , Ap 2 E sont coplanaires s’ils sont contenus dans un sea P de dimen-
sion 2 (un plan affine), i.e. si dim A↵hA0 , . . . , Ap i  2. Donc quatre points A0 , . . . , A3 sont affinement
indépendants , ils sont non coplanaires.

7. Supplément : théorèmes de Pappus et de Desargues


On énonce dès maintenant la version affine des théorèmes de Pappus et de Desargues. Cette
section sera traitée en cours plus tard, en même temps que la version projective de ces théorèmes.

Théorème 7.1 (de Pappus). — (23) Dans un plan affine P, soient D, D 0 deux droites
distinctes et A, B, C (resp. A0 , B 0 , C 0 ) trois points distincts situés sur D (resp. D 0 ) et dis-
tincts de l’éventuel point de concours de D et D 0 . On suppose que (AB 0 ) est parallèle à
(BA0 ) et que (BC 0 ) est parallèle à (CB 0 ). Alors (AC 0 ) est parallèle à (CA0 ).





C ⇤⇤

⇤ ⇤
@ ⇤ ⇤
@ B⇤⇤ ⇤
@ ⇤
@ @⇤ ⇤
A@ ⇤@ ⇤
@ ⇤ @ ⇤
@⇤ ⇤ @ ⇤
@ ⇤
⇤@ @ ⇤
D ⇤ @ @ ⇤

⇤ @
⇤ @ @⇤
⇤ @ ⇤ @
⇤ @ ⇤ @
⇤ @⇤ @
D0 ⇤ 0 ⇤@ 0@
⇤ C ⇤ 0@ A @
⇤ ⇤B
⇤ ⇤ @ @
⇤ ⇤

(23)
Pappus d’Alexandrie, mathématicien grec du IVème siècle (dates approximatives : 290-350).
7. SUPPLÉMENT : THÉORÈMES DE PAPPUS ET DE DESARGUES 27

Démonstration. — Notons P la direction de P. Distinguons deux cas, selon que D et D 0


sont parallèles ou concourantes.
(1) Si D et D 0 sont parallèles, les hypothèses entraı̂nent que (ABA0 B 0 ) et (CBC 0 B 0 )
! ! ! !
sont des parallélogrammes, d’où AB = B 0 A0 et BC 0 = CB 0 . Alors on a :
! ! ! ! ! !
AC 0 = AB + BC 0 = B 0 A0 + CB 0 = CA0
et donc (AC 0 ) et (CA0 ) sont parallèles.
(2) Supposons D et D 0 concourantes en un point O, qu’on prend comme origine de P.
Prenant une base (e1 , e2 ) de P où e1 (resp. e2 ) est un vecteur directeur de D (resp. D 0 ), nos
points ont les coordonnées suivantes : A(a, 0), B(b, 0), C(c, 0), A0 (0, a0 ), B 0 (0, b0 ), C 0 (0, c0 ),
où a, b, c sont distincts et non nuls, et de même pour a0 , b0 , c0 . Par hypothèse, les vecteurs
! ! ! !
AB 0 = ( a, b0 ) et BA0 = ( b, a0 ) d’une part, et BC 0 = ( b, c0 ) et CB 0 = ( c, b0 ) d’autre
part, sont non nuls et liés, donc il existe , µ 2 k ⇥ tels que
( ( (
b0 = a0 c0 = µb0 c 0 = µ a0
et d’où
a= b b = µc a = µc
! !
Comme µ = µ,(24) on obtient que : AC 0 = ( a, c0 ) = µ( c, a0 ) = µCA0 , et donc (AC 0 )
est parallèle à (CA0 ).

Il existe plusieurs versions du théorème de Desargues.(25) Celle donnée ci-dessous est


appelée « affine », pour la distinguer d’une version « projective » qui sera donnée dans un
chapitre ultérieur.
Théorème 7.2 (de Desargues affine). — Dans un plan affine, soient A, B, C, A0 , B 0 , C 0
six points distincts, avec A, B, C (resp. A0 , B 0 , C 0 ) non alignés. On suppose que :
a) les droites (AA0 ), (BB 0 ) et (CC 0 ) sont deux à deux distinctes,
b) les droites (AB) et (A0 B 0 ) sont parallèles, ainsi que les droites (AC) et (A0 C 0 ).
Alors les droites (BC) et (B 0 C 0 ) sont parallèles si et seulement si les droites (AA0 ), (BB 0 )
et (CC 0 ) sont concourantes ou parallèles.
! !
Démonstration. — L’hypothèse (b) entraı̂ne qu’il existe , µ 2 k ⇥ tels que A0 B 0 = AB et
! !
A0 C 0 = µAC. On a donc
! ! ! ! !
B 0 C 0 = A0 C 0 A0 B 0 = µAC AB,
! ! ! ! ! !
et comme AC, AB sont linéairement indépendants, B 0 C 0 est colinéaire à BC = AC AB
si et seulement si µ = . On a donc :
(1) (BC) et (B 0 C 0 ) parallèles () = µ.
D’autre part, remarquons que les droites (AB) et (A0 B 0 ) sont distinctes, car sinon
ABA0 B 0 seraient alignés et l’on aurait (AA0 ) = (BB 0 ), contrairement à l’hypothèse (a).
(24)
On fait cette remarque car on peut définir la notion d’espaces vectoriels ou affines sur un corps k
éventuellement non commutatif, et alors la validité du théorème de Pappus équivaut à la commutativité
de k. Le lecteur intéressé pourra consulter [LF, §IV.11] ou [Bo, §I.6.7].
(25)
Girard Desargues (1591-1661) mathématicien et architecte français, contemporain de Fermat (1601-
1665) et de Descartes (1596-1650). Par ailleurs, il eut pour élève vers 1640 le jeune Blaise Pascal (1623-
1662).
28 CHAPITRE 1. ACTIONS DE GROUPES, ESPACES ET APPLICATIONS AFFINES

De même, (AC) 6= (A0 C 0 ). Alors on a les équivalences suivantes : = 1 , ABB 0 A0 est un


parallélogramme , (AA0 ) est parallèle à (BB 0 ), et de même : µ = 1 , ACC 0 A0 est un
parallélogramme , (AA0 ) est parallèle à (CC 0 ). Par conséquent, on a :
(2) = 1 = µ () (AA0 ), (BB 0 ) et (CC 0 ) sont parallèles.
Et si 6= 1, alors les droites (AA0 ) et (BB 0 ) se coupent en un point O, et d’après le
! ! ! !
théorème de Thalès, on a OA0 = OA, d’où AO = (1 ) 1 AA0 . De même, si µ 6= 1,
alors les droites (AA0 ) et (CC 0 ) se coupent en un point T , et d’après le théorème de Thalès,
! ! ! !
on a T A0 = µT A, d’où AT = (1 µ) 1 AA0 . On en déduit que (AA0 ), (BB 0 ) et (CC 0 ) sont
! !
concourantes ssi 6= 1, µ 6= 1, et T = O. Or T = O équivaut à AT = AO et donc à µ = .
Donc finalement :
(3) (AA0 ), (BB 0 ) et (CC 0 ) sont concourantes () = µ 6= 1.
En combinant (1), (2) et (3), on obtient bien que (BC) et (B 0 C 0 ) sont parallèles si et
seulement si (AA0 ), (BB 0 ) et (CC 0 ) sont concourantes ou parallèles.
Lorsque k = R, on peut illustrer les deux cas par les figures suivantes. Si (AA0 ), (BB 0 )
et (CC 0 ) sont parallèles, il y a essentiellement une figure :

C C0
@ @
@ @
@ @ 0
B B

A A0
Si (AA0 ), (BB 0 ) et (CC 0 ) se coupent en un point O, le triangle A0 B 0 C 0 est l’image de
ABC par une homothétie de centre O et de rapport , et la figure est di↵érente selon le
signe de :
C0 C0

⌘ @ @
A
⌘ @ A@
C⌘ @ A @
⌘ C A@ @
⌘ @ @
⌘ @ @ A@ @

⌘ @ @ A @ @ B0
>0 Q
O Q B B0 O B
Q
Q A
Q
A QQ
Q
Q
A0 A0

C
A C
A @
A @
A @ A0
A B0 H
A B 0 A0 @HHO @
<0 A !! @ HH @
A!!! @ HH @
!!A C0 HH@
!!! O A HH
@
! H
@
!!! A A B
! A
0
A B C
7. SUPPLÉMENT : THÉORÈMES DE PAPPUS ET DE DESARGUES 29

Prérequis pour ce cours : connaissances de Licence en algèbre linéaire et bilinéaire (produit


scalaire, groupes orthogonaux, formes quadratiques, th. de réduction simultanée). Voir [Du] ou [Po]
ci-dessous ou le livre : François Cottet-Emard, Algèbre linéaire et bilinéaire, de boeck, 2005
(disponible à la MIE).
Références pour ce chapitre :
⇤ Polycopiés :
[Du] Antoine Ducros, Géométrie affine et euclidienne, Cours de L3 à l’UPMC 2009-2012 (sec-
tions 1 et 2), disponible sur la page de l’auteur : [Link]/e [Link]
[It] Ilia Itenberg, Algèbre et géométrie, Cours de M1 à l’UPMC 2013-2014 (chap. 1), disponible
sur la page de l’auteur : [Link]/e [Link]
[Po] Patrick Polo, Algèbre et géométrie, Cours de L2 à l’UPMC 2009-2013 (chap. 7), disponible
sur la page de l’auteur : [Link]/e [Link]/L2

En complément du polycopié 2013-2014 d’Ilia Itenberg, on pourra aussi consulter les polycopiés
faits par les enseignants précédents :
[Be] Daniel Bertrand, Algèbre et géométrie, Cours de M1 à l’UPMC 2009-2013, disponible sur
la page de l’auteur : [Link]/e [Link]
[Ne] Jan Nekovar, Algèbre et géométrie, Cours de M1 à l’UPMC 2005-2009, disponible sur la
page de l’auteur : [Link]/e [Link]

⇤ Et pour les (futurs) agrégatifs, qui ont besoin de références avec un No. d’ISBN, citons les
ouvrages suivants :
[Au] Michèle Audin, Géométrie, EDP Sciences, 2006.
[Bo] Pascal Boyer, Algèbre et géométries, Calvage & Mounet, 2015.
[LF] Jacqueline Lelong-Ferrand, Les fondements de la géométrie, P.U.F., 1985.
[Ta] Patrice Tauvel, Géométrie, Dunod, 2005.
[Ti] Claude Tisseron, Géométries affine, projective et euclidienne, Hermann, 1988.
CHAPITRE 2

COMPLÉTÉ PROJECTIF D’UN ESPACE


AFFINE, ESPACES PROJECTIFS

(1)
Dans tout ce chapitre, k désigne un corps.

8. Plongement vectoriel d’un espace affine


Il est utile de connaı̂tre le résultat suivant :

Lemme 8.1. — Soient X un ensemble non vide et E un k-ev.


(i) L’ensemble A (X, E) de toutes les applications f : X ! E est muni d’une structure
de k-espace vectoriel, définie comme suit : pour f, g 2 A (X, E) et 2 k, l’application
( f + g) : X ! E envoie tout x 2 X sur f (x) + g(x).
(ii) E s’identifie au sev formé des applications constantes de X dans E, i.e. on identifie
un élément u 2 E avec la fonction constante fu : X ! E de valeur u.

Démonstration. — (i) Il faut vérifier des égalités de fonctions : 1·f = f , ·(µ·f ) = ( µ)·f ,
( + µ) · f = · f + µ · f , etc. Elles découlent de ce que, pour tout x 2 X, on a les égalités
correspondantes dans E :
1 · f (x) = f (x), · (µ · f (x)) = ( µ) · f (x), ( + µ) · f (x) = · f (x) + µ · f (x),
etc., qui découlent de la structure de k-ev de E.
(ii) L’application qui à u 2 E associe fu est linéaire et injective, donc c’est un isomor-
phisme de E sur le sev des applications constantes.

Théorème 8.2 (Plongement vectoriel). — Soit (E , E) un espace affine. Il existe un


espace vectoriel Eb et une forme linéaire sur Eb, définis de façon canonique, tels que
Ker( ) = E et que E soit isomorphe à l’hyperplan affine {x 2 Eb | (x) = 1} (qui est un
espace affine de direction E). (Noter que si E est de dimension finie d, alors dim(Eb) = d + 1.)
!
1ère démonstration. — Pour tout A 2 E notons fA l’application E ! E, M 7! M A. Soit
Eb le sev de A (E , E) engendré par ces applications et les applications constantes.
Remarquons d’abord que, pour tout A, B 2 E on a :
!
(†) fB fA = AB.
! ! !
En e↵et, pour tout M 2 E on a : fB (M ) fA (M ) = M B M A = AB.

(1)
Version du 4 oct. 2016, avec R, Q, P renommés A1 , B1 , C1 dans le th. de Desargues 14.3.
32 CHAPITRE 2. ESPACES PROJECTIFS

Montrons que E est un hyperplan de Eb, i.e. admet un supplémentaire de dimension 1.


Quelques soient n 2 N⇤ , A1 , . . . , An 2 E et 1 , . . . , n 2 k, on a :
n
X n
X n
X n
X !
(⇤) i fAi ( i )fA0 = i (fAi fA0 ) = i A0 Ai 2 E.
i=1 i=1 i=1 i=1
Pn
donc i=1 i fAi appartient à kfA0 + E, d’où Eb = kfA0 + E. De plus, cette somme est
!
directe, car fA0 2
6 E puisque l’application fA0 : M 7! M A0 n’est pas constante, d’où :

(⇤⇤) Eb = E kfA0 .

On peut alors définir une forme linéaire sur Eb, de noyau E, en posant (x) = 0 si x 2 E
et (fA0 ) = 1. Alors
H = {x 2 Eb | (x) = 1}
!
est un sous-espace affine de Eb de direction E. Comme pour tout A 2 E on a fA = fA0 + A0 A,
on a donc
!
H = fA0 + E = {fA0 + A0 A | A 2 E } = {fA | A 2 E },
donc l’application A 7! fA est une bijection de E sur H . Remarquons au passage que ne
dépend pas du choix de A0 , puisque (fA ) = 1 pour tout A 2 E , et que pour A1 , . . . , An 2 E
et 1 , . . . , n 2 k on a :
Xn n
X
( i fAi ) = i.
i=1 i=1
Pn b
Ainsi, un élément arbitraire x = i=1 i fAi de E appartient à H si et seulement si
Pn
i=1 i = 1, et dans ce cas on a x = fG , où G est le barycentre des points pondérés
(Ai , i ) (vérifier cette assertion !).
Enfin la bijection E ! H , A 7! fA est affine, de partie linéaire idE , car d’après (†) pour
tout A, B 2 E on a :
! !
(‡) fA fB = fB fA = AB.

Via cette bijection affine, on peut donc identifier E à l’hyperplan H de Eb. Ceci prouve le
théorème.(2)

Faisons enfin la remarque générale suivante. Si E est un hyperplan d’un espace vectoriel
W , défini par une forme linéaire (i.e. E = Ker( )), alors W est la réunion disjointe de
E et de son complémentaire W = {w 2 W | (w) 6= 0}, et tout w 2 W s’écrit de façon
unique w = x, avec (x) = 1 et 2 k. En e↵et, ces conditions entraı̂nent que (w) =
et donc x = (w) 1 w. Ceci montre que si l’on pose H = {x 2 W | (x) = 1} alors, en
tant qu’ensemble, W est la réunion de E et de l’ensemble des couples ( , x), où 2 k ⇤ et
x2H.
Ceci permet de voir « géométriquement » Eb comme la réunion de E et des droites époin-
tées k ⇥ fA = { fA | 2 k ⇥ } = {( , A) | 2 k ⇥ } pour A parcourant E :

(2)
Par ailleurs, on peut montrer (exercice !) qu’en tant que sev de A (E , E), Eb est formé des applications
!
affines f : E ! E dont la partie linéaire est un multiple de idE ; de plus on a f = (f ) idE .
8. PLONGEMENT VECTORIEL D’UN ESPACE AFFINE 33

(5/3, A)

E =1

(1/2, A)

!
0

E =0

2ème démonstration. — On peut définir Eb, en tant qu’ensemble, comme la réunion de E et des couples
( , A), pour 2 k ⇥ et A 2 E , et l’on identifie un point A 2 E avec le couple (1, A). La multiplication par
un scalaire µ 6= 0 est définie de façon évidente : µ · ( , A) = (µ , A) et si u 2 E alors µ · u est l’élément µu
de E. De même, si u, v 2 E leur somme est l’élément u + v de E. On pose ( , A) + u = ( , A + 1 u) et :
8
> µ
< + µ, A+ B si + µ 6= 0,
( , A) + (µ, B) = +µ +µ
>
:µ AB!
si = µ.
On peut alors vérifier directement que les axiomes d’espace vectoriel sont vérifiés, puis que l’application
définie par (u) = 0 et ( , A) = est une forme linéaire de noyau E ; alors E s’identifie à l’hyperplan
affine formé des x 2 Eb tels que (x) = 1. Les détails de la vérification sont laissés en exercice.

Notation 8.3. — Tout point de E peut être considéré comme un « vecteur » de Eb. Pour
distinguer les deux notions, il est utile d’introduire la notation suivante. En tant qu’espace
! = y x) ; notons O le vecteur
vectoriel, Eb est de façon naturelle un espace affine (avec xy
! !
nul 0 de Eb et pour tout « point » M 2 Eb, notons OM le vecteur correspondant.

Proposition 8.4. — Soient A0 , A1 , . . . , Ap des points de E . On a l’égalité :


! !
(?) dim Vect(OA0 , . . . , OAp ) = 1 + dim A↵hA0 , . . . , Ap i.

Démonstration. — Posons F = A↵hA0 , . . . , Ap i. Sa direction est le sous-espace vectoriel


! !
F = Vect(A0 A1 , . . . , A0 Ap ) de E et l’on a dim(F ) = dim(F ). (Ceci est  p avec égalité ssi
A0 , . . . , Ap sont affinement indépendants.)
! ! ! ! !
Posons Fb = Vect(OA0 , . . . , OAp ). Comme OAi = OA0 + A0 Ai pour tout i 1, on a
!
Fb = k OA0 + F
! ! !
et comme F ⇢ E et OA0 62 E (car (OA0 ) = 1), on a OA0 62 F , donc la somme ci-dessus
est directe. On a donc dim(Fb) = 1 + dim(F ).
34 CHAPITRE 2. ESPACES PROJECTIFS

Exemple 8.5. — Illustrons ceci lorsque (E , E) est un plan affine sur R et que les points
!
A0 , A1 , A2 sont distincts et alignés. Alors F est la droite vectorielle RA0 A1 ⇢ E et, dans
! !
le dessin ci-dessous, Fb est le plan « vertical » engendré par A0 A1 et OA0 :

Fb

A0 A1 A2 F
6

!
A0-
A1 F
O

9. Coordonnées barycentriques, théorèmes de Ménélaüs et de Ceva


De l’avis de l’auteur de ces lignes, l’intérêt principal du prolongement vectoriel est la construction du
complété projectif de E (voir la section suivante). Toutefois, on l’utilise dans cette section pour démontrer
les théorèmes de Ménélaüs et de Ceva.

Définition 9.1. — Soient E un espace affine de dimension n et R = (A0 , A1 , . . . , An ) un


repère affine de E (cf. 3.7). Pour tout M 2 E il existe un unique (n+1)-uplet ( 0 , . . . , n ) 2
P P
k n+1 tel que ni=0 i = 1 et M = ni=0 i Ai . On dit que ( 0 , . . . , n ) sont les coordonnées
barycentriques de M dans le repère R.
Démonstration. — L’existence résulte de la Prop. 6.8 : comme A↵hA0 , . . . , An i = E , tout
P
point M de E s’écrit comme barycentre des Ai . Prouvons l’unicité : si ni=0 i = 1 et
P ! P ! ! !
M = ni=0 i Ai , on a A0 M = ni=1 i A0 Ai donc, comme (A0 A1 , . . . , A0 An ) est une base de
Pn
E, 1 , . . . , n sont uniquement déterminés. Alors 0 l’est aussi puisque 0 = 1 i=1 i .

Proposition 9.2. — Supposons dim(E ) = n et soit R = (A0 , A1 , . . . , An ) un repère affine


de E . Alors :
! !
a) Les vecteurs OA0 , . . . , OAn forment une base Rb de Eb. Notons ( 0 , . . . , n ) les coor-
données dans cette base.
!
b) Un « point » M de Eb appartient à E ssi les coordonnées ( 0 , . . . , n ) de OM vérifient
Pn
i=0 i = 1.
c) De plus, les coordonnées barycentriques d’un point M 2 E dans le repère R sont
! b On peut donc dire que : les coordonnées
les coordonnées du vecteur OM dans la base R.
barycentriques dans E se prolongent en des coordonnées « vectorielles » dans Eb.
9. COORDONNÉES BARYCENTRIQUES, THÉORÈMES DE MÉNÉLAÜS ET DE CEVA 35

Démonstration. — Le point (a) découle de la Prop. 8.4. D’autre part, si M est un élément
! P !
de Eb, l’écriture OM = ni=0 i OAi signifie, avec les notations du théorème 8.2, que M =
Pn Pn
i=0 i f A i
; comme est linéaire et vaut 1 sur chaque f A i
, on a donc (M ) = i=0 i . Le
point (b) en découle.
Prouvons (c). Soit M 2 E et soient ( 0 , . . . , n ) ses coordonnées barycentriques dans R.
! P ! P
Alors pour tout P 2 E , on a P M = ni=0 i P Ai et, comme ni=0 i = 1, on a donc :
n
X n n n
! ! ! ! X ! X ! ! X !
OM = OP + P M = i OP + i P Ai = i (OP + P Ai ) = i OAi .
i=0 i=0 i=0 i=0

Théorème 9.3. — Soient E un espace affine de dimension n et R = (A0 , A1 , . . . , An )


un repère de E . Donnons-nous n + 1 points B0 , . . . , Bn de E et pour j = 0, . . . , n no-
tons ( 0j , . . . , nj ) les coordonnées barycentriques de Bj dans le repère R. Alors les points
B0 , . . . , Bn sont affinement liés ssi le déterminant de la matrice ⇤ = ( ij )i,j=0,...,n est nul.

Démonstration. — Plaçons-nous dans le plongement vectoriel V = Eb de E et notons F =


! ! ! !
Vect(B0 B1 , . . . , B0 Bn ) et Fb = Vect(OB0 , . . . , OBn ). On a les équivalences :
! !
les Bi sont liés () dim(F ) < n () dim(Fb) < n + 1 () détB (OB0 , . . . , OBn ) = 0,
! ! !
où B désigne la base Rb de V . Or la matrice MatB (OB0 , . . . , OBn ) (qui exprime les OBj
dans la base B) n’est autre que ⇤, d’où le résultat. (3)

Dans la suite de cette section, on se place dans un plan affine (P, P ).

Théorème 9.4 (de Ménélaüs). — (4) Dans le plan P, soient A, B, C trois points non
alignés, qui forment donc un repère, d’où des coordonnées barycentriques. Soit A0 un point
de la droite (BC), ses coordonnées barycentriques sont donc de la forme (0, x, x0 ). De même,
soient B 0 2 (CA), de coordonnées (y 0 , 0, y) (5) et C 0 2 (AB) de coordonnées (z, z 0 , 0). Alors
les points A0 , B 0 et C 0 sont alignés ssi xyz + x0 y 0 z 0 = 0.

A
A
A C (0, 0, 1)
A
A
A
A
A
aa A
aa A
aa A
aa 0 0
B (y , 0, y)
aa A
aa A
aa A
aa A
0 aa
A C aa A B (0, 1, 0)
(1, 0, 0) 0
(z, z , 0) a aa A
aaA
a
A a
A0 A aa
(0, x, x0 )AA
A

(3)
Pour une autre démonstration, n’utilisant pas le plongement vectoriel, voir [Be, Prop. I.2.3].
(4)
Mathématicien grec qui vécut autour de l’an 100.
(5)
Pour que le résultat final soit « joli », i.e. xyz + x0 y 0 z 0 = 0, on utilise l’ordre « cyclique » ABCA.
36 CHAPITRE 2. ESPACES PROJECTIFS

Démonstration. — D’après le théorème 9.3, A0 , B 0 et C 0 sont alignés ssi le déterminant


0 y0 z
x 0 z 0 est nul. Or on voit facilement que ce déterminant vaut xyz + x0 y 0 z 0 .
x0 y 0

Théorème 9.5 (de Céva). — (6) Mêmes hypothèses et notations que dans le théorème
de Ménélaüs. Alors les droites (AA0 ), (BB 0 ) et (CC 0 ) sont concourantes ou parallèles ssi
xyz = x0 y 0 z 0 .
Démonstration. — On note R le repère (A, B, C) et l’on se place dans l’espace vectoriel
V = P,c muni des coordonnées ( , µ, ⌫) dans la base R.
b La démonstration se fait en quatre
étapes. Notons P la direction de P.
(i) Remarquons d’abord que toute droite affine D de P est l’intersection du plan vectoriel
⇧ qu’elle engendre dans V , et de P. Or ⇧ est défini dans V par l’annulation d’une forme
linéaire f ( , µ, ⌫) = a + bµ + c⌫, laquelle est unique à multiplication par un scalaire non
nul près. Donc D est définie dans P par « l’équation en les coordonnées barycentriques »
a + bµ + c⌫ = 0. De plus, ⇧ \ P est la droite vectorielle D qui est la direction de D (voir
la figure dans l’exemple 8.5).
(ii) Soient maintenant dans P trois droites affines distinctes D1 , D2 , D3 , soient ⇧1 , ⇧2 , ⇧3
les plans vectoriels associés, et soient fi ( , µ, ⌫) = ai + bi µ + ci ⌫ une forme linéaire définis-
sant ⇧i . Comme D1 6= D2 alors ⇧1 6= ⇧2 donc ⇧1 \ ⇧2 est une droite vectorielle , et donc
le sous-espace W = ⇧1 \ ⇧2 \ ⇧3 est égal soit à (si ⇢ ⇧3 ), soit à {0} (si 6⇢ ⇧3 ).

De plus, comme ⇧i = Ker(fi ) est l’orthogonal dans V de la droite kfi ⇢ V , alors W est
l’orthogonal dans V du sous-espace Vect(f1 , f2 , f3 ) de V ⇤ et donc on a :
(⇤) W = () W 6= {0} () f1 , f2 , f3 sont liées.

(iii) W = équivaut à ce que les droites D1 , D2 , D3 soient concourantes ou parallèles.


Plus précisément :
– Si n’est pas contenue dans P elle coupe P en un point I qui appartient à P \⇧1 \⇧2
donc I est le point de concours de D1 et D2 . Dans ce cas, on voit que W = ssi D1 , D2 , D3
sont concourantes en I.
– Si ⇢ P alors est contenue dans P \⇧i pour i = 1, 2, donc D1 et D2 sont parallèles,
de direction D. Dans ce cas, on voit que W = ssi D1 , D2 , D3 sont parallèles.
On a ainsi démontré, au passage, la proposition suivante :
Proposition 9.6. — Soient dans P trois droites affines distinctes D1 , D2 , D3 , définies
respectivement par les équations en les coordonnées barycentriques : ai + bi µ + ci ⌫ = 0
a1 a2 a3
pour i = 1, 2, 3. Alors D1 , D2 , D3 sont concourantes ou parallèles ssi b1 b2 b3 = 0.
c1 c2 c3
En e↵et, la nullité de ce déterminant équivaut au fait que les formes linéaires fi ( , µ, ⌫) =
ai + bi µ + ci ⌫ soient liées.

(6)
Giovanni Ceva, mathématicien italien (1647-734). Son nom est souvent francisé en : « Jean (de) Céva »,
probablement pour le distinguer de son frère Tommaso (jésuite et mathématicien, qui eut pour élève le
géomètre (et jésuite aussi) Giovanni Saccheri). Source : [Link]
10. COMPLÉTÉ PROJECTIF D’UNE DROITE OU D’UN PLAN AFFINE 37

(iv) Achevons maintenant la démonstration du théorème de Ceva. Comme la droite


D1 = (AA0 ) passe par les points de coordonnées (1, 0, 0) et (0, x, x0 ), on voit que l’équation
f1 du plan ⇧1 est x0 µ x⌫ = 0. De même, comme la droite D2 = (BB 0 ) passe par les points
de coordonnées (0, 1, 0) et (y 0 , 0, y), on voit que l’équation f2 de ⇧2 est y + y 0 ⌫ = 0. Et
comme D3 = (CC 0 ) passe par les points de coordonnées (0, 0, 1) et (z, z 0 , 0), on voit que
l’équation f3 de ⇧3 est z 0 zµ = 0. On obtient donc que (AA0 ), (BB 0 ) et (CC 0 ) sont
0 y z0
concourantes ou parallèles ssi le déterminant x0 0 z est nul. Or on voit facilement
0
x y 0
0 0 0
qu’il vaut x y z xyz.

Exercice 9.7. — Soient A, B, C trois points non alignés d’un plan affine réel, s, t 2 ]0, 1[,
! !
C 0 = A + s AB et A0 = B + t BC. Soit I le point de concours de (AA0 ) et (CC 0 ) et B 0 le
point de concours de (BI) et (CA).
(i) Quelle est la condition sur s, t pour que B 0 soit le milieu de [C, A] ?
(ii) On suppose s = 1/3 et t = 1/4. Déterminer le réel tel que B 0 = (1 )C + A.
(iii) Même question lorsque s = 1/3 et t = 3/4.

10. Complété projectif d’une droite ou d’un plan affine


10.1. Complété projectif d’une droite affine. — Soit D une droite affine, de di-
rection D. Alors V = D b est un k-espace vectoriel de dimension 2 qui contient comme
hyperplan affine D = {v 2 V | (v) = 1}. Notons P(V ) = P(D) b l’ensemble des droites
vectorielles de V . On peut le voir de plusieurs façons.
(a) Sur le dessin ci-dessous, on voit que, à l’exception de D, toute droite vectorielle de
V coupe D en un unique point. On peut donc identifier P(D) b à l’ensemble des points de
D, auxquels on rajoute un point, noté 1, qui correspond à la droite D et qu’on appelle le
b
« point à l’infini ». Donc, comme ensemble, P(D) = D [ {1}.

D A =1
A
A
A
D A
A
(b) Choisissons des coordonnées (x, y) sur V telles que D (resp. D) soit donnée par
l’équation y = 1 (resp. y = 0).(7) Alors les droites vectorielles de V sont :
(i) Pour 2 k, la droite D d’équation x = y (engendrée par e2 + e1 ), qui coupe D
en le point ( , 1).
(ii) La droite D = ke1 , d’équation y = 0.

Pour cela, on choisit une forme linéaire non colinéaire à notre , alors ( , ) est une base de V ⇤ , duale
(7)

d’une unique base B = (e1 , e2 ) de V et donc les formes linéaires « coordonnées dans cette base » sont
( , ).
38 CHAPITRE 2. ESPACES PROJECTIFS

Dans la figure suivante, pour k = R on a représenté les droites D0 et D1 , ainsi que Da


et Db , où a = 1/2 = b. De plus, lorsque k = R, on voit que lorsque tend vers ±1, la
droite D « tend » vers la droite D1 = D. Bien qu’on n’ait pas encore défini de topologie
sur P(V ), on peut comprendre l’assertion précédente en remarquant que chaque droite D
recoupe le cercle C de diamètre [OA] en un unique point P 6= O, tandis que D = D1 est
tangente à C en O, et que, pour la topologie usuelle de R2 , le point P tend vers O quand
tend vers ±1. Donc, on peut identifier P(R2 ) au cercle C (on reviendra sur ceci plus
tard).

D0

A '$
y Db D1
A6
Da
B D (y=1)
A A=(0,1)
A B=(1,1)
A
&%A -x
D=D1 AO

Revenant à un corps quelconque k, soit V un k-espace vectoriel de dimension 2.

Définition 10.1. — (a) On note P(V ) l’ensemble des droites vectorielles de V , et l’on
dit que P(V ) est une droite projective.

(b) Lorsque V = D b pour une droite affine D, on note P(D)


b b et l’on dit que c’est
= P(D)
le complété (ou plongement) projectif de D.

L’intérêt de cette notion de « droite projective » va apparaı̂tre dans le paragraphe suivant.

10.2. Complété projectif d’un plan affine. — Soit P un plan affine, de direction
P . Alors V = P c est un k-espace vectoriel de dimension 3 qui contient comme hyperplan
affine P = {v 2 V | (v) = 1}. Notons P(V ) = P(P) b l’ensemble des droites vectorielles de
V . On dit que c’est un plan projectif, et que c’est le complété (ou plongement) projectif
de P.
Comme ensemble, P(P)b est la réunion des points de P, qui correspondent aux droites
c
vectorielles de P non contenues dans P , et des points de P(P ), qui correspondent aux
droites vectorielles de P .(8)

(8)
C’est pour cette raison que, dans la figure suivante, on a noté par des lettres minuscules les droites
b
vectorielles d0 , d1 , d2 , d, : elles correspondent à des « points » de P(P).
10. COMPLÉTÉ PROJECTIF D’UNE DROITE OU D’UN PLAN AFFINE 39

d1 d2
d0 ⇤
A ⇤
A ⇤
% ⇤ ⌦
A ⇤
A % ⇤ ⌦
A % ⇤ ⌦
A % ⇤ ⌦
A % A2 ⇤ ⌦
A % ⇤ ⌦
A% D0 ⌦
%A ⌦
% A ⌦
% A ⌦
% A ⌦
% A0A A1 ⌦
% D ⌦
% ⌦
% ⌦
% ⌦
P% % ⌦

A ⇤
A ⇤
A ⇤
⌧ A ⇤ 
⌧ A ⇤ 
⌧ A ⇤ 
⌧ A ⇤ 
⌧ A ⇤ 
⌧ A ⇤ 
⌧ A ⇤ 
⌧ A⇤ 
⌧ O d 
⌧ 
⌧ 
⌧ 
⌧ 
P ⌧⌧ 

Les points de P(P ) forment ce qu’on appelle la « droite (projective) à l’infini », qu’on
notera D1 . Dans P(P),b chaque droite affine D est « complétée » en lui adjoignant son
« point à l’infini », qui est le point de P(P ) correspondant à la direction de D ; on obtient
b
ainsi la droite projective P(D). (9)
De plus, deux droites parallèles ont le même point à
l’infini : par exemple, dans la figure, D et D 0 ont d pour point à l’infini, tandis que la droite
(A1 A2 ) et sa parallèle passant par A0 ont toutes deux comme point à l’infini. On voit
ainsi que :
(i) Dans P, soient D1 , D2 deux droites affines distinctes, alors dans P(P) b les droites
b b
projectives P(D1 ) et P(D2 ) se coupent en un unique point x, et x appartient à P (resp. à
la droite à l’infini D1 ) si et seulement si D1 et D2 sont concourantes (resp. parallèles). (Ceci
suffit déjà à justifier l’étude des espaces projectifs et de la « géométrie projective ».)
(ii) De plus, pour toute droite affine D de P, la droite projective P(D) b coupe D1 en
un unique point, qui est le point à l’infini de D. Donc, en appelant « droites » de P(P) b
les droites P(D) b ainsi que la droite D1 , on obtient que :
b
« dans P(P) deux droites distinctes se coupent en un unique point »,
ce qui est une situation « plus agréable » que dans le plan affine. De plus, on verra plus
bas que, en fait, D1 ne joue pas un rôle particulier et peut être remplacée par n’importe
b
quelle droite de P(P).

Remarque 10.2. — Lorsque k = R le plan projectif réel P2 (R) = P(R3 ) est muni d’une structure de
variété C 1 compacte mais attention, il ne s’identifie pas à la sphère S 2 = {(x, y, z) 2 R3 | x2 +y 2 +z 2 = 1}.
2
On peut essayer de se le représenter comme la demi-sphère supérieure : S+ = {(x, y, z) 2 S 2 | z 0} en
identifiant deux à deux les points diamétralement opposés (x, y, 0) et ( x, y, 0). En e↵et, chaque droite
vectorielle non contenue dans le plan horizontal z = 0 coupe la demi-sphère en un unique point, pour
lequel z > 0. D’autre part, chaque droite vectorielle horizontale coupe le cercle horizontal S 1 = {(x, y, 0) 2
R3 | x2 + y 2 = 1} en deux points diamétralement opposés, qu’il faut donc identifier. On peut montrer que
P2 (R) est une surface compacte non orientable (i.e. elle a une seule face au lieu de deux, comme un ruban

(9) c engendré par D s’identifie à D


En e↵et, le sev de P b et l’on retrouve la construction du §1.
40 CHAPITRE 2. ESPACES PROJECTIFS

de Möbius) et donc n’est pas homéomorphe à une surface contenue dans R3 . Mais ceci n’empêche pas de
faire de la géométrie projective !

11. Espaces projectifs, coordonnées homogènes, ouverts affines


11.1. Espaces projectifs et coordonnées homogènes. — On fixe un k-espace vec-
toriel V de dimension n + 1.

Définition 11.1. — L’espace projectif de V , noté P(V ), est l’ensemble des droites vec-
torielles de V . On dit que c’est un espace projectif de dimension n = dim(V ) 1. (10) Si
V = k n+1 , on le note aussi Pn (k).
En particulier, si dim(V ) = 1 alors P(V ) est un point. Si dim(V ) = 2 (resp. 3), on dit
que P(V ) est une droite projective (resp. un plan projectif).
Terminologie. Si V est le plongement vectoriel Eb d’un espace affine E de dimension n,
alors P(Eb) est noté P(E
b ) et appelé le complété (ou plongement) projectif de E .

Notation 11.2. — Considérons sur V {0} la relation d’équivalence définie par v ⇠ v 0


ssi il existe 2 k ⇥ tel que v 0 = v. Comme toute droite D est définie par un vecteur non
nul v et que deux vecteurs non nuls v, v 0 définissent la même droite ssi v ⇠ v 0 , on voit que
P(V ) s’identifie à l’ensemble quotient (V {0})/ ⇠, qu’on note (V {0})/k ⇥ .
Pour tout v 2 V {0}, on notera [v] son image dans P(V ), i.e. le point de P(V ) défini
par la droite kv.

Définition 11.3 (Sous-espaces projectifs de P(V )). — Soit W un sev non nul de V .
Alors P(W ) est un sous-ensemble de P(V ) (en e↵et, les droites vectorielles de V contenues dans
W sont exactement les droites vectorielles de W ). On dira que c’est un sous-espace projectif de
P(V ), de dimension dim(W ) 1. (11) En particulier, si dim(W ) = 2 on dit que P(W ) est une
droite (projective) de P(V ), et si dim(W ) = dim(V ) 1 on dit que P(W ) est un hyperplan
(projectif) de P(V ).
Terminologie. Si V est le plongement vectoriel Eb d’un espace affine E de dimension n,
alors E est un hyperplan de Eb donc P(E) est un hyperplan de P(E b ) = P(Eb). On dit que
b ) s’identifie à la réunion disjointe de E et de P(E).
c’est l’hyperplan à l’infini car P(E

Rappelons le lemme suivant, dont on se servira de façon répétée.

Lemme 11.4. — Soient H un hyperplan de V et W un sev de V non contenu dans H.


Alors on a dim(W \ H) = dim(W ) 1.

Démonstration. — En e↵et, rappelons la formule :


(†) dim(W \ H) = dim(W ) + dim(H) dim(W + H).
Comme dim(H) = dim(V ) 1 et comme l’inclusion H ⇢ H + W est stricte (car W 6⇢ H),
on a dim(W + H) dim(V ) et donc W + H = V . Reportant ceci dans (†), on obtient
dim(W \ H) = dim(W ) 1.

(10)
Par convention, P({0}) = ?.
(11)
Si W = {0}, alors P(W ) est l’ensemble vide ?, auquel on peut attribuer la dimension 1.
11. ESPACES PROJECTIFS, COORDONNÉES HOMOGÈNES, OUVERTS AFFINES 41

b
On a vu au §10.2 que, si P est un plan affine, alors le plan projectif P(P) c a la propriété
= P(P)
suivante : deux droites projectives distinctes se coupent en un unique point. On va voir que ceci est vrai
dans tout plan projectif. Plus généralement, on a la :

Proposition 11.5. — Soient E, F deux sev non nuls de V . Posons p = dim P(E) et
q = dim P(F ).
(i) On a P(E) \ P(F ) = P(E \ F ) ; ceci est non vide ssi E \ F 6= {0}.
(ii) Si p + q n = dim P(V ) alors P(E) \ P(F ) est non vide et est de dimension
p + q n.
(iii) Par ailleurs, on a : P(E) ⇢ P(F ) , E ⇢ F et donc : P(E) = P(F ) , E = F .
(iv) Si H est un hyperplan de V et si D est une droite projective non contenue dans
P(H), alors D \ P(H) est formé d’un seul point.
Démonstration. — P(E) \ P(F ) est formé des droites vectorielles de V contenues dans E
et dans F , i.e. contenues dans E \ F . La 1ère assertion de (i) en découle, et la 2ème est
claire.
(ii) On sait que dim(E \ F ) + dim(E + F ) = dim(E) + dim(F ) = p + 1 + q + 1 = p + q + 2,
et comme dim(E + F )  dim(V ) = n + 1 on a donc :
dim(E \ F ) p+q+2 (n + 1) = p + q + 1 n.
Sous l’hypothèse p+q n, ceci est 1, donc E \F est non nul, de dimension p+q n+1,
donc P(E) \ P(F ) est de dimension p + q n.
(iii) Il est clair que si E ⇢ F alors P(E) ⇢ P(F ). Réciproquement, si P(E) ⇢ P(F ), alors
pour tout v non nul dans E, la droite kv est contenue dans F , d’où v 2 F et donc E ⇢ F .
Ceci prouve la 1ère assertion de (iii), et la 2ème en découle.
(iv) On a D = P(W ) pour un certain plan vectoriel W de V (uniquement déterminé, d’après
(iii)),
non contenu dans H. Alors = W \ H est une droite vectorielle de H et donc
D \ P(H) = P( ) est le point de P(H) correspondant à .
Corollaire 11.6. — (i) Dans un plan projectif, deux droites projectives distinctes D et
D0 se coupent en un unique point.
(ii) Dans un espace projectif P(V ) de dimension 3 (i.e. dim(V ) = 4), soient P un plan
projectif et D une droite projective non contenue dans P. Alors P et D se coupent en un
unique point.
Pour faire de la géométrie dans le plan projectif (cf. la section 14 sur les théorèmes de Pappus et de
Desargues), on aura besoin de la notion de « droite projective engendrée par deux points distincts » et de
celle de « points alignés » dans P(V ). Pour cela, on a besoin de la :

Définition 11.7 (Sous-espace projectif engendré, points alignés)


Soit X un sous-ensemble non vide de P(V ). Notons x la droite vectorielle de V cor-
respondant à un élément x de X, et soit E le sev de V engendré par les x . En d’autres
termes, si X = {p1 , . . . , pN } et si pi = [vi ], alors E = Vect(v1 , . . . , vN ). Alors :
(i) P(E) est le plus petit sous-espace projectif de V contenant X. On dit que c’est le
sous-espace projectif engendré par X.
(ii) Si X est formé de deux points distincts p1 , p2 , alors dim(E) = 2 et l’on dit que P(E)
est la droite projective engendrée par p1 et p2 . On la note (p1 p2 ).
42 CHAPITRE 2. ESPACES PROJECTIFS

(iii) Soient N 2 et p1 , . . . , pN des points de P(V ), pas tous égaux. On dit qu’ils sont
alignés si le sous-espace projectif qu’ils engendrent est une droite projective.

Démonstration. — Il n’y a que la première phrase de (i) à démontrer. Mais c’est clair, car
si X est contenu dans un sous-espace projectif P(W ) alors W contient les x donc contient
E, d’où P(E) ⇢ P(W ).

Définition 11.8 (Coordonnées homogènes). — Munissons V d’une base (e0 , . . . , en ),


notée B. Alors chaque point de P(V ), correspondant à une droite vectorielle D, peut être
paramétré par ses « coordonnées homogènes » [x0 , x1 , . . . , xn ] : ce sont les coordonnées
dans la base B d’un élément non nul v de D. Noter que comme v 6= 0, les xi ne sont
pas tous nuls. Bien sûr, pour tout 2 k ⇥ , v et v engendrent la même droite, donc les
coordonnées homogènes ne sont définies qu’à la multiplication près par un scalaire non nul,
i.e. [x0 , x1 , . . . , xn ] et [ x0 , x1 , . . . , xn ] représentent le même point.
On va voir que malgré cette « non unicité » (qui au prime abord peut sembler gênante),
les coordonnées homogènes sont un outil très utile.
En particulier, si V = k n+1 , les coordonnées homogènes dans Pn (k) = P(k n+1 ) ne sont
autres que les classes d’équivalence de (n + 1)-uplets (x0 , . . . , xn ) 2 k n+1 {(0, . . . , 0)}, où
(x0 , . . . , xn ) ⇠ (x00 , . . . , x0n ) ssi il existe 2 k ⇥ tel que x0i = xi pour tout i, et la classe
d’équivalence de (x0 , . . . , xn ) est notée [x0 , . . . , xn ].

11.2. Ouverts affines. — On appellera plus bas « ouverts affines » de P(V ) certains es-
b ). Pour justifier la terminologie
paces affines, analogues de l’espace affine E plongé dans P(E
« ouverts », commençons par la définition suivante.

Remarque 11.9. — Pour tout polynôme homogène F 2 k[X0 , . . . , Xn ], disons de degré d, on


peut définir son « lieu des zéros » dans Pn (k) par :

V (F ) = {[x0 , . . . , xn ] 2 Pn (k) | F (x0 , . . . , xn ) = 0}.

Ceci est bien défini, car puisque F est homogène de degré d, on a F ( x0 , . . . , xn ) =


d F (x , . . . , x ) pour tout
0 n 2 k ⇥ , donc si F s’annule sur un représentant (x0 , . . . , xn ) de
[x0 , . . . , xn ] il s’annule sur tout représentant.
Plus généralement, pour tout ensemble {F1 , . . . , FN } de polynômes homogènes (où Fi est,
disons, de degré di ), on pose :
N
\
V (F1 , . . . , FN ) = {[x0 , . . . , xn ] 2 Pn (k) | 8i = 1, . . . , N, Fi (x0 , . . . , xn ) = 0} = V (Fi ).
i=1

On appellera ces sous-ensembles des fermés algébriques de Pn (k). (12)

La remarque précédente est valable, indépendamment d’un choix de coordonnées, pour


toute forme linéaire f sur V . Plus précisément :

(12)
On peut vérifier (nous n’en aurons pas besoin) que les V (F ) forment les fermés d’une certaine topologie
sur Pn (k), appelée la topologie de Zariski. De plus, si k est le corps K = R ou C alors Kn+1 est muni d’une
topologie canonique, ainsi que le quotient Pn (K) = (Kn+1 {0})/K⇥ , et comme les fonctions polynomiales
(homogènes) F = Kn+1 ! K sont continues, on obtient que les V (F1 , . . . , FN ) sont aussi des fermés pour
cette topologie.
11. ESPACES PROJECTIFS, COORDONNÉES HOMOGÈNES, OUVERTS AFFINES 43

Définition 11.10 (Hyperplans de P(V )). — (i) Pour toute f 2 V ⇤ non nulle, son
lieu des zéros V (f ) = {[v] 2 P(V ) | f (v) = 0} est appelé un hyperplan de P(V ). Notant H
l’hyperplan Ker(f ) ⇢ V , on voit que V (f ) n’est autre que l’ensemble des droites vectorielles
contenues dans H, c.-à-d. le sous-espace projectif P(H) ⇢ P(V ).
(ii) Plus généralement, pour f1 , . . . , fr 2 V ⇤ , le lieu des zéros V (f1 , . . . , fr ) est bien défini
T
et s’identifie au sous-espace projectif P(W ), où W = ri=1 Ker(fi ). (13)
Rappel 11.11. — Si F est un sev de V , son orthogonal dans V ⇤ est :
F 0 = {v 2 V | f (v) = 0 pour tout f 2 F }.
On a dim(F 0 ) = dim(V ) dim(F ). En particulier, si F = H est un hyperplan de V alors
H 0 est une droite vectorielle de V ⇤ .
Explications 11.12. — Afin « d’expliquer » les propositions 11.13 et 11.15 qui vont
suivre, résumons ici le but poursuivi dans la suite de cette section. On a vu au §10.2
b
que le complété projectif P(P) d’un plan affine (P, P ), obtenu en ajoutant à P la droite
projective P(P ), a de meilleures propriétés d’incidence que P (i.e. deux droites distinctes
se coupent en un unique point). On verra plus loin que pour certains énoncés de géométrie
affine dans P, il est avantageux de démontrer d’abord un énoncé analogue dans P(P), b
puis d’en déduire le résultat « en revenant » dans P.
Ceci se généralise en dimension quelconque : si V = Eb est le plongement vectoriel d’un
espace affine (E , E), alors E est le complémentaire dans P(V ) de « l’hyperplan à l’infini »
P(E). Mais il y a bien plus que cela : on va voir que pour tout hyperplan projectif P(H)
de P(V ), l’ouvert complémentaire U = P(V ) P(H) est muni d’une structure naturelle
d’espace affine de dimension n, et si l’on part d’un énoncé affine dans E que l’on transforme
en énoncé projectif dans P(V ), alors en se plaçant dans l’espace affine U , on peut obtenir de
nouveaux théorèmes affines (voir les théorèmes de Pappus et de Desargues dans la section
suivante).
Définition et proposition 11.13 (Les « ouverts » affines U = P(V ) P(H))
Soient H un hyperplan de V et U = P(V ) P(H). Fixons un générateur f de H 0 ,
i.e. une forme linéaire f telle que Ker(f ) = H, et soit H l’hyperplan affine de V d’équation
f (x) = 1.
Alors l’application H ! U , x 7! [x] est une bijection. Via cette bijection U est muni
d’une structure d’espace affine de direction H, définie par [x] + u = [x + u].
Démonstration. — Tout [v] 2 U admet un unique représentant v tel que f (v) = 1. En
e↵et, si w est un représentant quelconque, alors v = f (w) 1 w vérifie f (v) = 1, et pour tout
représentant v 0 = µv on a f (v 0 ) = µ, donc f (v 0 ) = 1 , µ = 1. On a donc une bijection
x 7! [x] de H sur U . De plus, d’après 2.6, H est un espace affine de direction H. Via la
bijection précédente, ceci munit U d’une structure d’espace affine de direction H.
Remarque 11.14. — Ce qui précède devient très simple si on l’écrit en coordonnées
homogènes. Soit H un hyperplan de V . On peut trouver des coordonnées homogènes
[x0 , . . . , xn ] telles que H soit donné par l’annulation d’une des coordonnées, disons par
l’équation x0 = 0. En e↵et, soit f0 une forme linéaire telle que Ker(f0 ) = H ; complétons-la
en une base (f0 , . . . , fn ) de V ⇤ . C’est la base duale d’une unique base B = (e0 , . . . , en ) de
(13)
On rappelle que si W = {0} alors P(W ) = ?.
44 CHAPITRE 2. ESPACES PROJECTIFS

V et, notant (x0 , . . . , xn ) les coordonnées dans cette base et [x0 , . . . , xn ] les coordonnées
homogènes correspondantes sur P(V ), chaque forme linéaire coordonnée e⇤i = xi n’est autre
que fi et donc H est bien donné par l’équation x0 = 0. Alors l’ouvert U0 = P(V ) P(H)
s’identifie à l’hyperplan affine H = {[1, x1 , . . . , xn ] 2 P(V )} = e0 + H.

Comme U = P(V ) P(H) a une structure d’espace affine, on peut parler de ses sous-
espaces affines. Ils sont décrits explicitement par la proposition suivante.

Proposition 11.15 (Sous-espaces affines de P(V ) P(H))


Soient H un hyperplan de V et U = P(V ) P(H). Fixons un générateur f de H 0 et
identifions U à l’hyperplan affine H = {v 2 V | f (v) = 1}. Alors on a ce qui suit :
(i) Pour tout sev W de V non contenu dans H, de dimension d + 1, P(W ) \ U est un
sous-espace affine W de U de dimension d et de direction W \ H, et l’on a W = Vect(W ).
(ii) Soit W un sous-espace affine de U , de dimension d, et soit W le sev de V engendré
par les droites kv, pour tout [v] 2 W . Alors W est de dimension d + 1, n’est pas contenu
dans H et W \ H est la direction de W . Le sous-espace projectif P(W ) de P(V ) est de
dimension d et l’on a P(W ) \ U = W .
(iii) Donc les applications W 7! P(Vect(W )) et P(W ) 7! P(W ) \ U sont des bijec-
tions réciproques entre l’ensemble des sous-espaces affines de U et celui des sous-espaces
projectifs de P(V ) non contenus dans P(H). Ces bijections préservent la dimension.

Démonstration. — Pour la démonstration, identifions H à U , via la bijection x 7! [x].


(i) Soit W un sev de V non contenu dans H. Alors f induit, par restriction, une forme
linéaire sur W , non nulle (car W 6⇢ Ker(f )) qu’on notera fW . Alors on a les identifications
suivantes :
H \ P(W ) = {v 2 V | f (v) = 1 et v 2 W } = {v 2 W | fW (v) = 1}
qui montrent que W = H \ P(W ) est un espace affine de direction Ker(fW ) = W \ H,
donc de dimension dim(W ) 1.
De plus, montrons que le sev W 0 = Vect(W ) de W égale W . Fixons v0 2 W . Alors pour
tout w 2 W \H le point v0 +w appartient à W , donc w 2 W 0 . Ceci montre que W 0 contient
l’hyperplan vectoriel Ker(fW ) de W ; comme il contient de plus v0 qui n’appartient pas à
Ker(fW ) (puisque fW (v0 ) = 1), on a donc W 0 = W . Ceci prouve (i).
(ii) Soient W un sous-espace affine de dimension d de H , on peut l’écrire v0 + F où F
est un sev de dimension d de H. Posant W = Vect(W ), on a donc W = kv0 + F et, comme
v0 62 H (puisque f (v0 ) = 1), cette somme est directe : W = kv0 F et l’on a W \ H = F .
Il reste à montrer que P(W ) \ H = W . Comme plus haut, on a les identifications
H \ P(W ) = {v 2 V | f (v) = 1 et v 2 W } = {w 2 W | f (w) = 1}.
Or, écrivant w = v0 +u, avec u 2 F = W \H, on a f (w) = donc f (w) = 1 , w 2 v0 +F .
Ceci montre que H \ P(W ) = v0 + F = W , ce qui achève la démonstration de (ii).
Enfin, (iii) découle aussitôt de (i) et (ii) car pour tout W on a W = U \ P(Vect(W )) et
pour tout W on a W = Vect(P(W ) \ U ).
Pour les lecteurs intéressés, ajoutons le complément suivant. On peut récrire la proposition
11.13 de façon plus « canonique » (i.e. sans choisir un générateur f de H 0 ). D’abord, on a le
lemme suivant.
11. ESPACES PROJECTIFS, COORDONNÉES HOMOGÈNES, OUVERTS AFFINES 45

Lemme 11.16. — Soit H un hyperplan de V et soit E = Hom(V /H, H) l’espace vectoriel des
applications linéaires de V /H dans H. Alors :
(i) Le choix d’un générateur f de H 0 = (V /H)⇤ définit un isomorphisme d’espaces vectoriels

f : H ! E.
(ii) Plus précisément, pour tout u 2 H et v 2 V , on a : f (u)(v) = f (v)u (où v désigne
l’image de v dans V /H).
Démonstration. — (i) En e↵et, V /H étant de dimension 1, si l’on en fixe un générateur e alors
E = Hom(ke, H) s’identifie à H via l’isomorphisme ✓ 7! ✓(e). Or, le choix d’un générateur f de
H 0 = (V /H)⇤ définit un générateur e de V /H, à savoir l’unique élément e tel que f (e) = 1.
(ii) Fixons f et e comme ci-dessus. Pour tout u 2 H on a, par définition, f (u)(µe) = µu
pour tout µ 2 k. D’autre part, pour v 2 V , posons v = µv e. Alors µv = f (v) = f (v) et donc
(14)
f (u)(v) = f (v)u.

Proposition 11.17. — Soient H un hyperplan de V et U = P(V ) P(H). Soit E =


Hom(V /H, H) et, pour tout f 2 H 0 {0}, soit Hf = {x 2 V | f (x) = 1}.
(i) U est un espace affine de direction E (et donc de dimension n = dim(V ) 1).
(ii) Pour tout f 2 H 0 {0} la bijection Hf ! U , x 7! [x] est une application affine, de partie

linéaire l’isomorphisme f : H ! E du lemme 11.16. C’est donc un isomorphisme entre les
espaces affines (Hf , H) et (U, E).
Démonstration. — (i) D’abord, pour tout v 2 V , notons v son image dans V /H. On définit alors
l’action de E sur U comme suit. Pour tout ✓ 2 E et [v] 2 U , on pose :
(⇤) [v] + ✓ = [ v + ✓(v) ].
Vérifions que ceci est bien défini. D’une part, comme ✓(v) 2 H, le vecteur v+✓(v) n’appartient pas
à H, car sinon on aurait v 2 H, contradiction. D’autre part, si v 0 = v est un autre représentant
de [v], on a ✓(v 0 ) = ✓( v) = ✓(v) et donc v 0 + ✓(v 0 ) = (v + ✓(v)). Ceci montre que (⇤) définit
bien une application U ⇥ E ! U , ([v], ✓) 7! [v] + ✓.
Si ✓ = 0 (l’application nulle), on a bien [v] + 0 = [v]. Et pour tout ✓, ✓0 2 E, ([v] + ✓) + ✓0
= [v + ✓(v)] + ✓0 désigne la droite engendrée par le vecteur
v + ✓(v) + ✓0 (v + ✓(v)) = v + ✓(v) + ✓0 (v) = v + (✓ + ✓0 )(v).
Ceci montre que ([v]+ + ✓0 = [v]+
+ ✓)+ + (✓ + ✓0 ), donc (⇤) définit bien une action de E sur U . Il reste
à montrer que cette action est simplement transitive, et l’on va démontrer ceci en même temps
que le point (ii).
(ii) Tout [v] 2 U admet un unique représentant v tel que f (v) = 1. En e↵et, si w est un
représentant quelconque, alors v = f (w) 1 w vérifie f (v) = 1, et pour tout représentant v 0 = µv
on a f (v 0 ) = µ, donc f (v 0 ) = 1 , µ = 1. On a donc une bijection pf : x 7! [x] de Hf sur U .
Soient x 2 U et u 2 H. D’après le lemme 11.16, on a f (u)(x) = f (x)u = u et l’on a donc les
égalités :
(⇤⇤) pf (x + u) = [x + u] = [ x + f (u)(x) ] = [x] + f (u) = pf (x) + f (u).

Ceci montre que, via la bijection pf , l’action + de E sur U correspond à l’action naturelle de H
sur Hf . Comme celle-ci est simplement transitive, on en déduit qu’il en est de même de l’action + .
Ceci achève de prouver que (U, E) est un espace affine. Mais alors, (⇤⇤) nous dit que la bijection
(14)
Tout ceci devient plus clair si l’on connaı̂t les produits tensoriels (cf. le cours 4M002) : Hom(V /H, H)
s’identifie au produit tensoriel (V /H)⇤ ⌦ H = H 0 ⌦ H, et comme dim(H 0 ) = 1 tout élément est de la forme
f ⌦ u, avec f 2 H 0 et u 2 H. Pour tout 2 k ⇥ , f ⌦ u = f ⌦ u correspond à l’application v 7! f (v)u,
qui est f (u) aussi bien que f ( u).
46 CHAPITRE 2. ESPACES PROJECTIFS

p : Hf ! U est affine, de partie linéaire f ; c’est donc un isomorphisme entre les espaces affines
(Hf , H) et (U, E).

11.3. Passage de l’affine au projectif, et inversement. — Comme expliqué en 11.12,


on veut pouvoir passer d’un énoncé affine dans un espace affine E à un énonce projectif dans
b ), puis revenir à un énoncé affine dans un ouvert affine U = P(V ) P(H). Pour cela,
P(E
on aura besoin de l’énoncé suivant, que l’on peut paraphraser en disant que les bijections
de la Prop. 11.15 « préservent l’alignement des points » (en un sens rendu précis par la
proposition ci-dessous).

Proposition 11.18. — Soient p1 , . . . , pN , avec N 3, des points deux à deux distincts


de P(V ) (où dim(V ) 2).
(i) On suppose que les pi sont alignés au sens de la définition 11.7, i.e. que le sous-espace
projectif P(W ) qu’ils engendrent soit une droite projective (i.e. dim(W ) = 2). Alors, pour
tout hyperplan H de V tel que les pi ne soient pas tous dans P(H) (i.e. tel W 6⇢ H) on a
ce qui suit : W \ H est une droite vectorielle D et, notant U l’ouvert affine P(V ) P(H),
on est dans l’une des deux situations suivantes :
(a) tous les pi sont dans U et appartiennent à une droite affine D.
(b) tous les pi sauf un sont dans U et appartiennent à une droite affine D, et le
dernier, disons pN , est dans « l’hyperplan à l’infini » P(H) et correspond à la droite
vectorielle D qui est la direction de D.
(ii) Réciproquement, s’il existe un hyperplan H de V tel qu’on soit dans la situation
(a) ou (b) ci-dessus, alors le sev W de V engendré par D est de dimension 2 et les pi
b
appartiennent à la droite projective P(D) = P(W ).

Démonstration. — (i) Posant pi = [vi ], soit W le sev de V engendré par les droites kvi .
Supposons dim(W ) = 2. Soit H un hyperplan de V ne contenant pas H, alors W \ H
est une droite vectorielle D. D’après la Prop. 11.15, U \ P(W ) est une droite affine D de
direction D. De plus, P(W ) \ P(H) = P(W \ H) = P(D) = {d}, où d est le point de P(H)
qui correspond à la droite D. Comme les pi sont deux à deux distincts, au plus l’un d’entre
eux peut être égal à d, et l’on est donc dans l’une des situations (a) ou (b).
(ii) Réciproquement, soit H un hyperplan de V tel qu’on soit dans la situation (a) ou
(b). D’après la Prop. 11.15, il existe un unique plan vectoriel W de V , non contenu dans H,
tel que D = U \ P(W ).(15) . De plus, la direction de D est la droite vectorielle D = W \ H.
On a donc P(W ) \ P(H) = P(W \ H) = {d}, où d est le point de P(H) qui correspond
à D. Donc, dans chacun des cas (a) et (b), les pi sont contenus dans la droite projective
b
P(D) = P(W ).

Exercice 11.19. — Soient p1 , . . . , pN 2 P(V ). On suppose :


(i) dim(V ) 3 et N 5.
(ii) Les pi sont coplanaires, i.e. le sous-espace projectif P(W ) qu’ils engendrent est un
plan projectif,
(iii) Trois quelconques des pi ne sont jamais alignés (i.e. pour i, j, k deux à deux distincts,
les points pi , pj , pk ne sont pas alignés).

(15)
Explicitement, comme p1 = [v1 ] et p2 = [v2 ] sont distincts et contenus dans D, alors W = Vect(v1 , v2 ).
12. REPÈRES PROJECTIFS, HOMOGRAPHIES ET COORDONNÉES HOMOGÈNES 47

Montrer que pour tout hyperplan H ne contenant pas W , tous les pi sauf au plus deux
sont dans l’ouvert affine U = P(V ) P(H) et y engendrent un plan affine P. Décrire les
trois situations possibles selon le nombre de pi contenus dans P(H).

12. Repères projectifs, homographies et coordonnées homogènes


Lemme 12.1. — Soient V un k-ev et f : V ! V un endomorphisme non nul tel que
f (D) ⇢ D pour toute droite D. Alors f est une homothétie.

Démonstration. — Si dim(V ) = 1 tout endomorphisme non nul est une homothétie. On


peut donc supposer dim(V ) > 1. Par hypothèse, pour tout x 2 V {0} il existe x 2 k tel
que f (x) = x x. Fixons un tel x0 et posons 0 = x0 .
Soit y 2 V {0} arbitraire. Si y = tx0 alors par linéarité f (y) = tf (x0 ) = 0 tx0 donc
y = 0 . Si y et x0 sont linéairement indépendants, alors l’égalité

f (x0 + y) = 0 x0 + yy = x0 +y (x0 + y)

entraı̂ne que y = x0 +y = 0 . Donc y = 0 pour tout y 6= 0 et donc f = 0 idV . Enfin,


comme f 6= 0 par hypothèse, on a 0 6= 0.

Pour toute la suite, on fixe un k-espace vectoriel V de dimension n + 1.

Définition 12.2. — Soit N  n. On dit que N + 1 points p0 , . . . , pN 2 P(V ) sont pro-


jectivement indépendants si le sous-espace projectif qu’ils engendrent (cf. Déf. 11.7) est
de dimension N . Si N = 1 (resp. N = 2, resp. N = 3), ceci équivaut à dire que p0 , p1 sont
distincts, resp. que p0 , p1 , p2 sont non alignés, resp. que p0 , p1 , p2 , p3 sont non coplanaires

Remarque. — Attention, la donnée de n + 1 points projectivement indépendants de P(V ) ne


suffit pas à déterminer des coordonnées homogènes sur P(V ), voir ce qui suit.

Définition 12.3 (Repères projectifs). — (i) On dit qu’un (n + 2)-uplet (p0 , . . . , pn+1 )
de points de P(V ) est un repère projectif si n + 1 quelconques d’entre eux sont projec-
tivement indépendants. On notera RP(V ) l’ensemble des repères projectifs de P(V ).
(ii) Si B = (e0 , . . . , en ) est une base de V , on appellera « repère (projectif) standard »
associé à B le repère (p0 , . . . , pn+1 ) où pi = [ei ] pour i = 0, . . . , n et pn+1 = [e0 + · · · + en ].

Terminologie 12.4. — Lorsque V = k n+1 , on désigne P(k n+1 ) par Pn (k). Comme k n+1
est muni de la base canonique (e0 , . . . , en ), alors Pn (k) est muni des coordonnées ho-
mogènes « canoniques » [x0 , . . . , xn ] et du repère projectif « canonique » (p0 , . . . , pn+1 ) =
([e0 ], . . . , [en ], [e0 + · · · + en ]).

Définition 12.5 (Homographies de P(V )). — Pour tout v 2 V {0}, on note [v] son
image dans P(V ) (i.e. la droite engendrée par v). Alors l’action de G = GL(V ) sur V induit
une action de G sur P(V ), donnée par : g · [v] = [gv] pour tout v 2 V {0} et g 2 G.
Alors, un élément g de G agit trivialement sur P(V ) si et seulement si g laisse stable
chaque droite de V . D’après le lemme 12.1, ceci est le cas ssi g appartient au sous-groupe
des homothéties H = { idV | 2 k ⇥ }.
48 CHAPITRE 2. ESPACES PROJECTIFS

Par conséquent, le « groupe des automorphismes de P(V ) » (i.e. des bijections de P(V )
induites par un élément de GL(V )) est PGL(V ) = GL(V )/H. Ses éléments sont appelés
homographies de P(V ).(16)
Notation. Pour tout g 2 GL(V ) on notera g son image dans PGL(V ).
On a besoin d’étendre cette définition au cas de deux k-ev E et F de même dimension.
Définition 12.6. — (i) Soient E, F deux k-espaces vectoriels de même dimension n + 1.
Notons Isom(E, F ) l’ensemble des isomorphismes (i.e. applications linéaires bijectives) de E
sur F . Il est muni d’une action du groupe multiplicatif k ⇥ , définie pour tout 2 Isom(E, F )
et 2 k ⇥ par : · = ( idE ) = ( idF ) .
1
Soient 2 Isom(E, F ) et = 2 Isom(F, E) l’isomorphisme réciproque. Alors
transforme toute droite de E en une droite de F , donc induit une application P(E) ! P(F ),
D 7! (D), qu’on notera P( ) ou simplement . Cette application est bijective, car elle
admet pour réciproque l’application : P(F ) ! P(E). Notant Bij P(E), P(F ) l’ensemble
des bijections de P(E) sur P(F ), on obtient donc une application :
Isom(E, F ) ! Bij P(E), P(F ) , 7! .
Les bijections : P(E) ! P(F ) ainsi obtenues s’appellent des homographies de P(E)
sur P(F ), et l’ensemble de ces homographies sera noté Homog P(E), P(F ) . Si F = E, il
s’identifie à PGL(E), d’après ce qu’on a vu plus haut.
(ii) Notons que l’application 7! « respecte la composition des applications », i.e. si
✓ 2 Isom(F, V ) on a ✓ =✓ . (En particulier, l’application GL(E) ! PGL(E), 7! est un
morphisme de groupes.)

Proposition 12.7. — On conserve les notations précédentes. Soient , 2 Isom(E, F ).



(i) Alors : = () il existe 2 k tel que = .
(ii) En particulier, le noyau du morphisme de groupes GL(E) ! PGL(E) est le sous-
groupe k ⇥ idE des homothéties de E, et donc PGL(E) s’identifie bien au groupe quotient
GL(E)/k ⇥ idE .
(iii) Pour tout sev W de E, on a (P(W )) = P( (W )), donc transforme tout sous-
espace projectif de P(E) en un sous-espace projectif de P(F ) de même dimension.
(iv) Par conséquent, toute homographie h : P(E) ! P(F ) respecte la notion de points
projectivement indépendants, donc en particulier transforme tout repère de P(E) en un
repère de P(F ).
1
Démonstration. — (i) On a : = si et seulement si = 1 est l’application
identique idP(E) de P(E). Or f = 1
est un automorphisme de E et d’après le lemme
12.1, f = idP(E) si et seulement si il existe 2 k ⇥ tel que f = idE , ce qui équivaut à
= . Ceci prouve (i), et (ii) en est un cas particulier.
(iii) Soit W un sev non nul de E et soit 2 Isom(E, F ). Alors (W ) est un sev de F de
même dimension que W et pour toute droite D de E on a : D ⇢ W , (D) ⇢ (W ). Il
en résulte que
P(W ) = { (D) | D 2 P(W )} = { (D) | D 2 P(W )} = P( (W )).

ax + b
(16)
Lorsque V = k 2 , on verra que c’est le groupe des « homographies » x 7! .
cx + d
12. REPÈRES PROJECTIFS, HOMOGRAPHIES ET COORDONNÉES HOMOGÈNES 49

Ceci prouve (iii), et (iv) en découle.

Définition 12.8. — Soient X, Y deux ensembles munis d’une action d’un groupe G. Une
application f : X ! Y est dite G-équivariante si f (gx) = gf (x) pour tout x 2 X et g 2 G.

Théorème 12.9 (L’action de PGL(V ) sur les repères projectifs)


Soit V un k-espace vectoriel de dimension n + 1. Posons G = PGL(V ) et notons R0 le
repère standard de Pn (k).
(i) Pour chaque R 2 RP(V ), il existe un unique h 2 Homog Pn (k), P(V ) tel que
h(R0 ) = R.

(ii) Ceci donne une bijection G-équivariante RP(V ) ! Homog Pn (k), P(V ) . Par
conséquent, l’action de G sur RP(V ) est libre et transitive.

Démonstration. — Notons B0 = (e0 , . . . , en ) la base canonique de k n+1 et R0 =


(p0 , . . . , pn+1 ) le repère standard de Pn (k).
Soit R = (q0 , . . . , qn+1 ) 2 RP(V ). Pour i = 0, . . . , n + 1, choisissons un vecteur vi 2 V
tel que [vi ] = qi . Alors (v0 , . . . , vn ) est une base de V et vn+1 s’écrit de façon unique
vn+1 = 0 v0 + · · · + n vn avec i 6= 0 pour tout i.
Notons g l’élément de Isom(k n+1 , V ) défini par g(ei ) = i vi pour i = 0, . . . , n, il vérifie
alors g(pi ) = qi pour i = 0, . . . , n + 1.
Pour h 2 Isom(k n+1 , V ) arbitraire, la condition h([ei ]) = [vi ] pour i = 0, . . . , n équivaut
à : il existe µ0 , . . . , µn 2 k ⇥ tels que h(ei ) = µi vi pour i = 0, . . . , n. Sous ces conditions,
h(e0 + · · · + en ) = µ0 e0 + · · · + µn en est colinéaire à vn+1 ssi il existe 2 k ⇥ tel que µi = i
pour i = 0, . . . , n, c.-à-d. ssi il existe 2 k ⇥ tel que h = g, et cette condition équivaut à
ce que h et g aient pour image g dans Homog Pn (k), P(V ) . Ceci montre que g est l’unique
élément de Homog Pn (k), P(V ) tel que g(pi ) = qi pour i = 0, . . . , n + 1. Ceci prouve (i).

On obtient donc une bijection : RP(V ) ! Homog Pn (k), P(V ) . Elle est G-équiva-
riante car si (R) = h, i.e. R = h(R0 ), et si R 0 = g(R) avec g 2 G, alors R 0 = gh(R0 ) et
donc (R 0 ) = gh.
De plus, l’action de G sur = Homog Pn (k), P(V ) est libre et transitive (car pour tout
h0 2 , l’application g 7! gh0 admet pour inverse l’application h 7! hh0 1 ), donc il en est
de même de l’action de G sur RP(V ). Ceci prouve (ii).

Corollaire 12.10. — Se donner un repère projectif R de P(V ) est « la même chose »


que se donner un système de coordonnées homogènes [x0 , . . . , xn ] sur P(V ).

Démonstration. — Se donner un système de coordonnées homogènes sur P(V ) est la même


chose que se donner une homographie entre Pn (k) et P(V ). Donc le corollaire découle du
théorème précédent.

Corollaire 12.11. — Soient V et V0 deux espaces projectifs de même dimension n.


(i) Étant donnés des repères projectifs R et R 0 de V et V0 , il existe une unique homo-
graphie h : V ! V0 telle que h(R) = R 0 .
(ii) En particulier, si p0 , p1 , p2 (resp. q0 , q1 , q2 ) sont des points deux à deux distincts d’une
droite projective D (resp. D0 ), il existe une unique homographie h : D ! D0 telle que
h(pi ) = qi pour i = 0, 1, 2.
50 CHAPITRE 2. ESPACES PROJECTIFS

Démonstration. — Le point (i) découle de la démonstration du théorème précédent Et


lorsque n = 1, un repère projectif d’une droite D n’est autre qu’un triplet de points deux
à deux distincts, d’où le point (ii).

13. Perspectivités et projections centrales


13.1. Figures en perspective. — Dans ce paragraphe et le suivant on va essayer de
présenter les points de vue de Desargues et de Poncelet(17) , en suivant l’excellente présen-
tation de Coxeter [Co, Chap. 1]. Plaçons-nous dans un plan projectif P.
(1) On dit que deux droites distinctes D et D0 sont en perspective depuis un point O si
l’application qui à tout point P 2 D associe le point d’intersection P 0 de (OP ) avec D0 est
bien définie (i.e. si O 62 D) et est une bijection de D sur D0 , la réciproque étant l’application
(bien définie si O 62 D0 ) qui à tout P 0 2 D0 associe le point P = (OP 0 ) \ D. On voit ainsi que
deux droites distinctes D et D0 sont « en perspective » depuis n’importe quel point O hors
de D [ D0 :
D
J D0
PJ ⇧
J ⇧
J ⇧
J ⇧T0
HH J ⇧

QHHH JJ ⇧ S0
HH ⇧
HJ ⇧
JHH ⇧ 0
R O J HH⇧ R
J H
⇧ H
J ⇧ Q0 HH
S J ⇧
J⇧
⇧J
T ⇧P 0J
⇧ J

(2) Soient A, A0 deux points distincts et soit (D1 , D2 ) (resp. (D01 , D02 )) un couple de
droites distinctes, sécantes en A (resp. en A0 ). Si elles sont en perspective depuis un point
O (i.e. si D1 et D01 sont en perspective depuis O, ainsi que D2 et D02 ), alors le point de
concours A = D1 \ D2 correspond par cette bijection au point de concours A0 = D01 \ D02
et donc AOA0 sont alignés. Réciproquement, pour tout point O de (AA0 ) distinct de A et
A0 , les couples de droites (D1 , D2 ) et (D01 , D02 ) sont en perspective depuis O :

@ ⇧T0
AR @

A ⇧ @ D01
A ⇧ @ 0
HH Q A ⇧ @S ⌘

HH A ⇧ ⌘@ ⇠⇠⇠
D2 HH A ⇧ ⌘⌘

@
⇠ ⇠⇠⇠ P 0
Q HH A ⇧ ⌘⇠⇠⇠ @
Q
Q ⇠ ⇠ ⇧H⇠
HA⇠
⌘ @
A QQ ⇠ ⌘ @
⇠ ⇠⇠⇠ ⌘O ⇧ A HH A0 @
H
P⇠⇠⇠⇠⇠ QQ ⌘⌘ ⇧⇧ A HH @
⇠⇠ ⌘ A HH
⌘ SQQ ⇧ A H D02
D1 Q⇧ A Q0
TQ ⇧ Q A
⇧ A
A 0
AR
A

(17)
Girard Desargues (1591-1661) mathématicien et architecte français. Jean-Victor Poncelet, mathémati-
cien (et capitaine d’artillerie, puis général) français, 1788-1867.
13. PERSPECTIVITÉS ET PROJECTIONS CENTRALES 51

Terminologie. — Si V est un espace projectif de dimension n et N un entier n + 1,


on dit que N points p1 , . . . , pN de V sont en position générale si n + 1 quelconques d’entre
eux sont projectivement indépendants.

(3) Soient A, B, C, A0 , B 0 , C 0 six points de P en position générale (i.e. trois d’entre eux ne
sont jamais alignés). Les droites (AA0 ), (BB 0 ) et (CC 0 ) sont alors deux à deux distinctes.
Si les trois paires de droites (AB), (A0 B 0 ) , (AC), (A0 C 0 ) et (BC), (B 0 C 0 ) sont en
perspective depuis un point O alors, d’après (2) ci-dessus, O appartient à (AA0 ), (BB 0 ) et
(CC 0 ), donc (AA0 ), (BB 0 ) et (CC 0 ) sont concourantes en O.
Réciproquement, on peut montrer que si (AA0 ), (BB 0 ) et (CC 0 ) sont concourantes, leur
point de concours O n’appartient à aucune des droites (AB), (AC), (CA), (A0 B 0 ), etc. et
donc (AB) resp. (BC) resp. CA est en perspective depuis O avec (A0 B 0 ) resp. (B 0 C 0 )
resp. (C 0 A0 ) :

⇤ ◆
⇤◆
⇤ ◆⇤ B 0
⇤ ◆⇤
C ⇤Q ◆ ⇤
A ⇤ Q ◆ ⇤
A ⇤ Q 0 ◆ ⇤
AA ⇤ Q A◆ ⇤
Q
A ⇤ OQ C ⇤
A ⇤ Q C ⇤
Q C ⇤
BA⇤A⇤ Q
Q C ⇤
⇤ A Q C ⇤
Q
⇤ A QC⇤ C 0
⇤ A ⇤C
⇤ A ⇤ C
⇤ A ⇤ C

Dans ce cas, au lieu de dire que « les deux triplets de droites (AB), (BC), (CA) et
(A0 B 0 ), (B 0 C 0 ), (C 0 A0 ) sont en perspective », on dira plus brièvement que : « les deux
triangles (ABC) et (A0 B 0 C 0 ) » sont en perspective. La condition précédente se récrit donc :

Pour A, B, C, A0 , B 0 , C 0 en position générale, les triangles (ABC) et (A0 B 0 C 0 )


sont en perspective ssi les droites (AA0 ), (BB 0 ) et (CC 0 ) sont concourantes.

13.2. Perspectivités et projectivités. — Dans le paragraphe précédent, on s’est in-


téressé à la situation où des figures données sont « en perspective », i.e. dans une certaine
position l’une par rapport à l’autre.
Changeons légèrement de point de vue : fixons un point O, deux droites D et D0 ne
passant pas par O, et considérons l’application bijective D ! D0 qui à tout P 2 D associe
le point de concours P 0 de (OP ) et D0 . (Noter que le point de concours E de D et D0 vérifie
E 0 = E.) On dira provisoirement que cette application est une perspectivité. (18)
D’autre part, Poncelet s’est intéressé à des applications a priori plus générales que les
perspectivités, à savoir les composées de perspectivités : si deux droites distinctes D et D0
sont reliées par une suite de perspectivités D = D0 ! D1 ! · · · ! Dn = D0 , l’application
D ! D0 , P 7! P 0 ainsi obtenue est appelée une projectivité de D sur D0 :

(18)
« perspectivity » dans [Co, 1.6 et 4.22].
52 CHAPITRE 2. ESPACES PROJECTIFS

D0
D D1 D2 Dn 1 A0
C ⇧ E
C ⇧ E
cC ⇧ E
c ⌘
AC c ⇧ E ⌘ 0
C c @ B1 ⇧ E ⌘ B
C c ⇧ E ⌘
c @ ⌘
B C O1 c @ " ⇧" E ⌘ On
C c @ "" ⇧⇧ E ⌘⌘
C c "
Bn 1 ⌘ E
C c "@ ··· ⌘
c " O2@ ⇧ ⌘ EE
C "
c @ ⇧
C " c ⇧ E
C A1 ⇧@@ E
C ⇧ E An 1
C ⇧ E
C ⇧ E
C ⇧ E
C ⇧ E

Tout ceci pose un certain nombre de questions. Une projectivité de D sur D0 est-elle une
homographie ? Obtient-on ainsi toutes les homographies de D sur D0 ? Si oui, est-ce que
les perspectivités sont des homographies particulières ?

Remarque. — On verra au paragraphe suivant que toute projectivité est une homographie. La
construction ci-dessous montrera alors que toute homographie est une projectivité : Pour deux
droites distinctes D et D0 et trois points distincts A, B, C (resp. A0 , B 0 , C 0 ) sur D (resp. D0 ), on
peut construire une projectivité entre D et D0 , composée de seulement deux perspectivités, qui
envoie A, B, C sur A0 , B 0 , C 0 respectivement :

C D
B
C A
PC
C ⇤@A
C ⇤ A@
C ⇤ A @
C ⇤ A @
C ⇤ BA @
C⇤ 1A @
P1 ⇤C A1 A C@ D1
1
⇤ C A @
⇤ C A @
⇤ C A @
⇤ C A @
⇤ C A @
P 0⇤ A0 B0A C 0@ D0
⇤ A @
⇤ A @
En e↵et, notons B1 (resp. C1 ) le point d’intersection des droites (AB 0 ) et (A0 B) (resp. (AC 0 )
et (A0 C)), puis notons A1 le point d’intersection de (AA0 ) avec la droite D1 = (B1 C1 ). Alors
la perspectivité de centre A0 transforme A, B, C en A1 , B1 , C1 , puis ceux-ci sont transformés en
A0 , B 0 , C 0 par la perspectivité de centre A.

13.3. Projections centrales et perspectivités. — Revenons sur les perspectivités


dans le plan projectif P : la donnée d’un point O et d’une droite D0 ne contenant pas O
définit une application P {O} ! D0 , qui à tout point P 6= O associe le point de concours
P 0 de (OP ) et D0 .(19) Ceci se généralise comme suit.

(19)
Noter que cette application n’est pas définie au point O.
13. PERSPECTIVITÉS ET PROJECTIONS CENTRALES 53

Définition 13.1 (Projections centrales). — Soit V un k-espace vectoriel de dimen-


sion n + 1. Soient E et F deux sev de V non nuls et supplémentaires (i.e. V = E F ) et
soit ⇡ la projection de V sur F de noyau E. Elle induit une application
⇡ : P(V ) P(E) ! P(F )
définie comme suit : pour tout v 2 V E, ⇡([v]) = [⇡(v)]. Ceci est bien défini, car comme
v 62 E on a ⇡(v) 6= 0. On dit que ⇡ est la projection sur P(F ) de centre P(E).(20)

Proposition 13.2. — Conservons les notations précédentes. Pour tout supplémentaire


F 0 de E,(21) la restriction de ⇡ à P(F 0 ) est une homographie de P(F 0 ) sur P(F ).

Démonstration. — En e↵et, notons ⇡ 0 : F 0 ! F la restriction de ⇡ à F 0 ; elle est injective


(car F 0 \E = {0}) donc c’est un isomorphisme de F 0 sur F (puisque dim(F 0 ) = dim(F )). De
plus, pour tout v 2 P(F 0 ) on a : ⇡([v]) = [⇡(v)] = [⇡ 0 (v)]. Ceci montre que la restriction de ⇡

à P(F 0 ) est l’homographie de P(F 0 ) sur P(F ) définie par l’isomorphisme ⇡ 0 : F 0 ! F .

Proposition 13.3. — Soient H un hyperplan de V , O un point de P(V ) P(H) et p la


projection sur P(H) de centre O.
(i) p est l’application qui à tout point P 6= O associe le point de concours de la droite
(OP ) et de P(H).
(ii) Les points fixes de p sont les points de P(H).
(iii) Pour tout point P distinct de O et hors de P(H), les droites (P p(P )) concourent en
O.

Démonstration. — Écrivons O = [v0 ] et notons ⇡ la projection V ! H de noyau kv0 . Soit


P = [v] un point distinct de O, alors v s’écrit de façon unique v = x + µv0 , avec µ 2 k et
x 2 H {0}, et l’on a ⇡([v]) = [⇡(v)] = [x].
D’autre part, W = Vect(v0 , v) est de dimension 2 et non contenu dans H, donc W \H est
une droite vectorielle . Comme la droite projective (OP ) égale P(W ), alors (OP )\P(H) =
P(W \ H) = P( ) est le point de P(H) correspondant à . Enfin, x = v µv0 est un
élément non nul de H \ W , donc = kx. Ceci prouve (i).
Un point P 6= O est fixe ssi la droite (OP ) coupe P(H) en P , c.-à-d. ssi P 2 P(H). Ceci
prouve (ii). Enfin, (iii) résulte de (i).

Définition 13.4 (Perspectivités). — Soient O 2 P(V ) et H, H0 deux hyperplans pro-


jectifs ne contenant pas O. On dira que l’homographie H ! H0 induite par la projection
sur H0 de centre O est une perspectivité.(22) Ceci généralise la définition donnée au §13.2.
lorsque dim P(V ) = 2.

Remarque 13.5. — Plaçons-nous dans un plan projectif P, comme au §13.2. On vient


de voir que toute perspectivité est une homographie, donc toute projectivité (= composée
de perspectivités) est une homographie. De plus, d’après la Remarque du §13.2, toute
homographie D ! D0 est une projectivité, composée de seulement deux perspectivités.
Celles-ci sont caractérisées par la proposition suivante.

(20)
Noter que ⇡ n’est pas définie en les points de P(E).
(21)
C.-à-d. pour tout sev F 0 de V de même dimension que F et tel que F 0 \ E = {0}.
(22)
On dit aussi homologie, mais nous préférons conserver la terminologie « perspectivité ».
54 CHAPITRE 2. ESPACES PROJECTIFS

Proposition 13.6. — Dans un plan projectif P, soient D, D0 deux droites distinctes, E


leur point de concours et h : D ! D0 une homographie. Alors :
(i) h est une perspectivité ssi h(E) = E.
(ii) Dans ce cas, si A 6= B sont des points de D distincts de E, le centre de perspectivité
est le point de concours des droites (Ah(A)) et (Bh(B)).

Démonstration. — On a vu en §13.2 que si h est une perspectivité de centre O alors


h(E) = E et pour tout P 2 D, d’image P 0 2 D0 , les points O, P, P 0 sont alignés.
Réciproquement, supposons h(E) = E et soient A 6= B des points de D distincts de E,
et A0 , B 0 leurs images par h. Notons O le point de concours des droites (AA0 ) et (BB 0 ) :
A D
HHA
H O
AH
A HH B
A HH
AA HH
A HH
A HH
A HH
E A 0A
B 0 HH D0
A
A

Alors la perspectivité de centre O laisse fixe E et envoie A, B sur A0 , B 0 , donc coı̈ncide


avec h d’après le corollaire 12.11.

Revenons à un espace projectif V = P(V ) de dimension n. Soient H, H 0 deux hyperplans


de V distincts. Alors H1 = H \ H 0 est un hyperplan de H. Notons H, H0 et H1 les sous-
espaces projectifs de V correspondants. Si h : H ! H0 est une perspectivité de centre O,
elle laisse fixe tout point de H1 . Réciproquement, ceci caractérise les perspectivités de H
sur H0 :

Proposition 13.7. — Soient H, H0 deux hyperplans distincts de V, soit H1 = H \ H0 et


soit h : H ! H0 une homographie. Alors :
(i) h est une perspectivité ssi h est l’identité sur H1 (i.e. h(P ) = P pour tout P 2 H1 ).
(ii) Dans ce cas, pour tout point A de H H1 , les droites (Ah(A)) sont concourantes
en un point O qui est le centre de perspectivité.

Démonstration. — Soit g l’isomorphisme H ! H 0 (unique à homothétie près) tel que
g = h. Supposons que h est l’identité sur H1 . Ceci entraı̂ne qu’il existe 2 k ⇥ tel que
g(v) = v pour tout v 2 H1 et, quitte à remplacer g par 1 g, on peut supposer que = 1.
Fixons un vecteur e 2 H H1 et posons v0 = g(e) e. On a v0 62 H 0 car sinon on aurait
e 2 H 0 et comme H = H1 ke on aurait H ⇢ H 0 , ce qui n’est pas le cas. (De même, v0 62 H.)
On a donc V = H 0 kv0 , notons alors ⇡ la projection sur H 0 de noyau kv0 .
Soit v 2 H, écrivons v = x + µe avec x 2 H1 et µ 2 k, alors on a v = x + µg(e) + µv0
donc g(v) = x + µg(e) égale ⇡(v). Ceci montre que h est la projection sur P(H 0 ) de centre
O = [v0 ]. Ceci prouve (i), et alors (ii) découle de la Prop. 13.3.

14. Théorèmes de Pappus et de Desargues


Cette section sera traitée en cours après la dualité projective du Chap. 3.
Du théorème de Pappus affine 7.1 donné dans le chap. 1, on déduit le :
14. THÉORÈMES DE PAPPUS ET DE DESARGUES 55

Théorème 14.1 (de Pappus « projectif »). — Dans un plan projectif P(V ), soient
D, D 0 deux droites distinctes et P1 , P2 , P3 (resp. Q1 , Q2 , Q3 ) trois points distincts situés
sur D (resp. D 0 ) et distincts du point de concours de D et D 0 . On note R3 le point de
concours des droites (P1 Q2 ) et (P2 Q1 ) et l’on définit de même R2 et R1 , cf. la figure ci-
dessous :
P1 P2 P3
b
@b @ !!
@ bb @ !!!
@ b @ !!
@ bb @ !!!
@ b
b @ !!
@ b @ !!!
@ b @!!!
b
@ b !@
R3 @ b ! !
b ! @
b!
@
!!! R
b
b
@
@ @
!! b
2
! !
@ b @
! b
! @ b R@
!! b 1
! @ b @
! @ b
!! b @
!! @ b @
b @
!!! @ b
b@
! @ b
!! @ b
@
Q1 Q2 Q3

Alors les points R1 , R2 , R3 sont alignés.


Démonstration. — On a bien sûr envie de poser D1 = (R1 R2 ) et d’appliquer la théorème
7.1 dans le plan affine U = P(V ) D1 . Pour cela, il faut s’assurer que les points Pi et Qj
sont dans U , i.e. ne sont pas sur la droite (R1 R2 ). Ceci « se voit » sur la figure ci-dessus,
et on peut le démontrer comme suit :
(i) Les points Ri sont deux à deux distincts. En e↵et, si on avait par exemple R1 = R2 = S, les points
P3 SQ1 Q2 seraient alignés, d’où P3 2 D 0 , contradiction.
(ii) Aucun Pi ou Qj n’appartient à la droite (R1 R2 ). En e↵et, vis-à-vis de (R1 R2 ), les points P1 , P2 , Q1 , Q2
d’une part, et P3 , Q3 d’autre part, jouent le même rôle, donc il suffit de le vérifier pour P1 et P3 . Si on
avait P1 2 (R1 R2 ), les points P1 R1 R2 Q3 P2 seraient alignés, d’où Q3 2 D, contradiction. Et si on avait
P3 2 (R1 R2 ), les points P3 R1 R2 Q1 Q2 seraient alignés, d’où P3 2 D 0 , contradiction.
Prenons alors la droite (R1 R2 ) comme droite à l’infini D1 . Alors dans le plan affine
P = P(V ) D1 , les droites affines (P3 Q2 ) et (P2 Q3 ), d’une part, et (P1 Q3 ) et (P3 Q1 )
d’autre part, ne se coupent pas donc sont parallèles. D’après le théorème de Pappus af-
fine, les droites affines (P2 Q1 ) et (P1 Q2 ) sont donc parallèles, donc dans P(V ) leur point
d’intersection R3 appartient à la droite D1 = (R1 R2 ). Ceci montre que R1 , R2 , R3 sont
alignés.
Et de cette version projective, on déduit la variante affine suivante :
Corollaire 14.2 (Version affine de Pappus projectif ). — Dans un plan affine P,
soient D, D 0 deux droites distinctes et P1 , P2 , P3 (resp. Q1 , Q2 , Q3 ) trois points distincts
situés sur D (resp. D 0 ) et distincts de l’éventuel point de concours de D et D 0 . On sup-
pose que les droites (P2 Q3 ) et (P3 Q2 ), resp. (P1 Q3 ) et (P3 Q1 ), se coupent en un point R1 ,
resp. R2 . Alors :
a) ou bien (P1 Q2 ) et (P2 Q1 ) se coupent en un point R3 de la droite (R1 R2 ),
b) ou bien (P1 Q2 ) et (P2 Q1 ) sont parallèles à la droite (R1 R2 ).
b
Démonstration. — Plaçons-nous dans le plongement vectoriel P(P) de P. Soit R3 le point
de concours des droites projectives (P1 Q2 ) et (P2 Q1 ). D’après le théorème précédent il
56 CHAPITRE 2. ESPACES PROJECTIFS

appartient à la droite projective (R1 R2 ), d’où (a) si R3 2 P. Au contraire, si R3 2 D1


alors c’est le point à l’infini de chacune des droites affines (R1 R2 ), (P1 Q2 ) et (P2 Q1 ), donc
ces trois droites sont parallèles.
De même, du théorème de Desargues affine 7.2 donné dans le chap. 1, on déduit le :
Théorème 14.3 (de Desargues projectif ). — Dans un plan projectif, considérons six
points distincts A, B, C, A0 , B 0 , C 0 . On suppose :
a) A, B, C (resp. A0 , B 0 , C 0 ) sont non alignés.
b) Les droites (AA0 ), (BB 0 ) et (CC 0 ) sont deux à deux distinctes.
Notons C1 , resp. B1 , resp. A1 , l’unique point d’intersection des droites (AB) et (A0 B 0 ),
resp. (AC) et (A0 C 0 ), resp. (BC) et (B 0 C 0 ) et faisons de plus l’hypothèse :
c) {A1 , B1 , C1 } \ {A, B, C, A0 , B 0 , C 0 } = ?. (23)
Alors A1 , B1 , C1 sont alignés si et seulement si les droites (AA0 ), (BB 0 ) et (CC 0 ) sont
concourantes en un point O.
HH @
HH@
H@
HH
A@ H B0
@ HH @
@ HHC O @C 0
@ HHH @ 0
B@ HH @ A
@ HH @
@ HH@
@ @
H
@ H@H
A1 C@ B@
1
HH
1
@ @ HH
@ @ H

Démonstration. — (1) Remarquons d’abord que les points A1 , B1 , C1 sont bien définis, car
les droites (AB) et (A0 B 0 ) sont distinctes, ainsi que (AC) et (A0 C 0 ) d’une part, et (BC)
et (B 0 C 0 ) d’autre part. En e↵et, comme (AA0 ) 6= (BB 0 ), les points ABA0 B 0 ne sont pas
alignés donc (AB) et (A0 B 0 ) se coupent en un unique point C1 , et de même pour B1 et A1 .
(2) Remarquons de plus que A1 , B1 , C1 sont deux à deux distincts. En e↵et, supposons
par exemple que A1 = C1 et notons provisoirement M ce point. Comme B 6= B 0 alors M
ne peut être simultanément égal à B et à B 0 . Supposons par exemple M 6= B. Alors la
droite (BM ) = (BC1 ) = (BA1 ) contient A (car ABC1 sont alignés) et aussi C (car BCA1
sont alignés). Donc A, B, C sont alignés, contradiction. Ceci montre que A1 , B1 , C1 sont
bien deux à deux distincts.
(3) Montrons que la droite (B1 C1 ) ne contient aucun des points A, B, C, A0 , B 0 , C 0 . En
e↵et, si A 2 (B1 C1 ) alors, comme par c) A est distinct de B1 et C1 , la droite (AC1 ) = (AB1 )
égale (AB) et (AC), donc A, B, C sont alignés, contradiction. Et si B 2 (B1 C1 ), alors
(B1 C1 ) égale (BC1 ) donc contient A, contredisant ce qui précède. On montre de même que
(B1 C1 ) ne peut contenir ni C, ni A0 , B 0 , C 0 .
(4) Démontrons maintenant l’équivalence annoncée.
(i) Supposons A1 , B1 , C1 alignés et prenons cette droite comme droite à l’infini D1 . Alors
dans le plan affine P = P(V ) D1 , les droites affines (AB) et (A0 B 0 ) sont parallèles, de
(23)
Cette hypothèse est généralement omise dans la littérature ; si elle n’est pas vérifiée le théorème reste
vrai mais la figure obtenue est di↵érente, voir le chap. 3.
14. THÉORÈMES DE PAPPUS ET DE DESARGUES 57

même que (AC) et (A0 C 0 ) d’une part, et (BC) et (B 0 C 0 ) d’autre part. Donc, d’après le
théorème de Desargues affine, les droites affines (AA0 ), (BB 0 ) et (CC 0 ) sont concourantes
ou parallèles, donc les droites projectives correspondantes sont concourantes.
(ii) Réciproquement, supposons les droites (AA0 ), (BB 0 ) et (CC 0 ) concourantes. Prenons
la droite (B1 C1 ) comme droite à l’infini D1 . Alors dans le plan affine P = P(V ) D1 ,
les droites affines (AB) et (A0 B 0 ) sont parallèles, ainsi (AC) et (A0 C 0 ) (car B1 et C1 sont
sur la droite à l’infini) et les droites affines (AA0 ), (BB 0 ) et (CC 0 ) sont concourantes ou
parallèles. Donc, d’après le théorème de Desargues affine, les droites affines (BC) et (B 0 C 0 )
sont parallèles, donc les droites projectives correspondantes se coupent sur la droite à l’infini
D1 , donc A1 2 D1 = (B1 C1 ) et donc A1 , B1 , C1 sont alignés.
Remarque. — Dans la figure précédente, le point O n’appartient pas à la droite (A1 B1 C1 ),
mais il peut y appartenir, comme sur la figure suivante :
! !

B0
!
!
! !! ⇢⇢
!
!!! ⇢
!
! !!
! ⇢
!
!⇠⇠! ⇢
B1XX
HHXX C!!!!
0 !
⇠ ⇢
!
⇠X
!H X⇠⇠
X
X
B

⇠⇠!H⇠ XXXX XX ⇢⇠

A1 ! C H ⇠ ⇠

⇠ ⇠A⇠⇠
⇠H ⇢
⇢A0
⇠ ⇠
O⇠ ⇢





C1 ⇢

Exercice 14.4. — Essayer de démontrer le corollaire 9.10 de [Po, Partie I] = Exercice


[Link] (page 64) de [Ti].

Références pour ce chapitre :


[Be] Daniel Bertrand, Algèbre et géométrie, Cours de M1 à l’UPMC 2009-2013 (§I.3.3 et
Chap. II), disponible sur la page de l’auteur : [Link]/e [Link]
[Co] H. S. M. Coxeter, Projective Geometry (revised reprint of the 2nd edition, Springer-Verlag,
1994), Chap. 1 et 4-6.
[Gr] André Gramain, Géométrie élémentaire (Hermann, 1997), Chap. VII.
[It] Ilia Itenberg, Algèbre et géométrie, Cours de M1 à l’UPMC 2013-2014 (§§2.5-2.8), dispo-
nible sur la page de l’auteur : [Link]/e [Link]
[Po] Patrick Polo, Algèbre et géométrie, Cours de M1 à l’UPMC 2014-2015 (II §12.3), disponible
sur la page de l’auteur : [Link]/e [Link]
[Sa] Pierre Samuel, Géométrie projective (P.U.F., 1986), Chap. I, §B.
[Ti] Claude Tisseron, Géométries affine, projective et euclidienne, Hermann, 1988.
CHAPITRE 3

DUALITÉ PROJECTIVE ET CONSÉQUENCES

(1)
Erratum au chap. 1 : supprimer la 1ère phrase de la section 7. Les théorèmes de Pappus et
Desargues et leurs duaux ont été traités en cours comme illustration de la dualité projective et sont au
programme de l’examen.

Dans tout ce chapitre, k désigne un corps et V un k-ev de dimension finie.

15. Définitions
Rappels 15.1 (sur la dualité). — Soit V un k-espace vectoriel de dimension finie.
(1) Si F est un sev de V ⇤ , son orthogonal dans V est :

F 0 = {v 2 V | f (v) = 0 pour tout f 2 F }.

On rappelle que :
(i) dim(F 0 ) = dim(V ) dim(F ).
(ii) Si (f1 , . . . , fr ) est une famille génératrice de F (par exemple une base), alors F 0 =
T
{v 2 V | fi (v) = 0 pour i = 1, . . . , r} = ri=1 Ker(fi ).

(2) De même, si W est un sev de V , son orthogonal dans V ⇤ est :

W 0 = {f 2 V ⇤ | f (x) = 0 pour tout x 2 W }.

On a :
(i) dim(W 0 ) = dim(V ) dim(W ).
(ii) Si (v1 , . . . , vr ) est une famille génératrice de W (par exemple une base), alors W 0 =
{f 2 V ⇤ | f (vi ) = 0 pour i = 1, . . . , r}.

(3) Avec les notations précédentes, on a W = W 00 et F = F 00 .


(4) Le dual de l’espace quotient V /W s’identifie à W 0 , i.e. on a : (V /W )⇤ = W 0 .
(5) L’orthogonalité « renverse les inclusions et échange les sommes et les intersections »,
c.-à-d., si E ⇢ F et E1 , . . . Er sont des sev de V ou de V ⇤ , alors F 0 ⇢ E 0 et l’on a :

(E1 + · · · + Er )0 = E10 \ · · · \ Er0 et (E1 \ · · · \ Er )0 = E10 + · · · + Er0 .

(1)
Version du 4 octobre 2016.
60 CHAPITRE 3. DUALITÉ PROJECTIVE ET CONSÉQUENCES

Démonstration. — Pour (1)–(4), voir par exemple [Po, §§1.3, 1.7, 3.5]. Prouvons (5).
D’abord, l’inclusion F 0 ⇢ E 0 est évidente. Posons W = E1 + · · · + En . Comme Ei ⇢ W ,
alors W 0 est contenu dans chaque Ei0 donc dans leur intersection.
Réciproquement, si un élément y appartient à E10 \ · · · \ Er0 alors il est orthogonal à
toute somme x1 + · · · + xn , où xi 2 Ei , donc y 2 W 0 . Ceci prouve la 1ère égalité. La 2ème
se déduit de la 1ère appliquée aux Ei0 , en utilisant (3).
Dans la suite, on suppose que dim(V ) = n + 1 est 3, i.e. que dim P(V ) = n est 2.

Définition 15.2 (Pinceaux d’hyperplans). — Soit = P(F ) une droite de P(V ⇤ ),


i.e. F est un sev de V ⇤ de dimension 2. Soit W = F 0 , c’est un sev de V de codimension 2.
Pour tout [f ] 2 , P(Ker(f )) est un hyperplan de P(V ) contenant P(W ). Réciproquement,
si P(H) est un tel hyperplan, soit f 2 V ⇤ une équation de H (i.e. Ker(f ) = H) ; comme
W ⇢ H alors kf = H 0 est contenu dans W 0 = F .
Donc les hyperplans de P(V ) contenant P(W ) sont exactement les P(Ker(f )), pour [f ]
décrivant (noter que Ker( f ) = Ker(f ) pour tout 2 k ⇥ ). L’ensemble de ces hyperplans
s’appelle le pinceau d’hyperplans (2) associé à ou encore le pinceau d’hyperplans de centre
P(W ). Si P(H) et P(H 0 ) sont deux éléments distincts du pinceau, leur intersection est P(W )
(car H \ H 0 = W ).

Exemple 15.3. — Si P est un plan projectif et I un point de P, alors le pinceau de droites


de centre I est l’ensemble des droites projectives passant par I. Remarquons que si l’on
choisit l’une de ces droites comme droite à l’infini D1 , alors dans le plan affine P = P D1 ,
les autres droites du pinceau sont parallèles, cf. la figure de droite ci-dessous :
@ A
@ A
@ A
@ A
HH @ A
HH @ A
HH@ A
H@ AI
HH
@AH [ D1
A HH
@
A@ HH
A @ HH
A @ HH
A @
A @
A @
A @
A @

Notations 15.4. — (1) Notons S (V ) l’ensemble des sev E de V . Plus précisément, pour
r = 0, 1, . . . , n + 1, notons Sr (V ) l’ensemble des sev de V de dimension r.
(2) Pour l’énoncé de la dualité projective (cf. ci-dessous), il est commode de s’autoriser
à considérer P({0}) = ? comme un sous-espace projectif de P(V ), et de décréter qu’il est
de dimension 1.
(3) Alors, pour d = 1, 0, . . . , n 1, n, notons Sd (P(V )) l’ensemble des sous-espaces
projectifs de P(V ) de dimension d, i.e.
Sd (P(V )) = {P(E) | E 2 Sd+1 (V )}.
et notons S (P(V )) l’ensemble de tous les sous-espaces projectifs P(E), pour E 2 S (V ).
Remarquons que S0 (P(V )) n’est autre que l’ensemble des points de P(V ), que S1 (P(V ))

On dit aussi « faisceau d’hyperplans », mais nous préférons la terminologie « pinceau », qui est celle
(2)

utilisée en géométrie algébrique.


15. DÉFINITIONS 61

est l’ensemble des droites de P(V ) et que Sn 1 (P(V )) est l’ensemble des hyperplans de
P(V ).

Lemme 15.5. — L’application E 7! E 0 est une bijection de S (V ) sur S (V ⇤ ). Plus


précisément, pour tout r = 0, 1, . . . , n + 1, c’est une bijection de Sr (V ) sur Sn+1 r (V ⇤ ).

Démonstration. — Ceci découle des rappels précédents.

Définition et proposition 15.6 (Dualité projective). — On suppose que dim P(V ) =


n est 2.
(i) L’application P(E) 7! P(E 0 ) est une bijection de S (P(V )) sur S (P(V ⇤ )), qui
envoie Sd (P(V )) sur Sn d 1 P(V ⇤ ) pour tout tout d = 1, 0, . . . , n 1, n.
(i bis) En particulier, pour tout f 2 V ⇤ {0} le point [f ] de P(V ⇤ ) correspond à l’hy-
perplan P(H), où H = Ker(f ). Et toute droite = P(F ) de P(V ⇤ ) correspond au pinceau
d’hyperplans de centre P(W ), où W = F 0 .
(ii) Cette bijection renverse les inclusions : P(E) ⇢ P(F ) () P(F 0 ) ⇢ P(E 0 ).
(iii) Elle échange les notions d’intersection et de sous-espace engendré, i.e. si E1 , . . . , Er
sont des sev de V , elle échange, d’une part, P(E1 )\· · · P(Er ) et P(E10 +· · ·+Er0 ) et, d’autre
part, P(E1 + · · · + Er ) et P(E10 \ · · · \ Er0 ).
(iii bis) En particulier, pour tout entier r 3, des points distincts [f1 ], . . . [fr ] de P(V ⇤ )
sont alignés ssi, posant Hi = Ker(fi ), les hyperplans P(Hi ) de P(V ) contiennent un sous-
espace projectif P(W ) de dimension n 2.
(iii ter) En particulier, si n = 2, les [fi ] comme ci-dessus sont alignés ssi les droites
Di = P(Hi ) sont concourantes.

Démonstration. — Les assertions (i)–(iii) découlent aussitôt du lemme précédent. Prouvons


(iii bis). Si les [fi ] engendrent une droite = P(F ) alors les P(Hi ) appartiennent au pinceau
de centre P(W ), où W = F 0 . Réciproquement, si les P(Hi ) contiennent un sous-espace
projectif P(W ) de dimension n 2, alors les fi appartiennent tous au plan F = W 0 , donc
les [fi ] appartiennent à la droite = P(F ). Enfin, (iii ter) est un cas particulier, car dans
ce cas P(W ) est un point I du plan projectif P(V ).

Terminologie 15.7. — Plaçons-nous dans un plan projectif P(V ). Si D est une droite
de P(V ) et d le point correspondant de P(V ⇤ ), on dit que d est « le point dual de la droite
D ». De même, si p est un point de P(V ) et la droite correspondante de P(V ⇤ ), on dit
que est « la droite duale du point p ».

Exemple 15.8. — Si ABC est un triangle dans P(V ) (i.e. si les points A, B, C de P(V )
sont non alignés), on notera a 2 P(V ⇤ ) le point « dual » de la droite (BC), et b (resp. c) le
point « dual » de la droite (CA) (resp. (AB)). Alors, comme (BC) et (CA) se coupent en
C, la droite (ab) est duale du point C, et de même (bc) est duale de A et (ca) de B.
@ @
@ A @
c@ As b
@
c s @ s
@b
@ s sC
s @
P(V ) B@ P(V ⇤ )
@
B a @C a@
@ @
@ @
62 CHAPITRE 3. DUALITÉ PROJECTIVE ET CONSÉQUENCES

Donc un triangle est une configuration « autoduale ».


Ce qui suit sur les quadrangles et quadrilatères complets n’a pas été traité en cours et peut être omis.

Exemples 15.9. — Soit P un plan projectif.


(1) Un quadrangle complet dans P est la donnée de quatre points P, Q, R, S formant un repère projectif
(i.e. trois d’entre eux ne sont jamais alignés), appelés les sommets, et des 42 = 6 droites qui les joignent,
appelées les côtés (cf. la figure suivante).
Deux côtés qui ne se coupent pas en un sommet sont dits opposés ; les trois paires de côtés opposés se
coupent en trois points supplémentaires I, J, K, appelés les points diagonaux.
P
L
@
L@
L @
L @
L @
LI @Q
X
S XX L
XXX LXX @@
R XXX
@J
X

K
(2) La configuration duale est appelée un quadrilatère complet : c’est la donnée de quatre droites dis-
tinctes dont trois ne sont jamais concourantes, appelées les côtés du quadrilatère ; elles se coupent deux à
deux en 42 = 6 points distincts, appelés les sommets. Deux sommets sont dits opposés si la droite qui les
joint n’est pas un côté, elle est alors appelée une diagonale. On obtient ainsi trois diagonales (en pointillés
sur le dessin ci-dessous).

s


s ⌅
L ⌅
L ⌅
L ⌅
L s⌅
⌅L
⌅ L
⌅ L
⌅ L
⌅ L
⌅ L
⌅ L
⌅ L
⌅ L
⌅ L
⌅ L
⌅ L
⌅ L
s ⌅s Ls
⌅ L

Remarque : si la caractéristique de k est 6= 2, il résulte du lemme ci-dessous que les trois points diagonaux
d’un quadrangle complet ne sont pas alignés et, dualement, que les trois diagonales d’un quadrilatère
complet ne sont pas concourantes.

Lemme 15.10. — Soit (P, Q, R, S) un quadrangle complet du plan projectif P. On suppose que car(k) 6=
2. Alors les points diagonaux I, J, K ne sont pas alignés. (3)

Démonstration. — Les points P, Q, R, S définissent un repère projectif dans lequel leurs coordonnées ho-
mogènes sont [1, 0, 0], [0, 1, 0], [0, 0, 1] et [1, 1, 1]. Alors la droite (P Q) (resp. (RS)) a pour équation z = 0
(resp. x = y), donc K = [1, 1, 0]. On obtient de même que J = [0, 1, 1] et I = [1, 0, 1]. Comme car(k) 6= 2,
0 1
0 1 1
on a dét @1 0 1A = 2 6= 0 donc I, J, K ne sont pas alignés.
1 1 0

(3)
A fortiori, ils sont deux à deux distincts.
16. LE THÉORÈME DE CÉVA COMME DUAL DU THÉORÈME DE MÉNÉLAÜS 63

16. Le théorème de Céva comme dual du théorème de Ménélaüs


Soient A, B, C trois points non alignés d’un plan affine P. Ils définissent un repère affine
R = (A, B, C) de P, d’où des coordonnées barycentriques ( , µ, ⌫) pour lesquelles on a
A = (1, 0, 0), B = (0, 1, 0) et C = (0, 0, 1). Soient A0 = (0, a, a0 ) un point de la droite (BC),
B 0 = (b0 , 0, b) un point de la droite (CA) et C 0 = (c, c0 , 0) un point de la droite (AB). (On
a a + a0 = 1 = b + b0 = c + c0 puisqu’il s’agit de coordonnées barycentriques.)
Théorème 16.1. — Le théorème de Céva se déduit par dualité projective du théorème
de Ménélaüs (et réciproquement).

Démonstration. — Soit V = P c le plongement vectoriel de P et P(P)b = P(V ) le complété


0 0 0
projectif de P. Alors les droites affines (AA ), (BB ) et (CC ) sont concourantes (dans
P) ou parallèles si et seulement si les droites projectives correspondantes, notons-les ↵,
et , sont concourantes (dans P(V )). Par dualité, ceci équivaut à dire que les points
correspondants p, q, r de P(V ⇤ ) sont alignés. Déterminons ces points.
c les vecteurs OA, ! ! !
Notant O le vecteur nul de V = P, OB et OC forment, dans cet ordre,
une base B = (e1 , e2 , e3 ) de V . Notons B ⇤ = (f1 , f2 , f3 ) la base duale de V ⇤ , alors un
élément arbitraire f de V ⇤ s’écrit de façon unique f = xf1 + yf2 + zf3 , avec x, y, z 2 k, et
l’on a :
! ! !
f (OA) = x, f (OB) = y, f (OC) = z.
!
Par conséquent, l’orthogonal de la droite vectorielle engendré par OA est le plan de V ⇤
donné par l’équation x = 0, et donc la droite de P(V ⇤ ) « duale » du point A de P(V ) est
la droite projective A d’équation x = 0. De même, la droite B « duale » de B (resp. C
« duale » de C) a pour équation y = 0 (resp. z = 0). Les droites A et B se coupent au
point C ⇤ = [0 : 0 : 1] de P(V ⇤ ), qui est le point dual de la droite (AB). De même, B et
⇤ ⇤
C se coupent au point A = [1 : 0 : 0], et C et A au point B = [0 : 1 : 0]. Donc la
configuration « duale » du triangle (ABC) est le triangle suivant dans P(V ⇤ ) :

@
@s s
@ B ⇤ = [0 : 1 : 0]
A
@ C⇤ = [0 : 0 : 1]
@
@
@
@s A⇤ = [1 : 0 : 0]
@
@
@
@
@
@
B
@ C

Considérons maintenant les droites projectives ↵ = (AA)0 , = (BB 0 ) et = (CC 0 ) et les


points « duaux » p, q, r dans P(V ⇤ ). La droite projective ↵ correspond au plan vectoriel P↵
! !
engendré par OA = e1 et OA0 = ae2 + a0 e3 , donc une forme linéaire f = xf1 + yf2 + zf3 s’y
annule ssi x = 0 et ya + za0 = 0, donc P↵ est défini par la forme linéaire f↵ = a0 f2 + af3 ,
donc le point p dual de ↵ est p = [0 : a0 : a].
!
De même, la droite projective correspond au plan vectoriel P engendré par OB = e2
!
et OB 0 = b0 e1 + be3 , qui est défini par la forme linéaire f = bf1 b0 f3 , donc le point q dual
64 CHAPITRE 3. DUALITÉ PROJECTIVE ET CONSÉQUENCES

de est q = [b : 0 : b0 ]. Et, de même, correspond au plan vectoriel P engendré par


! !
OC = e3 et OC 0 = ce1 + c0 e2 , donc le point r dual de est r = [ c0 : c : 0].
Par dualité, on a déjà dit que les droites projectives ↵, , sont concourantes ssi les points
p, q, r de P(V ⇤ ) sont alignés, ce qui équivaut à dire que les vecteurs (0, a0 , a), (b, 0, b0 )
et ( c0 , c, 0) de V ⇤ engendrant un plan vectoriel, i.e. que le déterminant

0 b c0
a0 0 c
a b0 0

est nul (ceci était la démonstration du th. de Ménélaüs). Or ce déterminant vaut abc a0 b0 c0 .
On obtient ainsi que le théorème de Céva est le « dual projectif » du théorème de Ménélaüs
(et réciproquement).

17. Dualité et théorèmes de Pappus et de Desargues


On renvoie maintenant aux di↵érentres versions des théorèmes de Pappus et Desargues
données dans les sections 7 et 14. En dualisant le théorème de Pappus projectif (14.1), on
obtient un nouveau théorème, le théorème « de Pappus dual » :

Théorème 17.1 (de Pappus dual). — Dans un plan projectif, soient I, I 0 deux points
distincts et D1 , D2 , D3 (resp. D01 , D02 , D03 ) trois droites distinctes passant par I (resp. I 0 )
et distinctes de la droite (II 0 ). Notons Q1 (resp. R1 ) le point de concours de D2 et D03
(resp. D02 et D3 ) et définissons de même Q2 , R2 , Q3 et R3 . Alors les droites (Q1 R1 ), (Q2 R2 )
et (Q3 R3 ) sont concourantes.

D03 D02
D1 C ⌘ 0
⌘ D1
C ⌘
D3 ⌘
D2 ACC ⌘0
⌘ I
AC ⌘

AC ⌘
IA
C R ⌘⌘
As
@ CA ⌘3⌘
@ C⌘
@ ⌘ C A

s ⌘ Q3 CCs A
A
R@
2@⌘
⌘ A
⌘ @ C
As
⌘ @ A
⌘ C
@s C
@ C AQ1
Cs
A
O @@ Q A
C 2
C@
R1 s C @
C @
C @
C

Par contre, on va voir que le théorème de Desargues est « auto-dual ». Même si cela
ne fournit pas un nouveau théorème, cette « autodualité » du théorème de Desargues est
intéressante. Plaçons-nous dans un plan projectif P(V ). Commençons par rappeler les hy-
pothèses du théorème de Desargues.
17. DUALITÉ ET THÉORÈMES DE PAPPUS ET DE DESARGUES 65

On suppose que A, B, C (resp. A0 , B 0 , C 0 ) sont non alignés et que :


A 6= A0 donnent la droite (AA0 ) (BC) 6= (B 0 C 0 ) se coupent en un point A1
B 6= B 0 donnent la droite (BB 0 ) (CA) 6= (C 0 A0 ) se coupent en un point B1
C 6= C 0 donnent la droite (CC 0 ) (AB) 6= (A0 B 0 ) se coupent en un point C1
(AA0 ), (BB 0 ), (CC 0 ) distinctes A1 , B1 , C1 distincts
Que A1 , B1 , C1 soient distincts ne fait pas partie des hypothèses initiales, mais en dé-
coule. En e↵et, si on avait par exemple A1 = B1 alors les droites (AC) et (BC), distinctes
car A, B, C non alignés, auraient en commun les points M = A1 = B1 et C, donc néces-
sairement M = C, et de même M = C 0 , d’où C = C 0 , contradiction.
Notons a 2 P(V ⇤ ) le point « dual » de la droite (BC), et b (resp. c) le point « dual » de
la droite (CA) (resp. (AB)), et définissons de même a0 , b0 , c0 .
Alors, comme (BC) et (CA) se coupent en C, la droite (ab) est duale du point C, et
de même (bc) est duale de A et (ca) de B. De même, (a0 b0 ), (b0 c0 ) et (c0 a0 ) sont duales,
respectivement, des points C 0 , A0 et B 0 .
Comme C 6= C 0 , alors (ab) et (a0 b0 ) sont distinctes donc se coupent en un point c1 qui
est dual de la droite (CC 0 ). De même, (bc) et (b0 c0 ) se coupent au point a1 dual de (AA0 ),
et (ca) et (c0 a0 ) se coupent au point b1 dual de (BB 0 )
De plus, comme c est dual de (AB) et c0 de (A0 B 0 ), alors la droite (cc0 ) est duale du
point C1 = (AB) \ (A0 B 0 ), et de même (bb0 ) est duale de B1 et (aa0 ) de A1 . On voit donc
que les hypothèses sont « auto-duales », i.e. qu’elles équivalent aux hypothèses analogues
sur les objets duaux :
a, b, c (resp. a0 , b0 , c0 ) sont non alignés et :
(bc) 6= (b0 c0 ) se coupent en un point a1 a 6= a0 donnent la droite (aa0 )
(ca) 6= (c0 a0 ) se coupent en un point b1 b 6= b0 donnent la droite (bb0 )
(ab) 6= (a0 b0 ) se coupent en un point c1 c 6= c0 donnent la droite (cc0 )
a1 , b1 , c1 distincts (aa0 ), (bb0 ), (cc0 ) distinctes
On peut maintenant énoncer (et démontrer !) le théorème de Desargues sous la forme
suivante : (4)
Théorème 17.2 (de Desargues projectif ). — On se place sous les hypothèses auto-
duales précédentes. Alors les conditions suivantes sont équivalentes :
(i) A1 , B1 , C1 sont alignés sur une droite D ⇢ P(V ).
(ii) (AA0 ), (BB 0 ), (CC 0 ) sont concourantes en un point O 2 P(V ).
(iii) (aa0 ), (bb0 ), (cc0 ) sont concourantes au point d 2 P(V ⇤ ) dual de la droite D.
(iv) a1 , b1 , c1 sont alignés sur la droite ⌦ de P(V ⇤ ) duale du point O.
De plus, si ces conditions sont vérifiées, on est dans l’une des situations suivantes :
a) Cas non dégénéré : aucune des 6 droites (AB), (BC), (CA), (A0 B 0 ), (B 0 C 0 ), (C 0 A0 )
ne contient O ; de façon équivalente, D ne contient aucun des 6 points C, A, B, C 0 , A0 , B 0 .
Dans ce cas, avec les 4 droites (AA0 ), (BB 0 ), (CC 0 ), D et les 4 points A1 , B1 , C1 , O on
(4)
La démonstration par « expédition de D à l’infini » donnée section 14 avait une hypothèse supplémentaire,
assurant que D ne contient aucun des points A, B, C, A0 , B 0 , C 0 , ce qui excluait les cas « dégénérés » du
théorème. Par ailleurs, dans le chap. 1, p.25, ligne 2 de la démo de 7.2 : remplacer par µ.
66 CHAPITRE 3. DUALITÉ PROJECTIVE ET CONSÉQUENCES

obtient dix points et dix droites deux à deux distincts. Le point O peut appartenir ou pas à
la droite D : voir les deux figures ci-dessous.
b) Cas dégénéré : O est égal à l’un des points A, B, C, A0 , B 0 , C 0 , disons A. Alors on
a trois égalités de points : A = O, B 0 = C1 et C 0 = B1 , et trois égalités de droites :
(BB 0 ) = (AB), (CC 0 ) = (AC) et D = (B 0 C 0 ). Si O 62 D, on obtient ainsi 7 points et
7 droites deux à deux distincts. Si O 2 D, on obtient deux égalités de points (resp. de
droites) en plus, par exemple A = B 0 et C = A1 (resp. (A0 A) = (A0 B 0 ) et (C 0 C) = D),
d’où seulement 5 points et 5 droites.
Avant de commencer la démonstration, donnons deux figures correspondant au cas « non
dégénéré » ; dans la première on a O 62 D et dans la seconde O 2 D :
HH
H@
H@H@
HH
A@ HH B0
@ H @
@ HHC O @C 0
@ HH @ 0
B@ HH @A
@ HH @
@ HH @
@ HH @
@ H
@H
HH D
A1 @
C1 B@
1
@ @ HH
@ @ H
D !!

B0
!
!!!! ⇢⇢
!
!
!! ⇢
!
!!!! ⇢
!
!
!⇠⇠ ⇢
B1XX
HHXXC!!!!
0 !
⇠ ⇢
!
⇠X
!H X⇠⇠
X
X
B

!H
⇠⇠⇠ XX
XXXX ⇢⇠

A1 ! C H ⇠ ⇠

⇠ ⇠A⇠⇠
⇠H ⇢
⇢A0
⇠⇠
O⇠ ⇢





C1 ⇢

Démonstration. — Par dualité, on a les équivalences (i) , (iii) et (ii) , (iv). De plus, si
l’on a montré l’implication (ii) ) (i) et si (i) est vérifié alors (iii) l’est aussi et donc, par
l’implication précédente appliquée dans P(V ⇤ ), (iv) est vérifié et donc (ii) est vérifié. Donc
il suffit d’établir que (ii) ) (i), en tenant compte des cas dégénérés.
Supposons donc (AA0 ), (BB 0 ), (CC 0 ) concourantes en un point O. Alors, dans P(V ⇤ ), les
points a1 , b1 , c1 appartiennent à la droite ⌦ duale de O. Distinguons les cas suivants.
(1) O appartient à une des 6 droites (AB), (BC), (CA), (A0 B 0 ), (B 0 C 0 ), (C 0 A0 ), par
exemple à (AB). Si O était distinct de A et de B, alors la droite (AB) serait égale
à (OA) = (A0 A) et à (OB) = (B 0 B) donc on aurait (A0 A) = (B 0 B) contrairement à
l’hypothèse. Ceci montre que O = A ou B. Supposons par exemple O = A.
17. DUALITÉ ET THÉORÈMES DE PAPPUS ET DE DESARGUES 67

Alors, (BB 0 ) = (AB) et (CC 0 ) = (AC). De plus, comme B 0 2 (AB) \ (A0 B 0 ) on a


B = C1 et de même, comme C 0 2 (AC) \ (A0 C 0 ), on a C 0 = B1 . Par conséquent, on a
0

(C1 B1 ) = (B 0 C 0 ) et cette droite contient évidemment le point A1 = (B 0 C 0 ) \ (BC). Ceci


montre déjà que dans ce cas A1 , B1 , C1 sont alignés sur la droite D = (B 0 C 0 ).
De plus, on a la configuration suivante, où les 4 droites en gras (resp. les 3 en pointillés)
sont deux à deux distinctes :
Q D
Q
Q
Q A0
Q
Q C 0 =B1
Q
Q
Q
@ Q
Q
@ Q
@ O=A Q B 0 =C1
Q
B@ Q
@ Q
Q
@ Q
@
C
@
@ A1
@
@
@

En e↵et, (A0 A) est distincte de (BAB 0 ) (resp. (CAC 0 )) car sinon on aurait (A0 A) = (BB 0 )
(resp. (A0 A) = (CC 0 )), et elle est distincte de (BC) car A, B, C sont non alignés.
De plus, D = (B 0 C 0 ) est distincte de (BC) par hypothèse, et elle est distincte de (A0 A)
et (A0 B 0 ) car A0 , B 0 , C 0 sont non alignés. Donc les seules égalités de droites possibles sont
l’égalité de D avec (CAC 0 ) ou (BAB 0 ), et l’égalité de (A0 A) avec (A0 B 0 ) ou (A0 C 0 ).
Si D = (CC 0 ) alors B 0 appartient à (CC 0 ) \ (BB 0 ) donc B 0 = O = A, et C appartient à
(BC) et à (CC 0 ) = (B 0 C 0 ) donc C = A1 . On obtient donc la configuration suivante de 5
points et 5 droites :
Q D
Q
Q
Q A 0
Q
Q C 0 =B1
Q
Q
Q
@ Q
Q
@ Q
@ Q O=A=B 0 =C1
Q
B@ Q
@ Q
Q
@ C=A1 Q
@
@
@
@
@
@

De même, si D = (BB 0 ) on obtient une configuration analogue avec cette fois O = A =


C 0 = B1 et B = A1 . Dans ces deux cas, O = A appartient à D. Réciproquement, si O 2 D
et si O est distinct de C 0 (resp. de B 0 ), alors D et (CC 0 ) (resp. (BB 0 )) ont en commun les
points distincts O et C 0 (resp. O et B 0 ) donc D = (CC 0 ) (resp. D = (BB 0 )) et l’on est
dans le cas juste étudié.
Au contraire, si O = A n’appartient pas à D alors D est distincte de (CAC 0 ) et (BAB 0 ),
et (A0 A) 6= (A0 B 0 ) car sinon on aurait B 0 2 (B 0 B) \ (A0 A) d’où B 0 = O = A ; de même,
(A0 A) 6= (A0 C 0 ). On obtient donc une configuration de 7 points et 7 droites deux à deux
distincts :
68 CHAPITRE 3. DUALITÉ PROJECTIVE ET CONSÉQUENCES

Q D
HQ
HQ
HQHH
A 0
QH
QH C 0 =B1
QH
Q HH
Q H
@ Q H
Q H
@ Q HH
O=A Q B 0 =C1
@ Q HH
B@ Q HH
@ Q HH
Q
@ Q H
C@
@
@ A1
@
@
@

Ceci achève l’analyse du cas où l’une des 6 droites (AB), (BC), (CA), (A0 B 0 ), (B 0 C 0 ), (C 0 A0 )
contient O.
(2) Considérons maintenant le cas où aucune de ces 6 droites ne contient O. Alors, par
dualité, la droite ⌦ de P(V ⇤ ) ne contient aucun des points c, a, b, c0 , a0 , b0 .
Dans ce cas, on peut appliquer la démonstration donnée au chap. 3, i.e. prenons ⌦ comme
droite à l’infini dans P(V ⇤ ). Alors les 6 points a, b, c, a0 , b0 , c0 sont dans le plan affine P =
P(V ⇤ ) ⌦ et les droites (ab) et (a0 b0 ) sont parallèles, ainsi que (bc) et (b0 c0 ) et (ca) et (c0 a0 ).
Ceci implique que les 6 points a, b, c, a0 , b0 , c0 sont distincts : en e↵et, si on avait par exemple
a = b0 , alors les droites parallèles (ab) et (a0 b0 ) seraient égales, et l’on aurait (aa0 ) = (aa0 )
contrairement à l’hypothèse. On est donc sous les hypothèses du théorème de Desargues
affine 7.2. Par conséquent, les droites (aa0 ), (bb0 ) et (cc0 ) sont concourantes en un point d
et donc, par dualité, les points A1 , B1 , C1 de P(V ) appartiennent à la droite D duale de d.
Ceci termine déjà la preuve de l’implication (ii) ) (i).
De plus, la démonstration du théorème 7.2 montre que les droites (aa0 ), (bb0 ), (cc0 ) sont
soit concourantes en un point d 2 P qui est distinct des six points,(5) soit parallèles, et en
ce cas elles ne sont parallèles à aucune des droites (ab), (bc), (ca), donc coupent la droite
à l’infini ⌦ en un point d qui est distinct de a1 , b1 , c1 . On obtient donc que les dix points
a, b, c, a0 , b0 , c0 , a1 , b1 , c1 , d de P(V ⇤ ) sont distincts, et donc les dix droites correspondantes
de P(V ) sont distinctes.
Comme ceci est exclusif du cas dégénéré traité en (1), on obtient ainsi, en tenant compte
de la dualité, les deux situations a) et b) du théorème.

! !
(5)
car aa0 = (1 )ad, etc.
CHAPITRE 4

BIRAPPORT

(1)
Dans tout ce chapitre, k désigne un corps.

18. Birapport pour l’Agrégation


Le birapport étant la seule partie de géométrie projective à figurer explicitement dans le
programme de l’Agrégation, nous en donnons ici une présentation rapide (et calculatoire),
que le lecteur pourra comparer avec celle de la section suivante.

18.1. Homographies, repères projectifs et birapport. —

Notation 18.1. — L’espace projectif P1 (k) est l’ensemble des coordonnées homogènes
[x, y], où (x, y) 6= (0, 0) et [x, y] = [ x, y] pour tout 2 k ⇥ . En particulier, si y 6= 0, on a
[x, y] = [x/y, 1].
On identifie tout élément x de k avec le point [x, 1] de P1 (k). D’autre part, on note 1
l’unique point de P1 (k) pour lequel y = 0, i.e. 1 = [1, 0] (= [t, 0] pour tout t 2 k ⇥ ). On
obtient ainsi : (2)
(†) P1 (k) = k t {1} = [x, 1] | x 2 k t [1, 0] .

Définition 18.2 (Homographies). — L’action linéaire de GL2 (k) sur k 2 :


✓ ◆✓ ◆ ✓ ◆
a b x ax + by
=
c d y cx + dy
induit une action de GL2 (k) sur P(k 2 ) = P1 (k), donnée par
✓ ◆
a b
(1) [x, y] = [ax + by, cx + dy].
c d
Avec l’identification (†), on obtient que GL2 (k) agit sur k t {1} par homographies :
(i) Pour tout x 2 k, on a :
✓ ◆
a b ax + b
(2) ·x= 2 k t {1}
c d cx + d
le terme de droite étant 1 si et seulement si cx + d = 0.

(1)
Version du 18 oct. 2016.
(2)
Le symbole t désigne une réunion disjointe.
70 CHAPITRE 4. BIRAPPORT

(ii) On a :
✓ ◆
0 a b a
(2 ) ·1= .
c d c
a ax + b
Si k = R ou C muni de sa valeur absolue, est la limite du rapport lorsque |x|
c cx + d
0
tend vers +1. Pour un corps quelconque k, (2 ) s’obtient en revenant à (1) appliqué à
1 = [1, 0].

Définition 18.3 (Repères de P1 (k)). — Soit V un k-ev de dimension 2. Un repère pro-


jectif de P(V ) est un triplet (p0 , p1 , p2 ) de points deux à deux distincts. (3) On notera RP(V )
l’ensemble de ces repères.
Lorsque V = k 2 , on dira que le triplet (1, 0, 1), donné par les trois points [1, 0], [0, 1] et
[1, 1] est le repère « standard » de P1 (k).

La proposition suivante est un cas particulier du théorème 12.9.

Proposition 18.4. — (i) GL2 (k) agit transitivement sur RP(k 2 ) et le stabilisateur de
chaque repère est le sous-groupe H des homothéties.
(ii) Par conséquent, PGL2 (k) = GL2 (k)/H agit de façon libre et transitive sur RP(k 2 ).

Démonstration. — Soit (e1 , e2 ) la base standard de V = k 2 et soit R = ([v1 ], [v2 ], [v3 ])


un repère projectif de P(V ). Alors v1 , v2 , v3 sont deux à deux linéairement indépendants,
donc B = (v1 , v2 ) est une base de V et v3 s’écrit dans cette base v3 = 1 v1 + 2 v2 avec
1 2 6= 0. Alors l’élément g de GL(V ) défini par g(ei ) = i vi pour i = 1, 2 envoie 1 = [e1 ]
sur v1 , 0 = [e2 ] sur [v2 ] et 1 = [e1 + e2 ] sur [ 1 v1 + 2 v2 ] = [v3 ]. Ceci prouve que l’action
est transitive.
Le stabilisateur de R est formé des g 2 GL(V ) qui préservent les droites kv1 , kv2 et kv3 .
Les deux premières conditions
✓ ◆entraı̂nent que la matrice de g dans la base B = (v1 , v2 ) est
↵ 0
diagonale : MatB (g) = et alors on voit que g(v3 ) = ↵ 1 v1 + 2 v2 est colinéaire à
0
v3 ssi = ↵, i.e. ssi g est une homothétie. Ceci prouve (i), et (ii) en découle.

Définition 18.5 (Birapport). — Soient pi = [xi , yi ] (i = 1, . . . , 3) trois points distincts


de P1 (k) et p4 = [x4 , y4 ] un quatrième point. Le birapport du quadruplet (p1 , p2 , p3 , p4 ),
noté [p1 , p2 , p3 , p4 ], est le point suivant de P1 (k) :

x4 y2 x2 y4 x4 y1 x 1 y4
(?) [p1 , p2 , p3 , p4 ] = , .
x 3 y2 x2 y3 x3 y1 x 1 y3
Il est bien défini car :
(1) Comme p3 est distinct de p1 et p2 , les deux dénominateurs sont non nuls.
(2) La 1ère (resp. 2ème) coordonnée est nulle ssi p4 = p2 (resp. p4 = p1 ) donc, comme
p1 6= p2 , elles ne sont pas toutes les deux nulles.
(3) Si on remplace chaque (xi , yi ) par i (xi , yi ), alors chaque coordonnée homogène du
birapport est multipliée par 4 3 1 , donc le birapport est inchangé.

(3)
Voir 12.3 pour la définition lorsque dim(V ) = n + 1.
18. BIRAPPORT POUR L’AGRÉGATION 71

Si pi 2 k et si l’on écrit pi = [xi , 1], l’expression devient :



x4 x2 x4 x1
(??) [p1 , p2 , p3 , p4 ] = , .
x3 x2 x3 x1
Dans les deux cas, on a la donnée de deux rapports, ce qui explique le nom de birapport.
Remarquons tout de suite que [p1 , p2 , p3 , p4 ] est égal à 0 (resp. 1) ssi x4 y2 x2 y4 = 0
(resp. x1 y4 x4 y1 = 0), i.e. ssi p4 = p2 (resp. p4 = p1 ).

Remarque 18.6. — Si (p0 , p1 , p2 ) = (1, 0, 1), i.e. si [x1 , y1 ] = [1, 0], [x2 , y2 ] = [0, 1] et
[x3 , y3 ] = [1, 1], alors pour tout p4 = [x4 , y4 ] on a :

x4 y4
[1, 0, 1, p4 ] = , = p4 .
1 1
Rappel 18.7. — On rappelle que GL2 (k) est engendré par les matrices
✓ ◆ ✓ ◆ ✓ ◆
0 1 1 ↵ µ 0
S= , U (↵) = , H(µ) = , pour ↵ 2 k, µ 2 k ⇥ ,
1 0 0 1 0 1
qui correspondent respectivement aux homographies x 7! 1/x, x 7! x + ↵, et x ✓ 7! µx.◆En
1 0
e↵et, en conjuguant U (↵) resp. H(µ) par S on obtient aussi les matrices U 0 (↵) = et
↵ 1
✓ ◆
1 0
H 0 (µ) = et l’on sait que toute matrice A 2 GL2 (k) peut être ramenée à la matrice
0 µ
identité I2 par des opérations élémentaires, i.e. multiplication par une matrice d’un des
types précédents.

Lemme 18.8. — Le birapport est invariant par l’action de GL2 (k), i.e. on a :
⇥ ⇤
g(p1 ), g(p2 ), g(p3 ), g(p4 ) = [p1 , p2 , p3 , p4 ]
pour tout (p1 , p2 , p3 , p4 ) 2 RP(k 2 ) ⇥ P1 (k) et g 2 GL2 (k).

Démonstration. — D’après la définition (?) du birapport, ceci se vérifie directement pour


l’une des matrices S, U (↵) ou H(µ), d’où le résultat d’après le rappel précédent. (4)

Théorème 18.9. — Deux éléments (p1 , p2 , p3 , p4 ) et (q1 , q2 , q3 , q4 ) de RP(k 2 )⇥P1 (k) sont
conjugués (de façon unique) par l’action de PGL2 (k) ssi [p1 , . . . , p4 ] = [q1 , . . . , q4 ].

Démonstration. — S’il existe g 2 PGL2 (k) tel que qi = g(pi ) pour i = 1, . . . , 4 alors
[q1 , . . . , q4 ] = [p1 , . . . , p4 ] d’après le lemme précédent.
Réciproquement, supposons [q1 , . . . , q4 ] = [p1 , . . . , p4 ]. D’après la proposition 18.4, il
existe g, h 2 PGL2 (k) (uniques) envoyant respectivement (p1 , p2 , p3 ) et (q1 , q2 , q3 ) sur
(1, 0, 1). On a donc h 1 g(pi ) = qi pour i = 1, 2, 3 (et h 1 g est l’unique homographie
ayant cette propriété).
D’autre part, d’après 18.6 et 18.8, on a :
g(p4 ) = [1, 0, 1, g(p4 )] = [p1 , . . . , p4 ] = [q1 , . . . , q4 ] = [1, 0, 1, h(q4 )] = h(q4 ),
d’où aussi h 1 g(p4 ) = q4 .

(4)
Voir plus loin (19.2) pour une autre démonstration.
72 CHAPITRE 4. BIRAPPORT

Rappel 18.10. — On note V4 le sous-groupe de S4 formé de l’identité et des trois produits


de deux transpositions de supports disjoints, i.e. les éléments (13)(24), (14)(23) et (12)(34).
C’est un sous-groupe distingué de S4 et son intersection avec le sous-groupe
S3 = { 2 S4 | (4) = 4}
égale {id}. Par conséquent, l’application de multiplication V4 ⇥ S3 ! S4 , (v, ) 7! v est
injective, et comme |V4 ⇥ S3 | = 24 = |S4 |, cette application est bijective. Donc S4 est le
produit semi-direct de V4 par S3 .

Par conséquent, on obtient un isomorphisme S4 /V4 ! S3 et l’on notera ⇡ : S4 ! S3 la
composée de la projection S4 ! S4 /V4 et de cet isomorphisme.
Notation 18.11. — On note Q⇥ l’ensemble des quadruplets de points de P1 (k) deux à
deux distincts et X(k 2 ) = RP(k 2 ) ⇥ P1 (k). Alors, S4 (resp. S3 ) agit à gauche, par permuta-
tions des places, sur Q⇥ (resp. sur RP(k 2 ) donc aussi sur X(k 2 )), voir 1.4 et 1.3. Notant [·]
l’application birapport : X(k 2 ) ! P1 (k) (ou sa restriction à Q⇥ ), on peut donc considérer
les applications [·] : Q⇥ ! P1 (k) (resp. [·] ⌧ : X(k 2 ) ! P1 (k)), pour tout 2 S4
(resp. ⌧ 2 S3 ).
Remarque 18.12. — Soient ! = (p1 , p2 , p3 , p4 ) 2 Q⇥ et ↵ = [p1 , p2 , p3 , p4 ]. En écrivant :
h i
↵ = (x4 y2 x2 y4 )(x3 y1 x1 y3 ), (x4 y1 x1 y4 )(x3 y2 x2 y3 )
on voit que ↵ est inchangé si l’on applique à ! les permutations (13)(24), (14)(23) ou
(12)(34). Par conséquent, pour tout v 2 V4 les applications [·] et [·] v coı̈ncident sur Q⇥ .
Corollaire 18.13. — Soient p1 , . . . , p4 quatre points distincts de P1 (k). Il existe une
unique homographie h qui échange p1 et p2 d’une part et p3 et p4 d’autre part. De plus, h
est une involution, i.e. h h = id.
Démonstration. — D’après la remarque précédente, on a [p2 , p1 , p4 , p3 ] = [p1 , p2 , p3 , p4 ]
donc, d’après le théorème 18.9, il existe une unique homographie h envoyant (p1 , p2 , p3 , p4 )
sur (p2 , p1 , p4 , p3 ). Alors h2 = h h fixe chaque pi donc, d’après 18.4, h2 = id.
Donnons une autre démonstration de 18.12.
Proposition 18.14. — Soient V un k-ev de dimension 2 et {A, D} et {B, E} deux paires
disjointes de points de P(V ), avec A 6= D.
(i) Il existe une unique homographie h qui échange A et D d’une part, et B et E d’autre
part.
(ii) h est une involution.
Démonstration. — Comme A, D, B sont deux à deux distincts, ils forment un repère pro-
jectif. Il existe donc une base (e1 , e2 ) de V telle que [e1 ] = A, [e2 ] = D et [e1 + e2 ] = B.
Comme E est distinct de A et B, alors E = [ae1 + be2 ] pour certains a, b 2 k ⇥ .
On cherche une matrice g 2 GL2 (k) qui échange A et D d’une part, et B et E d’autre
part. La première condition signifie que✓g envoie ◆ e1 sur e2 et e2 sur µe1 , pour certains
0 µ
, µ 2 k ⇥ , i.e. que g est de la forme g = .
0
✓ ◆
2 µ 0
Remarquons déjà que g = est une homothétie, donc l’homographie h = g
0 µ
est une involution (car g 2 = g 2 = idP(V ) ). Ceci prouve (ii).
18. BIRAPPORT POUR L’AGRÉGATION 73

D’autre part, on veut que g(e1 +e2 ) = µe1 + e2 soit colinéaire à ae1 +be2 , ce qui équivaut
à bµ = a . Posant ⌫ = /b = µ/a, on a donc = b⌫ et µ = a⌫, d’où :
✓ ◆ ✓ ◆
0 a⌫ 0 a
g= =⌫ .
b⌫ 0 b 0
Il en résulte que h = g est l’unique homographie échangeant A et D et envoyant B sur E.
Comme h2 = id, on a donc aussi h(E) = B, d’où (i). La proposition est démontrée.

Théorème 18.15. — (i) L’action à gauche de S3 sur RP(k 2 ) induit un morphisme de


groupes : S3 ! PGL2 (k) tel que, pour tout x = (p1 , p2 , p3 ) 2 RP(k 2 ), p4 2 P1 (k) et
2 S3 , on ait :
⇥ ⇤ ⇥ ⇤
( ) [p1 , p2 , p3 , p4 ] = · x, p4 = p 1 (1) , p 1 (2) , p 1 (3) , p4 .
(ii) est un isomorphisme de S3 sur le sous-groupe G de PGL2 (k) formé de id et des
homographies suivantes :
1 t
((12))(t) = , ((23))(t) = 1 t, ((13))(t) = ,
t t 1
1 1
(c)(t) = , (c 1 )(t) = 1 ,
1 t t
où c = (123) = (12)(23).
(iii) De plus, pour tout ! = (p1 , p2 , p3 , p4 ) 2 Q⇥ et 2 S4 , on a :
⇥ ⇤ ⇥ ⇤
⇡( ) [p1 , p2 , p3 , p4 ] = · ! = p 1 (1) , p 1 (2) , p 1 (3) , p 1 (4) .

Démonstration. — Remarquons d’abord que pour tout x = (p1 , p2 , p3 ) 2 RP(k 2 ), p4 2


P1 (k) et 2 S3 , [ · x, p4 ] ne dépend que du birapport t = [x, p4 ].
En e↵et, supposons que [x, p4 ] = [y, q4 ], avec y = (q1 , q2 , q3 ) 2 RP(k 2 ) et q4 2 P1 (k).
Alors il existe h 2 PGL2 (k) tel que qi = h(pi ) pour tout i et l’on a :
⇥ ⇤ ⇥ ⇤
[ ·y, q4 ] = h(p 1 (1) ), h(p 1 (2) ), h(p 1 (3) ), h(p4 ) = p 1 (1) , p 1 (2) , p 1 (3) , p4 = [ ·x, p4 ].
Donc il existe une application R : P1 (k) ! P1 (k) vérifiant R [·] = [·] , et R est
unique car tout élément t de P (k) est un birapport, puisque t = [1, 0, 1, t].
1

Pour tout , ⌧ 2 S3 , on a alors :


R R⌧ [·] = R [·] ⌧ = [·] ⌧ = [·] ( ⌧ ) = R ⌧ [·]
d’où, par unicité, R ⌧ =R R⌧ .
Il est clair que Rid = id. En utilisant que t = [1, 0, 1, t] et la formule (?) on obtient que

t·0 1 t 0 1
R(12) (t) = R(12) [1, 0, 1, t] = [0, 1, 1, t] = , = [1, t] =
t·0 1 1 0 t

t·1 1 0 1
R(23) (t) = R(23) [1, 0, 1, t] = [1, 1, 0, t] = , = [1 t, 1] = 1 t.
0 1 0 1
Ce sont des homograhies, i.e. des éléments de PGL2 (k), et comme (12) et (23) engendrent
S3 ceci, combiné avec R ⌧ = R R⌧ , entraı̂ne que : 7! R est un morphisme de groupes
de S3 vers PGL2 (k). De plus, est injectif car sinon Ker( ) contiendrait le sous-groupe
distingué A3 = {id, c, c2 } et l’on aurait R(12) = R(23) , ce qui n’est pas le cas.
74 CHAPITRE 4. BIRAPPORT

1
Enfin, comme c = (12)(23), c = (23)(12) et (13) = (12)(23)(12) on obtient :
1 1 t
Rc (t) = , Rc 1 (t) = 1 , R(13) (t) = .
1 t t t 1
Ceci prouve (i) et (ii).
Enfin, tout 2 S4 s’écrit de façon unique = v⇡( ) avec v 2 V4 . Alors, pour tout
! 2 Q⇥ on a, d’après (i) et 18.12 ou 18.14 :
[ · !] = [v⇡( ) · !] = [⇡( ) · !] = R⇡( ) ([!]).
Ceci prouve (iii).
Remarque 18.16. — Comme P1 (F2 ) n’a que trois éléments : 0, 1, 1, il découle de la démonstration
précédente que PGL2 (F2 ) ' S3 .

18.2. Divisions harmoniques ou équianharmoniques. — Commençons par la pro-


position suivante.
Proposition 18.17. — Soient V un k-ev de dimension 2, p = [v1 ] un point de P(V ) et
Gp son stabilisateur dans PGL(V ). Alors Gp agit sur la droite affine D = P(V ) {p} par
automorphismes affines, et tout élément de GA(D) est ainsi obtenu.
Démonstration. — Complétons v1 en une base B = (v1 , v2 ) de V et identifions GL(V ) à
GL2 (k) au moyen de cette base. Alors le stabilisateur de [v1 ] dans GL(V ) est le sous-groupe
formé des matrices triangulaires supérieures, qui est isomorphe au produit direct du groupe
H des homothéties par le groupe
⇢✓ ◆
↵ b
G1 = ↵ 2 k⇥, b 2 k .
0 1
Il en résulte que la projection ⇡ : GL(V ) ! PGL(V ) induit un isomorphisme de G1
sur Gp . D’autre part, notant (v1⇤ , v2⇤ ) la base duale de B, l’ouvert affine U = P(V ) {p}
s’identifie à la droite affine
D = {v 2 V | v2⇤ (v) = 1} = v2 + {xv1 | x 2 k}
✓ ◆
↵ b
et pour tout g = dans G1 et tout v = v2 + xv1 , on a :
0 1
(g) · [v] = [g(v)] = [v2 + bv1 + ↵xv1 ] = [v2 + (↵x + b)v1 ].
Ceci montre que Gp agit sur D ⇠ = k par les automorphismes affines x 7! ↵x + b, et tout
élément de GA(D) est ainsi obtenu.
Fixons maintenant x = (p1 , . . . , p4 ) 2 Q⇥ et notons O(x) = {[ · x] | 2 S4 } l’ensemble
des valeurs prises sur x par les « birapports permutés » [·] . On déduit du théorème 18.15
le lemme suivant :
Lemme 18.18. — O(x) est l’orbite de t = [p1 , p2 , p3 , p4 ] sous l’action de G et de S4
définie en 18.15 (iii), et le stabilisateur x de x dans S4 est l’image inverse dans S4 du
stabilisateur Gt , i.e. on a x /V4 ' Gt .
Terminologie 18.19. — On dira que la configuration de points (p1 , p2 , p3 , p4 ) 2 Q⇥
(resp. la valeur du birapport t = [p1 , p2 , p3 , p4 ] 2 k {0, 1}) est « particulière » si les
conditions équivalentes suivantes sont vérifiées :
18. BIRAPPORT POUR L’AGRÉGATION 75

a) Il existe 2 S3 {id} tel que [p1 , p2 , p3 , p4 ] = [p 1 (1) , p 1 (2) , p 1 (3) , p4 ]. D’après le


théorème 18.9, ceci équivaut à dire qu’il existe une homographie h 2 PGL2 (k) (nécessairement
unique) qui fixe p4 et envoie pi sur p 1 (i) pour i = 1, 2, 3.
b) Le stabilisateur Gt de t dans G contient R , donc est un sous-groupe non trivial de
G.
Identifions G à S3 ; alors ses sous-groupes non triviaux sont les trois sous-groupes {id, ⌧ },
où ⌧ est une transposition, le groupe alterné A3 = {id, c, c 1 } formé des 3-cycles (en notant
par exemple c le 3-cycle (123)), et G tout entier. (On va voir que le cas Gt = G ne peut pas se
produire, sauf si car(k) = 3 et t = 1.)

On décrit plus bas les di↵érents cas, en supposant pour simplifier que car(k) > 3. (On
laisse aux lecteurs intéressés la discussion des cas particuliers en caractéristique 2 ou 3.)

Divison harmonique et variantes 18.20. — Avec les notations du théorème 18.15,


supposons que Gt = {id, R⌧ } pour une transposition ⌧ . Dans ce cas, selon que ⌧ égale (12),
(23) ou (13), on obtient que t vérifie t2 = 1, resp. 2t = 1, resp. t(t 1) = t, et comme t 6= 0, 1
ceci entraı̂ne que t vaut 1, resp. 1/2, resp. 2. D’autre part, notons h l’unique homographie
qui fixe p4 et envoie pi sur p⌧ 1 (i) pour i = 1, 2, 3. Attention, cette homographie h dépend
de ⌧ et de p1 , p2 , p3 , p4 donc en général n’est pas égale à l’homographie R⌧ (cf. ci-dessous).
Dans tous les cas, prenant le point fixe p4 comme point à l’infini, la restriction de h à la
droite affine D = P1 (k) {p4 } est une involution affine qui fixe un point pi et échange les
deux autres pj et p` , donc c’est la symétrie de centre le milieu O de [pj , p` ], d’où pi = O.
Réciproquement, si ces conditions sont vérifiées, la symétrie centrale précédente définit une
homographie qui fixe p4 et pi et échange pj et p` .
En résumé, ceci se produit ssi en plaçant l’un des points à l’infini, alors l’un des trois
points restants est le milieu des deux autres dans la droite affine P1 (k) {p1 }. Plus
précisément :
a) Si ⌧ = (12) alors le birapport vaut 1. Dans ce cas, on dit que les points (p1 , p2 , p3 , p4 )
sont en division harmonique. D’après ce qui précède, ceci équivaut à dire qu’il existe
une homographie h qui fixe p3 et p4 et échange p1 , p2 . (5) Voici deux exemples :
a1) ( 1, 1, 0, 1) est une division harmonique, car le 4ème point est à l’infini et dans la
droite affine k, le point 0 est le milieu (isobarycentre) des points 1 et 1 (ici on utilise
que car(k) 6= 2). L’homographie qui fixe 0 et 1 et échange 1 et 1 est x 7! x, c.-à-d.
[x : y] 7! [ x : y]. (Ce n’est pas l’homographie R(12) , qui envoie [x : y] sur [y : x].)
a2) (1, 0, 1, 1) est une division harmonique, car son birapport vaut 1. Dans ce cas,
l’homographie R(12) : t 7! 1/t fixe p3 et p4 et échange p1 = 1 et p2 = 0. Bien sûr, elle ne
préserve pas l’ouvert affine k = {[x : 1] | x 2 k} (puisqu’elle envoie le point 0 2 k sur le
point 1) mais c’est un exercice intéressant d’écrire l’ouvert affine U = P1 (k) { 1} et
d’écrire la transformation affine de U induite par R(12) .
b) Si ⌧ = (23) alors le birapport vaut 1/2. Une configuration (p1 , p2 , p3 , p4 ) vérifie cette
condition ssi il existe une homographie qui fixe p1 et p4 et échange p2 , p3 . Ceci équivaut aussi
à dire que (p3 , p2 , p1 , p4 ) est une division harmonique. Des exemples de telles configurations
sont (1/2, 1, 0, 1) ou (1, 0, 1, 1/2).

(5)
Il y a de nombreuses autres caractérisations géométriques des divisions harmoniques, voir les TD.
76 CHAPITRE 4. BIRAPPORT

c) Si ⌧ = (13) alors le birapport vaut 2. Une configuration (p1 , p2 , p3 , p4 ) vérifie cette


condition ssi il existe une homographie qui fixe p2 et p4 et échange p1 , p3 . Ceci équivaut aussi
à dire que (p1 , p3 , p2 , p4 ) est une division harmonique. Des exemples de telles configurations
sont (2, 1, 0, 1) ou (1, 0, 1, 2).
Remarque 18.21. — Dans la littérature, l’accent est mis uniquement sur les « divisions
harmoniques », i.e. le cas où le birapport vaut 1. Mais les trois cas ci-dessus sont des
« variantes » de la configuration de division harmonique, puisqu’ils s’en déduisent en per-
mutant la numérotation des points. D’autre part, d’après le théorème 18.15, on voit que
l’orbite sous le groupe G du birapport t = 1 est formé des trois éléments 1, 2, 1/2 (qui
sont deux à deux distincts, sauf si car(k) = 3).
Divison équianharmonique 18.22. — D’autre part, Gt égale le sous-groupe distingué
{id, Rc , Rc2 } ssi t vérifie t2 t + 1 = 0. En utilisant l’hypothèse car(k) 6= 3 et la factorisation
ci-dessous, on voit que ceci équivaut à dire que t est une racine primitive 6-ième de l’unité :
(6)

X6 1 = (X 3 1)(X 3 + 1) = (X 1)(X 2 + X + 1)(X + 1)(X 2 X + 1)


(i.e. t = exp(±i⇡/3) si k = C). Ceci équivaut aussi à dire qu’il existe une homographie h qui
fixe p4 et qui permute cycliquement les points p1 , p2 , p3 , disons qui envoie p1 sur p2 , p2 sur p3
et p3 sur p1 . Dans ce cas, on dit que les points forment une divison équi-anharmonique. (7)
Prenons par exemple k = C. (8) Posons ⇠ = exp(i⇡/3) et remarquons que ⇠ = ⇠ 1 = 1 ⇠.
Alors :
(i) Le quadruplet (1, 0, 1, ⇠) (et de même (1, 0, 1, ⇠)) est en division équianharmonique,
puisque son birapport est ⇠ (resp. ⇠). Dans ce cas, le birapport est inchangé par permutation
cyclique des trois premiers points, donc on a aussi ⇠ = [0, 1, 1, ⇠] et donc le quadruplet
(0, 1, 1, ⇠) est aussi en division équianharmonique (et idem pour ⇠).
(ii) D’après la remarque 18.12, les permutations du sous-groupe V4 de S4 ne changent pas
le birapport, donc ⇠ = [1, 0, ⇠, 1] et, en échangeant les deux premiers points, on obtient,
d’après le théorème 18.15,
[0, 1, ⇠, 1] = ⇠ 1
donc le quadruplet (0, 1, ⇠, 1) est en division équianharmonique (et idem pour ⇠).
(iii) Ceci se voit « géométriquement » de la façon suivante. Montrons qu’il existe une
application affine f : C ! C, donc de la forme z 7! az + b, telle que f (0) = 1, f (1) = ⇠
et f (⇠) = 0. Les deux premières conditions donnent b = 1 et a = ⇠ 1 = ⇠ 2 et alors on a
bien f (⇠) = ⇠ 3 + 1 = 0.
Si l’on identifie C au plan euclidien alors les points 0, 1, ⇠ forment un triangle équilatéral
et, notant I son isobarycentre, f est la rotation de centre I et d’angle 2⇡/3. Ceci se vérifie
p 1 1
par un calcul direct : d’une part, ⇠ = (1 + i 3)/2 donc I a pour affixe z0 = + i p .
2 2 3
D’autre part, la rotation de centre c 2 C et d’angle 2⇡/3 est donnée par z c 7! ⇠ 2 (z c)

(6)
On utilise que car(k) 6= 3 pour dire que les polynômes X 2 ± X + 1 sont irréductibles ; si car(k) = 3 ils
sont égaux respectivement à (X ⌥ 1)2 .
(7)
L’auteur aurait envie de dire simplement « équiharmonique », mais « équianharmonique », bien que
difficile à prononcer, est la terminologie standard.
(8)
Dans le cas général, il faut supposer que le corps k contient une racine primitive 6-ème de l’unité, donc
on ne peut pas prendre k = R. Mais on pourrait prendre le corps Q[X]/(X 2 X + 1).
19. (n + 1)-RAPPORT DE n + 3 POINTS DANS P(V ), OÙ dim(V ) = n + 1 77

i.e. z 7! ⇠ 2 z + (1 ⇠ 2 )c, et l’on vérifie que z0 = (1 ⇠ 2 ) 1 donc f est bien la rotation de


centre I et d’angle 2⇡/3. La discussion est analogue en remplaçant ⇠ par ⇠.

19. (n + 1)-rapport de n + 3 points dans P(V ), où dim(V ) = n + 1


Soit V un k-ev de dimension n + 1. Notons RP(V ) l’ensemble des repères projectifs de
P(V ) (cf. 12.3) et posons X = RP(V ) ⇥ P(V ). Pour chaque x = (R, q) 2 X, notant h
l’unique homographie Pn (k) ! P(V ) telle que h(R0 ) = R, on pose (x) = h 1 (q). Ceci
définit une application : X ! Pn (k).

Théorème 19.1 (« du (n + 1)-rapport »). — (9)


Soient X = RP(V ) ⇥ P(V ) et :
X ! Pn (k) comme ci-dessus.
(i) est constante sur chaque orbite de G dans X et induit une application : X/G !
P (k).
n

(ii) L’application est bijective.


(iii) Pour tout x = (q0 , . . . , qn+2 ) 2 X, écrivons qi = [vi ] pour i = 0, . . . , n + 2. Alors,
pour toute base B de V , les coordonnées homogènes ⇠i de (x) 2 Pn (k) sont données par :
i-ème place
#
détB (v0 , . . . , vn+2 , . . . , vn )
(?) 8i = 0, . . . , n ⇠i = .
détB (v0 , . . . , vn+1 , . . . , vn )
"
i-ème place

Cette application : RP(V ) ⇥ P(V ) ! Pn (k) est appelée le « (n + 1)-rapport », et le


birapport lorsque n = 1.

Démonstration. — (i) Soient x = (R, q) 2 X et g 2 G, posons x0 = gx = (R 0 , q 0 ),


où R 0 = g(R) et q 0 = g(q). Soit h l’unique homographie de Pn (k) sur P(V ) telle que
h(R0 ) = R ; par définition on a (x) = h 1 (q). D’autre part, l’homographie gh envoie R0
sur g(R) = R 0 , donc par définition aussi, on a (x0 ) = (gh) 1 (q 0 ) = h 1 g 1 (g(q)) = h 1 (q),
d’où (x0 ) = (x). Ceci montre que est constante sur les G-orbites. Elle induit donc une
application : X/G ! Pn (k), Gx 7! (x).
(ii) Remarquons que pour tout ↵ 2 Pn (k), l’ensemble
n o
✓(↵) = (h(R0 ), h(↵)) | h 2 Homog P (k), P(V )
n

est une orbite sous G. En e↵et, pour toute homographie h : Pn (k) ! P(V ) fixée, on a :
Homog Pn (k), P(V ) = {gh | g 2 G} et donc ✓(↵) est la G-orbite du point (h(R0 ), h(↵))
de X. De plus, par définition de , on a (h(R0 ), h(↵)) = h 1 h(↵) = ↵, d’où (✓(↵)) = ↵.
Donc ✓ est une application Pn (k) ! X/G telle que ( ✓)(↵) = ↵ pour tout ↵ 2 Pn (k).
D’autre part, soient (R, q) 2 X, O sa G-orbite, h l’unique homographie Pn (k) ! P(V )
telle que h(R0 ) = R, et ↵ = h 1 (q). Par définition, on a (O) = (R, q) = ↵ et donc
(R, q) = (h(R0 ), h(↵)) appartient à ✓(↵), d’où O = ✓( (O)). Ceci montre que ✓ et sont
des bijections réciproques l’une de l’autre, ce qui prouve (ii).

(9)
Cette terminologie est due à l’auteur, donc n’est peut-être pas standard.
78 CHAPITRE 4. BIRAPPORT

(iii) Choisissons arbitrairement des vecteurs v0 , . . . , vn+2 tels que [vi ] = qi pour tout i.
Alors C = (v0 , . . . , vn ) est une base de V donc on peut écrire de façon unique
(⇤) vn+1 = 0 v0 + ··· + n vn , vn+2 = µ0 v0 + · · · + µn vn
et l’on a i 6= 0 pour tout i puisque R = (q0 , . . . , qn+1 ) est un repère de V . Pour tout
i = 0, . . . , n, notons fi : V ! k la forme linéaire définie par fi (u) = détC (v0 , . . . , u, . . . , vn ),
où u se trouve à la i-ème place (à la place de vi ). Alors il résulte de (⇤) et des propriétés
du déterminant que l’on a :
(⇤⇤) fi (vn+1 ) = i, fi (vn+2 ) = µi .
Soit g l’application linéaire V ! k n+1 envoyant i vi sur ei pour i = 0, . . . , n ; alors
g(vn+1 ) = e0 + · · · + en donc l’homographie h : P(V ) ! Pn (k) définie par g envoie R sur
P
R0 , d’où (x) = h(qn+2 ) = [g(vn+2 )]. De plus, comme vn+2 = ni=0 µi vi , on a :
n
X n
X µi
g(vn+2 ) = µi g(vi ) = ei
i=0 i=0 i

et donc, pour tout i = 0, . . . , n, sa i-ème coordonnée homogène est :


i-ème place
#
µi détC (v0 , . . . , vn+2 , . . . , vn )
⇠= = .
i détC (v0 , . . . , vn+1 , . . . , vn )
"
i-ème place

Enfin, si on remplace C par une base arbitraire B de V , on a détB (·) = détB (C ) détC (·),
donc le numérateur et le dénominateur dans la formule ci-dessus sont tous deux multipliés
par le scalaire détB (C ) 6= 0 donc le quotient est inchangé. Ceci prouve la formule (?).

Il résulte immédiatement de cette définition du (n + 1)-rapport qu’il est préservé par


toute homographie, i.e. on a le :

Corollaire 19.2. — Soient P(V ) et P(V 0 ) deux espaces projectifs de même dimension n
et soit f : P(V ) ! P(V 0 ) une homographie. Alors « f préserve le (n+1)-rapport », i.e. pour
tout (q0 , . . . , qn+2 ) 2 X(V ) = RP(V ) ⇥ P(V ), on a :
[f (q0 ), . . . , f (qn+2 )] = [q0 , . . . , qn+2 ].

Démonstration. — Notons R0 le repère standard de Pn (k) et soit (q0 , . . . , qn+2 ) = (R, qn+2 )
un élément de X(V ).
D’après 12.7 (iv), R 0 = f (R) est un repère projectif de P(V 0 ) ; soit h0 l’unique homo-
graphie P(V 0 ) ! Pn (k) telle que h0 (R 0 ) = R0 . Alors h = h0 f est l’unique homographie
P(V ) ! Pn (k) telle que h(R) = R0 . Donc, par définition du (n + 1)-rapport dans P(V 0 ) et
P(V ), on a :
[f (q0 ), . . . , f (qn+1 ), f (qn+2 )] = h0 f (qn+2 ) = (h0 f )(qn+2 ) = [q0 , . . . , qn+1 , qn+2 ].

Le corollaire précédent admet la « réciproque » suivante :

Proposition 19.3. — Soient P(V ) et P(V 0 ) deux espaces projectifs de même dimension n et soit f :
P(V ) ! P(V 0 ) une application bijective. Les conditions suivantes sont équivalentes :
19. (n + 1)-RAPPORT DE n + 3 POINTS DANS P(V ), OÙ dim(V ) = n + 1 79

(i) Il existe un repère projectif R = (q0 , . . . , qn+1 ) de P(V ) tel que (f (q0 ), . . . , f (qn+1 )) soit un repère
projectif R 0 de P(V 0 ), et pour tout x 2 P(V ) on a :

[q0 , . . . , qn+1 , x] = [f (q0 ), . . . , f (qn+1 ), f (x)].

(ii) L’assertion précédente est vérifiée pour tout repère projectif R de P(V ).
(iii) f est une homographie.

On peut résumer ceci en disant que : « f est une homographie ssi elle préserve le (n + 1)-rapport ».

Démonstration. — On a déjà vu (iii) ) (ii) et (ii) ) (i) est évident. Supposons (i) vérifié. Soit h (resp. h0 )
l’unique homographie de P(V ) (resp. P(V 0 )) sur Pn (k) telle h(R) (resp. h0 (R 0 )) égale R0 . Par définition
du (n + 1)-rapport dans P(V 0 ) et P(V ), on a :

[f (q0 ), . . . , f (qn+1 ), f (x)] = h0 (f (x)) et [q0 , . . . , qn+1 , x] = h(x)

et l’égalité de ces deux quantités entraı̂ne f (x) = h0 1


h(x) , pour tout x 2 P(V ). On a donc f = h0 1
h,
ce qui prouve que f est une homographie.

À la lumière de ce qui précède, revenons sur le birapport. Soit D = P(W ) une droite
projective (i.e. dim(W ) = 2). Dans ce cas, trois points p1 , p2 , p3 de D forment un repère
projectif ssi ils sont deux à deux distincts. Soit B = (e0 , e1 ) une base de W et notons [x, y]
les coordonnées homogènes correspondantes.

Proposition 19.4. — Soient p1 , p2 , p3 , p4 quatre points de D, avec p1 , p2 , p3 deux à


deux distincts. Notant [xi , yi ] les coordonnées homogènes de pi , le birapport [p1 , p2 , p3 , p4 ]
est égal à :
2 3
x4 x2 x1 x4
6 y y y4 7  
6 4 2 y1 7
6 , 7 = x4 y2 x2 y4 x1 y4
,
x4 y1
=
x4 y2 x2 y4 x4 y1
,
x1 y4
6 7 x3 y2 x2 y3 x1 y3 x3 y1 x3 y2 x2 y3 x3 y1 x1 y3
4 x3 x2 x1 x3 5
y3 y2 y1 y3

(dans la 2ème égalité, on a changé le signe du numérateur et du dénominateur du 2ème rapport).

Démonstration. — Ceci est la formule (?) du théorème 19.1 dans le cas n = 1.

La définition 19.1 du birapport permet de déterminer sans calcul les birapports « per-
mutés » [·] ⌧ pour ⌧ = (12) ou (23) puis, par composition, pour tout ⌧ 2 S3 (cf. 18.15) :

Proposition 19.5. — Soient (p1 , p2 , p3 ) trois points distincts de D et q un quatrième


point. Posons [p1 , p2 , p3 , q] = 2 k [ {1}. Alors :

1
[p2 , p1 , p3 , q] = et [p1 , p3 , p2 , q] = 1
80 CHAPITRE 4. BIRAPPORT

(10)
(avec 1/0 = 1 et 1/1 = 0 et 1 1 = 1). Par conséquent, on a l’hexagone suivant :
[p1 , p2 , p3 , q] =
(12) (23)

v
1 (
[p2 , p1 , p3 , q] = [p1 , p3 , p2 , q] = 1

(23) (12)
✏ ✏
1 1
[p2 , p3 , p1 , q] = 1 [p3 , p1 , p2 , q] =
1

(12) (23)
' w
[p3 , p2 , p1 , q] =
1
Démonstration. — Soit h : D ! P1 l’unique homographie envoyant le triplet (p1 , p2 , p3 )
sur le triplet standard (1, 0, 1), alors h(q) = .
D’autre part, h envoie le triplet (p2 , p1 , p3 ) sur le triplet (0, 1, 1) ; pour mettre celui-ci
« dans le bon ordre », il faut composer avec l’homographie qui échange 0 et 1 et fixe
1. Celle-ci est donnée par ([x, y]) = [y, x], i.e. échange 0 = [0, 1] et 1 = [1, 0] et, pour
tout t 2 k ⇤ , on a :
⇥1 ⇤ 1
(t) = ([t, 1]) = [1, t] = , 1 = .
t t
Ainsi, h envoie (p2 , p1 , p3 ) sur (1, 0, 1) et donc [p2 , p1 , p3 , q] = (h(q)) = ( ). Ceci
prouve la première égalité (y compris les cas particuliers 1/0 = (0) = 1 et 1/1 = (1) = 0).
La deuxième s’obtient de façon analogue : h envoie (p1 , p3 , p2 ) sur le triplet (1, 1, 0) ; pour
mettre celui-ci « dans le bon ordre », il faut composer avec l’homographie ⌧ qui échange 0
et 1 et fixe 1. Celle-ci est donnée par ⌧ ([x, y]) = [y x, y], i.e. ⌧ (1) = 1 et, pour tout
t 2 k, on a :
⌧ (t) = ⌧ ([t, 1]) = [1 t, 1] = 1 t.
Ainsi, ⌧ h envoie (p1 , p3 , p2 ) sur (1, 0, 1) et donc [p1 , p3 , p2 , q] = ⌧ (h(q)) = ⌧ ( ). Ceci
prouve la seconde égalité (y compris le cas particulier 1 1 = ⌧ (1) = 1).
Enfin, comme les transpositions (12) et (23) engendrent S3 , l’hexagone s’obtient en pro-
cédant de façon répétée à des échanges des places 1, 2 ou 2, 3.

20. Théorème de Thalès projectif


Commençons par le cas d’un plan projectif P(V ), où dim(V ) = 3.
Proposition 20.1 (Birapport de quatre droites concourantes d’un plan)
Soient D1 , D2 , D3 , D4 quatre droites distinctes du plan projectif P(V ), concourantes en
un point I. Soit D une droite ne passant pas par I, elle coupe alors les Di en quatre points
pi deux à deux distincts. Alors :
(i) Le birapport [p1 , p2 , p3 , p4 ] est indépendant de la droite D.
(10)
Attention ! À chaque étape ce sont les places (1, 2 ou 3) des pi que l’on échange, et non leurs indices.
20. THÉORÈME DE THALÈS PROJECTIF 81

(ii) Plus précisément, c’est le birapport des quatre points i de la droite projective ⇢
P(V ⇤ ) correspondant au pinceau des droites passant par I.
D3 D2 D1
@ A
@ A
@ A
D4 H @ A
HH @ A
HH @AA
@ D
HH@A
HH I
P(V ) @
AH P(V ⇤ )
A HH
@
A@ Hp 4 1 2 3 4
A @ HHH
p3 A @ HH
p2 A @
A @
p1 A @ [p1 , p2 , p3 , p4 ] = [ 1 , 2 , 3 , 4 ]
A @
A @

Démonstration. — On a D = P(E), où E est un plan de V . Soit (e1 , e2 ) une base de E et e3


un générateur de la droite vectorielle correspondant à I. Comme I 62 D alors e3 62 E, donc
(e1 , e2 , e3 ) est une base de V . Notons (x, y, z) les coordonnées dans cette base. On obtient
ainsi des coordonnées homogènes [x, y, z] sur P(V ) telles que D soit donnée par l’équation
z = 0 et que I = [0, 0, 1]. Ceci munit P(V ⇤ ) de coordonnées homogènes « duales » [a, b, c],
i.e. le point [a, b, c] de P(V ⇤ ) correspond à la droite de P(V ) d’équation ax + by + cz = 0.
Alors, pour tout point p = [x0 , y0 , 0] de D, la droite (Ip) a pour équation y0 x x0 y = 0
donc correspond au point [y0 , x0 , 0] de . Comme l’application
D! ,[x, y, 0] 7! [y, x, 0]
✓ ◆
0 1
est une homographie, donnée par la matrice , on en déduit que [p1 , p2 , p3 , p4 ] =
1 0
[ 1 , 2 , 3 , 4 ]. (On pourrait aussi vérifier ceci par un calcul direct en utilisant la formule explicite
du birapport.)

Plus généralement, on a la :

Proposition 20.2 (Birapport de quatre hyperplans d’un pinceau)


Dans P(V ), soient H0 , H1 , H2 , H3 quatre éléments distincts d’un pinceau d’hyperplans
de centre P(W ). Soit D une droite ne rencontrant pas P(W ), elle coupe alors les Hi en
quatre points pi deux à deux distincts. Alors :
(i) Le birapport [p0 , p1 , p2 , p3 ] est indépendant de la droite D.
(ii) Plus précisément, c’est le birapport des quatre points i de la droite projective ⇢
P(V ⇤ ) correspondant au pinceau.

``` P(W )
```
``
@A
A@
A @
A @ D
A @
A @ ⇠⇠⇠⇠
s ⇠
⇠⇠ ⇠
A @
⇠⇠s A p3 @
P(V ) A⇠⇠ @ P(V ⇤ )
⇠s
⇠ p2 1 2 3 0
⇠⇠⇠ p1 A @

⇠⇠s
A @
A @
⇠⇠⇠⇠⇠ p0 A@ @ [p0 , p1 , p2 , p3 ] = [ 0 , 1 , 2 , 3 ]
⇠⇠ A@ @
A A @ @
A A @ @
``` ``` A`` A @ ``
``` ``` ``` ``` @
`` `` ``` A ```
@
H0 H1 H2 H3
82 CHAPITRE 4. BIRAPPORT

Démonstration. — Elle est analogue à la précédente. On a D = P(F ) pour un certain sev


F de V de dimension 2 tel que F \ W = {0} et donc V = F W . Soit (e0 , e1 ) une base
de F , complétons-la en une base (e0 , e1 , e2 , . . . , en ) de V , d’où des coordonnées homogènes
[x0 , . . . , xn ] sur P(V ) telles que P(W ) (resp. D) soit donné par les équations x0 = 0 = x1
(resp. x2 = 0 = · · · = xn ) et donc
D = [x0 , x1 , 0, . . . , 0] | (x0 , x1 ) 2 k 2 {(0, 0)} .
La base duale (e⇤0 , . . . , e⇤n ) de V ⇤ munit P(V ⇤ ) de coordonnées homogènes [a0 , . . . , an ], pour
lesquelles la droite = P(W 0 ) a pour équations a2 = 0 = · · · = an , i.e.
= [a0 , a1 , 0, . . . , 0] | (a0 , a1 ) 2 k 2 {(0, 0)} .
Pour tout point p = [a, b, 0, . . . , 0] de D, le sous-espace projectif engendré par p et P(W )
est égal à P(Hp ), où Hp est l’hyperplan vectoriel engendré par W et la droite vectorielle
k(ae0 +be1 ). On voit que Hp a pour équation bx0 ax1 = 0, donc P(Hp ) correspond au point
[b, a, 0, . . . , 0] de . Comme✓ l’application
◆ D ! , [a, b, 0] 7! [b, a, 0] est une homogra-
0 1
phie, donnée par la matrice , on en déduit que [p0 , p1 , p2 , p3 ] = [ 0 , 1 , 2 , 3 ].
1 0
Remarque 20.3. — La proposition précédente peut être appelée théorème de Thalès
projectif. En e↵et, posons E = Hp0 et prenons H0 = P(E) comme hyperplan à l’infini
H1 de P(V ), et donc p0 comme point à l’infini sur la droite D. D’une part, dans l’espace
affine E = P(V ) H0 (de direction E ), les hyperplans affines Hi = E \ Hi sont parallèles,
pour i = 1, 2, 3 (car Hi \ Hj = P(W ) ⇢ H1 ).(11) D’autre part, le birapport [p0 , p1 , p2 , p3 ] est
égal à [ , 1], où le scalaire est :
p1!
p3
(†) = !.
pp 1 2
Ceci peut se voir en utilisant la formule explicite du birapport ou, mieux, en la retrouvant
directement dans ce cas particulier. Soit h l’homographie D ! P1 qui envoie (p0 , p1 , p2 ) sur
(1, 0, 1) ; elle induit, par restriction, une application affine de la droite affine D = D {p0 }
sur la droite affine k = P1 (k) {1}, qui envoie p1 sur 0 et p2 sur 1. Ceci revient à prendre
(p1 , p2 ) comme repère affine de D et alors le birapport [p0 , p1 , p2 , p3 ] = h(p3 ) n’est autre
que le scalaire tel que p1! p3 = p1! p2 . Ceci prouve la formule (†).
On voit donc que la proposition précédente contient comme cas particulier (en mettant
H0 à l’infini) le théorèmes de Thalès, i.e. que si D et D 0 sont deux droites affines coupant
les Hi en A1 , A2 , A3 et B1 , B2 , B3 respectivement, alors on a
! !
A1 A3 B1 B3 (12)
!= !.
A1 A2 B1 B2

Références pour ce chapitre :


[Gr] André Gramain, Géométrie élémentaire, Hermann, 1997. (§VII.8)
[Ti] Claude Tisseron, Géométries affine, projective et euclidienne, Hermann, 1988.

(11)
Et, d’après la Prop. 11.15, la direction de chaque Hi est Hpi \ E = W .
b 1 ), P(H
Et ce scalaire est le birapport des hyperplans projectifs H1 = P(E), P(H
(12) b 2 ), P(H
b 3 ) de P(E
b )=
P(V ), qui appartiennent au pinceau de centre P(W ), où W ⇢ E est la direction commune des Hi .
CHAPITRE 5

CONIQUES PROJECTIVES (ET AFFINES)

Les passages en petits caractères 23.8 et 23.12 n’ont pas été traités en cours et peuvent être omis.

21. Rappels sur les formes quadratiques


(1)
Cette section, constituée de rappels de L2 ou L3, a été exposée rapidement en cours.
Ses résultats sont considérés comme connus. Soit k un corps.

Définition 21.1. — Soient V, E deux k-espaces vectoriels. Une application bilinéaire


de V ⇥ V dans E est une application b : V ⇥ V ! E qui est linéaire en chaque variable
(l’autre variable étant fixée), i.e. pour u, u0 , v, v 0 2 V et , µ, 0 , µ0 2 k, on a :
0 0 0
b( u + u , v) = b(u, v) + b(u0 , v) et b(u, µv + µ0 v 0 ) = µb(u, v) + µ0 b(u, v 0 ).
En appliquant successivement ces deux conditions on obtient que :
b( 1 u1 + 2 u2 , µ1 v1 + µ2 v 2 ) = 1 µ1 b(u1 , v1 ) + 1 µ2 b(u1 , v2 ) + 2 µ1 b(u2 , v1 ) + 2 µ2 b(u2 , v2 ).

Plus généralement, pour tout n 2 N⇤ et ui , vi 2 V et i , µi 2 k, on a :


⇣X
n n
X ⌘ Xn ⇣ X n ⌘ X n
b i ui , µj v j = i b ui , µj v j = i µj b(ui , vj ).
i=1 j=1 i=1 j=1 i,j=1

Exemple 21.2. — Soit A = k[X1 , . . . , Xr ] l’algèbre des polynômes sur k en r variables ; pour
tout r-uplet a = (a1 , . . . , ar ) 2 Nr on note X a le monôme X1a1 · · · Xrar . Alors la multiplication
m : A⇥A ! A est définie par X a ·X b = X a+b et la condition que m soit k-bilinéaire. C’est-à-dire,
P P
pour P = a2Nr ↵a X a et Q = b2Nr b X b arbitraires, on a :
X X
P · Q = m(P, Q) = ↵a b m(X a , X b ) = ↵a b X a+b .
a,b2Nr a,b2Nr

Dans la suite de cette section, on suppose car(k) 6= 2.

Définitions 21.3. — Soit V un k-espace vectoriel.


(1) Une forme bilinéaire sur V est une application bilinéaire : V ⇥ V ! k.
(2) On dit que est symétrique si pour tout x, y 2 V on a (x, y) = (y, x).

(1)
Version du 26/10/2016.
84 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

(3) Dans ce cas, on dit que l’application Q : V ! k, x 7! Q(x) = (x, x) est la forme
quadratique définie par . Pour tout 2 k et x, y 2 V , on a Q( x) = 2 Q(x) et :
Q(x + y) = (x + y, x + y) = (x, x) + (x, y) + (y, x) + (y, y)
(†) = Q(x) + Q(y) + 2 (x, y).
Donc est déterminée par Q, i.e. :
1
(⇤) (x, y) = Q(x + y) Q(x) Q(y)
2
et, si Q est donnée, on dit que est la forme polaire de Q.
(4) En remplaçant y par y dans la formule (†), on obtient Q(x y) = Q(x) + Q(y)
2 (x, y) d’où la formule également utile :
1
(⇤⇤) (x, y) = Q(x + y) Q(x y) .
4
Remarque. — Pour vérifier qu’une application : V ⇥ V ! k est une forme bilinéaire symétrique, il
suffit de voir que (x, y) = (y, x) et que est linéaire en la première variable, car ces deux conditions
entraı̂nent alors la linéarité en la deuxième variable.

Désormais, on suppose V de dimension finie n. Soit une forme bilinéaire symétrique


(en abrégé : fbs) sur V et Q la forme quadratique associée.
Définition 21.4 (Expression dans une base et rang). — Soit B = (e1 , . . . , en ) une
base de V et soient (x1 , . . . , xn ) les coordonnées correspondantes. Pour i, j = 1, . . . , n,
posons aij = (ei , ej ) ; comme est symétrique alors aji = aij .
(i) La matrice A = (aij )1i,jn est symétrique (i.e. t A = A) ; elle est appelée la matrice
de (ou de Q) dans la base B et notée MatB ( ) ou MatB (Q).
Pn Pn t t
(ii) Pour tout x = i=1 xi ei et y = j=1 yj ej , notons X = (x1 , . . . , xn ) et Y =
Pn
(y1 , . . . , yn ), alors on a (x, y) = i,j=1 aij xi yj et ceci est égal, d’une part, à
0 1
y1
B .. C t
(†) (x1 , . . . , xn )A @ . A = XAY
yn
et, d’autre part, à :
n
X X
(‡) aii xi yi + aij (xi yj + xj yi ).
i=1 1i<jn
Pn P
(iii) Pour y = x, (‡) donne Q(x) = i=1 aii x2i + 1i<jn 2aij xi xj donc Q correspond
P P
dans la base B au polynôme ni=1 aii Xi2 + 1i<jn 2aij Xi Xj homogène de degré 2.
P P
(iv) Réciproquement, si Q est donnée par Q(X) = ni=1 ci Xi2 + 1i<jn cij Xi Xj alors
sa forme polaire est donnée par (ei , ei ) = ci et, pour i 6= j, (ei , ej ) = c0ij où c0ij = c0ji =
(1/2)cij . Donc 0 1
c1 c012 · · · ··· c01n
B c021 c2 c023 ··· c02n C
B C
B .. ... ... ... .. C
MatB (Q) = B
B . . C.
C
B 0 .. 0
C
@cn 1,1 ··· . cn 1 cn 1,n A
c0n1 c0n2 · · · c0n,n 1 cn
21. RAPPELS SUR LES FORMES QUADRATIQUES 85

(v) Soit C une autre base de V et P = MatB (C ) la matrice de passage. Alors


(?) MatC ( ) = t P AP .
(vi) On appelle rang de (ou de Q) le rang de la matrice A. D’après le point précédent,
ceci ne dépend pas de la base choisie, car comme P (et donc t P ) est inversible, alors A
et t P AP ont même rang.(2) On dit que Q (ou ) est non dégénérée si elle est de rang
n = dim(V ), i.e. si sa matrice dans n’importe quelle base est inversible.
(vii) On appelle noyau de Q (ou de ) et l’on note N (Q) ou N ( ) le sev de V suivant :
N ( ) = {x 2 V | 8y 2 V, (y, x) = 0}.
Pour toute base B de V , on a N ( ) = Ker(A) ; par conséquent, N ( ) = {0} ssi est non
dégénérée.

Démonstration. — Seul les points (v) et (vii) nécessitent une démonstration. Donnons-en
deux pour (v). Écrivons C = (f1 , . . . , fn ) et posons B = MatC ( ).
P
1ère démonstration. Écrivons fi = nr=1 pri er pour tout i. Alors
n
X n
X n
X
bij = (fi , fj ) = pri psj (er , es ) = pri psj ars = (t P )ir ars psj = (t P AP )ij .
r,s=1 r,s=1 r,s=1

2ème démonstration. Soient u, v 2 V arbitraires, notons X, Y (resp. X 0 , Y 0 ) leurs coor-


données dans la base B (resp. C ). D’après la formule de changement de coordonnées, on
a X = P X 0 et Y = P Y 0 donc
(v, u) = t YAX = t Y 0 (t P AP ) X 0
et ceci entraı̂ne que bij = (fi , fj ) est le coefficient d’indice (i, j) de la matrice t P AP (car
alors t Y 0 = (0, . . . , 0, 1, 0, . . . , 0) avec le 1 à la i-ème place et de même pour X 0 ), d’où B = t P AP .
Prouvons maintenant (vii). Soit x 2 V et X le vecteur colonne de ses coordonnées dans
la base B. Alors x 2 N ( ) ssi (y, x) = 0 pour tout y 2 V , i.e. ssi :
(⇤) 8 Y 2 kn, t
Y AX = 0.
Or, notant U le vecteur colonne AX et Y (i) le vecteur dont toutes les coordonnées sont
nulles sauf la i-ème qui vaut 1, on voit que t Y (i)U égale la i-ème coordonnée ui de U . Par
conséquent, la condition (⇤) équivaut à la nullité de U = AX. Ceci montre que N ( ) =
Ker(A).
Une propriété importante des formes quadratiques non dégénérées est qu’elles induisent
un isomorphisme entre V et V ⇤ , i.e. on a les résultats suivants.

Définition 21.5 (importante). — Soit une fbs sur V ; notons ✓ l’application linéaire
V ! V ⇤ , x 7! ( , x). C’est-à-dire :
(i) Pour tout x 2 V , ✓(x) est l’application V ! k, y 7! (y, x). La linéarité de en
la première variable signifie que y 7! (y, x) est une forme linéaire sur V , donc on a bien
✓(x) 2 V ⇤ .

(2)
On verra plus bas qu’on peut trouver une base C dans laquelle la matrice de est diagonale ; alors le
rang est le nombre de coefficients diagonaux non nuls.
86 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

(ii) La linéarité de en la deuxième variable entraı̂ne alors que ✓ est linéaire i.e. que
✓( x + x0 ) = ✓(x) + ✓(x0 ) (égalité de formes linéaires) ; en e↵et, pour tout y 2 V on a :
✓( x + x0 )(y) = (y, x + x0 ) = (y, x) + (y, x0 ) = ✓(x)(y) + ✓(x0 )(y).
Proposition 21.6. — Soient B une base de V , B ⇤ la base duale de V ⇤ et A = MatB ( ).
Alors A est la matrice de ✓ dans les bases B (au départ) et B ⇤ (et l’arrivée), notée
MatB⇤ ,B (✓).
Démonstration. — Écrivons B = (e1 , . . . , en ) et B ⇤ = (e⇤1 , . . . , e⇤n ). Pour tout f 2 V ⇤ ,
P
son écriture f = ni=1 ci e⇤i est donnée par ci = f (ei ). Pour f = ✓(ej ) on a : ✓(ej )(ei ) =
P
(ei , ej ) = aij et donc ✓(ej ) = ni=1 aij e⇤i . Ceci montre que MatB⇤ ,B (✓) = A.

Corollaire 21.7. — (ou Q) est non dégénérée ssi ✓ est un isomorphisme V ! V ⇤ .
Dans le cas contraire, on dit que Q est dégénérée et son noyau N (Q) égale Ker(✓).
Définition 21.8 (Orthogonalité). — Soit une fbs sur V .
(i) On dit que deux vecteurs x, y 2 V sont orthogonaux (pour ) si (x, y) = 0.
Plus généralement, on dit que deux sous-ensembles X, Y de V sont orthogonaux si l’on a
(x, y) = 0 pour tout x 2 X et y 2 Y . On notera X?Y pour signifier que X et Y sont
orthogonaux.
(ii) Pour tout sous-ensemble Y de V , son orthogonal (relativement à ), noté Y ? , est :
(?) Y ? = {x 2 V | (x, y) = 0, 8y 2 Y }.
Remarquons au passage que V ? = N ( ).
(iii) Y ? est un sous-espace vectoriel de V (même si Y n’en est pas un) ; de plus, on
a les propriétés suivantes :
(??) Y ⇢ Z =) Z ? ⇢ Y ? et Y ? = Vect(Y )?
en particulier, si Y est un sous-espace vectoriel F de V et si (f1 , . . . , fp ) est une famille
génératrice de F , alors
F ? = {f1 , . . . , fp }? = {x 2 V | (x, fi ) = 0, 8i = 1, . . . , p}.

Démonstration de (iii). — Soient x, x0 2 Y ? et 2 k, alors on a, pour tout y 2 Y , ( x+x0 , y) =


(x, y) + (x0 , y) = 0, ce qui montre que x + x0 2 Y ? . Donc Y ? est un sous-espace vectoriel
de V .
Il est immédiat que si Y ⇢ Z, alors Z ? ⇢ Y ? car si x 2 Z ? alors x est orthogonal à tout
élément de Z, donc x est a fortiori orthogonal à tout élément de Y (puisque Y ⇢ Z), donc
x 2 Y ?.
Comme Y ⇢ Vect(Y ), ceci donne l’inclusion Vect(Y )? ⇢ Y ? . Montrons l’inclusion réciproque.
Soit x 2 Y ? et soit v un élément arbitraire de Vect(Y ) ; par définition, v s’écrit comme une
combinaison linéaire finie v = 1 y1 + · · · + r yr , avec yi 2 Y et i 2 k ; alors on a
r
X
(x, v) = i (x, y ) = 0
| {z i}
i=1 =0

et donc x 2 Vect(Y )? . Ceci montre que Y ? ⇢ Vect(Y )? , d’où l’égalité Vect(Y )? = Y ? .

Théorème 21.9 (Orthogonalité pour non dégénérée). — Soit une fbs non dé-
générée sur V et soit F un sev de V .
21. RAPPELS SUR LES FORMES QUADRATIQUES 87

(i) On a dim(F ? ) = dim(V ) dim(F ) et F = (F ? )? .

(ii) Si F \ F ? = {0}, alors V = F F ?.


(iii) En fait (ii) est vrai même sans supposer que soit non dégénérée.

Démonstration. — (i) Si x 2 F alors pour tout y 2 F ? on a (x, y) = 0 et donc x 2 (F ? )? .


Ceci montre que F ⇢ (F ? )? , sans supposer que soit non dégénérée.
Soit ✓ : V ! V ⇤ l’application linéaire associée à . Alors ✓(F ) est un sev de V ⇤ et l’on a
F ? = y 2 V | 8x 2 V, 0 = (x, y) = ✓(x)(y) = ✓(F )0 ,
où 0
désigne l’orthogonalité entre V et V ⇤ (cf. 15.1). On a donc
(⇤) dim(F ? ) = dim(V ) dim ✓(F ).
Supposons maintenant que soit non dégénérée. Alors ✓ est bijective donc ✓(F ) est de
même dimension que F , et donc (⇤) entraı̂ne que dim(F ? ) = dim(V ) dim(F ).
On a de même dim(F ? )? = dim(V ) dim(F ? ) = dim(F ), et alors l’inclusion F ⇢ (F ? )?
entraı̂ne l’égalité F = (F ? )? . Ceci prouve (i).
(ii) et (iii) : ne supposant plus que soit non dégénérée, on a toujours dim ✓(F )  dim(F )
et donc dim(F ? ) dim(V ) dim(F ).
Si l’on a F \ F ? = {0}, alors F et F ? sont en somme directe, et d’après ce qui précède
on a :
dim(F F ? ) = dim(F ) + dim(F ? ) dim(V )
et ceci entraı̂ne que F F ? = V (et que dim(F ? ) = dim(V ) dim(F )).

Remarque 21.10. — Attention ! Le lecteur peut penser au cas de V = Rn muni du produit


P
scalaire euclidien (x | y) = ni=1 xi yi ; dans ce cas, pour tout sev F de V on a F \ F ? = {0} car si
P
x 2 F \F ? alors l’égalité 0 = (x | x) = ni=1 x2i entraı̂ne que x = 0. Mais ceci est une particularité
du cas euclidien et n’est pas vrai pour une fbs non dégénérée arbitraire. Par exemple, soit la
fbs sur R2 définie par
✓ ◆ ✓ ◆
x1 y1
(u, v) = x1 y2 + x2 y1 si u = et v = ;
x2 y2
✓ ◆
0 1
sa matrice dans la base canonique B = (e1 , e2 ) de R est A =
2 , donc est non dégénérée.
1 0
Cependant, on a (e1 , e1 ) = 0 = (e2 , e2 ) donc chacune des droites D1 = Re1 et D2 = Re2 est
égale à son propre orthogonal, i.e. D1? = D1 et D2? = D2 .

Définition 21.11 (Restriction à un sous-espace). — Soit une fbs sur V et soit F


un sev de V .
(i) On note F la fbs sur F obtenue en restreignant à F ⇥ F , i.e. F (x, y) = (x, y)
pour tout x, y 2 F ; on l’appelle la restriction de à F .
(ii) On a F \ F ? = {x 2 F | 8y 2 F (x, y) = 0} = N ( F ). Donc l’assertion (ii) du
théorème 21.9 peut se récrire comme suit : « si F est non dégénérée, alors V = F F ? ».

Remarque 21.12. — Attention ! Même si est non dégénérée, F ne l’est pas nécessairement. Par
exemple, soit la forme polaire de la forme quadratique Q(x1 x2 ) = x1 x2 sur R2 , elle est non dégéné-
rée mais sa restriction à chaque droite isotrope D1 = Re1 ou D2 = Re2 est nulle, donc dégénérée.
88 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

Définition 21.13 (Bases orthogonales). — Soient Q une forme quadratique sur V et


sa forme polaire. Soient B = (e1 , . . . , en ) une base de V et (x1 , . . . , xn ) les coordonnées
correspondantes.
(i) On dit que B est une base orthogonale pour (ou pour Q) si l’on (ei , ej ) = 0
pour i 6= j, ce qui équivaut à dire que la matrice A = MatB ( ) est diagonale.
(ii) Ceci équivaut encore à dire que Q(x1 , . . . , xn ) = c1 x21 + · · · + cn x2n , et dans ce cas
c1 , . . . , cn sont les coefficients diagonaux de A.

Théorème 21.14 (Existence de bases orthogonales). — Soit une fbs sur V .


(i) Il existe une base de V orthogonale pour .
(ii) Si B = (e1 , . . . , en ) est une base de V orthogonale pour et si (x1 , . . . , xn ) sont les
coordonnées correspondantes, alors Q(x1 , . . . , xn ) = c1 x21 + · · · + cn x2n et le rang de est
égal au nombre de ci non nuls. En particulier, est non dégénérée ssi tous les ci sont 6= 0.
(iii) Si Q est de rang r < n on peut supposer, quitte à renuméroter les ei , que ci = Q(ei )
est non nul pour i = 1, . . . , r et nul pour i > r. Alors N (Q) est le sev Vect(er+1 , . . . , en ),
donné par les équations xi = 0 pour i = 1, . . . , r.

Démonstration. — (i) Procédons par récurrence sur n = dim(V ). Il n’y a rien à montrer
si n = 0 ou si = 0. On peut donc supposer n 1, le résultat établi pour n 1 et 6= 0.
Alors la forme quadratique Q est non nulle (cf. 21.3 (⇤)), donc il existe e1 2 V tel que
Q(e1 ) 6= 0. Posons F = ke1 ; comme (e1 , e1 ) 6= 0, alors F \ F ? = {0} et donc, d’après le
théorème 21.9, on a V = F F ? .
Par hypothèse de récurrence, il existe une base (e2 , . . . , en ) de F ? telle que (ei , ej ) = 0
pour i 6= j. Alors (e1 , e2 , . . . , en ) est une base de V orthogonale pour . Ceci prouve (i).
(ii) est clair, car le rang de est le rang de la matrice A = MatB ( ), qui est diagonale
de coefficients diagonaux c1 , . . . , cn .
Enfin, (iii) découle du point (vii) de 21.4. On peut aussi le redémontrer comme suit :
Fixons un indice i > r ; comme la base B est orthogonale et comme (ei , ei ) = 0, alors
ei est orthogonal à tous les éléments de B donc appartient à N (Q). Ceci montre que
Pn
Vect(er+1 , . . . , en ) ⇢ N (Q). Réciproquement, si un élément v = j=1 aj ej appartient à
N (Q) alors, pour i = 1, . . . , r, l’égalité 0 = (ei , v) = ai ci donne ai = 0 (car ci 6= 0), donc
v 2 Vect(er+1 , . . . , en ).

Le théorème 21.14 est valable pour tout corps k de caractéristique 6= 2. La possibilité


d’e↵ectuer des réductions supplémentaires dépend de propriétés « arithmétiques » de k,
c.-à-d., de quels éléments de k sont des carrés. Lorsque k = C ou R, on peut donner des
versions plus précises.

Théorème 21.15 (Formes quadratiques sur C). — Soient k un corps algébrique-


ment clos, (3) V un k-ev de dimension n et Q une forme quadratique sur V , de rang r  n.
Il existe une base B de V telle que MatB (Q) soit diagonale, avec les r premiers coefficients
égaux à 1 et les autres nuls, i.e. dans les coordonnées correspondant à cette base on ait :
Q(x1 , . . . , xn ) = x21 + · · · + x2r .

(3)
Il suffit en fait que tout élément de k possède une racine carrée dans k, cf. la démonstration.
21. RAPPELS SUR LES FORMES QUADRATIQUES 89

Démonstration. — D’après le théorème 21.14, il existe une base (f1 , . . . , fn ) de V ortho-


gonale pour Q. Pour tout i, posons ci = Q(fi ). Alors le rang r de Q est le nombre de ci
non nuls et, quitte à renuméroter les fi , on peut supposer que ci 6= 0 pour i  r et ci = 0
pour i > r. Comme k est algébriquement clos, chaque ci 6= 0 possède dans k une racine
carrée µi 6= 0. Posons alors ei = µi 1 fi pour i  r, et ei = fi pour i > r. Alors la base
B = (e1 , . . . , er , er+1 , . . . , en ) est encore orthogonale, et vérifie Q(ei ) = 1 pour i  r et
Q(ei ) = 0 pour i > r. Ceci prouve le théorème.

Théorème 21.16 (Théorème d’inertie de Sylvester). — Soient V un R-espace vec-


toriel de dimension n, Q une forme quadratique sur V et sa forme polaire.
(i) Soit B = (e1 , . . . , en ) une base orthogonale pour et soit p (resp. q) le nombre
d’indices i tels que Q(ei ) > 0 (resp. < 0). Alors p et q ne dépendent pas de la base
orthogonale choisie.
(ii) Le couple (p, q) s’appelle la signature de Q (ou de ) ; on a rang( ) = p + q.
(iii) On peut choisir B de sorte que la matrice diagonale D = MatB ( ) ait pour termes
diagonaux (1, . . . , 1, 1, . . . , 1, 0, . . . , 0), le nombre de 1 (resp. 1) étant p (resp. q).

Démonstration. — Posons r = rang( ). Soient B = (e1 , . . . , en ) et C = (f1 , . . . , fn ) deux bases de V


orthogonales pour . Notons p (resp. p0 ) le nombre d’indices i tels que Q(ei ) > 0 (resp. Q(fi ) > 0) et q
(resp. q 0 ) le nombre d’indices i tels que Q(ei ) < 0 (resp. Q(fi ) < 0). Alors

r = p + q = p0 + q 0

et il s’agit de montrer que q = q 0 et p = p0 . Quitte à renuméroter les éléments de B et C , on peut supposer


que
8 8
> Q(e ) > 0 pour i = 1, . . . , p > 0
>
< i <Q(fi ) > 0 pour i = 1, . . . , p
>
(?) Q(ei ) < 0 pour i = p + 1, . . . , p + q Q(fi ) < 0 pour i = p0 + 1, . . . , p0 + q 0
>
> >
>
:Q(e ) = 0 pour i > p + q = r ; :Q(f ) = 0 pour i > p0 + q 0 = r .
i i

Notons P+ le sous-espace de V engendré par les vecteurs ei tels que Q(ei ) 0. Ces vecteurs sont au
P
nombre de n q, donc dim P+ = n q. Soit x un élément arbitraire de P+ , écrivons x = i2I xi ei , avec
I = {1, . . . , p} [ {r + 1, . . . , n} ; alors, d’après (?), on obtient
p
X
(1) Q(x) = x2i Q(ei ) 0.
i=1

D’autre part, soit P 0 le sous-espace de V engendré par les vecteurs fj tels que Q(fj ) < 0. Ces vecteurs sont
Pp0 +q0
au nombre de q 0 , donc dim P 0 = q 0 . Soit y un élément non nul de P 0 , on peut écrire y = j=p0 +1 yj fj ,
avec au moins l’un des yj non nul (car y 6= 0). Alors, d’après (?) à nouveau, on obtient
0
pX +q 0
(2) Q(y) = yj2 Q(fj ) < 0.
j=p0 +1

Par conséquent, on a P+ \ P 0 = {0} donc P+ et P 0 sont en somme directe, d’où

n = dim V dim P+ + dim P 0 = n q + q0

d’où q q 0 . Échangeant les rôles des bases B et C , on obtient de même q 0 q, d’où q = q 0 , puis
p = r q = r q 0 = p0 . Ceci prouve (i).

Prouvons (iii). Soit B = (e1 , . . . , en ) comme ci-dessus ; pour i = 1, . . . , p + q, notons ci la racine carrée
de |Q(ei )| et remplaçons ei par ci 1 ei ; on obtient ainsi une base orthogonale ayant la propriété désirée.
90 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

22. Quadriques et coniques projectives, théorème de Pascal


Le but de cette section est d’étudier les quadriques projectives de Pn (k), c.-à-d. les sous-
ensembles
V (Q) = {[x0 , . . . , xn ] 2 Pn (k) | Q(x0 , . . . , xn ) = 0}
où Q est une forme quadratique sur k n+1 , i.e. un polynôme homogène de degré 2 :
n
X X
Q(x) = ai x2i + bij xi xj .
i=0 0i<jn

Remarquons tout de suite que, pour un point p = [x] de Pn (k), le point x de k n+1 n’est
défini qu’à homothétie près donc on ne peut pas parler de la valeur de Q en p, mais comme
Q est un polynôme homogène de degré 2 alors Q( x) = 2 Q(x) pour tout 2 k ⇥ , donc le
fait que Q(x) soit nul ne dépend que de p, ce qui justifie la définition de V (Q). Lorsque
n = 2, on dit « conique » au lieu de quadrique.
Même si l’on ne s’intéressera dans la suite qu’aux quadriques (et surtout aux coniques),
nous donnons ci-dessous des définitions générales, en guise d’introduction à la géométrie
algébrique.

Définition 22.1 (Hypersurfaces de k n ). — Soit P 2 k[X1 , . . . , Xn ] un polynôme non


constant.(4) On définit sa variété des zéros dans l’espace affine k n , notée V (P ),(5) par :
V (P ) = {x = (x1 , . . . , xn ) | P (x) = 0}
et l’on dit que c’est une hypersurface (algébrique) de k n . En fait, quand on dit cela, on
suppose implicitement que le corps k est algébriquement clos, par exemple k = C, ou bien
que k est considéré comme sous-corps d’un corps algébriquement clos k, par exemple
k = R et k = C.
En e↵et, lorsque k n’est pas algébriquement clos, il arrive que V (P ) ne soit « pas inté-
ressant », par exemple si k = R, et si l’on pose Pc = X 2 + Y 2 + c pour c 2 R, alors
V (P0 ) = {(x, y) 2 R2 | x2 + y 2 = 0}
se réduit au point (0, 0), au lieu d’être une honnête « courbe algébrique » comme par
exemple le cercle
V (P 1 ) = {(x, y) 2 R2 | x2 + y 2 = 1}
ou l’hyperbole
{(x, y) 2 R2 | xy = 1} = V (XY 1)
ou la parabole
{(x, y) 2 R2 | y = x2 } = V (Y X 2 ).

Pire encore, VR (P1 ) = {(x, y) 2 R2 | x2 + y 2 = 1} est vide. Toutefois, dans C on a


(x + iy)(x iy) = x2 + y 2 donc dans C[X, Y ] si l’on fait le changement de variables
X 0 = X + iY et Y 0 = X + iY , alors P1 = 1 X 0 Y 0 et donc
VC (P1 ) = {(x0 , y 0 ) 2 C2 | x0 y 0 = 1}

(4)
On suppose P non constant car V (P ) = k n si P = 0, tandis que V (P ) = ? si P est une constante 6= 0.
(5)
On note V pour « Variété » ; d’autres auteurs notent Z(P ) pour « Zéros ».
22. QUADRIQUES ET CONIQUES PROJECTIVES, THÉORÈME DE PASCAL 91

est une « honnête » hyperbole, et le fait que VR (P1 ) = ? signifie simplement que cette
hyperbole « complexe » n’a pas de « points réels ». On verra bien d’autres exemples de la
sorte dans la suite.
Toutefois, nous ne voulons pas imposer à k d’être algébriquement clos, car précisément on
veut pouvoir étudier des courbes algébriques dans R2 telles que cercles, ellipses, hyperboles
et paraboles...

Définition 22.2 (Polynômes homogènes). — On dit qu’un polynôme non nul P 2


k[X1 , . . . , Xr ] est homogène de degré d si tous les monômes qui le composent sont de même
degré total d. Par exemple, si r = 3 un polynôme homogène de degré 1 est de la forme
a1 X1 + a2 X2 + a3 X3 , et un polynôme homogène de degré 2 de la forme :
a1 X12 + a2 X22 + a3 X32 + a1,2 X1 X2 + a1,3 X1 X3 + a2,3 X2 X3 .
Exercice 22.3. — Soit n un entier 2. Quelle est la dimension du k-espace vectoriel des polynômes en
n variables sur k, homogènes de degré 2 ?

Définition 22.4 (Hypersurfaces de Pn (k)). — Soit P 2 k[X0 , . . . , Xn ] un polynôme


en (n+1) variables homogène de degré d 1. On définit sa variété des zéros dans l’espace
projectif Pn (k), encore notée V (P ), par :
V (P ) = {[x] = [x0 , x1 , . . . , xn ] 2 Pn (k) | P (x) = 0}
et l’on dit que c’est une hypersurface (algébrique) de Pn (k). Remarquons d’abord que ceci
est bien défini : en e↵et, si on remplace x 2 k n+1 par x, avec 2 k ⇥ , alors, comme P
est homogène de degré d, on a P ( x) = d P (x), donc la nullité ou non de P (x) ne dépend
que de [x].(6) Par exemple, si P est homogène de degré 1, i.e. si P = a0 X0 + · · · + an Xn ,
alors V (P ) est simplement l’hyperplan projectif P(Ker(f )), où f est la forme linéaire
f (x) = a0 x0 + · · · + an xn .
Comme dans le paragraphe précédent, quand on considère V (P ) avec P homogène de
degré d > 1, on suppose implicitement que le corps k est algébriquement clos, par exemple
k = C, ou bien que k est considéré comme sous-corps d’un corps algébriquement clos k,
par exemple k = R et k = C.
En e↵et, si k = R et si l’on note X, Y, Z au lieu de X0 , X1 , X2 et qu’on considère le
polynôme P = X 2 + Y 2 + Z 2 homogène de degré 2, alors
VR (P ) = {[x, y, z] 2 P2 (R) | x2 + y 2 + z 2 = 0} = ?.
Par contre, dans C[X, Y, Z], on a X 2 + Y 2 + Z 2 = (X + iY )(X iY ) + Z 2 donc si l’on fait
le changement de variable X 0 = X + iY et Y 0 = X + iY , alors
VC (P ) = {[x0 , y 0 , z] 2 P2 (C) | x0 y 0 = z 2 }
est une honnête courbe algébrique projective, appelée une conique projective (cf. ci-
dessous).

Dans la suite de cette section, on suppose car(k) 6= 2 et V désigne un k-ev de dimension


n + 1, d’où dim(P(V )) = n. Sauf mention du contraire, les formes quadratiques considérées
seront supposées non nulles, i.e. dans la suite la phrase « Soit Q une forme quadratique sur
V » signifie : « Soit Q une forme quadratique sur V , non nulle ».

(6)
Par contre, on ne peut pas parler de la « valeur » de P au point [x].
92 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

Définitions 22.5. — Soit Q une forme quadratique sur V , non nulle.


(i) Un vecteur v 2 V est dit isotrope (pour Q) si l’on a Q(v) = 0.
(ii) L’ensemble C(Q) = {v 2 V | Q(v) = 0} des vecteurs isotropes est appelé le cône
isotrope. C’est un cône, au sens où il est stable par homothéties : si v 2 C(Q) et 2 k ⇥
alors Q( v) = 2 Q(v) = 0 donc v 2 C(Q).
(iii) L’image de C(Q) {0} dans P(V ) est l’hypersurface de P(V ) définie par le polynôme
homogène Q, i.e. c’est :
V (Q) = {[v] 2 P(V ) | Q(v) = 0}.
On dit que V (Q) est la quadrique projective définie par Q, et lorsque dim P(V ) = 2 on
dit conique au lieu de quadrique.
Exemples 22.6. — (1) Si Q est la forme quadratique sur R2 définie par Q(x1 , x2 ) = x1 x2 , alors
le cône isotrope est la réunion de la droite d’équation x1 = 0 et de celle d’équation x2 = 0, et la
quadrique V (Q) ⇢ P1 (R) est formée des deux points [0, 1] et [1, 0].
(2) Si Q est la forme quadratique sur R3 définie par Q(x1 , x2 , x3 ) = x21 + x22 x23 , alors le cône
isotrope est le cône d’équation x21 + x22 = x23 : la section par chaque plan « horizontal » d’équation
x3 = c donne le cercle de centre (0, 0, c) et de rayon r = |c|. Son image V (Q) dans P2 (R) est
formée du « cercle » {(x, y) 2 R2 | x2 + y 2 = 1} dans le plan affine P = P2 (R) privé de la droite
D1 d’équation z = 0 ; il lui manque les deux points d’intersection avec D1 , qui sont les deux
points [1, i, 0] et [1, i, 0] de P2 (C).

Remarque. — Attention ! Il ne faut pas confondre le cône isotrope C(Q) = {x 2 V | Q(x) = 0} avec le
sev N (Q) = {x 2 V | 8y 2 V, (x, y) = 0}. On a toujours N (Q) ⇢ C(Q) mais l’inclusion est en général
stricte : dans les deux exemples précédents Q est non dégénérée donc N (Q) = {0}, tandis que C(Q) est
un cône 6= {0}.

Exemple 22.7 (important). — Décrivons tout d’abord les quadriques d’une droite pro-
jective D = P(E), où dim(E) = 2. Soit Q une forme quadratique sur E et soient B =
(e0 , e1 ) une base de E orthogonale pour Q et (x0 , x1 ) les coordonnées correspondantes.
Quitte à échanger e0 et e1 on peut supposer que = Q(e0 ) est 6= 0 ; alors en rempla-
çant Q par 1 Q (ce qui ne change pas la quadrique) on se ramène au cas où Q(e0 ) = 1, d’où
Q(x0 , x1 ) = x20 x21 , pour un certain 2 k. Distinguons les cas suivants :
(i) = 0, d’où Q(x0 , x1 ) = x20 . Dans ce cas, V (Q) est formée d’un point « double »,
i.e. c’est le point p = [0, 1] de D « compté deux fois ».
(ii) 6= 0. Soit ↵ une racine carrée de dans le corps algébriquement clos k, alors
Q(x0 , x1 ) = (x0 ↵x1 )(x0 + ↵x1 ). Donc V (Q) est formée des deux points distincts [↵, 1] et
[ ↵, 1]. Ces deux points sont dans P(E) ssi ↵ 2 k ; sinon, notant k 0 l’extension quadratique
k[↵] = k[T ]/(T 2 ) de k, ils sont dans P1 (k 0 ).(7)

Revenons à un k-ev V de dimension n + 1 3 et décrivons l’intersection de la quadrique


V (Q) ⇢ P(V ) et d’une droite projective D = P(E), pour E un sev de V de dimension 2.
Notons QE la restriction de Q à E et remarquons que D \ V (Q) est la variété des zéros
V (QE ) ⇢ D.

Lemme 22.8. — On a l’une des trois alternatives suivantes :

Plus précisément, ils sont dans P(Ek0 ), où Ek0 désigne le k 0 -espace vectoriel déduit de E par extension
(7)

des scalaires de k à k 0 , cf. 23.14.


22. QUADRIQUES ET CONIQUES PROJECTIVES, THÉORÈME DE PASCAL 93

a) QE = 0 et D ⇢ V (Q).
b) QE est non dégénérée. Alors D \ V (Q) est formée de deux points distincts p 6= q
(éventuellement à coordonnées dans une extension quadratique de k).
c) QE est de rang 1. Alors D \ V (Q) est formée d’un seul point p.
Démonstration. — On a QE = 0 ssi V (QE ) = D, et ceci équivaut à D ⇢ V (Q). Supposons
donc QE 6= 0. Soit (e0 , e1 ) une base orthogonale de E. Comme dans l’exemple précédent,
on se ramène au cas où Q(e0 ) = 1 et l’on pose alors Q(e1 ) = . Sous ces conditions, on a
D \ V (Q) = {[xe0 + ye1 ] | x2 + y 2 = 0}
où (x, y) 6= (0, 0).
Supposons QE non dégénérée, i.e. 6= 0. Notons ↵ une racine carrée de (éventuellement
dans une extension quadratique k 0 de k). Alors D \ V (Q) est formée des deux points
distincts p = [↵e0 + e1 ] et q = [ ↵e0 + e1 ].
Enfin, supposons QE de rang 1, i.e. = 0. Dans ce cas, D \ V (Q) est formée du « point
double » p = [e1 ] (défini par l’équation x2 = 0).
Corollaire 22.9. — Soit C = V (Q) une quadrique de P(V ). Si C contient trois points
d’une droite D alors C contient D.
Démonstration. — Ceci découle de la proposition précédente.
Avant d’énoncer le théorème sur la conique passant par cinq points donnés (22.12) et
celui de Pascal (22.14), qui nous intéresseront principalement dans le cas non dégénéré, on
a besoin d’énoncer quelques résultats qui nous permettront de traiter le cas dégénéré.
Proposition 22.10. — Soit C = V (Q) une conique d’un plan projectif P(V ). Supposons
que C contienne une droite D.
(i) Alors C est dégénérée.
(ii) Plus précisément, si l’on choisit des coordonnées homogènes [x, y, z] telles que D ait
pour équation Z = 0, alors Q = ZL(X, Y, Z) pour une certaine forme linéaire L.
(iii) Si L n’est pas multiple de Z, alors Q est de rang 2 et C est la réunion de D et de
la droite D0 d’équation L = 0. Sinon, Q = Z 2 est de rang 1 et dans ce cas on dit que C
est la « droite double » D.
Démonstration. — Soit la forme polaire de Q. Écrivons D = P(E), où E est un sev de V
de dimension 2. Par hypothèse, la restriction de Q à E est nulle, donc pour tout x, y 2 E
on a :
1
(x, y) = Q(x + y) Q(x) Q(y) = 0.
2
Soient (e1 , e2 ) une base de E, complétons-la en une base B = (e1 , e2 , e3 ) de V et notons
(x, y, z) les coordonnées dans cette base. Alors A = MatB ( ) est de la forme suivante :
0 1
0 0 a
@0 0 b A
a b c
où a = (e1 , e3 ), b = (e2 , e3 ) et c = Q(e3 ) ne sont pas tous nuls (car Q est supposée non
nulle). Alors on a
Q(X, Y, Z) = cZ 2 + 2Z(aX + bY ) = Z(2aX + 2bY + cZ),
94 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

ce qui donne (ii) avec L(X, Y, Z) = (2aX + 2bY + cZ). De plus, on voit que A est de rang
 2 (car ses colonnes 1 et 2 sont liées), d’où (i).
Enfin, on voit que A est de rang 1 ssi a = 0 = b, ce qui correspond au cas où L est
multiple de Z. Le point (iii) en découle.

Remarques 22.11. — (1) Réciproquement, la réunion de deux droites D et D0 du plan


projectif est une conique. En e↵et, soient L et L0 les formes linéaires (uniques à homothétie
près) définissant D et D0 et soit Q = LL0 . Alors, pour tout [x, y, z] 2 P(V ), on a Q(x, y, z) =
L(x, y, z)L0 (x, y, z) et ceci est nul ssi l’un au moins de L(x, y, z) et L0 (x, y, z) est nul : ceci
montre que V (Q) est la réunion de D et D0 .
(2) Il résulte de la proposition que si C est une conique dégénérée (i.e. la réunion de
deux droites ou une droite « double ») et si p1 , . . . , p5 sont cinq points distincts de C , alors
au moins trois de ces points sont alignés.

Théorème 22.12. — Soient P(V ) un plan projectif et p1 , . . . , p5 cinq points distincts


de P(V ), quatre d’entre eux n’étant jamais alignés. Alors il existe une unique conique C
passant par ces cinq points.

Démonstration. — Distinguons deux cas. (1) Supposons que trois points soient alignés sur
une droite D, par exemple p1 , p2 , p3 . Si une conique C contient les pi alors, d’après 22.9 et
22.10, elle contient D donc elle est dégénérée et est la réunion de D et d’une seconde droite
D0 . Alors, comme p4 et p5 ne sont pas sur D ils doivent être sur D0 et donc D0 = (p4 p5 ).
Ceci montre que, dans ce cas, D [ D0 est l’unique conique contenant les pi .
(2) Supposons maintenant que trois des pi ne sont jamais alignés. Alors (p1 , p3 , p5 , p2 ) (8)
forment un repère projectif et dans ce repère ils ont pour coordonnées homogènes respec-
tives : [1, 0, 0], [0, 1, 0], [0, 0, 1], et [1, 1, 1]. De même, p4 = [a, b, c] avec a, b, c tous non nuls et
deux à deux distincts (car si on avait, par exemple, c = 0 (resp. a = b) alors p1 , p3 , p4 (resp. p5 , p2 , p4 )
seraient alignés).
Soit Q(X, Y, Z) = ↵X 2 + Y 2 + Z 2 + uY Z + vZX + wXY une forme quadratique
arbitraire. Elle s’annule en p1 (resp. p3 , resp. p5 ) ssi ↵ = 0 (resp. = 0, resp. = 0), et
l’annulation en p2 et p4 équivaut aux deux équations linéaires en u, v, w suivantes :

u+v+w =0 et bc u + ca v + ab w = 0.
b c a
On en déduit w = u v puis b(c a) u + a(b c) v = 0, d’où v = u, puis
a b c
u ⇣ ⌘ c a b
w= u v= a(b c) b(a c) = u.
a(b c) a b c
Ceci détermine de façon unique Q, à homothétie près, i.e. en prenant u = a(b c) on
obtient que
Q(X, Y, Z) = a(b c)Y Z + b(c a)ZX + c(a b)XY
est l’équation de l’unique conique qui passe par le repère standard [1, 0, 0], [0, 1, 0], [0, 0, 1],
[1, 1, 1] et par le point [a, b, c]. (Celle-ci est non dégénérée d’après la remarque 22.11.)

(8)
Ce choix de numérotation est lié à la démonstration du théorème de Pascal 22.14 qui va suivre.
22. QUADRIQUES ET CONIQUES PROJECTIVES, THÉORÈME DE PASCAL 95

Définition 22.13 (Côtés opposés d’un hexagone). — Soient A, B, C, D, E, F six


points d’un plan projectif, dont trois ne sont jamais alignés.(9) Pour chaque numérotation
p1 , . . . , p6 de ces points, appelons « paires de côtés opposés » (pour la numérotation donnée) les
trois paires de droites
(p1 p2 ), (p4 p5 ) , (p2 p3 ), (p5 p6 ) , (p3 p4 ), (p6 p1 )
et notons P1 (resp. P2 , resp. P3 ) le point de concours de la 1ère paire (resp. de la 2ème,
resp. 3ème). Ces trois points sont distincts. (Si on avait par exemple P1 = P2 , ce point appartien-
drait à (p1 p2 ) \ (p2 p3 ) et à (p4 p5 ) \ (p5 p6 ) donc devrait être égal à p2 et à p5 , impossible car p2 6= p5 .)
Si k = R et si les points p1 , . . . , p6 du plan affine E = R2 forment dans cet ordre les sommets
d’un hexagone convexe régulier (donc inscrit dans un cercle), alors la notion de « côtés opposés »
a le sens habituel et les côtés opposés sont parallèles (et donc dans le plongement projectif P(E b ), les
points P, Q, R appartiennent à la droite à l’infini). Mais dans la définition précédente, la numérotation
des pi est arbitraire, ce qui donne plus de configurations possibles.

Théorème 22.14. — Soient A, B, C, D, E, F six points d’un plan projectif, dont trois ne
sont jamais alignés.
(i) (Théorème de Pascal) (10) Si ces points appartiennent à une même conique C
(nécessairement non dégénérée) alors, pour toute numérotation p1 , . . . , p6 , les points de concours
des trois paires de côtés opposés sont alignés.
(ii) Réciproquement, si pour une numérotation p1 , . . . , p6 les points de concours des trois
paires de côtés opposés sont alignés, alors il existe une unique conique C passant par
A, B, C, D, E, F .

Démonstration. — Choisissons une numérotation p1 , . . . , p6 . Reprenant les notations de la


démonstration précédente, on peut supposer que p1 , p3 , p5 , p2 , p4 et p6 ont pour coordonnées
homogènes respectives :
[1, 0, 0], [0, 1, 0], [0, 0, 1], [1, 1, 1], [a, b, c] et [u, v, w],
avec a, b, c (resp. u, v, w) non nuls et deux à deux distincts. D’après le théorème précédent,
l’unique conique C passant par p1 , . . . , p5 est donnée par
Q(X, Y, Z) = a(b c)Y Z + b(c a)ZX + c(a b)XY,
et donc p6 appartient à C ssi on a :
0 = Q(u, v, w) = a(b c)vw + b(c a)wu + c(a b)uv.
Déterminons à quelle condition les points de concours des trois paires de côtés opposés
sont alignés.
La droite (p1 p2 ), resp. (p4 p5 ), a pour équation y = z, resp. bx = ay, donc elles se coupent
au point P1 = [a, b, b]. De même, la droite (p2 p3 ), resp. (p5 p6 ), a pour équation x = z,
resp. vx = uy, donc elles se coupent au point P2 = [u, v, u].
Enfin, la droite (p3 p4 ), resp. (p6 p1 ), a pour équation cx = az, resp. wy = vz, donc elles
se coupent au point P3 = [aw, cv, cw].

(9)
En particulier, ces six points sont deux à deux distincts.
(10)
Blaise Pascal, mathématicien et philosophe français (1623-1662), qui fut l’élève de Desargues.
96 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

a u aw
Alors P1 , P2 , P3 sont alignés ssi le déterminant b v cv est nul, or on voit qu’il vaut :
b u cw


vw a(c b) + wu b(a c) + uv c(b a) = Q(u, v, w).
Ceci montre (ii), et aussi (i) puisque la numérotation p1 , . . . , p6 a été choisie arbitrairement.
p5
B p3
p1 B ⇥
A
@ B ⇥
B ⇥

⇢⇡
A@ B ⇥
A @ B⇥
PA @ BQ
A @ ⇥⇥ B
R

A @⇥ B
p4 A ⇥ @B
A ⇥ @B
A⇥ p6
p2

22.15. Classification des coniques projectives réelles. — Il résulte du théorème


d’inertie de Sylvester 21.16 qu’il n’y a, à homographie près, que cinq types de coniques
réelles C = V (Q) ⇢ P2 (R). En e↵et, d’après le théorème de Sylvester, il existe une base B
de R3 telle que, dans les coordonnées correspondantes, on ait Q(X, Y, Z) = aX 2 +bY 2 +cZ 2 ,
avec a, b, c dans { 1, 0, 1} et non tous nuls. Comme Q et ±Q définissent la même conique,
on a les cinq alternatives suivantes :
(1) Q est de rang 1. Dans ce cas, on peut supposer que Q = X 2 et alors C est la droite
double de P2 (R) d’équation x2 = 0.
(2) Q est de rang 2. Dans cas cas, on peut supposer que Q = X 2 ± Y 2 et l’on a les deux
sous-cas :
2a) Q = X 2 Y 2 = (X Y )(X + Y ). Alors C est la réunion des deux droites
projectives d’équations x = y et x = y.
2b) Q = X 2 + Y 2 . Alors dans P2 (C), CC est la réunion des deux droites projectives
d’équations x = iy et x = iy ; elles se coupent au point p = [0, 0, 1] qui est le seul
point réel de C .
(3) Q est de rang 3, i.e. non dégénérée. On peut alors supposer que Q = X 2 + Y 2 ± Z 2
et l’on a les deux sous-cas :
3a) Q = X 2 + Y 2 + Z 2 . Dans ce cas, C n’a pas de point réel.
3b) Q = X 2 + Y 2 Z 2 .
On voit donc qu’à homographie près, Q = X 2 + Y 2 Z 2 est l’unique conique pro-
jective non dégénérée ayant des points réels. Remarquons que si on prend comme droite
à l’infini D1 la droite d’équation z = 0 (resp. y = 0) alors dans le plan affine E =
P2 (R) D1 , identifié aux triplets de points (x, y, 1) (resp. (x, 1, z)) de R3 , on obtient l’el-
lipse (resp. l’hyperbole) d’équation x2 + y 2 = 1 (resp. x2 z 2 = 1).
De plus, si l’on fait le changement de coordonnées u = z + y et v = z y (de sorte que
2
z y 2 = uv) et qu’on prend comme droite à l’infini D1 la droite d’équation v = 0 alors
dans le plan affine E = P2 (R) D1 , identifié aux triplets de points (x, u, 1) de R3 , on
obtient la parabole d’équation u = x2 .
22. QUADRIQUES ET CONIQUES PROJECTIVES, THÉORÈME DE PASCAL 97

On voit donc qu’en passant aux coniques projectives, on fait disparaı̂tre la distinction
entre les trois sortes de coniques affines réelles non dégénérées (ellipses, hyperboles, para-
boles).
Terminons cette section en introduisant les notions de plan hyperbolique et de sev tota-
lement isotrope. Soient V un k-ev de dimension n 2, Q une forme quadratique sur V ,
sa forme polaire et N (Q) son noyau.
Lemme 22.16. — Soit E un sev de V et QE la restriction de Q à E.
(i) Alors QE est non dégénérée ssi E \ E ? = {0}. Dans ce cas, on a :
(ii) V = E E ? et : (iii) QE ? est non dégénérée.
Démonstration. — On a N (QE ) = {x 2 E | 8y 2 E, (x, y) = 0} = E \ E ? d’où (i).
Alors (ii) découle de 21.9 (ii).
Prouvons (iii). Soit B1 (resp. B2 ) une base de E (resp. E ? ) et A1 (resp. A2 ) la matrice
de QE✓(resp. Q◆E ? ) dans cette base. Alors B = B1 [B2 est une base de V et MatB (Q) égale
A1 0
A= , d’où dét(A) = dét(A1 ) dét(A2 ). Ceci est non nul (car Q est non dégénérée),
0 A2
d’où dét(A2 ) 6= 0 donc QE ? est non dégénérée.
Proposition 22.17. — Soit e1 2 V un vecteur isotrope tel que e1 62 N (Q). Alors :
(i) Il existe un vecteur isotrope e2 tel que (e1 , e2 ) = 1.
(ii) Soient E = Vect(e ✓ 1 , e2◆
) et QE la restriction de Q à E. Alors (e1 , e2 ) est une base de
0 1
E et Mat(e1 ,e2 ) (QE ) = donc QE est non dégénérée.
1 0
(iii) Par conséquent, V = E E ? .
Démonstration. — Comme e1 62 N (Q) il existe v 2 V tel que = (e1 , v) soit 6= 0.
1
Remplaçant v par v, on se ramène au cas où (e1 , v) = 1. Soit c = Q(v). Si c = 0 on
peut prendre e2 = v. Sinon, comme
Q(v + µe1 ) = Q(v) + 2µ (v, e1 ) = c + 2µ,
alors e2 = v (c/2)e1 vérifie Q(e2 ) = 0 et (e2 , e1 ) = 1. Alors e2 n’est pas colinéaire à
e1 , donc (e1 , e2 ) forme une base du sev E et la matrice de QE est comme indiqué. Ceci
montre que QE est non dégénérée. Ceci prouve (i) et (ii). Alors (iii) découle du lemme
précédent.
Définition 22.18. — Un sev E de dimension 2 de V est un plan hyperbolique s’il
possède une base (e1 , e2 ) comme ci-dessus. La proposition précédente démontre donc que
tout vecteur isotrope v 62 N (Q) appartient à au moins un plan hyperbolique.
Définition 22.19. — Un sev F de V est dit totalement isotrope si QF = 0, c.-à-d. si
(x, y) = 0 pour tout x, y 2 F .
Lemme 22.20. — Supposons Q non dégénérée. Alors, si F est un sev totalement isotrope
de dimension p, on a 2p  n = dim(V ).
Démonstration. — Soit (f1 , . . . , fp ) une base de F . Comme Q est non dégénérée, l’appli-
cation ✓ : V ! V ⇤ est un isomorphisme, donc la famille ✓(f1 ), . . . , ✓(fp ) est libre. On
peut donc la compléter en une base C de V ⇤ . Soit (g1 , . . . , gn ) la base de V dont C est la
98 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

base duale. Alors, pour i, j = 1, . . . , p on a : (fi , gj ) = ✓(fi )(gj ) = ij (rappelons que ij = 1


si i = j et = 0 sinon).
Il en résulte que F et G = Vect(g1 , . . . , gp ) sont en somme directe, car si on a une
P P
égalité pj=1 xj fj = pj=1 yj gj alors en appliquant (fi , ) on obtient 0 = yi pour tout
i = 1, . . . , p. Comme dim(G) = p (car les gi sont linéairement indépendants), on en déduit
que 2p = dim(F G)  dim(V ).

Exemple 22.21. — Si n = 2p et si V est la somme directe orthogonale de p plans hyper-


boliques, i.e. si dans certaines coordonnées Q est donnée par

Q(X1 , . . . X2p ) = X1 X2 + · · · + X2p 1 X2p

alors le cône isotrope C(Q) contient les deux sous-espaces de dimension p totalement iso-
tropes F1 = Vect(e1 , e3 , . . . , e2p 1 ) et F2 = Vect(e2 , e4 , . . . e2p ). Et donc la quadrique projec-
tive V (Q) = {[x1 , . . . , x2p ] 2 P2p 1 (k) | Q(x) = 0} contient les deux sous-espaces projectifs
P(F1 ) et P(F2 ), chacun de dimension p 1.

23. Hyperplans tangents à une hypersurface affine ou projective


Pour énoncer, dans la section suivante, le théorème de Brianchon, on doit introduire la
définition suivante :

Définition 23.1. — Soient k un corps de caractéristique 6= 2, V un k-ev de dimension


n + 1 3 et Q une forme quadratique non dégénérée sur V . Pour tout v 6= 0 dans V , on
note (kv)? l’hyperplan de V orthogonal, pour la forme polaire de Q, à la droite kv.
(i) Pour tout point p = [v] de la quadrique projective V (Q) ⇢ P(V ), l’hyperplan (pro-
jectif) tangent à V (Q) au point p est l’hyperplan projectif P((kv)? ).
(ii) De même, pour tout point v 6= 0 du cône isotrope C(Q) ⇢ V , l’hyperplan (affine)
tangent à C(Q) au point v est l’hyperplan v + (kv)? , qui ici égale (kv)? car v 2 (kv)?
puisque (v, v) = Q(v) = 0.

Ceci est un cas particulier de la définition d’hyperplan tangent en un point lisse (voir
plus bas) d’une hypersurface affine ou projective, que nous donnons plus bas après quelques
« rappels » sur les dérivées partielles et la di↵érentielle d’un polynôme.

Rappels 23.2 (Polynômes à plusieurs indéterminées). — Soient k un corps et r 2


N⇤ . L’anneau des polynômes en r variables (ou indéterminées), à coefficients dans k, noté
k[X1 , . . . , Xr ], est le k-espace vectoriel (de dimension infinie) dont une base est donnée par
les monômes
X a = X1a1 · · · Xrarpour a = (a1 , . . . , ar ) 2 Nr ,
P
i.e. c’est l’ensemble de toutes les sommes finies P = a2Nr ↵a X a , où ↵a 2 k et, par conven-
tion, les ↵a sont nuls sauf un nombre fini d’entre eux. La multiplication est l’application
k-bilinéaire définie par X a · X b = X a+b i.e.

X1a1 · · · Xrar · X1b1 · · · Xrbr = X1a1 +b1 · · · Xrar +br


23. HYPERPLANS TANGENTS À UNE HYPERSURFACE AFFINE OU PROJECTIVE 99

P P
c.-à-d., pour P = a2Nr ↵a X a et Q = b2Nr bX
b
arbitraires, on a :
0 1
X XB X C
a+b
P ·Q= ↵a bX = @ ↵a b A X c .
a,b2Nr c2Nr a,b2Nr
a+b=c

Pour tout a 2 Nr , on pose |a| = a1 + · · · + ar et l’on dit que le monôme X a est de degré
P
total |a|. Si P = a2Nr ↵a X a est non nul, on appelle degré de P et l’on note deg(P ) le
plus grand des entiers |a| pour a tel que ↵a 6= 0 (il n’y a qu’un nombre fini de tels a).
Par exemple, le polynôme en 3 variables P = XY Z + 3Y 2 Z 2 + 27X 3 Y + Y 4 + 11Y 2 Z 3 2 Q[X, Y, Z] est
de degré 5.
La définition précédente reste valable en remplaçant k par n’importe quel anneau commu-
tatif A. On obtient ainsi l’anneau A[X1 , . . . , Xr ] des polynômes en r variables à coefficients
dans A.
Revenons à notre corps k et, pour tout i = 1, . . . , r, notons Ri l’anneau des polynômes
bi , . . . , Xr , où le b sur le Xi signifie que cette variable
sur k en les (r 1) variables X1 , . . . , X
a été omise. On a alors :
(⇤) bi , . . . , Xn ][Xi ] = Ri [Xi ],
k[X1 , . . . , Xn ] = k[X1 , . . . , X
i.e. tout élément P de k[X1 , . . . , Xn ] s’écrit de façon unique comme une somme finie P =
P s
s2N As Xi , où les As sont dans Ri et sont nuls sauf un nombre fini d’entre eux. Si P 6= 0
et si d est le plus grand entier tel que As 6= 0, on dit que P est de degré d en Xi et l’on
pose degXi (P ) = d. Ceci est bien sûr inférieur ou égal au degré total deg(P ) de P .
Ainsi, dans l’exemple précédent, on a :
P = (27X 3 Y + Y 4 ) + (XY ) Z + 3Y 2 Z 2 + 11Y 2 Z 3 2 k[X, Y ][Z] et degZ (P ) = 3,
3 2 3 2 4
= (XZ + 27X ) Y + (3Z + 11Z ) Y + Y 2 k[X, Z][Y ] et degY (P ) = 4,
= (3Y 2 Z 2 + 11Y 2 Z 3 + Y 4 ) + (Y Z) X + 27Y X 3 2 k[Y, Z][X] et degX (P ) = 3.

Définition 23.3 (Dérivée d’un polynôme). — Soit A un anneau commutatif. On in-


troduit une application D : A[X] ! A[X], appelée la dérivation, en posant, pour tout
P = a0 + a1 X + a2 X 2 + · · · + ad X d ,
D(P ) = P 0 = a1 + 2a2 X + · · · + dad X d 1 .
Ce polynôme est appelé le polynôme dérivé de P . On le notera aussi @X P .

Proposition 23.4. — Pour tout P, Q 2 A[X] et , µ 2 A, on a :


(i) D( P + µQ) = D(P ) + µD(Q), i.e. la dérivation est A-linéaire ;
(ii) (P Q)0 = P 0 Q + P Q0 .
(iii) Par conséquent, pour tout n 2 N⇤ on a D(P n ) = nP n 1 P 0 .

Démonstration. — (i) est immédiat et laissé au lecteur. Pour prouver (ii) on observe que,
pour Q fixé, les deux applications P 7! D(P Q) et P 7! D(P )Q + P D(Q) sont A-linéaires,
donc pour montrer qu’elles coı̈ncident il suffit de le faire lorsque P est un monôme X p ,
c.-à-d. il suffit de montrer que D(X p Q) = D(X p )Q + X p D(Q) pour tout Q 2 A[X].
Mais à nouveau, X p étant fixé, les deux applications Q 7! D(X p Q) et Q 7! D(X p )Q +
X p D(Q) sont A-linéaires, donc pour montrer qu’elles coı̈ncident il suffit de le faire lorsque
100 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

Q est un monôme X q . Bref, il suffit de vérifier que


D(X p X q ) = D(X p )X q + X p D(X q ).
Mais ceci est facile, car X p X q = X p+q donc le terme de gauche vaut (p + q)X p+q 1 , tandis
que celui de droite vaut pX p 1 X q + qX p X q 1 = (p + q)X p+q 1 . Ceci prouve (ii). Alors (iii)
s’en déduit facilement par récurrence sur n.
Définition 23.5 (Dérivées partielles d’un polynôme à plusieurs variables)
Revenons à notre corps k.(11) Pour tout P 2 k[X1 , . . . , Xr ], on note @Xi P , ou simplement
bi , . . . , Xn ][Xi ], i.e. on
@i P , le polynôme dérivé de P considéré comme élément de k[X1 , . . . , X
« dérive P par rapport à la variable Xi » en considérant les autres variables comme des
« constantes ».
Ainsi, en reprenant l’exemple P = XY Z + 3Y 2 Z 2 + 27X 3 Y + Y 4 + 11Y 2 Z 3 , on a :
@Z P = XY + 6Y 2 Z + 33Y 2 Z 2 ,
@Y P = (XZ + 27X 3 ) + 2(3Z 2 + 11Z 3 ) Y + 4Y 3 ,
@X P = Y Z + 81Y X 2 .

Proposition 23.6 (Formule d’Euler). — Soit P 2 k[X1 , . . . , Xr ] un polynôme non nul


homogène de degré d. On a l’égalité :
r
X
(?) d · P = X1 @ 1 P + · · · + Xr @ r P = Xi @i P.
i=1

Démonstration. — Comme chaque application P 7! Xi @i P est k-linéaire, le terme de droite


est une fonction linéaire de P , ainsi bien sûr que le terme de gauche. Donc il suffit de
démontrer la formule lorsque P est un monôme X1a1 · · · Xrar de degré d, i.e. a1 +· · ·+ar = d.
Dans ce cas, on voit que pour tout i = 1, . . . , r, on a
Xi @i (X1a1 · · · Xrar ) = ai X1a1 · · · Xrar
P
et donc le terme de droite est égal à ( ri=1 ai )X1a1 · · · Xrar = dX1a1 · · · Xrar . Ceci prouve la
proposition.
Définitions 23.7 (Points lisses et hyperplans tangents)
Soit P 2 k[X1 , . . . , Xn ] non constant et soit a = (a1 , . . . , an ) 2 k n .
(i) La di↵érentielle de P en a, notée da P , est la forme linéaire sur k n qui à tout
(x1 , . . . , xn ) associe le scalaire (@1 P )(a) x1 + · · · + (@n P )(a) xn .(12)
(ii) Soit a 2 V (P ). On dit que a est un pointlisse de V (P ) si da P 6= 0, c.-à-d. si les
dérivées partielles @i P , pour i = 1, . . . , n, ne s’annulent pas toutes au point a. Dans le cas
contraire, on dit que a est un point singulier de V (P ).
(iii) Si a est un point lisse de V (P ), l’hyperplan tangent à V (P ) au point a, noté
Ta V (P ) est l’hyperplan affine de direction Ker(da P ) passant par a, i.e. :
Ta V (P ) = x = a + u | u 2 Ker(da P ) = x = (x1 , . . . , xn ) | u = x a 2 Ker(da P )
n
X
= x = (x1 , . . . , xn ) | @i P (a)(xi ai ) = 0 .
i=1

(11)
En fait, ce qui suit est valable pour n’importe quel anneau commutatif k.
(12)
Dans la suite, on notera simplement @i P (a) au lieu de (@i P )(a).
23. HYPERPLANS TANGENTS À UNE HYPERSURFACE AFFINE OU PROJECTIVE 101

La di↵érentielle da P , la lissité d’un point et l’hyperplan tangent en un point lisse, « ne


dépendent pas des coordonnées affines » sur k n , i.e. on a la proposition suivante :
Proposition 23.8. — (i) La forme linéaire da P : k n ! k ne dépend pas du choix des coordonnées. Plus
précisément, pour tout système (Y1 , . . . , Yn ) de coordonnées affines centrées en a, da P est la partie linéaire
du polynôme Q(Y1 , . . . , Yn ) défini par Q(Y1 , . . . , Yn ) = P (Y1 + a1 , . . . , Yn + an ).
(ii) Par conséquent, la notion de point lisse et la définition de l’hyperplan tangent ne dépendent pas du
choix des coordonnées.

Démonstration. — Traitons d’abord le cas d’une translation. Soit F 2 R[X], où R est un anneau commu-
tatif, et soit r 2 R. Faisons le changement de variable Y = X r, i.e. X = Y + r. Alors F (X) = F (a + Y )
s’écrit comme un polynôme en Y , qu’on notera Q(Y ) et qui est déterminé par l’égalité Q(Y ) = F (a + Y ).
Montrons que :
(⇤) (@Y Q)(Y ) = (@X P )(Y + a).
Pd
En écrivant F = i=0 ↵i X , on se ramène à vérifier cette égalité lorsque F est un monôme X p , auquel
i

cas Q(Y ) = (Y + a)p . Alors, d’après la formule 23.3 (iii), on a (@Y Q)(Y ) = p(Y + a)p 1 = (@X F )(Y + a),
ce qui prouve (⇤).
Revenons à notre polynôme P 2 k[X1 , . . . , Xn ] et faisons le changement de variables Yi = Xi ai , de
sorte que a est le point défini par Yi (a) = 0 pour i = 1, . . . , n. On dit alors que le système de coordonnées
affines (Y1 , . . . , Yn ) est centré en a. Alors P (X1 , . . . , Xn ) = P (a1 + Y1 , . . . , an + Yn ) s’écrit comme un
polynôme en les Yi , qu’on notera Q(Y1 , . . . , Yn ) et qui est déterminé par l’égalité
Q(Y1 , . . . , Yn ) = P (a1 + Y1 , . . . , an + Yn ).
Fixons un indice i et considérons le 1er (resp. 2ème) membre comme un polynôme en Yi (resp. Xi ) à
coefficients dans l’anneau R = k[Y1 , . . . , Ybi , . . . , Yn ]. Alors, d’après (⇤) on a
(@Yi Q)(Y1 , . . . , Yn ) = (@Xi P )(a1 + Y1 , . . . , an + Yn )
et donc (@Yi Q)(0) = (@Xi P )(a) pour tout i. On voit donc que a est lisse dans les coordonnées Xi ssi il l’est
dans les coordonnées Yi , et dans ce cas en utilisant les coordonnées Yi l’hyperplan tangent est défini par :
n
X n
X
Ty=0 V (P ) = y = (y1 , . . . , yn ) | (@Yi Q)(0) yi = 0 = x = a + y | (@Xi P )(a)(xi ai ) = 0
i=1 i=1

et coı̈ncide bien avec l’hyperplan tangent défini en utilisant les coordonnées Xi .


De plus, Q se décompose de façon unique comme la somme de ses « composantes homogènes » :
(?) Q = Q0 + Q1 + Q2 + · · · + Qd ,
où Q0 = Q(0) (qui ici vaut 0), d = deg(Q) et pour s = 1, . . . , d, Qs est le polynôme homogène de degré s
obtenu en regroupant tous les monômes de degré s apparaissant dans Q.
Fixons une variable Yi . Alors, pour tout s = 1, . . . , d, @Yi Qs est un polynôme homogène de degré
s 1, donc s’annule en 0 si s 2 et est une constante ci si s = 1 ; de plus compte tenu des annulations
(@Yi Qs )(0) = 0 pour s 6= 1, on a ci = (@Yi Q)(0). Alors, d’après la formule d’Euler, on a
n
X n
X
Q1 = c i Yi = (@Yi Q)(0)Yi = dy=0 Q.
i=1 i=1

Montrons enfin que la décomposition (?) ne dépend que du point choisi comme « centre des coordonnées »
(i.e. comme origine de l’espace affine E = k n ), et non du choix des coordonnées elles-mêmes (i.e. du choix
d’une base de l’espace vectoriel E = k n ).
Notons B la base canonique de k n et soient C une autre base, B = MatB (C ) la matrice de passage, et
(Y10 , . . . , Yn0 )
les coordonnées dans la base C . Alors on a la formule de changement de coordonnées
0 1 0 01
Y1 Y1
B .. C B .. C
@ . A=B@ . A
Yn Yn0
102 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

Pr 0 e s le polynôme en les Y 0 défini


c.-à-d. Yi = j=1 bij Yj pour i = 1, . . . , n. Par conséquent, en notant Q i
e s (Y 0 , . . . , Y 0 ) et en définissant de même Q,
par l’égalité Qs (Y1 , . . . , Yn ) = Q e on voit que chaque Q e s est un
1 n
polynôme en les Yi0 homogène de degré s, et donc
e=Q
Q e0 + Q
e1 + Q
e2 + · · · + Q
ed

est la décomposition de Q e en composantes homogènes. Alors le même argument que précédemment


montre que la forme linéaire dy0 =0 Q(Y e 0 , . . . , Y 0 ) est égale à Q
e 1 (Y 0 , . . . , Y 0 ) = Q1 (Y1 , . . . , Yn ), donc à
1 n 1 n
dy=0 Q(Y1 , . . . , Yn ). Ceci achève la démonstration de la proposition.

Exemple 23.9. — On suppose car(k) 6= 2. Dans k 2 , considérons l’hyperbole C = V (P ),


où P = X 2 Y 2 1. Soit p le point de C de coordonnées (1, 0). On a @X P (p) = 2 et
@Y P (p) = 0 donc p est un point lisse de C et la tangente à C en p a pour équation
2(x 1) = 0, c.-à-d. 2x = 2 (i.e. x = 1).
Si l’on fait le changement de coordonnées Z = X + Y et U = X Y (i.e. X = (Z + U )/2
et Y = (Z U )/2), alors P (X, Y ) = ZU 1 = Q(Z, U ) et p a pour coordonnées Z = 1 = U .
On a @Z Q(p) = 1 = @U Q(p), et la tangente à C en p a pour équation (z 1) + (u 1) = 0,
c.-à-d. z + u = 2. C’est bien la droite d’équation 2x = 2 obtenue plus haut !
Définition 23.10 (Hyperplans tangents à une hypersurface projective)
Soit P 2 k[X0 , . . . , Xn ] homogène de degré d 1, soit V (P ) sa variété des zéros dans
P (k) et soit a = [a0 , a1 , . . . , an ] 2 V (P ).
n

(i) On dit que a est un point lisse de V (P ) si les dérivées partielles @i P , pour i =
0, . . . , n, ne s’annulent pas toutes au point a. Dans le cas contraire, on dit que a est un
point singulier de V (P ).
(ii) Si a est un point lisse de V (P ), l’hyperplan tangent à V (P ) au point a, noté
P
Ta V (P ) est l’hyperplan de Pn (k) d’équation ni=0 @i P (a) xi = 0, i.e. :
n
X
Ta V (P ) = [x] = [x0 , x1 , . . . , xn ] 2 P (k) | n
xi @i P (a) = 0 .
i=0
Pn
Remarquons qu’il passe bien par le point a, car on a i=0 ai @i P (a) = d · P (a) = 0, d’après
la formule d’Euler.
Le lien avec la définition dans le cas affine est donné par la proposition qui suit. Soit
a = [a0 , . . . , an ] 2 V (P ). Fixons un indice i0 tel que ai0 6= 0. Pour alléger la notation,
prenons i0 = 0 i.e. plaçons-nous dans le cas où a = [1, a1 , . . . , an ] appartient à l’espace
affine E complémentaire de l’hyperplan projectif H1 donné par l’équation x0 = 0. Comme
d’habitude, identifions E à l’hyperplan affine H = {(1, x1 , . . . , xn )} de k n+1 , et identifions
H à k n via (1, x1 , . . . , xn ) $ (x1 , . . . , xn ). Notons f 2 k[X1 , . . . , Xn ] le polynôme défini
par :
f (X1 , . . . , Xn ) = P (1, X1 . . . , Xn )
et notons b a = (a1 , . . . , an ) le point de k n correspondant à a 2 E . Alors, pour tout
i = 1, . . . , n, on a @i f (X1 , . . . , Xn ) = @i P (1, X1 . . . , Xn ) et donc, en particulier, @i f (b
a) =
@i P (a).
Proposition 23.11. — Avec les notations précédentes, on a :
(i) a est un point lisse de V (P ) ssi b
a est un point lisse de V (f ). Dans ce cas, on a :
(ii) Ta V (P ) \ E = Tba V (f ).
23. HYPERPLANS TANGENTS À UNE HYPERSURFACE AFFINE OU PROJECTIVE 103

(iii) Réciproquement, Ta V (P ) est le « complété projectif » de Tba V (f ), i.e. si ce dernier


P
est défini par l’équation affine c0 + ni=1 ci Xi = 0 alors Ta V (P ) est défini par l’équation
P
homogène c0 X0 + ni=1 ci Xi = 0.

Démonstration. — (i) Si b a est un point lisse de V (f ), il existe un indice i 1 tel que


@i f (b
a) = @i P (a) soit non nul, donc a est un point lisse de V (P ). Réciproquement, supposons
que a soit un point lisse de V (P ). Alors il existe au moins un indice i 2 {0, . . . , n} tel que
@i P (a) soit non nul. Si i = 0 était le seul indice ayant cette propriété on aurait, d’après la
formule d’Euler,
Xn
0 = P (a) = ai @i P (a) = 1 · @0 P (a) 6= 0,
i=0

ce qui est impossible. Donc il existe au moins un indice i 1 tel que @i P (a) = @i f (b
a) soit
non nul, donc b
a est un point lisse de V (f ). Ceci prouve (i).
Dans ce cas, Ta V (P ) \ E s’identifie à l’ensemble des points (x1 , . . . , xn ) de k n tels que
n
X n
X
(†) 0 = @0 P (a) + xi @i P (a) = @0 P (a) + xi @i f (b
a).
i=1 i=1
Pn Pn
Or, d’après la formule d’Euler, on a @0 P (a) = i=1 ai @i P (a) = i=1 ai @i f (b
a) et donc
l’égalité (†) se récrit en :
X n
0= (xi ai ) @i f (b
a)
i=1

ce qui est la définition de l’hyperplan tangent Tba V (f ).


P
Réciproquement, si Tba V (f ) est défini par l’équation affine c0 + ni=1 ci Xi = 0, celle-ci
est unique à homothétie près i.e. il existe 2 k ⇤ telle que ci = @i P (a) pour i = 0, . . . , n
P
et donc Ta V (P ) est défini par l’équation homogène c0 X0 + ni=1 ci Xi = 0. (13)

Il résulte de la proposition précédente que la lissité d’un point de V (P ) et l’hyperplan


projectif tangent à V (P ) en un point lisse, « ne dépendent pas des coordonnées homogènes »
sur P(V ), i.e. on a la proposition suivante. (14)

Corollaire 23.12. — Soit P(V ) un espace projectif de dimension n. Soient [x0 , . . . , xn ] un système de
coordonnées homogènes, P 2 k[X0 , . . . , Xn ] un polynôme homogène de degré d 1 et V l’hypersurface
définie par P , i.e. :
V = [x0 , . . . , xn ] 2 P(V ) | P (x0 , . . . , xn ) = 0 .

Soit [y0 , . . . , yn ] un second système de coordonnées homogènes.


(i) Il existe un polynôme Q homogène de degré d, unique à homothétie près, tel que Q(y0 , . . . , yn ) =
P (x0 , . . . , xn ) et l’on a
V = [y0 , . . . , yn ] 2 P(V ) | Q(y0 , . . . , yn ) = 0 .

(13)
Ceci est un cas particulier de la correspondance bijective entre sous-espaces affines de E = Pn (k) H1
et sous-espaces projectifs de Pn (k) non contenus dans H1 , cf. Prop. 11.15.
(14)
On pourrait démontrer directement l’indépendance des coordonnées dans le cas projectif, mais il est
plus rapide d’utiliser le travail déjà fait dans le cas affine.
104 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

(ii) Un point p 2 V est lisse relativement aux coordonnées xi ssi il l’est relativement aux coordonnées yi et
dans ce cas, notant respectivement ai et bi ses coordonnées, on a :
n
X
Tp V = [x0 , . . . , xn ] 2 P(V ) | xi @Xi P (a0 , . . . , an ) = 0
i=0
Xn
= [y0 , . . . , yn ] 2 P(V ) | yi @Yi Q(b0 , . . . , bn ) = 0 .
i=0

Démonstration. — Soient B et C les bases de k n+1 (uniques à homothétie près) correspondant aux
coordonnées homogènes xi et yi . Notons aij , resp. a0ij , les coefficients de la matrice A = MatB (C ),
Pn
resp. A 1 = MatC (B). Alors on a xi = i=0 aij yj pour tout i = 0, . . . , n. Faisons le changement de
variables
Xn
8i = 0, . . . , n, Xi = aij Yj
i=0
Pn
(qui équivaut à Yi = i=0 a0ij Xj pour tout i). Alors il existe un unique polynôme Q 2 k[Y0 , . . . , Yn ] tel
que P (X0 , . . . , Xn ) = Q(Y0 , . . . , Yn ), et Q est homogène de degré d.
Si l’on remplace les bases B et C par des bases homothétiques µB et ⌫C alors A est changée en A,
où = µ 1 ⌫, et Q est changé en d Q. L’assertion (i) en découle.
Le point (ii) découle de la proposition 23.11 combinée à l’indépendance des coordonnées dans le cas
affine établie dans la proposition 23.8.

On va maintenant décrire les points singuliers d’un cône quadratique C(Q) ⇢ V et de la


quadrique projective V (Q) ⇢ P(V ). Pour la suite de cette section, on suppose car(k) 6= 2.
Soit V un k-ev de dimension n, Q une forme quadratique sur V de rang r 1 et N (Q)
son noyau. Soit B = (e1 , . . . , en ) une base de V orthogonale pour Q et soient (x1 , . . . , xn ) les
coordonnées correspondantes. Quitte à renuméroter les ei , on peut supposer que ci = Q(ei )
est non nul pour i = 1, . . . , r et nul pour i > r. Alors Q est donnée dans la base B par
Q(X) = c1 X12 + · · · + cr Xr2 , d’où :
(
2ci Xi si i = 1, . . . , r,
@ Xi Q =
0 si i > r.
P P
Par conséquent, pour tous v = ni=1 pi ei et x = ni=1 xi ei dans V , on a
n
X r
X
(?) (dv Q)(x) = (@Xi Q)(v)xi = 2 ci pi xi = 2 (v, x)
i=1 i=1

ce qui montre que dv Q est la forme linéaire 2 (v, ). En particulier, le point 0 = (0, . . . , 0)
est toujours un point singulier du cône isotrope C(Q), mais c’est le seul si Q est non
dégénérée. On a donc démontré la :

Proposition 23.13. — Soient Q une forme quadratique sur V , sa forme polaire, N (Q)
son noyau, C(Q) son cône isotrope et V (Q) ⇢ P(V ) la quadrique associée.
(i) Pour tout v 2 V , la di↵érentielle dv Q est la forme linéaire 2 (v, ). Par conséquent :
(ii) Si v 6= 0, alors v (resp. [v]) est un point singulier de C(Q) (resp. de V (Q)) ssi
v 2 N (Q).
(iii) Si v 2 C(Q) N (Q) alors Tv C(Q) = (kv)? et T[v] V (Q) = P (kv)? .

De plus, comme expliqué en 22.1, si le corps de base est R on peut être amené à considérer
des points de C(Q) ou V (Q) « à valeurs dans C ». Introduisons donc la notion d’extension
du corps de base :
23. HYPERPLANS TANGENTS À UNE HYPERSURFACE AFFINE OU PROJECTIVE 105

Définition 23.14 (Extension des scalaires). — Soient k ⇢ K deux corps et V un k-


espace vectoriel de dimension n. Si l’on choisit une base B = (e1 , . . . , en ) de V , alors V
s’identifie à k n et l’on peut alors le plonger dans le K-espace vectoriel K n .
Ce plongement ne dépend pas de la base B choisie. En e↵et, notons e1 ⌦ 1, . . . , en ⌦ 1 les vecteurs de
Pn
la base canonique de K n , qu’on notera BK . Pour tout v = i=1 ai ei dans V , on pose :
déf. Pn
v⌦1 i=1 ai ei ⌦ 1.

Si C = (f1 , . . . , fn ) est une autre base de V et si P = (pij )1i,jn est la matrice de passage alors la matrice
exprimant CK = (f1 ⌦1, . . . , fn ⌦1) dans la base BK n’est autre que P , qui appartient à GLn (k) ⇢ GLn (K)
donc est inversible. Par conséquent, CK est une autre base de K n .
Ceci nous conduit à noter VK le K-espace vectoriel ainsi défini. On dira que c’est le
K-espace vectoriel déduit de V par extension des scalaires de k à K.(15)

Ceci nous sera utile dans la situation suivante. Reprenons les notations précédentes : Q
une forme quadratique de rang r 1 sur V , B = (e1 , . . . , en ) une base de V telle que
P P
Q(x) = ri=1 ci xi pour tout x = ni=1 xi ei , avec les ci 6= 0, de sorte que N (Q) est le sev
donné par les équations xj = 0 pour j > r. Pour tout corps K contenant k, Q se prolonge
en une forme quadratique QK sur VK , définie par
(⇤) QK (x1 e1 + · · · + xn en ) = c1 x21 + · · · + cr x2r , 8(x1 , . . . , xn ) 2 K n
et l’on pose
CK (Q) = {x1 e1 + · · · + xn en 2 VK | QK (x1 , . . . , xn ) = 0}.
VK (Q) = {[x1 e1 + · · · + xn en ] 2 P(VK ) | QK (x1 , . . . , xn ) = 0}.
D’après ce qui précède, CK (Q) et VK (Q) ne dépendent que de V , Q et K, et pas du choix
de la base B.
De plus, CK (Q) ⇢ VK et VK (Q) ⇢ P(VK ) sont, respectivement, le cône isotrope et la
quadrique projective associés à la forme quadratique QK sur VK . La formule (⇤), combinée
à la proposition précédente appliquée sur le corps K, montre alors que pour tout v 6= 0
dans VK , v (resp. [v]) est un point singulier de CK (Q) (resp. VK (Q)) ssi xj (v) = 0 pour
j > r, i.e. ssi v appartient au sous-espace N (Q)K = N (QK ) de VK . En particulier, si Q est
non dégénérée (i.e. si r = n), il en est de même de QK . On obtient donc la :

Proposition 23.15. — Soit K un corps contenant k.


(i) Si Q est non dégénérée, il en est de même de QK donc CK (Q) {0} et VK (Q) sont
formés de points lisses.
(ii) Au contraire, si Q est dégénérée alors Ck (Q) contient au moins un point singulier
v 6= 0 et donc la quadrique projective V (Q) = {[w] 2 P(V ) | Q(w) = 0} contient au moins
le point singulier [v].

Remarques 23.16. — Prenons par exemple k = R et V = R3 .


a) Il se peut que la conique projective V (Q) soit vide, c’est par exemple le cas si
Q(X, Y, Z) = X 2 + Y 2 + Z 2 . D’après la proposition précédente, ceci entraı̂ne que Q est non
dégénérée et donc que tous les points de VC (Q) sont lisses.

(15)
On peut définir VK de façon canonique comme le produit tensoriel V ⌦k K, sans avoir à choisir une
base de V , cf. le cours 4M002.
106 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

b) Si Q est dégénérée, on a vu que VR (Q) contient au moins un point singulier ; il est


possible que ce soit le seul point réel : si Q(X, Y, Z) = X 2 + Y 2 alors d’une part N (Q)
est la droite engendrée par (0, 0, 1), et d’autre part le seul point réel de V (Q) est le point
p = [0, 0, 1] qui est singulier. En passant à C, on a Q(X, Y, Z) = (X iY )(X + iY ) donc
VC (Q) est la réunion des droites d’équations x = iy et x = iy, qui se coupent au point
réel p = [0, 0, 1].

On peut maintenant revenir sur l’intersection d’une droite et d’une quadrique (lemme
23.17), en tenant compte des conditions de tangence :

Proposition 23.17. — Soient Q une forme quadratique non nulle sur V et E un sev de
V de dimension 2. Dans P(V ), considérons l’intersection de V (Q) et de la droite projective
D = P(E). On a l’une des trois alternatives suivantes :
a) QE = 0 et D ⇢ V (Q).
b) QE est non dégénérée. Alors D \ V (Q) est formée de deux points distincts p 6= q
(éventuellement à coordonnées dans une extension quadratique de k) qui sont des points
lisses de V (Q). De plus, D n’est pas tangente à V (Q) en ces points.
c) QE est de rang 1. Alors D\V (Q) est formée d’un seul point p (à coordonnées dans k)
et si p est un point lisse de V (Q) alors D est contenue dans l’hyperplan tangent Tp V (Q).

Démonstration. — On a QE = 0 ssi V (QE ) = D, et ceci équivaut à D ⇢ V (Q). Ceci règle


l’alternative (a).
Supposons QE 6= 0. Soit (e0 , e1 ) une base orthogonale de E, avec Q(e0 ) 6= 0. Multipliant
Q par Q(e0 ) 1 (ce qui ne change pas V (Q)), on se ramène au cas où Q(e0 ) = 1 et l’on pose
alors Q(e1 ) = .
Supposons QE non dégénérée, i.e. 6= 0. Alors E \ E ? = {0}, d’après le lemme 22.16, et
donc V = E E ? . Soit alors (e2 , . . . , en ) une base orthogonale de E ? , alors B = (e0 , . . . , en )
est une base orthogonale de V . Notons (x0 , . . . , xn ) les coordonnées correspondantes. Alors
8
>
Xn <2X0
> si i = 0,
2 2 2
Q(X0 , . . . , Xn ) = X0 X1 + ci Xi et donc @Xi Q = 2 X1 si i = 1,
>
>
i=2 :2ci Xi si i 2.

Notons ↵ une racine carrée de (éventuellement dans une extension quadratique de k).
On voit alors que D \ V (Q) est formée des deux points p = [↵, 1, 0, . . . , 0] et q =
[ ↵, 1, 0, . . . , 0]. De plus, dp Q = 2↵X0 2 X1 est une forme linéaire non nulle, donc p
est un point lisse de V (Q), et l’hyperplan tangent Tp V (Q) a pour équation ↵x0 = x1
donc coupe la droite D en le point [ , ↵, 0, . . . , 0], donc D 6⇢ Tp V (Q), i.e. D n’est pas
tangente à V (Q) en p. Et de même pour q. Ceci règle le cas de l’alternative (b).
Supposons enfin QE de rang 1, i.e. = 0. Dans ce cas, D \ V (Q) est formée de l’unique
point p = [e1 ]. D’après la proposition 23.13, p = [e1 ] est un point singulier de V (Q) ssi
e1 2 N (Q), et sinon on a Tp V (Q) = P (ke1 )? . Comme e0 et e1 sont orthogonaux à e1 , on
a bien E ⇢ (ke1 )? d’où D ⇢ Tp V (Q). Ceci achève la démonstration de la proposition.
24. POLARITÉ ET THÉORÈME DE BRIANCHON 107

24. Polarité et théorème de Brianchon


Dans cette section, on suppose car(k) 6= 2. Soient V un k-ev de dimension n + 1 3 et
Q une forme quadratique non dégénérée sur V , de forme polaire . Alors l’isomorphisme

✓ : V ! V ⇤ permet de « transporter » en une fbs non dégénérée ⇤ sur V ⇤ , définie par :
8f, g 2 V ⇤ , ⇤
(f, g) = ✓ 1 (f ), ✓ 1 (g) ,

c.-à-d. ✓(x), ✓(y) = (x, y) pour tout x, y 2 V . ( ⇤
est bien non dégénérée, car si ✓(x) 2 N ( ⇤
)
⇤ ⇤ ⇤
alors pour tout y 2 V on a 0 = ✓(x), ✓(y) = (x, y), d’où x = 0.) On pose Q (f ) = (f, f ) pour
tout f 2 V ⇤ , i.e. Q⇤ (✓(v)) = Q(v) pour tout v 2 V .
Remarque 24.1. — Via l’identification canonique V = V ⇤⇤ (qui identifie tout x 2 V à la forme
linéaire "x : f 7! f (x) sur V ⇤ ), l’isomorphisme ✓ ⇤ : V ⇤ ! V défini par ⇤ n’est autre que ✓ 1 . En
e↵et, pour tout x, y 2 V on a, par définition :
✓⇤ ✓(x) (✓(y)) = ⇤
✓(x), ✓(y) = (x, y) = "x (✓(y)),
d’où ✓⇤ (✓(x)) = x et donc ✓⇤ = ✓ 1 . Par conséquent, la fbs ⇤⇤ sur V définie par ⇤ n’est autre
que car, comme (✓⇤ ) 1 = ✓, alors pour tout x, y 2 V on a : ⇤⇤ (x, y) = ⇤ ✓(x), ✓(y) = (x, y).
Donc (V, Q) et (V ⇤ , Q⇤ ) jouent des rôles symétriques.

Lemme 24.2. — Soient B une base de V , B ⇤ la base duale de V ⇤ . Notons A = MatB (Q).
(i) On a MatB⇤ (Q⇤ ) = A 1 .
(ii) Par conséquent, pour tout 2 k ⇥ , on a ( Q)⇤ = 1 Q⇤ .

Démonstration. — Soient x, y 2 V , notons X, Y les vecteurs colonnes de leurs coordonnées dans


la base B. Posons A⇤ = MatB⇤ (Q⇤ ). Comme ⇤ (✓(x), ✓(y)) = (x, y) et comme A est aussi la
matrice de ✓ dans les bases B et B ⇤ , on a :

t
XAY = (x, y) = (✓(x), ✓(y)) = t (AX)A⇤ (AY ) = t X(t AA⇤ A)Y.
Il en résulte t AA⇤ A = A = t A (car A est symétrique), d’où A⇤ A = Id et donc A⇤ = A 1 . Ceci
prouve (i). Et (ii) en découle, car Q a pour matrice A, donc ( Q)⇤ a pour matrice 1 A 1 .

Définitions 24.3 (Pôles et polaires, polarité). — (1) À tout hyperplan P(H) de


P(V ) on associe son pôle, qui est le point p = P(H ? ).
(2) À tout point p = [v] de P(V ) on associe son hyperplan polaire, qui est l’hyperplan
P (kv)? .
(3) Plus généralement, à tout sous-espace projectif P(W ) de dimension d on peut associer
le sous-espace projectif P(W ? ), qui est de dimension n d 1.
(4) On obtient ainsi des bijections réciproques entre points et hyperplans de P(V ) et,
plus généralement, entre sous-espaces projectifs de dimension d et n 1 d. Ces bijections
renversent les inclusions et échangent les notions d’intersection et de sous-espace engendré.
Démonstration. — Le point (4) découle du fait que cette notion de « polarité » est obtenue

en composant l’isomorphisme ✓ : V ! V ⇤ avec la dualité projective entre P(V ⇤ ) et P(V )
(cf. Prop. 15.6).
Un point-clé de la notion de polarité est fourni par la proposition suivante.
Proposition 24.4. — Soit V (Q) ⇢ P(V ) une quadrique non dégénérée, ✓ l’isomorphisme

V ! V ⇤ qu’elle induit et Q⇤ la forme quadratique sur V ⇤ définie par Q⇤ (✓(v)) = Q(v),
pour tout v 2 V . Alors :
108 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

(i) L’homographie ✓ : P(V ) ! P(V ⇤ ), [v] 7! [✓(v)] induit une bijection de V (Q) sur la
quadrique V (Q⇤ ) ⇢ P(V ⇤ ).
(ii) Pour tout point p de V (Q), le point ✓(p) de V (Q⇤ ) correspond à l’hyperplan tangent
en p à V (Q).
Démonstration. — (i) découle de la définition de Q⇤ . Prouvons (ii). Soit p = [v] un point
de V (Q). D’une part, le point ✓(p) = [✓(v)] de V (Q⇤ ) ⇢ P(V ⇤ ) correspond, via la dualité
entre P(V ⇤ ) et P(V ), à l’hyperplan :
P ✓(v)0 = {[w] 2 P(V ) | 0 = ✓(v)(w) = (v, w)} = P (kv)? .
D’autre part, d’après la Prop. 23.13, on a Tp V (Q) = P (kv)? , d’où la proposition.
En particulier, si P(V ) est un plan projectif, alors pour tout point p de la conique V (Q),
la droite tangente à V (Q) en p correspond au point ✓(p) de la conique V (Q⇤ ). On obtient
alors l’énoncé dual du théorème de Pascal :
Théorème 24.5. — Dans le plan projectif, soient D1 , . . . , D6 six droites distinctes, dont
trois ne sont jamais concourantes. Notons p12 le point de concours de D1 et D2 , et défi-
nissons de même p23 , p34 , etc.
(i) (Théorème de Brianchon) (16) Si ces droites sont tangentes à une même conique
non dégénérée C , alors les trois droites (p12 p45 ), (p23 p56 ) et (p34 p61 ) sont concourantes. (Et
bien sûr ceci est vrai pour tout choix de numérotation des six droites, cf. figure plus bas).
(ii) Réciproquement, si ces trois droites sont concourantes, alors D1 , . . . , D6 sont tan-
gentes à une unique conique non dégénérée C .
Démonstration. — Soit fi 2 V ⇤ une équation (unique à homothétie près) de Di et soit qi
le point [fi ] de P(V ⇤ ). Alors trois des qi ne sont jamais alignés. De plus, la droite (q1 q2 )
(resp. (q2 q3 ), etc.) est la duale du point p12 (resp. p34 , etc.).
Notons E, F, G les points de concours des « paires de côtés opposés » (q1 q2 ), (q4 , q5 ) ,
etc. Comme on l’a vu dans la définition 22.13, ces trois points sont distincts. D’autre part,
ils sont duaux des droites (p12 p45 ), (p23 p56 ) et (p34 p56 ) ; celles-ci sont donc deux à deux
distinctes.
(i) Supposons que D1 , . . . , D6 soient tangentes à une même conique non dégénérée C =
V (Q). Alors, d’après la proposition 24.4, les points q1 , . . . , q6 de P(V ⇤ ) appartiennent à la
conique non dégénérée V (Q⇤ ) donc, d’après le théorème de Pascal appliqué dans P(V ⇤ ),
les points E, F, G sont alignés et donc les trois droites de l’énoncé sont concourantes.
(ii) Réciproquement, supposons que ces trois droites soient concourantes. Alors les points
E, F, G sont alignés et donc, d’après la réciproque du théorème de Pascal (appliquée dans
P(V ⇤ )), il existe une forme quadratique non dégénérée sur V ⇤ , unique à homothétie près,
telle que les points q1 , . . . , q6 appartiennent à la conique V ( ). D’après la remarque 24.1,
il existe une unique forme quadratique non dégénérée Q sur V telle que = Q⇤ , et alors
les droites D1 , . . . , D6 sont tangentes à V (Q) d’après la proposition 24.4. Ceci prouve (ii),
à l’exception de l’assertion d’unicité de C .
Mais si Q0 est une forme quadratique non dégénérée telle que les Di soient tangentes à
V (Q0 ), alors les qi appartiennent à V (Q0⇤ ) et donc il existe µ 2 k ⇥ tel que Q0⇤ = µ , d’où
Q0 = µ 1 Q d’après le lemme 24.2. Ceci achève la démonstration du théorème.
(16)
Charles Julien Brianchon, mathématicien français (1783-1864), contemporain de Poncelet.
24. POLARITÉ ET THÉORÈME DE BRIANCHON 109


Dans la figure ci-dessous, on a représenté en pointillé les droites (p12 p45 ), etc. et avec des tirets plus
espacés les droites (p012 p45 ), etc. correspondant à une autre numérotation des droites, en l’occurrence
D02 = D3 et D03 = D2 (la droite (p23 p56 ) est la même dans les deux cas).
D2 =D03
p61 S p12 ◆
D1 S ◆p012
S ◆
D5 S ◆
@ S ◆D3 =D02

⇢⇡
@ S ◆
@
p56 S◆p23
@ ◆S
@ ◆ S
@ ◆ S
D6 @ ◆ S
@ ◆ S
@ ◆p34 S
@
p45 D4 p034
◆ S

Terminons cette section avec la proposition suivante. Soit C = V (Q) une conique non
dégénérée du plan projectif P(V ). Pour un point p de C , on a vu que la droite polaire est la
tangente à C en p. Et pour un point p n’appartenant pas à C , sa droite polaire est décrite
comme suit.

Proposition 24.6. — Dans un plan projectif P(V ), soient C = V (Q) une conique non
dégénérée, p un point de P(V ) n’appartenant pas à C et D une droite non tangente à C .
Alors :
(i) D coupe C en deux points distincts q1 et q2 (éventuellement à coordonnées dans une extension
quadratique de k ). Soient T01 et T02 les tangentes à C en ces points. Alors le point de concours
q de T01 et T02 est le pôle de la droite D relativement à la forme quadratique Q.
(ii) De même, par p il passe deux droites distinctes T1 et T2 tangentes à C (qui éven-
tuellement sont des droites de P(Vk0 ), où k 0 est une extension quadratique de k, et qui ont p pour unique
point à coordonnées dans k ).
Notons p1 et p2 leurs points de contact avec C ; alors la droite
= (p1 p2 ) est la polaire du point p relativement à la forme quadratique Q.

⇢ T1

⇢ S D
...⇢
......................................................
...S
.............. ..........
p.1....⇢ ...........
......... .......
.......
S
.
... ......
⇢ .... .....

S.........q
.... ....
⇢ .... ..
..... 1
⇢ ...... ..
.
S
...
Z
...
⇢ ..... .
.
...
..S
Z ⇢ .
..

Z⇢ .. ..
.. .. S
..
...
Z
.
⇢p
.. ..
S
.. ..
Z
.
.. .
⇢ . .
.
.. .
..
Z ....... S
... .
⇢ ..
...
Z ........ ...
.
S
Z ......... .
..
...
...
S
Z.................. .......
....

S q
.
p2Z................................ .........
.......
.....

T02 Z .............................
.... .........................
S
Z 2 q S
Z
Z
T2 T01S

Démonstration. — (ii) Posons p = [u] et E = (ku)? . Alors la droite polaire de p est la


droite = P(E). Notons la forme polaire de Q.
Par hypothèse Q(u) 6= 0, donc ku \ E = {0} et donc V = ku E. Comme Q est non
dégénérée, alors QE ne l’est pas non plus. Donc \ C est formée de deux points distincts
110 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

p1 = [v1 ] et p2 = [v2 ] (éventuellement à coordonnées dans une extension quadratique k0 de k). Alors
on a = (p1 p2 ) et il reste à voir que chacune des droites Ti = (ppi ) est tangente à C en
pi . Or Ti = P(Ei ), où Ei = ku kvi , et comme (u, vi ) = 0 = (vi , vi ) alors Ei ⇢ (kvi )? et
donc la droite P(Ei ) est tangente à C en pi = [vi ], d’après la proposition 23.13 (ou 24.4).
Pour prouver (i), on peut utiliser que la polarité est involutive : soit q le pôle de D, alors
D est la polaire de q. Comme D n’est pas tangente à C alors q 62 C , donc D est donnée à
partir de q par la construction précédente, d’où (i).
On peut aussi raisonner directement, comme suit. On a D = P(E), où E est un sev de V de
dimension 2, alors le pôle de D est le point q = P(E ? ).
Comme D n’est pas tangente à C , alors QE est non dégénérée (cf. la démonstration de (i) : si
N (QE ) contenait un vecteur w 6= 0, on aurait E ⇢ (kw)? et donc D serait tangente à C en [w]). Donc
D \ C est formée de deux points distincts q1 = [v1 ] et q2 = [v2 ] (éventuellement à coordonnées
dans une extension quadratique k 0 de k ). Alors (v1 , v2 ) est une base de E, donc la droite vectorielle
E ? est l’intersection des deux plans vectoriels Hi = (kvi )? , pour i = 1, 2, et donc le pôle q est
l’intersection des deux droites projectives T0i = P(Hi ), qui sont les tangentes à C en q1 et q2 .

25. Vers Bézout : intersection d’une conique avec une courbe de degré d
Dans cette section, on se place dans le plan projectif P2 (k). On suppose que k est contenu
dans un corps algébriquement clos k. (Par exemple k = R ⇢ C.)

Terminologie 25.1. — Pour tout polynôme non nul F 2 k[X, Y, Z] homogène de degré
d 1, la variété des zéros V (F ) = {[x, y, z] 2 P2 (k) | F (x, y, z) = 0} est appelée la courbe
projective plane définie par F .(17)
Comme déjà dit au §13.3, quand on considère une telle courbe, on s’autorise à considérer
aussi les points de V (F ) « à valeurs dans k », i.e. les points de
Vk (F ) = {[x, y, z] 2 P2 (k) | F (x, y, z) = 0}.

Lemme 25.2. — Soit P 2 k[X, Y ] un polynôme homogène de degré d 1. Alors :


(i) P se factorise en un produit de d facteurs linéaires (pas nécessairement distincts).
(ii) Par conséquent, la variété des zéros Vk (P ) ⇢ P2 (k) est formée de d points « comptés
avec multiplicités ».
P
Démonstration. — (i) Écrivons P = di=0 ai Y i X d i . Supposons d’abord, pour simplifier,
que a0 6= 0. Remplaçant P par a0 1 P , on se ramène au cas où a0 = 1. Alors
d
X
1 1
P (X, Y ) = X d + a1 Y X d 1
+ · · · + ad 1 Y d 1 X + ad Y d = ai T d i
Yd Yd i=0

X
où l’on a posé T = . Comme k est algébriquement clos, ce polynôme Q(T ), unitaire de
Y
degré d, se factorise en un produit de d termes du 1er degré T ↵i (non nécessairement
distincts), pour i = 1, . . . , d. Ou bien, si l’on préfère, on peut noter 1 , . . . , s les racines

(17)
L’adjectif « plane » signifie « contenu dans un plan ». Il existe dans P3 (k) des courbes projectives
(définies par deux équations homogènes F (x, y, z, t) = 0 = G(x, y, z, t) qui ne sont contenues dans aucun
sous-espace projectif P(W ) de dimension 2, ni même « isomorphes » à une courbe projective plane.
25. VERS BÉZOUT : INTERSECTION D’UNE CONIQUE AVEC UNE COURBE DE DEGRÉ d 111

distinctes de Q dans k, chacune étant de multiplicité mi (avec m1 + · · · + ms = d). On a


donc
Xd d
Y Y s
ai T d i = (T ↵i ) = (T mj
j) .
i=0 i=1 j=1
d
En remultipliant ceci par Y , on obtient :
d
Y s
Y
P (X, Y ) = (X ↵i Y ) = (X jY )mj .
i=1 j=1

Ceci prouve (i) lorsque a0 6= 0. Dans le cas général, soit r le plus petit entier 0 tel
1
que ar 6= 0. À nouveau, remplaçant P par ar P , on se ramène au cas où ar = 1. Alors
P (X, Y ) = Y r P1 (X, Y ), où P1 (X, Y ) est un polynôme homogène de degré d r contenant
le terme X d r (avec le coefficient 1). D’après ce qui précède, appliqué à P1 , on a une
factorisation
d r
Y Ys
mj
P1 (X, Y ) = (X ↵i Y ) = (X jY ) ,
i=1 j=1
où dans le terme de droite la somme des mj vaut d r. Il en résulte que
d r
Y s
Y
r r
(?) P (X, Y ) = Y (X ↵i Y ) = Y (X jY ) mj .
i=1 j=1

Ceci achève la preuve de (i). L’assertion (ii) en découle, car (?) montre que Vk (P ) est formé
du point [1, 0], compté r fois, et des points [ j , 1], chacun compté mj fois.
Corollaire 25.3. — Soit F 2 k[X, Y, Z] homogène de degré d 1 et soit D une droite
de P2 (k) dont l’équation L(X, Y, Z) ne divise pas F . Alors :
(i) D \ V (F ) est formé d’au plus d points distincts.
(ii) Si l’on se place sur le corps k, cette intersection est formée d’exactement d points,
comptés avec multiplicités.
Démonstration. — Écrivons L(X, Y, Z) = aX + bY + cZ et supposons par exemple que
c 6= 0. Remplaçant L par c 1 L, on se ramène au cas où c = 1. On peut alors faire la division
euclidienne du polynôme F 2 k[X, Y ][Z] par le polynôme L, unitaire en Z. On obtient :
F (X, Y, Z) = L · Q(X, Y, Z) + R(X, Y ),
où R est de degré 0 en Z, i.e. il ne dépend que de X et Y . C’est aussi le polynôme en X, Y
obtenu en remplaçant Z par aX bY ; en particulier il est nul ou bien homogène de degré
d. L’hypothèse que L ne divise pas F signifie que R 6= 0. On voit alors qu’un point [x, y, z]
de P2 (k) appartient à D \ V (F ) ssi le point [x, y] de P1 (k) vérifie R(x, y) = 0 (et dans ce
cas z = ax by ). Comme R est un polynôme non nul homogène de degré d alors, d’après
le lemme 25.2, Vk (R) est formé d’exactement d points comptés avec multiplicité, donc au
plus d points distincts, et a fortiori Vk (R) contient au plus d points distincts. Ceci prouve
(ii) et (i).
Proposition 25.4. — Soit F 2 k[X, Y, Z] homogène de degré d 2 et soit C = V (Q)
une conique non dégénérée de P2 (k), telle que Vk (Q) ne soit pas contenue dans Vk (F ).
Alors :
(i) C \ V (F ) est formé d’au plus 2d points distincts.
112 CHAPITRE 5. CONIQUES PROJECTIVES (ET AFFINES)

(ii) Si l’on se place sur le corps k, cette intersection est formée d’exactement 2d points,
« comptés avec multiplicités ».
Démonstration. — À nouveau, (i) est une conséquence immédiate de (ii), donc il suffit de
démontrer (ii). Pour simplifier l’écriture, supposons donc k algébriquement clos. Notons
la forme polaire de Q. Comme C = V (Q) n’est pas contenue dans V (F ), il existe un point
p = [v] 2 C n’appartenant pas à V (F ).
Comme Q est non dégénérée alors, d’après la proposition 22.17, il existe un vecteur
isotrope w tel que (v, w) = 1 et alors V est la somme directe du plan hyperbolique
E = Vect(v, w) et de la droite vectorielle D = E ? . Soit u un générateur de D, alors
B = (u, v, w) est une base de V et
0 1
0 0
MatB (Q) = @ 0 0 1A
0 1 0
1
avec 6= 0. Remplaçant simultanément Q et w par Q et ( /2)w, on se ramène au
cas où 0 1
1 0 0
MatB (Q) = @ 0 0 1/2A .
0 1/2 0
Remplaçant alors X, Y, Z par les coordonnées dans la base B, on se ramène au cas où
Q(X, Y, Z) = X 2 + Y Z.
Prenons comme droite à l’infini D1 la droite d’équation z = 0. Elle coupe D en l’unique
point p = [0, 1, 0] qui par hypothèse n’appartient pas à V (F ).
L’intersection V (F ) \ C est donc contenue dans l’intersection de C avec le plan affine
P(V ) D1 , qui est la parabole
C 0 = [x, y, 1] 2 P(V ) | y = x2 = [x, x2 , 1] 2 P(V ) | x 2 k .
On a donc
V (F ) \ C = V (F ) \ C 0 = {x 2 k | F (x, x2 , 1) = 0}.
Comme F ne s’annule pas en p = [0, 1, 0] alors F contient le terme Y d avec un coefficient non
nul, et donc le polynôme P (X) = F (X, X 2 , 1) est de degré exactement 2d. Soient 1 , . . . , r
ses racines distinctes dans k, chacune étant de multiplicité mi , avec m1 + · · · + mr = 2d.
Alors V (F ) \ C est formé des points [ j , j2 , 1], chacun « compté mi fois ».
Définitions 25.5. — (1) On « rappelle » que l’anneau A = k[X, Y, Z] est factoriel, i.e. que tout
P 2 A s’écrit comme produit d’éléments irréductibles, ceci de façon unique à l’ordre des facteurs

près (et à multiplication près par des éléments inversibles de A, i.e. des éléments de k ).(18) De
plus, on peut montrer que si P est homogène alors tous les facteurs irréductibles de P sont
également homogènes.
(2) Si P = P1m1 · · · Prmr est ainsi factorisé, les Pi étant des polynômes homogènes irréductibles

tels que Pi 6= Pj pour tout i 6= j et 2 k , alors la variété des zéros Vk (P ) est la réunion
des Vk (Pi ) (chacune étant « comptée mi fois »), et l’on dit que celles-ci sont les composantes
irréductibles de Vk (P ).

(18)
Ceci est vrai pour k[X1 , . . . , Xn ] pour tout corps k, voir par exemple le cours 4M002 ou un cours de
L3 d’arithmétique.
25. VERS BÉZOUT : INTERSECTION D’UNE CONIQUE AVEC UNE COURBE DE DEGRÉ d 113

(3) Conservons les notations de (2) et soit Q 2 k[X, Y, Z] un autre polynôme homogène. On
peut montrer (théorème des zéros de Hilbert) que Vk (Q) contient Vk (Pi ) si et seulement si Pi
divise Q.
(4) On dit que P et Q sont sans facteur commun s’ils n’ont pas de diviseurs communs

autres que les éléments de k . D’après le point (3), ceci équivaut à dire qu’aucune composante
irréductible de Vk (P ) n’est contenue dans Vk (Q) et vice-versa. On dit alors que Vk (P ) et Vk (Q)
sont sans composante commune. Si Q est irréductible, ceci est le cas ssi Q ne divise pas P .
(5) Si Q 2 k[X, Y, Z] est un polynôme homogène de degré 2, il est irréductible ssi ce n’est pas
le produit de deux formes linéaires, i.e. ssi la forme quadratique Q est non dégénérée. Dans ce
cas, on voit que la condition « Vk (Q) n’est pas contenue dans Vk (F ) » utilisée dans la proposition
25.4 équivaut à dire que Q et F sont sans facteur commun.
On peut alors démontrer (mais ceci demande un peu de travail) le théorème suivant : (19)

Théorème 25.6 (de Bézout). — Soient k un corps algébriquement clos et F, G 2 k[X, Y, Z]


deux polynômes homogènes, de degrés p et q, sans facteur commun. Alors :
(i) V (F ) \ V (G) est formé d’au plus pq points distincts.
(ii) Si l’on définit de façon appropriée la notion de « multiplicité d’intersection en un point »,
alors V (F ) \ V (G) est formé d’exactement pq points, « comptés avec multiplicités ».

Références pour le théorème de Bézout :


[Fu] W. Fulton, Algebraic curves (Benjamin, 1974), Chap. 5, §3 (disponible en ligne sur la page de l’auteur).
[Ku] E. Kunz, Introduction to plane algebraic curves (Birkhäuser, 2005), Chap. 5.
[ST] J. H. Silverman, J. Tate, Rational points on elliptic curves (Springer, 1992), App. §§3-4.

(19)
Étienne Bézout, mathématicien français (1730-1783).
CHAPITRE 6

PUISSANCES EXTÉRIEURES ET
GRASSMANNIENNES

26. Puissances extérieures


(1)
Soient k un corps et V, F deux k-espaces vectoriels.

Rappel 26.1. — On rappelle que pour tout ensemble X, l’ensemble Applic(X, F ) des
applications X ! F est muni d’une structure d’espace vectoriel : pour f, g : X ! F et
2 k, on définit f + g comme l’application x 7! f (x) + g(x).
Il faut vérifier les axiomes d’espace vectoriel, i.e. vérifier certaines égalités telles que, par exemple,
(f + g) = f + g. Il s’agit d’égalités entre applications X ! F , donc il suffit de vérifier que les deux
membres prennent la même valeur en tout point x 2 X. Ainsi, dans l’exemple précédent, il faut vérifier
que ( (f + g))(x) = (f (x) + g(x)) est égal à ( f + g)(x) = f (x) + g(x) ; or ceci résulte des propriétés
d’espace vectoriel de F , et il en est de même pour toutes les autres vérifications.

Pour tout entier p 1, on note V p le k-espace vectoriel formé des p-uplets (v1 , . . . , vp )
d’éléments de V .

Définitions 26.2. — Soit f une application V p ! F .


(1) On dit que f est multilinéaire ou, plus précisément, p-linéaire, si elle est linéaire
par rapport à chacune des variables (les autres variables étant fixées), c.-à-d. si pour tout
i 2 {1, . . . , p}, 2 k et v1 , . . . , vp , vi0 2 V on a :

(?) f (v1 , . . . , vi 1 , vi + vi0 , vi+1 , . . . , vp ) =


f (v1 , . . . , vi 1 , vi , vi+1 , . . . , vp ) + f (v1 , . . . , vi 1 , vi0 , vi+1 , . . . , vp ).
(2) Si de plus f vérifie f (v1 , . . . , vp ) = 0 lorsque les vi ne sont pas tous distincts
(i.e. lorsqu’il existe i < j tels que vi = vj ), on dit que f est alternée. Ceci entraı̂ne
que f est antisymétrique, i.e. que pour tout i < j on a :
(⇤) f (v1 , . . . , vj , . . . , vi , . . . , vp ) = f (v1 , . . . , vi , . . . , vj , . . . , vp )
(i.e. f change de signe quand on échange la place de deux vecteurs). En e↵et, fixant les
vecteurs v` pour ` 6= i, j, posons g(x, y) = f (v1 , . . . , x, . . . , y, . . . , vp ), où x (resp. y) est à la
i-ème place (resp. la j-ème), alors comme f est alternée g l’est aussi, d’où
0 = g(x + y, x + y) = g(x, x) + g(y, y) + g(x, y) + g(y, x) = g(x, y) + g(y, x).

(1)
Version du 16/11/2016.
116 CHAPITRE 6. PUISSANCES EXTÉRIEURES ET GRASSMANNIENNES

Ceci prouve (⇤). Comme le groupe symétrique Sp est engendré par les transpositions (ij),
on en déduit que pour tout 2 Sp on a
1
f (v (1) , . . . , v (p) ) = "( ) = "( ),
où " : Sp ! {±1} est la signature.
(3) On note Altp (V, F ) l’espace vectoriel des applications p-linéaires alternées V p ! F .
Lorsque F = k on le note simplement Altp (V ) ; ses éléments sont appelés des formes
p-linéaires alternées sur V .

Définition 26.3. — Pour tout p-uplet (v1 , . . . , vp ) de V p on note v1 ^ · · · ^ vp l’élément


de Altp (V ⇤ ) défini comme suit : pour tout (f1 , . . . , fp ) 2 V ⇤p ,
f1 (v1 ) · · · f1 (vp )
(v1 ^ · · · ^ vp )(f1 , . . . , fp ) = .. ..
. .
fp (v1 ) · · · fp (vp )
(où les | | désignent le déterminant de la matrice). Il résulte des propriétés du déterminant
que v1 ^ · · · ^ vp est bien une forme p-linéaire alternée sur V ⇤ . D’autre part, on a la
proposition suivante :

Proposition 26.4. — L’application f : V p ! Altp (V ⇤ ), (v1 , . . . , vp ) 7! v1 ^ · · · ^ vp est


p-linéaire alternée.

Démonstration. — Il est clair que s’il existe i < j tels que vi = vj alors le déterminant
ci-dessus est nul pour tout (f1 , . . . , fp ), puisque les colonnes Ci et Cj de la matrice sont
identiques. De même, pour montrer l’égalité (?), qui est ici une égalité entre applications
V ⇤p ! k, il suffit de vérifier que les deux membres prennent la même valeur sur tout
(f1 , . . . , fp ). Mais ceci résulte à nouveau des propriétés du déterminant.
Désormais, on suppose que dim(V ) = n. Soit B = (e1 , . . . , en ) une base de V et soit
B = (e⇤1 , . . . , e⇤n ) la base duale de V ⇤ .

Définition 26.5. — Pour tout p 2 N⇤ on pose ⇤p (V ) = Altp (V ⇤ ) et l’on dit que c’est la
puissance extérieure p-ième de V . (2) En particulier, on a ⇤1 (V ) = V ⇤⇤ = V . On pose
aussi ⇤0 (V ) = k.

Notation 26.6. — On note Ip = Ip (n) l’ensemble des p-uplets d’entiers (i1 , . . . , ip ) tels
que 1  i1 < · · · < ip  n. Pour tout élément I = (i1 , . . . , ip ) de Ip , on pose
e I = e i1 ^ · · · ^ e ip
et l’on note e⇤I le p-uplet (e⇤i1 , . . . , e⇤ip ).

Lemme 26.7. — Pour tous I = (i1 , . . . , ip ) et J = (j1 , . . . , jp ) dans Ip on a


(
1 si I = J,
eI (e⇤J ) = (ei1 ^ · · · ^ eip )(e⇤j1 , . . . , e⇤jp ) =
0 sinon.
En particulier, les eI pour I 2 Ip sont linéairement indépendants.

(2)
Attention, cette définition n’est valable que si dim(V ) < 1, ce qu’on a supposé ici. Pour V de dimension
infinie, il faut définir ⇤p (V ) de façon di↵érente.
26. PUISSANCES EXTÉRIEURES 117

Démonstration. — On a
e⇤j1 (ei1 ) · · · e⇤j1 (eip )
eI (e⇤J ) = .. ..
. .

ejp (ei1 ) · · · e⇤jp (eip )
donc la 1ère ligne est nulle sauf si j1 est égal à l’un des i` , disons i`1 . De même, la 2ème
ligne est nulle sauf si j2 est égal à l’un des i` , disons i`2 , etc. Donc ce déterminant est nul
sauf si {j1 , . . . , jp } = {i1 , . . . , ip }, et comme ces deux ensembles sont numérotés par ordre
croissant, ceci est le cas ssi j` = i` pour tout ` = 1, . . . , p. Dans ce cas, la matrice est la
matrice identité et son déterminant vaut 1. Ceci prouve la première assertion.
P
Prouvons la seconde. Supposons qu’on ait I2Ip I eI = 0, avec I 2 k, et soit J 2 Ip ;
prenant la valeur en e⇤J on obtient J = 0. Ceci prouve que les eI pour I 2 Ip sont
linéairement indépendants.
Corollaire 26.8. — Soient v1 , . . . , vp 2 V . Alors v1 ^ · · · ^ vp est non nul si et seulement
si (v1 , . . . , vp ) est une famille libre.
Démonstration. — Si la famille est liée, on peut exprimer l’un des vecteurs comme combi-
P
naison linéaire des autres, disons par exemple v1 = pi=2 i vi . Alors, d’après la proposition
26.4 on a
p
X
v1 ^ · · · ^ vp = i vi ^ v2 ^ · · · ^ vp = 0
i=1
(chaque terme de la somme est nul puisqu’il contient deux fois le même vecteur).
Réciproquement, si la famille est libre on peut la compléter en une base (v1 , . . . , vn ) de
V et alors il résulte du lemme précédent que v1 ^ · · · ^ vp est non nul.
Théorème 26.9. — Les vecteurs eI , pour I 2 Ip , forment une base de ⇤p (V ). En parti-
culier, on a dim ⇤p (V ) = np pour p = 0, . . . , n, et ⇤p (V ) = {0} pour p > n.
Démonstration. — Fixons ✓ 2 ⇤p (V ). Soit (f1 , . . . , fp ) un p-uplet arbitraire d’éléments de
V ⇤ ; pour tout i = 1, . . . , p on a
n
X
(†) fi = fi (ej )e⇤j .
j=1

Comme ✓ est p-linéaire et alternée, on obtient


X
✓(f1 , . . . , fp ) = ✓(e⇤`1 , . . . , e⇤`p ) f1 (e`1 ) · · · fp (e`p )
(`1 ,...,`p )2Ip0

où Ip0 désigne l’ensemble des p-uplets L = (`1 , . . . , `p ) d’éléments de {1, . . . , n} qui sont
deux à deux distincts. De plus, pour un tel p-uplet L, notant r1 < · · · < rp les `i numérotés
par ordre croissant, il existe une unique permutation 2 Sp telle que `j = r (j) pour
j = 1, . . . , p et l’on a donc
✓(e⇤`1 , . . . , e⇤`p ) = "( )✓(e⇤r1 , . . . , e⇤rp ).
On obtient donc que
0 1
X X
✓(f1 , . . . , fp ) = ✓(e⇤r1 , . . . , e⇤rp ) @ "( ) f1 (er (1)
) · · · fp (er (p)
)A .
(r1 ,...,rp )2Ip 2Sp
118 CHAPITRE 6. PUISSANCES EXTÉRIEURES ET GRASSMANNIENNES

Or le terme entre parenthèses est le déterminant de la matrice fi (erj ) 1i,jp


, c’est-à-dire
(er1 ^ · · · ^ erp )(f1 , . . . , fp ). L’égalité précédente signifie donc que
X
✓= ✓(e⇤r1 , . . . , e⇤rp ) er1 ^ · · · ^ erp ,
(r1 ,...,rp )2Ip

et les eI , pour I 2 Ip , engendrent donc ⇤p (V ). Comme ils sont linéairement indépendants


d’après le lemme précédent, ils en forment une base.

Remarque 26.10 (importante). — D’après (†), la matrice A = A(f1 , . . . , fp ) expri-


mant f1 , . . . , fp dans la base B ⇤ est la matrice à n lignes et p colonnes suivante :
0 1
f1 (e1 ) · · · fp (e1 )
B .. C
A = @ ... . A
f1 (en ) · · · fp (en ).
Pour tout I = (i1 , . . . , ip ) dans Ip , on peut considérer la matrice carrée AI formée des lignes
de A d’indices i1 , . . . , ip ; son déterminant s’appelle le mineur de A associée à I et se note
I (f1 , . . . , fn ). On a vu dans dans la démonstration ci-dessus que

(ei1 ^ · · · ^ eip )(f1 , . . . , fn ) = I (f1 , . . . , fn ).

En particulier, pour p = n on a e1 ^ · · · ^ en = détB⇤ , i.e.


(e1 ^ · · · ^ en )(f1 , . . . , fn ) = détB⇤ (f1 , . . . , fn )
pour tout (f1 , . . . , fn ) 2 V ⇤n , et l’on obtient le corollaire suivant.

Corollaire 26.11. — ⇤n (V ) est de dimension 1, engendré par e1 ^ · · · ^ en = détB⇤ . De


plus, pour toute base C = (v1 , . . . , vn ) de V , notant P = MatB (C ) on a
v1 ^ · · · ^ vn = dét(P ) e1 ^ · · · ^ en .

Démonstration. — On a vu plus haut la première assertion ; prouvons la seconde. Comme


e1 ^ · · · ^ en engendre ⇤n (V ), il existe ↵ 2 k tel que
v1 ^ · · · ^ vn = ↵ e 1 ^ · · · ^ e n
et, prenant la valeur sur (e⇤1 , . . . , e⇤n ), on voit que ↵ = (v1 ^ · · · ^ vn )(e⇤1 , . . . , e⇤n ). Pour tout
j = 1, . . . , n, on a
Xn
vj = e⇤i (vj )ei
i=1
donc P est la matrice 0 1
e⇤1 (v1 ) · · · e⇤1 (vn )
B .. .. C
@ . . A
e⇤n (v1 ) · · · e⇤n (vn )
et par définition on a (v1 ^ · · · ^ vn )(e⇤1 , . . . , e⇤n ) = dét(P ). Ceci prouve le corollaire.

Remarque 26.12 (importante). — Soit E un sev de V . Alors on a une application


naturelle ⇡ : V ⇤ ! E ⇤ , qui à tout f 2 V ⇤ associe la restriction de f à E, notée ici f E . Par
conséquent, toute forme p-linéaire alternée ✓ : E ⇤p ! k donne la forme p-linéaire alternée
✓ ⇡ p : V ⇤p ! k, (f1 , . . . , fp ) 7! ✓(f1E , . . . , fpE ).
26. PUISSANCES EXTÉRIEURES 119

Plus concrètement, si (e1 , . . . , ed ) est une base de E et si ✓ = ei1 ^ · · · ^ eip avec 1  i1 <
· · · < ip  d, alors ✓ ⇡ p est la forme p-linéaire alternée
f1 (ei1 ) · · · f1 (eip )
V ⇤p
! k, (f1 , . . . , fp ) 7! (ei1 ^ · · · ^ eip )(f1E , . . . , fpE ) = .. ..
. .
fp (ei1 ) · · · fp (eip )
égale à eI = ei1 ^· · ·^eip considéré comme élément de ⇤p (V ). On obtient ainsi la proposition
suivante.
Proposition 26.13. — Soit E un sev de V , de dimension d. Alors pour tout p = 1, . . . , d,
l’application ⇤p (E) ! ⇤p (V ) est injective. En particulier, si p = d alors ⇤d (E) est une
droite vectorielle de ⇤d (V ).
Démonstration. — Soit (e1 , . . . , ed ) une base de E ; complétons-la en une base B =
(e1 , . . . , en ) de V . Posons Ip (d) = {(i1 , . . . , ip ) | 1  i1 < · · · < ip  d}. Alors Ip (d) est un
sous-ensemble de Ip (n) et, d’après la remarque précédente, ⇤p (E) s’identifie au sous-espace
de ⇤p (V ) engendré par les eI pour I 2 Ip (d).
Définition 26.14 (Grassmanniennes). — L’ensemble des sous-espaces vectoriels E de
V de dimension d est noté Grd (V ) et appelé la grassmannienne des d-plans dans V .(3)
D’après la proposition précédente, si dim(E) = d alors ⇤d (E) est une droite vectorielle
de ⇤d (V ) donc on peut considérer l’application Grd (V ) ! P(⇤d V ) qui à tout sev E de
dimension d associe le point de P(⇤d (V )) donné par la droite ⇤d ((E)), i.e. le point P(⇤d (E)).
Théorème 26.15. — L’application Grd (V ) ! P(⇤d V ), E 7! P(⇤d (E)) est injective.
Pour la démonstration, on a besoin du lemme suivant.
Lemme 26.16. — Soient v1 , . . . , vd 2 V . Alors l’application ✓ : V ! ⇤d+1 (V ), v 7!
v ^ v1 ^ · · · ^ vd ne dépend que du vecteur v1 ^ · · · ^ vd 2 ⇤d (V ).
Démonstration. — Soit v0 2 V . Pour tout (f0 , . . . , fd ) 2 V ⇤d+1 , ✓(v0 )(f0 , . . . , fd ) égale :
f0 (v0 ) f0 (v1 ) · · · f0 (vd )
d
X
f1 (v0 ) f1 (v1 ) · · · f1 (vd )
.. .. = ( 1)i fi (v0 ) (v1 ^ · · · ^ vd )(f0 , . . . , fi 1 , fi+1 , . . . , fd ),
. . ... i=0
fd (v0 ) fd (v1 ) · · · fd (vd )
où l’égalité ci-dessus est obtenue en développant par rapport à la 1ère colonne. Ceci montre
que ✓ ne dépend que de v1 ^ · · · ^ vd .
Démonstration du théorème. — Soit (e1 , . . . , ed ) une base de E, complétons-la en une base
(e1 , . . . , en ) de V . On va montrer que E est le noyau de l’application ✓ : V ! ⇤d+1 (V )
définie par e1 ^ · · · ^ ed ; ceci prouvera le théorème (car si on remplace ✓ par un multiple
✓ avec 2 k ⇥ , le noyau est inchangé).
Soit v 2 V , écrivons v = a1 e1 + · · · + an en avec ai 2 k. Comme l’application V d+1 !
⇤d+1 (V ), (v0 , . . . , vd ) 7! v0 ^ · · · ^ vd est alternée (donc antisymétrique), on obtient que
✓(ei ) = 0 pour i = 1, . . . , d et que
8i 2 {d + 1, . . . , n}, ✓(ei ) = ei ^ e1 ^ · · · ^ ed = ( 1)d e1 ^ · · · ^ ed ^ ei .
(3)
Pour d = 1, on obtient l’espace projectif P(V ).
120 CHAPITRE 6. PUISSANCES EXTÉRIEURES ET GRASSMANNIENNES

On a donc
n
X
✓(v) = ( 1)d ai e1 ^ · · · ^ ed ^ ei .
i=d+1
Comme les éléments e1 ^ · · · ^ ed ^ ei , pour i > d sont linéairement indépendants dans
⇤d+1 (V ), d’après le lemme 26.7, on en déduit que v 2 Ker(✓) si et seulement ai = 0 pour
i > d, i.e. ssi v 2 F . Ceci prouve le théorème.
Définition 26.17 (p-vecteurs purs). — Soit z 2 ⇤p (V ) non nul. On dit que z est un
p-vecteur pur s’il existe v1 , . . . , vp dans V tels que z = v1 ^ · · · ^ vp . Noter qu’alors z est
pur pour tout 2 k ⇥ , puisque z = ( v1 ) ^ · · · ^ vp .
Si z = v1 ^ · · · ^ vp alors (v1 , . . . , vp ) est une famille libre, d’après le corollaire 26.8,
donc est une base du sev E qu’elle engendre, et l’on a ⇤p (E) = kz donc E est entièrement
déterminé par z, d’après le théorème 26.15.
On voit ainsi que l’image de Grp (V ) dans P(⇤p (V )) est formée des classes [z], où z 2
⇤p (V ) est un p-vecteur pur.
Exemples 26.18. — Si d = 1 alors dans ⇤1 (V ) = V tout vecteur non nul est pur.
On verra plus bas qu’il en est de même dans ⇤n 1 (V ). Par contre, ce n’est pas le cas si
2  d  n 2 (d’où n 4). En e↵et, prenons n = 4 et soit (e1 , . . . , e4 ) une base de V .
Alors les 2-vecteurs e1 ^ e2 et
e1 ^ e2 + e1 ^ e3 + e1 ^ e4 = e1 ^ (e2 + e3 + e4 )
sont purs. Par contre, on verra plus bas (27.9) que le 2-vecteur w = e1 ^ e2 + e3 ^ e4 n’est
pas pur.

27. Grassmanniennes
On conserve les notations précédentes ; en particulier dim(V ) = n. On a déjà vu que
Gr1 (V ) = P(V ). D’autre part, se donner un hyperplan H de V équivaut à se donner son
orthogonal H 0 ⇢ V ⇤ , qui est une droite vectorielle de V ⇤ . Donc Grn 1 (V ) s’identifie à
P(V ⇤ ).
Le but de cette section est de montrer que pour n 4 et 2  d  n 2, la grass-
mannienne Grd (V ) est une sous-variété algébrique de P(⇤ V ) définie par l’annulation de
d

certains polynômes homogènes de degré 2, i.e. c’est une intersection de quadriques. (4)
Dans le lemme 26.16, pour tout v0 2 V on a défini l’élément v0 ^ z de ⇤d+1 (V ) lorsque
z est un d-vecteur pur et montré que pour tout (f0 , . . . , fd ) 2 V ⇤(d+1) on a
d
X
() (v0 ^ z) = ( 1)i fi (v0 ) z(f0 , . . . , fbi , . . . , fd ),
i=0

où z(f0 , . . . , fbi , . . . , fd ) désigne z(f0 , . . . , fi 1 , fi+1 , . . . , fd ). En fait, cette définition est va-
lable pour tout z 2 ⇤d (V ), i.e. on a la proposition suivante.
Proposition 27.1 (Le produit V ⇥ ⇤d (V ) ! ⇤d+1 (V )). — Pour tout v0 2 V et z 2
⇤d (V ), l’application v0 ^ z : V ⇤(d+1) ! k définie par la formule ci-dessus est (d + 1)-linéaire
et alternée ; c’est donc un élément de Altd+1 (V ⇤ ) = ⇤d+1 (V ).

(4)
On verra dans un chapitre ultérieur que Grn 1 (V ) = P(⇤n 1
V ).
27. GRASSMANNIENNES 121

Démonstration. — On vérifie facilement qu’elle est (d + 1)-linéaire ; montrons qu’elle est


alternée. Supposons qu’il existe i < j tels que fi = fj = g. Alors pour ` 6= i, j, chaque
terme f` (v0 )z(f0 , . . . , fb` , . . . , fd ) est nul ; reste la somme
( 1)i g(v0 )z(f0 , . . . , fbi , . . . , g, . . . , fd ) + ( 1)j g(v0 )z(f0 , . . . , g, . . . , fbj , . . . , fd )
où g est à la place i dans le 2ème terme et à la place j 1 dans le 1er terme (car la place
i < j a été supprimée). Comme z est alternée, donc antisymétrique, on a
z(f0 , . . . , fbi , . . . , g, . . . , fd ) = ( 1)j i+1
z(f0 , . . . , g, . . . , fbj , . . . , fd )
et donc la somme ci-dessus est nulle. Ceci prouve que v0 ^z est bien une forme (d+1)-linéaire
alternée sur V ⇤ , i.e. un élément de ⇤d+1 (V ).

Lemme 27.2. — Soit z 2 ⇤d (V ) non nul.


(i) Il existe un plus petit sous-espace vectoriel F de V tel que z 2 ⇤d (F ), on le note Sz .
(ii) On a dim(Sz ) d.
(iii) z est pur ssi dim(Sz ) = d ; dans ce cas on a ⇤d (Sz ) = kz.

Démonstration. — Soit F un sev de V tel que z 2 ⇤d (F ) et de dimension minimale pour


cette propriété. Soit E un autre sev de V tel que z 2 ⇤d (E). Posons m = dim(F ), r =
dim(E \F ) et p = dim(E). Soit (e0 , . . . , er 1 ) une base de F \E ; complétons-la en une base
(er m , . . . , e 1 , e0 , . . . , er 1 ) de F et en une base (e0 , . . . , ep 1 ) de E. Alors (er m , . . . , ep 1 )
est une base de F + E ; complétons-la en une base (er m , . . . , es ) de V , où s = n + r m 1.
Notons
I = {(i1 , . . . , id ) | r m  i1 < · · · < id  s}.
Alors, pour I = (i1 , . . . , id ) 2 I, les vecteurs
e I = e i1 ^ · · · ^ e id
forment une base de ⇤d (V ). Comme z 2 ⇤d (F ) (resp. z 2 ⇤d (E)) alors z s’écrit comme
combinaison linéaire des eI avec id  r 1 (resp. avec i1 0 et id  p 1). Par unicité
de l’écriture dans la base, on en déduit que z s’écrit comme combinaison linéaire des eI
avec i1 0 et id  r 1, i.e. z appartient à ⇤d (F \ E). Par minimalité de F on a donc
F = F \ E, i.e. F ⇢ E. Ceci prouve que F est le plus petit sev de V tel que z 2 ⇤d (F ),
d’où (i).
Prouvons (ii) : ⇤d (Sz ) est non nul puisqu’il contient z, donc d  dim(Sz ) d’après le
théorème 26.9.
Prouvons (iii). Si z = v1 ^· · ·^vd alors, posant E = Vect(v1 , . . . , vd ), on a z 2 ⇤d (E) = kz
d’où Sz ⇢ E par définition de Sz , et donc Sz = E puisque dim(Sz ) d = dim(E).
Réciproquement, si dim(Sz ) = d, soit (v1 , . . . , vd ) une base de Sz , alors tout élément non
nul de ⇤d (Sz ) = k(v1 ^ · · · ^ vd ) est pur, donc z est pur.

Il reste maintenant à comprendre le sous-espace Sz . Pour cela, on introduit les définitions


suivantes.

Définitions 27.3 (Les contractions V ⇤(d 1) ⇥ ⇤d (V ) ! V et V ⇤ ⇥ ⇤d (V ) ! ⇤d 1 (V ))


Pour tout z 2 ⇤d (V ) = Altd (V ⇤ ), on définit les applications µz : V ⇤(d 1) ! V ⇤⇤ = V et
⌫z : V ⇤ ! Altd 1 (V ⇤ ) = ⇤d 1 (V ) de la façon suivante.
122 CHAPITRE 6. PUISSANCES EXTÉRIEURES ET GRASSMANNIENNES

a) Pour tout (f1 , . . . , fd 1 ) 2 V ⇤(d 1)


, on note µz (f1 , . . . , fd 1 ) l’application
V ⇤ ! k, f 7! z(f1 , . . . , fd 1 , f ).
C’est une forme linéaire sur V ⇤ , i.e. un élément de V ⇤⇤ = V . De plus, µz : V ⇤(d 1) ! V est
(d 1)-linéaire alternée ; par conséquent, pour toute base B = (e1 , . . . , en ) de V , l’image
de µz :
Im(µz ) = Vect µz (f1 , . . . , fd 1 ) | (f1 , . . . , fd 1 ) 2 V ⇤(d 1)

est engendrée par les µz (e⇤h1 , . . . , e⇤hd 1 ) pour 1  h1 < · · · < hd 1  n, où B ⇤ = (e⇤1 , . . . , e⇤n )
désigne la base duale de B.
b) De même, pour tout f 2 V ⇤ , on note ⌫z (f ) l’application
V ⇤(d 1)
! k, (f1 , . . . , fd 1 ) 7! z(f, f1 , . . . , fd 1 ).
Elle est (d 1)-linéaire et alternée, i.e. c’est un élément de ⇤d 1 (V ).

Notation 27.4. — Pour tout entier p  n, on identifie chaque p-uplet I = (i1 , . . . , ip ) 2


Ip (n) au sous-ensemble {i1 , . . . , ip } de {1, . . . , n}. Alors, pour tout i 2 {1, . . . , n}, on pose
N (I, i) = #{j 2 I | j > i} et "(I, i) = ( 1)N (I,i) .

Lemme 27.5. — Soit B = (e1 , . . . , en ) une base de V et B ⇤ = (e⇤1 , . . . , e⇤n ) la base duale
de V ⇤ . Pour tous I = (i1 , . . . , id ) 2 Id (n) et H = (h1 , . . . , hd 1 ) 2 Id 1 (n) on pose eI =
ei1 ^ · · · ^ eid et e⇤H = (e⇤h1 , . . . , e⇤hd 1 ). Alors on a :
(
"(I, i) ei = "(H, i) ei si H = I {i}
µeI (e⇤H ) =
0 sinon.

Démonstration. — Pour tout f 2 V ⇤ on a :


e⇤h1 (ei1 ) ··· e⇤h1 (eip )
.. ..
µeI (e⇤H )(f ) = . . .
e⇤hd 1 (ei1 ) · · · e⇤hd 1 (eip )
f (ei1 ) ··· f (eip )
La 1ère ligne est nulle sauf si h1 est égal à l’un des i` , disons i`1 . De même, la 2ème ligne
est nulle sauf si h2 est égal à l’un des i` , disons i`2 , et ainsi de suite jusqu’à la ligne d 1.
On obtient ainsi que ce déterminant est identiquement nul sauf si H est un sous-ensemble
de I, i.e. si on a H = I {i` } pour un certain indice ` 2 {1, . . . , d}. Dans ce cas, comme
h1 < · · · < hd 1 , on a nécessairement hj = ij pour j = 1, . . . , ` 1 et hj = ij+1 pour
j = `, . . . , d 1, et donc µeI (e⇤H )(f ) est égal à
1 0 ··· 0
0 1 0 ··· 0
.. ... ... .. 0 1 ··· 0
. . .. ... ... ..
0 0 ··· 0 1 ··· 0 . .
= ..
.. .. .. .. .. .. . 0 1
. . . . . .
.. .. .. f (ei` ) · · · · · · f (eid )
. . . 0 1
f (ei1 ) f (ei2 ) · · · f (ei` ) · · · · · · f (eid )
27. GRASSMANNIENNES 123

où l’égalité ci-dessus est obtenue en développant par rapport à la 1ère ligne, puis la 2ème,
etc. jusqu’à la (` 1)-ième. En développant le petit déterminant par rapport à sa 1ère
colonne, on voit qu’il vaut ( 1)d ` f (ei` ), d’où
µeI (e⇤I {i` } ) = ( 1)d ` ei` = "(I, i` )ei` ,
d’où la formule voulue.

Proposition 27.6. — Pour tout z 2 ⇤d (V ) non nul, on a Sz = Im(µz ).

Démonstration. — Notons N l’image de µz . Soit (e1 , . . . , er ) une base arbitraire de Sz ,


complétons-la en une base B = (e1 , . . . , en ) de V et notons B ⇤ = (e⇤1 , . . . , e⇤n ) la base duale
de V ⇤ . Posons Id (n) = {(i1 , . . . , id ) | 1  i1 < · · · < id  n} et définissons de même le
sous-ensemble Id (r). Comme z 2 ⇤d (Sz ), on peut écrire de façon unique
X
z= aI e I
I2Id (r)

avec les ai 2 k non tous nuls. D’après le lemme précédent, pour tout H 2 Id 1 (n) et tout
I 2 Id (r), le vecteur µeI (e⇤H ) est nul ou égal à ±ei avec 1  i  r, donc appartient à Sz .
Donc X
µz (e⇤H ) = aI eI (e⇤H )
I2Id (r)

appartient à Sz pour tout H 2 Id 1 (n), d’où N ⇢ Sz . Posons dim(N ) = q  r. On peut


donc choisir la base (e1 , . . . , er ) de Sz de telle sorte que (e1 , . . . , eq ) soit une base de N .
Montrons qu’en fait N = Sz , i.e. q = r. Supposons q  r 1, alors e⇤r s’annule sur N
donc pour tous f1 , . . . , fd 1 2 V ⇤ on a :

0 = µz (f1 , . . . , fd 1 )(e⇤r ) = z(f1 , . . . , fd 1 , e⇤r ) = ( 1)d 1 z(e⇤r , f1 , . . . , fd 1 )


= ( 1)d 1 ⌫z (e⇤r )(f1 , . . . , fd 1 ).
Par conséquent, l’élément ⌫z (e⇤r ) 2 ⇤d 1 (V ) est nul. Donc on a :
X
(†) 0 = ⌫z (e⇤r ) = aI ⌫eI (e⇤r ).
I2Id (r)

D’autre part, pour tout I = (i1 , . . . , id ) 2 Id (r) et f2 , . . . , fd 2 V ⇤ , on a


e⇤r (ei1 ) · · · e⇤r (eid )
f2 (ei1 ) · · · f2 (eid )
⌫eI (e⇤r )(f2 , . . . , fd ) = .. ..
. .
fd (ei1 ) · · · fd (eid )
et comme 1  i1 < · · · < id  r, la 1ère ligne est nulle sauf si id = r, dans ce cas le
déterminant ci-dessus vaut ( 1)d+1 eI {r} (f2 , . . . , fd ). Ceci montre que
(
⇤ ( 1)d+1 eI {r} si r 2 I
⌫eI (er ) =
0 sinon.
Reportant ceci dans (†), on obtient
X
0= aJ[{r} eJ
J2Id 1 (r 1)
124 CHAPITRE 6. PUISSANCES EXTÉRIEURES ET GRASSMANNIENNES

et comme les vecteurs eJ 2 ⇤d 1 (V ) pour J 2 Id 1 (r 1) sont linéairement indépendants,


ceci entraı̂ne que aI = 0 pour tout I 2 Id (r) tel que id = r. Mais alors z appartient à ⇤d (E)
où E = Vect(e1 , . . . , er 1 ) et donc Sz ⇢ E, ce qui n’est pas le cas. Cette contradiction
montre que q = r, i.e. que Sz = N = Im(µz ).

On peut maintenant démontrer le :

Théorème 27.7. — Soit z 2 ⇤d (V ) non nul, soit B = (e1 , . . . , en ) une base de V et


B ⇤ = (e⇤1 , . . . , e⇤n ) la base duale de V ⇤ . Alors :
(i) z est pur si et seulement si l’on a v ^ z = 0 pour tout v 2 Sz .
(ii) Pour qu’il en soit ainsi, il faut et suffit que
(|) µz (e⇤h1 , . . . , e⇤hd 1 ) ^ z = 0
pour tout 1  h1 < · · · < hd 1  n.

Démonstration. — Les deux conditions sont équivalentes, puisque les µz (e⇤h1 , . . . , e⇤hd 1 )
engendrent Sz d’après la proposition précédente. Prouvons donc (i).
Si z est pur, disons z = v1 ^ · · · ^ vd alors Sz = Vect(v1 , . . . , vd ) et comme vi ^ z = 0 pour
tout i = 1, . . . , d, la condition est bien vérifiée.
Réciproquement, supposons la condition vérifiée et montrons que dim(Sz ) = d. Suppo-
sons dim(Sz ) = q > d et soit (e1 , . . . , eq ) une base de Sz . On peut écrire
X
z= aI eI
I2Id (q)

avec les aI 2 k non tous nuls. Soit I0 2 Id (q) tel que aI0 6= 0. Comme |I| = d < q, il existe
j 2 {1, . . . , q} tel que j 62 I0 . Comme ej 2 Sz et ej ^ eI = 0 si j 2 I, on a :
X X
0 = ej ^ z = aI ej ^ eI = ±aI eI[{j} .
I2Id (q) I2Id (q)
j62I

Comme les eI[{j} 2 ⇤d+1 (V ), pour les I 2 Id (q) tels que j 62 I, sont linéairement indépen-
dants, il en résulte que aI = 0 pour chaque tel I, en particulier aI0 = 0, ce qui est une
contradiction. Ceci montre que dim(Sz ) = d, et donc z est pur d’après le lemme 27.2.

Explicitons les conditions (|) et montrons que ce sont des équations quadratiques en les
coefficients de z dans la base (eI )I2Id (n) . Écrivons
X
z= aI e I .
I2Id (n)

Alors, d’après le lemme 27.5, pour tout H 2 Id 1 (n) on a


X
µz (e⇤H ) = aH[{i} "(H, i) ei .
i62H

Fixons maintenant J 2 Id+1 (n) et déterminons le coefficient sur eJ de µz (e⇤H ) ^ z. Pour


tout I 2 Id (n) et i 2 {1, . . . , n}, on a ei ^ eI = 0 si i 2 I tandis que si i 62 I alors, posant
n(I, i) = #{j 2 I | j < i} = d N (I, i), on a
ei ^ eI = ( 1)n(I,i) eI[{i} = ( 1)d "(I, i)eI[{i} .
27. GRASSMANNIENNES 125

Ceci est un multiple de eJ si et seulement si J = I [ {i} ; dans ce cas on a "(I, i) = "(J, i).
Il en résulte que eJ apparaı̂t dans µz (e⇤H ) ^ z pour chaque I 2 Id (n) tel que I = J {i}
avec i 62 H, donc le coefficient de eJ dans µz (e⇤H ) ^ z est
X
( 1)d "(H, i)"(J, i) aH[{i} aJ {i} .
i2J H

Comme les eJ , pour J 2 Id+1 (n), sont linéairement indépendants dans ⇤d+1 (V ), la nullité
de µz (e⇤H ) ^ z équivaut donc aux équations quadratiques :
X
(H}J) "(H, i)"(J, i) aH[{i} aJ {i} = 0,
i2J H

pour tout H 2 Id 1 (n) et J 2 Id+1 (n).


Détaillons ceci lorsque d = 2. Dans ce cas, on a H = {h} et J = {j, k, `} avec j < k < `.
Si h 2 J, par exemple si h = `, on obtient l’équation triviale ahj ahk ahk ahj = 0. Il suffit
donc de se limiter au cas où H \ J = ?. Supposons par exemple h < j < k < `, alors on
obtient l’équation
ahj ak` + ahk aj` ah` ajk = 0.
On vérifie que dans les trois autres cas (i.e. j < h < k ou k < h < ` ou ` < h) on obtient,
au signe près, la même équation. On obtient ainsi le :
Corollaire 27.8 (La grassmanienne Gr2 (k n ) pour n 4). — Pour d = 2 et n 4,
la grassmannienne des 2-plans dans k est la sous-variété algébrique de P(⇤ (k )) définie
n 2 n

par les n4 équations suivantes : pour tout h < j < k < ` dans {1, . . . , n}, on a
ahj ak` ahk aj` + ah` ajk = 0.
En particulier, lorsque n = 4, Gr2 (k 4 ) est la quadrique de P(k 6 ) définie par l’équation
a12 a34 a13 a24 + a14 a23 = 0.
Exemple 27.9. — Soit (e1 , . . . , e4 ) la base canonique de k 4 . Le 2-vecteur w = e1 ^e2 +e3 ^
e4 n’est pas pur ; en e↵et, dans ce cas on a a12 = 1 = a34 et apq = 0 pour les autres valeurs
de (p, q), donc l’équation précédente n’est pas vérifiée. D’autre part, d’après le lemme 27.5,
on a
µw (e⇤1 ) = e2 , µw (e⇤2 ) = e1 , µw (e⇤3 ) = e4 , µw (e⇤4 ) = e3
donc, d’après la proposition 27.2, on a Sw = k 4 .
CHAPITRE 7

PRODUIT TENSORIEL ET APPLICATIONS

28. Produit tensoriel


(1)
Soient k un corps et V, W deux k-espaces vectoriels.

Notation 28.1. — Pour tout k-ev F , on note Bil(V, W ; F ) l’espace vectoriel des appli-
cations bilinéaires V ⇥ W ! F .
De même, si U est un troisième k-ev, on note Tril(U, V, W ; F ) l’espace vectoriel des
applications trilinéaires U ⇥ V ⇥ W ! F .
Plus généralement, pour des k-ev V1 , . . . , Vp , F , on note Multp (V1 , . . . , Vp ; F ) le k-ev des
applications p-linéaires V1 ⇥ · · · ⇥ Vp ! F . Si V1 = · · · = Vp , on le notera simplement
Multp (V, F ).
Par ailleurs, on note Hom(V, F ) le k-ev des applications linéaires V ! F (aussi noté
parfois L (V, F )). En particulier, Hom(V, k) est l’espace dual V ⇤ .

Remarquons que si : V ⇥ W ! E (resp. f : E ! F ) est une application bilinéaire


(resp. linéaire), alors l’application composée f : V ⇥ W ! F est bilinéaire.

Définition 28.2. — Étant donné V, W , on cherche à construire un couple (E, ), où E


est un k-ev et : V ⇥W ! E une application bilinéaire, vérifiant la propriété universelle
suivante : pour toute application bilinéaire b : V ⇥ W ! F , où F est un k-ev, il existe
une unique application linéaire fb : E ! F telle que f = b. En d’autres termes, pour
tout k-ev F , l’application linéaire
Hom(E, F ) ! Bil(V, W ; F ), f 7! f
est bijective et l’application inverse est notée b 7! fb .
Commençons par remarquer que, comme dans tout « problème universel » de ce type, si
une solution (E, ) existe alors elle est unique à isomorphisme unique près, i.e. on a la
proposition suivante.

Proposition 28.3. — Soient (E, ) et (E 0 , 0


) deux solutions du problème universel pré-
cédent.
(i) Il existe une unique application linéaire f : E ! E 0 telle que f = 0.
(ii) De même, il existe une unique application linéaire g : E 0 ! E telle que g 0
= .
(iii) On a g f = idE et f g = idE 0 . Par conséquent, f et g sont des isomorphismes
réciproques l’un de l’autre.

(1)
Version du 2/12/2016.
128 CHAPITRE 7. PRODUIT TENSORIEL ET APPLICATIONS

Démonstration. — (i) et (ii) : D’après la propriété universelle de (E, ), il existe une unique
application linéaire f : E ! E 0 telle que f = 0 . Et, d’après la propriété universelle de
(E 0 , 0 ), il existe une unique application linéaire g : E 0 ! E telle que g 0
= .
0
(iii) Alors on a g f =g = = idE . Donc d’après l’unicité dans la propriété
universelle de (E, ) on a g f = idE . On obtient de même que f g = idE 0 .

Théorème 28.4. — (i) Le problème universel précédent admet une solution, unique à
isomorphe unique près, notée V ⌦ W et appelée le produit tensoriel de V et W .
(ii) Si V et W sont de dimension finie, on a dim(V ⌦ W ) = dim(V ) dim(W ).
(iii) On a un isomorphisme canonique k ⌦ V = V .

Démonstration. — Soit (ei )i2I (resp. (e0j )j2J ) une base de V (resp. de W ). Pour tout couple
(i, j) 2 I ⇥ J introduisons un symbole t(i, j) et soit E le k-ev de base (t(i, j))(i,j)2I⇥J .
On définit l’application : V ⇥ W ! E en posant (ei , e0j ) = t(i, j) et en l’étendant par
bilinéarité, i.e. tout v 2 V (resp. w 2 W ) s’écrit de manière unique comme une combinaison
linéaire
X X
v= e
i i , w = µj e0j
i2I j2J

avec les i dans k nuls sauf pour un nombre fini d’indices, et de même pour les µj , et l’on
pose
X
(v, w) = i µj t(i, j).
(i,j)2I⇥J

Soit b : V ⇥ W ! F une application bilinéaire. Alors une application linéaire f : E ! F


telle que f = b doit nécessairement vérifier f (t(i, j)) = b(ei , e0j ) pour tout (i, j) 2 I ⇥ J.
Réciproquement, soit f : E ! F l’application linéaire définie par les égalités précédentes
(i.e. en se donnant les valeurs de f sur les éléments d’une base de E). Alors pour tous
v 2 V et w 2 W comme plus haut, on a :
⇣ X ⌘ X
0
f ( (v, w)) = f i µj t(i, j) = i µj b(ei , ej ) = b(v, w).
(i,j)2I⇥J (i,j)2I⇥J

Ceci montre que le couple (E, ) vérifie la propriété universelle. On note alors E = V ⌦ W
et pour tous v 2 V et w 2 W , on note v ⌦ w l’élément (v, w) de V ⌦ W .
(ii) Si V (resp. W ) est de dimension finie p = |I| (resp. q = |J|), alors comme le cardinal
de I ⇥ J est pq, on obtient dim(V ⌦ W ) = |I ⇥ J| = pq = dim(V ) dim(W ).
(iii) L’application k ⇥ V ! V , ( , v) 7! v est bilinéaire donc induit une unique appli-
cation linéaire f : k ⌦ V ! V telle que f ( ⌦ v) = v pour tout 2 k et v 2 V .
D’autre part, l’application : k ⇥ V ! k ⌦ V , ( , v) 7! ⌦ v est bilinéaire donc, en
particulier, l’application ⌧ : V ! k ⌦ V , v 7! 1 ⌦ v est linéaire. Elle vérifie f ⌧ = idV .
De plus, tout élément x de k ⌦ V s’écrit comme une somme finie
n
X
x= i1 ⌦ vi
i=1

avec i 2 k et vi 2 V . Par bilinéarité de , on a i 1 ⌦ vi = i (1 ⌦ vi ) = 1 ⌦ i vi pour tout


i, d’où x = 1 ⌦ v avec v = 1 v1 + · · · + n vn = f (x). Ceci montre que ⌧ f = idk⌦V . Par
conséquent, f et ⌧ sont des isomorphisme réciproques l’un de l’autre.
28. PRODUIT TENSORIEL 129

Terminologie 28.5 (Tenseurs décomposables). — Tout élément de V ⌦ W de la


forme v ⌦ w est appelé un tenseur décomposable. Tout élément de V ⌦ W s’écrit comme
une somme finie v1 ⌦ w1 + · · · + vN ⌦ wN de tenseurs décomposables. Mais attention, si
V, W sont tous deux de dimension > 1, il existe des éléments de V ⌦ W qui ne sont pas
décomposables ! On en verra (peut-être) des exemples plus loin.

Théorème 28.6. — Le produit tensoriel ⌦ possède les propriétés suivantes :


(1) Il est associatif, i.e. pour tous k-ev U, V, W , il existe un unique isomorphisme

f : (U ⌦ V ) ⌦ W ! U ⌦ (V ⌦ W )
tel que f (u ⌦ v) ⌦ w = u ⌦ (v ⌦ w) pour tout u 2 U , v 2 V , w 2 W .

(2) Il est commutatif, i.e. il existe un unique isomorphisme g : U ⌦ V ! V ⌦ U tel
que g(u ⌦ v) = v ⌦ u pour tout u 2 U , v 2 V .

Pour faire la démonstration, il est utile de disposer du résultat suivant.

Lemme 28.7. — (i) Soient V, W, F des k-ev. Les applications G et D qui à tout b 2
Bil(U, V ; F ) associent respectivement les applications linéaires
G(b) : U ! Hom(V, F ), u 7! b(u, ), D(b) : V ! Hom(U, F ), v 7! b( , v)
i.e. G(b)(u)(v) = b(u, v) = D(b)(v)(u) pour tout u 2 U et v 2 V , sont des isomorphismes
de k-espaces vectoriels. On a donc des isomorphismes canoniques
Hom(U, Hom(V, F )) = Bil(U, V ; F ) = Hom(V, Hom(U, F ))
(ii) Plus généralement, pour des k-ev V1 , . . . , Vp , F , on a des isomorphismes canoniques :

Multp (V1 , . . . , Vp ; F ) = Hom Vp , Multp 1 (V1 , . . . , Vp 1 ; F )


⇣ ⌘
= Hom Vp , Hom Vp 1 , Multp 2 (V1 , . . . , Vp 2 ; F ) = · · ·

Démonstration. — Soit G0 l’application qui à tout f 2 Hom(U, Hom(V, F )) associe l’ap-


plication bilinéaire
G0 (f ) : U ⇥ V ! F, (u, v) 7! f (u)(v).
Alors on a G(G0 (f ))(u) = G0 (f )(u, ) = f (u) donc G G0 = id. De même, pour tout
b 2 Bil(U, V ; F ) on a G0 (G(b))(u, v) = G(b)(u)(v) = b(u, v), donc G0 G = id. Ceci prouve
que G et G0 sont des isomorphismes réciproques l’un de l’autre. On obtient de même le
second isomorphisme de (i), ainsi que la généralisation (ii).
Démonstration du théorème 28.6. — (1) Pour tout k-ev F , on a des isomorphismes cano-
niques
⇣ ⌘
Hom (U ⌦ V ) ⌦ W, F = Hom U ⌦ V, Hom(W, F ) = Hom U, Hom V, Hom(W, F )
et
⇣ ⌘
Hom U ⌦ (V ⌦ W ), F = Hom U, Hom(V ⌦ W, F ) = Hom U, Hom V, Hom(W, F )

qui à toute application linéaire f : (U ⌦ V ) ⌦ W ! F (resp. g : U ⌦ (V ⌦ W ) ! F ) associe


l’application trilinéaire Tf (resp. Tg ) de U ⇥ V ⇥ W vers F telle que
Tf (u, v, w) = f (u ⌦ v) ⌦ w , Tg (u, v, w) = g u ⌦ (v ⌦ w) .
130 CHAPITRE 7. PRODUIT TENSORIEL ET APPLICATIONS

Ceci prouve le point (1). Le point (2) s’obtient en notant que l’on a un isomorphisme
canonique Bil(U, V ; F ) = Bil(V, U ; F ), obtenu en associant à tout application bilinéaire
b : U ⇥ V ! F l’application bilinéaire b0 : V ⇥ U ! F définie par b0 (v, u) = b(u, v).

Notation 28.8. — Comme le produit tensoriel est associatif, on peut omettre les paren-
thèses, i.e. le produit tensoriel (U ⌦ V ) ⌦ W = U ⌦ (V ⌦ W ) sera noté U ⌦ V ⌦ W .
En particulier, pour tout entier p 1, on pose T p (V ) = V ⌦p = V ⌦ · · · ⌦ V (p facteurs).
Pour tous p, q 2 N⇤ on a donc un isomorphisme canonique

T p (V ) ⌦ T q (V ) ! T p+q (V )
envoyant (v1 ⌦ · · · ⌦ vp ) ⌦ (v10 ⌦ · · · ⌦ vq0 ) sur v1 ⌦ · · · ⌦ vp ⌦ v10 ⌦ · · · ⌦ vq0 .
On pose aussi T 0 (V ) = k. Alors, tenant compte du point (iii) du théorème 28.4, on
obtient pour tous p, q 2 N un isomorphisme canonique

(?) T p (V ) ⌦ T q (V ) ! T p+q (V ).

En fait, la démonstration du théorème 28.6 prouve le résultat suivant dans le cas où
n = 3, et en procédant par récurrence on obtient le théorème ci-dessous.

Théorème 28.9 (Propriété universelle de V1 ⌦ · · · ⌦ Vn ). — Soient V1 , . . ., Vn des


k-ev.
(i) L’application ⌧n : V1 ⇥ · · · ⇥ Vn ! V1 ⌦ · · · ⌦ Vn , (v1 , . . . , vn ) 7! v1 ⌦ · · · ⌦ vn est
n-linéaire.
(ii) Pour tout k-ev F , on a un isomorphisme canonique
Hom(V1 ⌦ · · · ⌦ Vn , F ) = Multn (V1 , . . . , Vn ; F ), f 7! f ⌧n
i.e. pour toute application n-linéaire ↵ : V1 ⇥ · · · ⇥ Vn ! F , il existe une unique application
linéaire f : V1 ⌦ · · · ⌦ Vn ! F telle que f (v1 ⌦ · · · ⌦ vn ) = ↵(v1 , . . . , vn ) pour tous v1 2 V1 ,
. . ., vn 2 Vn .

29. Algèbre tensorielle T (V )


Commençons par le « rappel » suivant.

Rappel 29.1 (Sommes directes arbitraires). — Soit I un ensemble d’indices arbi-


traire, i.e. pas nécessairement fini. Pour tout i 2 I, soit Vi un k-ev. Par définition, le pro-
Q
duit des Vi , noté i2I Vi est l’espace vectoriel des familles (vi )i2I , où vi 2 Vi pour tout i 2 I.
Évidemment, la structure d’espace vectoriel est définie terme à terme, i.e. (vi ) + (vi0 ) =
( vi + vi0 ).
L
La somme directe des Vi , notée i2I Vi , est le sev formé des familles (vi )i2I , avec
vi 2 Vi et vi = 0 sauf pour un nombre fini d’indices. Si Bi = (ei ) 2⇤i est une base de
F L
Vi , alors la réunion disjointe des Bi , notée i2I Bi est une base de S = i2I Vi , i.e. tout
élément x 2 S s’écrit de façon unique
X XX
x= vi = ↵i, ei ,
i2I i2I 2⇤i

avec les vi 2 Vi et ↵i, 2 k nuls sauf pour un nombre fini d’indices.


29. ALGÈBRE TENSORIELLE T (V ) 131

Par exemple, l’anneau de polynômes k[X] est la somme directe des k-ev Vn = kX n , tous
de dimension 1, puisque tout polynôme P s’écrit de façon unique
X
P = an X n
n2N

avec les an 2 k nuls sauf pour un nombre fini d’indices.


L Q
Bien sûr, si I est fini l’inclusion i2I Vi ⇢ i2I Vi est une égalité, mais si I est infini (et
chaque Vi non nul) cette inclusion est stricte.
Signalons au passage la proposition suivante, qui se déduit de la démonstration du théo-
rème 28.4.
Proposition 29.2. — Le produit tensoriel commute aux sommes directes arbitraires, i.e.
pour toute famille (Vi )i2I de k-ev on a un isomorphisme canonique
⇣M ⌘ M
Vi ⌦ W = (Vi ⌦ W ).
i2I i2I

Définition 29.3 (k-ev gradués). — Soit V un k-espace vectoriel. On dit que V est
N-gradué s’il est la somme directe de sous-espaces vectoriels Vn , pour n 2 N, i.e. si
M
V = Vn .
n2N

Dans ce cas, Vn s’appelle la composante homogène de degré n de V . Tout élément non nul
de Vn est appelé un élément homogène de degré n. Il résulte de la définition que tout v 2 V
P
s’écrit de façon unique v = n2N vn avec vn 2 Vn et vn = 0 sauf pour un nombre fini
d’indices ; chaque vn s’appelle la composante homogène de degré n de v.
On définit de même la notion de k-ev Z-gradué. Par exemple,
M M
k[X] = kX n , resp. k[X, X 1 ] = kX n
n2N n2Z

est N-gradué (resp. Z-gradué). Plus généralement,


M
A = k[X1 , . . . , Xp ] = An
n2N

est N-gradué, où An désigne le k-ev des polynômes en X1 , . . . , Xp qui sont homogènes de
degré total n.
Définitions 29.4 (k-algèbres et k-algèbres graduées). — Soit A un k-ev. D’après la
propriété universelle du produit tensoriel, se donner sur A une « multiplication » bilinéaire
m : A ⇥ A ! A équivaut à se donner l’application linéaire µ : A ⌦ A ! A telle que
µ(a ⌦ b) = m(a, b). Dire que m est associative, i.e. que m(a, m(b, c)) = m(m(a, b), c) pour
tous a, b, c 2 A, équivaut à dire que
(⇤) µ(a ⌦ µ(b ⌦ c)) = µ(µ(a ⌦ b) ⌦ c)
pour tous a, b, c 2 A. De plus, comme les deux membres de (⇤) sont trilinéaires, i.e. linéaires
en a, b et c, il suffit de vérifier cette égalité lorsque a, b, c parcourent chacun un système de
générateurs (par exemple une base) de A.
Enfin, dire que A possède un élément unité 1 signifie que µ(1 ⌦ a) = a = µ(a ⌦ 1) pour
tout a 2 A. Et, comme plus haut, il suffit de vérifier cette égalité lorsque a parcourt un
système de générateurs (par exemple une base) de A.
132 CHAPITRE 7. PRODUIT TENSORIEL ET APPLICATIONS

Dans la suite, on ne considérera que des k-algèbres associatives avec élément unité et
pour abréger on écrira souvent « k-algèbre » au lieu de « k-algèbre associative avec unité ».
L
Si de plus A = n2N An est N-graduée, on dit que la multiplication µ : A ⌦ A ! A est
graduée si pour tous p, q 2 N on a µ(Ap ⌦ Aq ) ⇢ Ap+q . Noter que, d’après la proposition
précédente, on a M
A⌦A= Ap ⌦ Aq .
(p,q)2N2

Par conséquent, pour se donner sur A une structure de k-algèbre (associative avec unité)
graduée, il suffit de définir un élément 1 2 A0 et pour tout (p, q) 2 N2 une application
linéaire µp,q : Ap ⌦ Aq ! Ap+q , d’où une application linéaire A ⌦ A ! A, et de vérifier
que pour tous éléments homogènes a, b, c on a l’égalité d’associativité (⇤) ainsi que l’égalité
µ(1 ⌦ a) = a = µ(a ⌦ 1).

Définition 29.5. — Soit V un k-ev. On définit son algèbre tensorielle T (V ) par :


M
T (V ) = T p (V ) = k V V ⌦2 V ⌦3 · · ·
p2N

Les isomorphismes canoniques T p (V ) ⌦ T q (V ) ! T p+q (V ) définissent une multiplication
bilinéaire graduée sur T (V ), pour laquelle l’élément 1 2 k = T 0 (V ) est élément neutre. De
plus, cette multiplication est associative puisque pour tous v1 , . . . , vp+q+r 2 V on a :
⇣ ⌘
(v1 ⌦ · · · ⌦ vp ) · (vp+1 ⌦ · · · ⌦ vp+q ) · (vp+q+1 ⌦ · · · ⌦ vp+q+r ) = v1 ⌦ · · · ⌦ vp+q+r
⇣ ⌘
= (v1 ⌦ · · · ⌦ vp ) · (vp+1 ⌦ · · · ⌦ vp+q ) · (vp+q+1 ⌦ · · · ⌦ vp+q+r ) .

On identifie V à la partie homogène de degré un T 1 (V ) = V .

Définition 29.6 (Idéaux bilatères et algèbres quotients)


Soit A une k-algèbre associative avec unité et soit I un sev de A. On dit que :
(1) I est un idéal à gauche (resp. à droite) si pour tout x 2 I, a 2 A on a : ax 2 I
(resp. xa 2 I).
(2) I est un idéal bilatère si c’est un idéal à gauche et à droite, i.e. si pour tout x 2 I,
a, b 2 A on a : axb 2 I.
Soit I un idéal bilatère ; pour tout a 2 A notons a + I l’image de a dans l’espace vectoriel
quotient A/I. Alors A/I est muni d’une structure de k-algèbre définie par :
(†) (a + I)(b + I) = ab + I.
Cette multiplication est bien définie car pour tout x, y 2 I on a
(a + x)(b + y) = ab + xb + ay + xy
et, puisque I est un idéal bilatère, chacun des termes xb, ay et xy appartient à I. Ceci
montre que la classe ab + I ne dépend que des classes a + I et b + I (et non du choix de
a et b dans ces classes). Ayant ainsi vérifié que la multiplication (†) est bien définie, il est
immédiat de voir qu’elle est associative et possède 1 + I comme élément neutre.
Pour tout morphisme de k-algèbres : A ! B, son noyau I = Ker( ) est un idéal
bilatère de A. On obtient alors que induit un morphisme d’algèbres : A/I ! B défini
par (a + I) = (a).
29. ALGÈBRE TENSORIELLE T (V ) 133

Théorème 29.7 (Propriété universelle de T (V )). — La k-algèbre T (V ) possède la


propriété universelle suivante : pour toute k-algèbre A et toute application linéaire f :
V ! A, il existe un unique morphisme de k-algèbres associatives avec unité : T (V ) ! A
tel que (v) = f (v) pour tout v 2 V .
Si de plus A est engendrée comme k-algèbre par f (V ) alors est surjectif donc induit

un isomorphisme de k-algèbres : T (V )/I ! A, où I = Ker( ).
Démonstration. — Pour tout p 1, l’application V p ! A, (v1 , . . . , vp ) 7! f (v1 ) · · · f (vp )
est p-linéaire. Donc, d’après la propriété universelle du produit tensoriel 28.9, il existe une
unique application linéaire p : T p (V ) ! A telle que
(~) p (v1 ⌦ · · · ⌦ vp ) = f (v1 ) · · · f (vp )
pour tout v1 , . . . , vp 2 V . Soit 0 = T 0 (V ) = k ! A l’unique application linéaire telle que
p
0 (1) = 1A . Comme T (V ) est la somme directe des T (V ), il existe une unique application
linéaire : T (V ) ! A telle que (x) = p (x) pour tout x 2 T p (V ). Montrons que est
un morphisme d’algèbres. Déjà, on a (1) = 1A . Prouvons que (ab) = (a) (b) pour tout
a, b 2 A. Comme les deux membres sont linéaires en a et b, il suffit de le vérifier lorsque
a = v1 ⌦ · · · ⌦ vp et b = v10 ⌦ · · · ⌦ vq0 , auquel cas c’est clair :
(ab) = (v1 ⌦ · · · ⌦ vp ⌦ v10 ⌦ · · · ⌦ vq0 ) = f (v1 ) · · · f (vp )f (v10 ) · · · f (vq0 ) = (a) (b).
Ceci prouve l’existence de . De plus, étant un morphisme de k-algèbres avec unité, doit
nécessairement vérifier (1) = 1A ainsi que (~). Ceci prouve l’unicité, d’où la première
assertion. Pour la seconde, rappelons que « A est engendrée comme k-algèbre par f (V ) »
signifie que les produits f (v1 ) · · · f (vn ) engendrent A comme k-espace vectoriel. Sous cette
hypothèse, il est clair que est surjective, d’où la seconde assertion.
Dans les sections suivantes, on aura besoin de la notion ci-dessous.
L
Définition 29.8 (Idéaux gradués). — Soient A = n2N An une k-algèbre graduée et
I un idéal bilatère de A. Pour tout n, on pose In = I \An . Les projections ⇡n : An ! An /In
induisent une application linéaire surjective
M M
⇡:A= An ! (An /In )
n2N n2N
0
L
dont le noyau est I = n2N In , qui est un idéal bilatère car pour tous a 2 Ap , b 2 Aq
et x 2 In on a axb 2 I \ Ap+n+q = Ip+n+q . Par conséquent, l’algèbre quotient A/I 0 est
graduée, i.e. on a M
A/I 0 = (An /In ).
n2N
On dit que I est un idéal gradué si l’inclusion I 0 ⇢ I est une égalité. Dans ce cas l’algèbre
quotient A/I égale A/I 0 et est donc graduée.
Attention : un idéal bilatère de A n’est pas nécessairement gradué. Par exemple, prenons
A = k[X], graduée par An = kX n , et soit I l’idéal engendré par X 1 ; pour tout n on a
I \ An = {0} donc I 0 = {0}, ce qui montre que I n’est pas un idéal gradué. La proposition
suivante donne un critère pour que I soit gradué.
Proposition 29.9 (Idéaux gradués et éléments homogènes)
L
Soient A = n2N An une k-algèbre graduée et I un idéal bilatère de A. Pour tout n,
posons In = I \ An . Les conditions suivantes sont équivalentes :
134 CHAPITRE 7. PRODUIT TENSORIEL ET APPLICATIONS

L
(i) I est gradué, i.e. n2N In = I.
(ii) Tout élément de I est somme d’éléments homogènes appartenant à I.
(iii) Pour tout x 2 I, chaque composante homogène xn de x appartient à I.
(iv) I est engendré comme idéal par des éléments homogènes.
Démonstration. — La somme des In est directe et contenue dans I ; elle lui est égale ssi la
condition (ii) ou (iii) est vérifiée. Ceci prouve l’équivalence de (i), (ii) et (iii).
Supposons que I soit engendré comme idéal par des éléments x , où chaque x est
homogène de degré d , pour variant dans un ensemble d’indices ⇤. Ceci signifie que I
est engendré comme k-ev par les éléments ax b, pour 2 ⇤ et a, b 2 A. Comme chaque
a (resp. b) est somme de ses composantes homogènes ap (resp. bq ) on obtient que I est
engendré comme k-ev par les éléments homogènes ap x bq , donc (ii) est vérifié.
Enfin, supposons (iii) vérifié et soit (x ) 2⇤ un système quelconque de générateurs de
l’idéal I. Par hypothèse, chaque composante homogène x ,n de x appartient à I, donc I
est a fortiori engendré par les éléments homogènes x ,n , pour 2 ⇤ et n 2 N. Ceci prouve
l’équivalence des quatre conditions.

30. Algèbre extérieure ⇤(V )


Définition 30.1. — On pose ⇤(V ) = T (V )/I, où I est l’idéal bilatère engendré par
les éléments homogènes v ⌦ v 2 T 2 (V ), pour v parcourant V . C’est un idéal gradué,
L n n
contenu dans n 2 T (V ), i.e. tel que In = I \ T (V ) est nul pour n = 0, 1. Posant
⇤p (V ) = T p (V )/Ip on a donc
⇤(V ) = k V ⇤2 (V ) ···
Pour v1 , . . . , vp 2 V , on note v1 ^ · · · ^ vp l’image de v1 ⌦ · · · ⌦ vp dans ⇤p (V ). Noter que
l’application
✓p : V p ! ⇤p (V ), (v1 , . . . , vp ) 7! v1 ^ · · · ^ vp
est p-linéaire, étant la composée de l’application p-linéaire ⌧p : V p ! T p (V ) et de l’appli-
cation linéaire ⇡p : T p (V ) ! ⇤p (V ).
Proposition 30.2. — Soient v1 , . . . , vp 2 V .
(1) Pour toute permutation 2 Sp , notant "( ) sa signature, on a :
v (1) ^ ··· ^ v (p) = "( ) v1 ^ · · · ^ vp .
(2) S’il existe i < j tels que vi = vj alors v1 ^ · · · ^ vp = 0.
(3) Par conséquent, l’application ✓p : (v1 , . . . , vp ) 7! v1 ^ · · · ^ vp est p-linéaire alternée.
Démonstration. — (1) Fixons i 2 {1, . . . , p 1} et posons u = v1 ^ · · · ^ vi 1 et w =
vi+2 ^ · · · ^ vp . Pour tous v, v 0 2 V , on a :
0 = u ^ (v + v 0 ) ^ (v + v 0 ) ^ w = u ^ v ^ v ^ w + u ^ v 0 ^ v 0 ^ w + u ^ v ^ v 0 ^ w + u ^ v 0 ^ v 0 ^ w
et comme u ^ v ^ v ^ w = 0 = u ^ v 0 ^ v 0 ^ w, on obtient que
u ^ v0 ^ v0 ^ w = u ^ v ^ v 0 ^ w.
Ceci prouve (1) lorsque est la transposition ⌧i = (i, i + 1). Or on sait (exercice !) que Sp
est engendré par ces transpositions, et l’assertion (1) en découle en faisant agir Sp à droite
sur ⇤p (V ) par permutation des places.
30. ALGÈBRE EXTÉRIEURE ⇤(V ) 135

Prouvons (2). D’après (1), on a


v1 ^ · · · ^ vp = ( 1)j i 1
v1 ^ · · · ^ vi ^ vj ^ vi+2 ^ · · · ^ vp ,
et le terme de droite est nul d’après l’hypothèse vj = vi . Enfin, (3) découle de (2).
Notation 30.3. — Pour tout k-ev F , on note Altp (V, F ) l’espace vectoriel des applica-
tions p-linéaires alternées V p ! F . Noter que comme l’application ✓p : V p ! ⇤p (V ) est
p-linéaire alternée, alors f ✓p 2 Altp (V, F ) pour toute application linéaire f : ⇤p (V ) ! F .
Théorème 30.4. — Pour tout k-ev F , on a un isomorphisme canonique
() Hom(⇤p (V ), F ) = Altp (V, F ), g 7! g ✓p
i.e. pour toute application p-linéaire alternée ↵ : V p ! F , il existe une unique application
linéaire g : ⇤p (V ) ! F telle que f (v1 ^ · · · ^ vp ) = ↵(v1 , . . . , vp ) pour tous v1 , . . . , vp 2 V .
Démonstration. — Rappelons d’abord que ✓p est la composée de l’application p-linéaire
⌧p : V p ! T p (V ) et de la projection ⇡p : T p (V ) ! ⇤p (V ). D’après la propriété universelle
du produit tensoriel 28.9, on a un isomorphisme canonique
(}) Hom(T p (V ), F ) = Multp (V, F ), f 7! f ⌧p .
Comme ⇤p (V ) = T p (V )/Ip , alors le terme de gauche de () est formé des applications
linéaires f : T p (V ) ! F qui s’annulent sur Ip , i.e. qui se factorisent en f = f ⇡p , pour
une application linéaire (unique puisque ⇡p est surjectif) f : ⇤p (V ) ! F .
Dans ce cas, l’application p-linéaire f ⌧p = f ✓p est alternée, puisque ✓p l’est. Ceci
montre que l’isomorphisme (}) envoie Hom(⇤p (V ), F ) dans Altp (V, F ).
Réciproquement, soit ↵ 2 Altp (V, F ) et soit f : T p (V ) ! F l’unique application linéaire
telle que
f (v1 ⌦ · · · ⌦ vp ) = ↵(v1 , . . . , vp )
pour tous v1 , . . . , vp . Par définition, Ip est engendré comme k-espace vectoriel par les ten-
seurs
x ⌦ v ⌦ v ⌦ y,
où v 2 V se trouve aux places i et i + 1, et x 2 T i 1 (V ), y 2 T p i 1 (V ). Comme ↵ est
alternée, alors f s’annule sur tout tel tenseur, donc sur Ip . Par conséquent, f se factorise
en f = f ⇡p et l’on a ↵ = f ✓p . Ceci prouve le théorème.
Théorème 30.5. — Supposons dim(V ) = n et soit B = (e1 , . . . , en ) une base de V .
Pour tout p 2 N⇤ , posons Ip (n) = {(i1 , . . . , ip ) 2 Np | 1  i1 < · · · < ip  n} et pour tout
I = (i1 , . . . , ip ) dans Ip (n), posons
e I = e i1 ^ · · · ^ e ip .
Alors les eI , pour I 2 Ip (n), forment une base de ⇤p (V ). On a donc ⇤p (V ) = {0} si p > n
et dim ⇤p (V ) = np pour p  n. En particulier, ⇤n (V ) est de dimension 1, engendré par
e1 ^ · · · ^ en .
Démonstration. — T p (V ) est engendré par les tenseurs ej1 ⌦· · ·⌦ejp pour 1  j1 , . . . , jp  n
donc ⇤p (V ) est engendré par leurs images eJ = ej1 ^ · · · ^ ejp . D’autre la proposition 30.2, si
deux des indices sont égaux le p-vecteur eJ est nul, et si les indices sont tous distincts alors
eJ = ±eI où I est l’unique élément de Ip (n) obtenu en renumérotant les j` dans l’ordre
croissant. Ceci montre que les eI , pour I 2 Ip (n), engendrent ⇤p (V ).
136 CHAPITRE 7. PRODUIT TENSORIEL ET APPLICATIONS

Montrons qu’ils sont linéairement indépendants. Soit B ⇤ = (e⇤1 , . . . , e⇤n ) la base duale de
V . Pour tout F = (f1 , . . . , fp ) 2 V ⇤p , l’application

f1 (v1 ) · · · f1 (vp )
p
DF : V ! k, (v1 , . . . , vp ) 7! .. ..
. .
fp (v1 ) · · · fp (vp )
est p-linéaire alternée donc, d’après la propriété universelle 30.4, il existe une unique forme
linéaire gF : ⇤p (V ) ! k telle que
gF (v1 ^ · · · ^ vp ) = DF (v1 , . . . , vp ).
Pour tout J = (j1 , . . . , jp ) 2 Ip (n), appliquons ceci au p-uplet FJ = (e⇤j1 , . . . , e⇤jp ) et notons
gJ la forme linéaire sur ⇤p (V ) correspondante. Pour tous I, J 2 Ip (n), on voit facilement
que la matrice 0 ⇤ 1
ej1 (ei1 ) · · · e⇤j1 (eip )
B .. .. C
@ . . A
e⇤jp (ei1 ) · · · e⇤jp (eip )
a au moins une ligne nulle si J 6= I et est la matrice identité si J = I. Il en résulte que
(
1 si J = I,
(⇤) gJ (eI ) =
0 sinon.
Ceci prouve que les eI , pour I 2 Ip (n), sont linéairement indépendants : en e↵et si l’on a
P
une égalité I2Ip (n) I eI = 0 avec I 2 k, alors en appliquant gJ on trouve J = 0.
Proposition 30.6. — (i) On a une application linéaire canonique ⇤p (V ⇤ ) ! ⇤p (V )⇤ .
(ii) Elle est bijective si V est de dimension finie, donc on a dans ce cas un isomorphisme
canonique ⇤p (V ⇤ ) = ⇤p (V )⇤ .
Démonstration. — Pour tout F = (f1 , . . . , fp ) 2 V ⇤p , notons g(F ) la forme linéaire
⇤p (V ) ! k notée gF dans la démonstration précédente, i.e. pour tout v1 , . . . , vp 2 V :
f1 (v1 ) · · · f1 (vp )
g(F )(v1 ^ · · · ^ vp ) = .. .. .
. .
fp (v1 ) · · · fp (vp )
Il résulte des propriétés du déterminant que l’application V ⇤p ! ⇤p (V )⇤ , F 7! gF est p-
linéaire alternée. Donc, d’après la propriété universelle 30.4, il existe une unique application
linéaire
: ⇤p (V ⇤ ) ! ⇤p (V )⇤
telle que (f1 ^ · · · ^ fp ) = g(f1 , . . . , fp ) pour tous f1 , . . . , fp 2 V ⇤ et donc
f1 (v1 ) · · · f1 (vp )
(†) (f1 ^ · · · ^ fp )(v1 ^ · · · ^ vp ) = .. ..
. .
fp (v1 ) · · · fp (vp )
pour tous f1 , . . . , fp 2 V ⇤ et v1 , . . . , vp 2 V . Ceci prouve (i).
(ii) Supposons V de dimension finie et soit B = (e1 , . . . , en ) une base de V et B ⇤ =
(e⇤1 , . . . , e⇤n ) la base duale de V ⇤ . Pour tous I, J 2 Ip (n) notons eI = ei1 ^ · · · ^ eip et
e⇤J = e⇤j1 ^ · · · ^ e⇤jp . Alors, les eI (resp. e⇤J ) forment une base Bp de ⇤p (V ) (resp. Cp de
31. LE PLONGEMENT Pr (k) ⇥ Ps (k) ⇢ Prs+r+s (k) 137

⇤p (V ⇤ )). Notons également Bp⇤ la base de ⇤p (V )⇤ duale de Bp . D’après la définition (†),


on a (
1 si J = I,
(e⇤J )(eI ) =
0 sinon.
Ceci montre que envoie la base Cp de ⇤p (V ⇤ ) sur la base Bp⇤ de ⇤p (V )⇤ . Par conséquent,
est un isomorphisme.
Remarque 30.7. — Soit V un k-ev de dimension finie. Rappelons qu’on a un isomor-
phisme canonique V = V ⇤⇤ . Combiné avec le théorème 30.4 et la proposition 30.6, ceci
donne les isomorphismes canonique suivants :
Altp (V ⇤ , k) = Hom(⇤p (V ⇤ ), k) = ⇤p (V ⇤ )⇤ = ⇤p (V ⇤⇤ ) = ⇤p (V ).
Ceci justifie la définition ad hoc ⇤p (V ) = Altp (V ⇤ , k) donnée dans le chapitre 6.

31. Le plongement Pr (k) ⇥ Ps (k) ⇢ Prs+r+s (k)


Proposition 31.1. — Soient V, W des k-espaces vectoriels.
(i) On a une application linéaire canonique : V ⇤ ⌦ W ! Hom(V, W ) telle que, pour
tous f 2 V ⇤ , w 2 W et v 2 V :
(f ⌦ w)(v) = f (v)w.
(ii) Si V et W sont de dimension finie, est un isomorphisme.
Démonstration. — (i) L’application ✓ : V ⇤ ⇥ W ! Hom(V, W ) définie par ✓(f, w)(v) =
f (v)w pour tous f 2 V ⇤ , w 2 W et v 2 V est bilinéaire. Donc il existe une unique
application linéaire comme désiré.
(ii) Posons q = dim(V ), p = dim(W ) et soient B = (e1 , . . . , eq ) et B 0 = (w1 , . . . , wp )
des bases de V et W . Soit B ⇤ = (e⇤1 , . . . , e⇤q ) la base duale de V ⇤ . Alors les e⇤j ⌦ wi , pour
i = 1, . . . , p et j = 1, . . . , q forment une base C de V ⇤ ⌦ W .
D’autre part, via le choix des bases B et B 0 , Hom(V, W ) s’identifie au k-ev Mp,q (k)
des matrices à p lignes et q colonnes. Les matrices élémentaires Eij en forment une base.
Rappelons que Eij désigne la matrice dont tous les coefficients sont nuls sauf celui d’indice
(i, j) qui vaut 1 ; elle correspond à l’application linéaire u : V ! W telle que u(ej ) = wi et
u(e` ) = 0 pour ` 6= j. Or, pour ` = 1, . . . , q on a :
(
wi si j = `,
(e⇤j ⌦ wi )(e` ) = e⇤j (e` )wi =
0 sinon.
Ceci montre que envoie la base C sur la base des Eij . Par conséquent est un isomor-
phisme.
Remarque 31.2. — Pour V, W arbitraires, on peut montrer que est injective et que son image est
formée des applications linéaires u : V ! W de rang fini. En particulier, est un isomorphisme si V ou
W est de dimension finie. Mais pour V et W de dimension infinie, n’est pas surjective. Par exemple, si
W = V est de dimension infinie alors idV n’est pas de rang fini donc n’appartient pas à l’image de .

Définition 31.3 (Mineurs de taille r et matrices de rang 1)


Soient p, q des entiers 2. Pour A 2 Mpq (k), on note aij son coefficient d’indice (i, j). On
rappelle que le rang de A est le nombre maximum de colonnes de A qui sont linéairement
indépendantes.
138 CHAPITRE 7. PRODUIT TENSORIEL ET APPLICATIONS

Soit r un entier tel que 0 < r  p, q et soit I (resp. J) un sous-ensemble de cardinal r


de {1, . . . , p} (resp. de {1, . . . , q}). Alors le mineur I,J (A) est le déterminant de la sous-
matrice de taille r formée par les lignes Li et colonnes Cj de A d’indices i 2 I et j 2 J.
On dit que I,J (A) est un mineur de taille r. Par exemple, si
0 1
a b c d
A = @ e f g hA
` m n s
alors
b d
{1,3},{2,4} (A) =
= bs dm.
m s
On « rappelle » que A est de rang < r si et seulement si tous les mineurs de A de taille r
sont nuls.
Par conséquent, le sous-ensemble C1 (p, q) de Mp,q (k) formé des matrices de rang  1
(i.e. la matrice nulle et les matrices de rang 1) est la « sous-variété algébrique » de Mp,q (k)
définie par les équations polynomiales homogènes de degré 2 :
ai 1 j 1 ai 1 j 2
0= = ai 1 j 1 ai 2 j 2 ai 1 j 2 ai 2 j 1
ai 2 j 1 ai 2 j 2
pour 1  i1 < i2  p et 1  j1 < j2  q. C’est un cône, i.e. si A y appartient alors A
y appartient aussi pour tout 2 k. On dit que C1 (p, q) privé du vecteur nul est un cône
épointé.
Proposition 31.4. — Soient V, W deux k-ev de dimension finie, posons E = Hom(V, W ).
Soit C1 le cône de E formé de 0 et des applications linéaires u : V ! W de rang 1 et soit
C1⇥ = C1 {0}.
(i) L’application : P(V ⇤ ) ⇥ P(W ) ! P(E), ([f ], [w]) 7! [f ⌦ w] est bien définie et
injective.
(ii) L’image X de est l’image dans P(E) de C1⇥ , i.e.
⇣ ⌘
X= P(V ) ⇥ P(W ) = {[u] 2 P(E) | u 2 C1⇥ }.

(iii) Identifions E à Mp,q (k) via le choix de bases de V et W . Alors X est la sous-variété
algébrique de P(Mp,q (k)) définie par les équations polynomiales homogènes de degré 2 :
ai 1 j 1 ai 2 j 2 = ai 1 j 2 ai 2 j 1
pour 1  i1 < i2  p et 1  j1 < j2  q.
Démonstration. — (i) Si on remplace f et w par v et µw, avec , µ 2 k ⇥ , alors ( f ) ⌦
(µw) = µ(f ⌦ w), donc est bien définie. Notons u l’application linéaire (f ⌦ w) : V !
W , v 7! f (v)w. Alors Im(u) = kw et Ker(u) est l’hyperplan Ker(f ) de V . Tous les mutiples
u avec 2 k ⇥ ont même image et même noyau, donc la donnée de [u] détermine la droite
kw de W ainsi que la droite kf de V ⇤ . Ceci montre que est injective.
(ii) On vient de voir que (f ⌦ w) est de rang 1. Réciproquement, soit u : V ! W de
rang 1 et soit w un générateur de Im(u). Alors il existe une application f : V ! k telle
que u(v) = f (v)w pour tout v 2 V et, comme u est linéaire, f l’est aussi, i.e. f 2 V ⇤ . On a
donc u = (f ⌦ w). Ceci montre que l’image X de est l’image dans P(E) du cône épointé
C1⇥ . L’assertion (iii) en découle en tenant compte de la définition précédente.
31. LE PLONGEMENT Pr (k) ⇥ Ps (k) ⇢ Prs+r+s (k) 139

Posons r = q 1 et s = p 1. Prenant des bases B = (e1 , . . . , eq ) et C = (w1 , . . . , wp )


de V et W , ainsi que la base duale B ⇤ = (e⇤1 , . . . , e⇤q ) de V ⇤ , on peut identifier P(V ⇤ ) à
Pr (k) et P(W ) à Ps (k), i.e. le point de Pr (k) (resp. de Ps (k)) de coordoonnées homogènes
[y1 : · · · : yq ] (resp. [x1 : · · · : xp ]) correspond à [y1 e⇤1 + · · · yq e⇤q ] (resp. [x1 w1 + · · · + xp wp ]).
On a vu que (e⇤j ⌦ wi ) est la matrice élémentaire Eij ; par conséquent
⇣X q p
X ⌘

yj e j ⌦ xi w i
j=1 i=1

est la matrice A 2 Mpq (k) dont le coefficient d’indice (i, j) est xi yj . Notons enfin que Mpq (k)
est de dimension pq = rs + r + s + 1. On obtient ainsi le :
Corollaire 31.5. — L’application Pr (k) ⇥ Ps (k) ! Prs+r+s (k) qui associe à tout couple
[y1 : · · · : yq ], [x1 : · · · : xp ] l’image dans Prs+r+s (k) de la matrice
0 1
x1 y1 · · · x1 yq
B .. .. C
@ . . A
xp y1 · · · xp yq
est injective. Son image est la sous-variété algébrique de
Prs+r+s (k) = {[A] = [a11 : · · · : apq ] | A 2 Mpq (k), A 6= 0}
définie par les équations homogènes de degré 2 : ai1 j1 ai2 j2 = ai1 j2 ai2 j1 pour 1  i1 < i2  p
et 1  j1 < j2  q.
Le cours a aussi comporté une section 32 sur l’algèbre symétrique S(V ) d’un k-espace
vectoriel V . Cette section n’est pas au programme de l’examen. Elle sera peut-être rédigée
dans une version ultérieure du polycopié.
FIN (à la date du 2/12/2016)

Vous aimerez peut-être aussi