100% ont trouvé ce document utile (4 votes)
1K vues716 pages

Algèbre Commutative Méthodes Constructives

Transféré par

ben hamid
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (4 votes)
1K vues716 pages

Algèbre Commutative Méthodes Constructives

Transféré par

ben hamid
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Algèbre Commutative

Méthodes constructives
Modules projectifs de type fini

LOMBARDI Henri
Maître de Conférences
Université de Franche-Comté, Besançon
[email protected]

QUITTÉ Claude
Maître de Conférences
Université de Poitiers
[email protected]

Terminé en décembre 2008. Dernière mise à jour 22 août 2011


Table des matières

Table des matières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i

Avant-Propos vii

1 Exemples
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Fibrés vectoriels sur une variété compacte lisse . . . . . . . . . . . . . . . . . . . 2
1.2 Formes différentielles sur une variété affine lisse . . . . . . . . . . . . . . . . . . . 6

2 Principe local-global de base et systèmes linéaires


Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1 Quelques faits concernant les localisations . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Principe local-global de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Anneaux et modules cohérents . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4 Systèmes fondamentaux d’idempotents orthogonaux . . . . . . . . . . . . . . . . 24
2.5 Un peu d’algèbre extérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.6 Principe local-global de base pour les modules . . . . . . . . . . . . . . . . . . . 43
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

3 La méthode des coefficients indéterminés


Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.1 Anneaux de polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2 Lemme de Dedekind-Mertens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3 Un théorème de Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4 L’algèbre de décomposition universelle (1) . . . . . . . . . . . . . . . . . . . . . . 67
3.5 Discriminant, diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.6 Théorie de Galois de base (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.7 Le résultant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.8 Théorie algébrique des nombres, premiers pas . . . . . . . . . . . . . . . . . . . . 89
3.9 Le Nullstellensatz de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.10 La méthode de Newton en algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . 104
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

4 Modules de présentation finie


Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
4.1 Définition, changement de système générateur . . . . . . . . . . . . . . . . . . . 126
4.2 Idéaux de présentation finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.3 Catégorie des modules de présentation finie . . . . . . . . . . . . . . . . . . . . 133
4.4 Propriétés de stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.5 Problèmes de classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
4.6 Anneaux quasi intègres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
ii Table des matières

4.7 Anneaux de Bezout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144


4.8 Anneaux zéro-dimensionnels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.9 Idéaux de Fitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
4.10 Idéal résultant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

5 Modules projectifs de type fini, 1


Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
5.2 Sur les anneaux zéro-dimensionnels . . . . . . . . . . . . . . . . . . . . . . . . . . 174
5.3 Modules stablement libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
5.4 Constructions naturelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
5.5 Théorème de structure locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
5.6 Modules localement monogènes projectifs . . . . . . . . . . . . . . . . . . . . . . 180
5.7 Déterminant, polynôme fondamental et polynôme rang . . . . . . . . . . . . . . 185
5.8 Propriétés de caractère fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204

6 Algèbres strictement finies et algèbres galoisiennes


Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
6.1 Algèbres étales sur un corps discret . . . . . . . . . . . . . . . . . . . . . . . . . 206
6.2 Théorie de Galois de base (2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
6.3 Algèbres de présentation finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
6.4 Algèbres strictement finies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
6.5 Formes linéaires dualisantes, algèbres strictement étales . . . . . . . . . . . . . . 224
6.6 Algèbres séparables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
6.7 Algèbres galoisiennes, théorie générale . . . . . . . . . . . . . . . . . . . . . . . . 238
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262

7 La méthode dynamique
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
7.1 Le Nullstellensatz sans clôture algébrique . . . . . . . . . . . . . . . . . . . . . . 265
7.2 La méthode dynamique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
7.3 Introduction aux algèbres de Boole . . . . . . . . . . . . . . . . . . . . . . . . . 273
7.4 L’algèbre de décomposition universelle (2) . . . . . . . . . . . . . . . . . . . . . . 278
7.5 Corps de racines d’un polynôme sur un corps discret . . . . . . . . . . . . . . . . 286
7.6 Théorie de Galois d’un polynôme séparable sur un corps discret . . . . . . . . . 289
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303

8 Modules plats
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
8.1 Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
8.2 Modules plats de type fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
8.3 Idéaux principaux plats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
8.4 Idéaux plats de type fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
8.5 Algèbres plates . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
8.6 Algèbres fidèlement plates . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
Table des matières iii

9 Anneaux locaux, ou presque


9.1 Quelques définitions constructives . . . . . . . . . . . . . . . . . . . . . . . . . . 327
9.2 Quatre lemmes importants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
9.3 Localisation en 1 + a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
9.4 Exemples d’anneaux locaux en géométrie algébrique . . . . . . . . . . . . . . . . 335
9.5 Anneaux décomposables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344
9.6 Anneau local-global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357

10 Modules projectifs de type fini, 2


Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
10.1 Les modules projectifs de type fini sont localement libres . . . . . . . . . . . . . 360
10.2 L’anneau des rangs généralisés H0 (A) . . . . . . . . . . . . . . . . . . . . . . . . 365
10.3 Quelques applications du théorème de structure locale . . . . . . . . . . . . . . . 368
10.4 Grassmanniennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
10.5 Groupes de Grothendieck et de Picard . . . . . . . . . . . . . . . . . . . . . . . . 383
10.6 Identification de points sur la droite affine . . . . . . . . . . . . . . . . . . . . . . 390
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416

11 Treillis distributifs, groupes réticulés


11.1 Treillis distributifs et algèbres de Boole . . . . . . . . . . . . . . . . . . . . . . . 418
11.2 Groupes réticulés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
11.3 Monoïdes à pgcd, anneaux à pgcd . . . . . . . . . . . . . . . . . . . . . . . . . . 432
11.4 Treillis de Zariski d’un anneau commutatif . . . . . . . . . . . . . . . . . . . . . 436
11.5 Relations implicatives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459

12 Anneaux de Prüfer et de Dedekind


Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461
12.1 Anneaux arithmétiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462
12.2 Éléments entiers et localisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 467
12.3 Anneaux de Prüfer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 470
12.4 Anneaux de Prüfer cohérents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473
12.5 Anneaux quasi intègres de dimension 6 1 . . . . . . . . . . . . . . . . . . . . . . 478
12.6 Anneaux de Prüfer cohérents de dimension 6 1 . . . . . . . . . . . . . . . . . . . 480
12.7 Factorisation d’idéaux de type fini . . . . . . . . . . . . . . . . . . . . . . . . . . 482
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 485
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502

13 Dimension de Krull
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 503
13.1 Espaces spectraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504
13.2 Une définition constructive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 506
13.3 Quelques propriétés élémentaires de la dimension de Krull . . . . . . . . . . . . . 513
13.4 Extensions entières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515
13.5 Dimension des anneaux géométriques . . . . . . . . . . . . . . . . . . . . . . . . 516
13.6 Dimension de Krull des treillis distributifs . . . . . . . . . . . . . . . . . . . . . . 518
13.7 Dimension des morphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 520
13.8 Dimension valuative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 526
13.9 Lying over, Going up et Going down . . . . . . . . . . . . . . . . . . . . . . . . . 532
iv Table des matières

Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535


Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 545

14 Nombre de générateurs d’un module


Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 547
14.1 Le théorème de Kronecker et le stable range de Bass . . . . . . . . . . . . . . . . 548
14.2 Dimension de Heitmann et théorème de Bass . . . . . . . . . . . . . . . . . . . . 550
14.3 Supports et n-stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 554
14.4 Manipulations élémentaires de colonnes . . . . . . . . . . . . . . . . . . . . . . . 559
14.5 Le splitting off de Serre et le théorème de Forster-Swan . . . . . . . . . . . . . . 562
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 565
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 568

15 Le principe local-global
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 571
15.1 Monoïdes comaximaux, recouvrements . . . . . . . . . . . . . . . . . . . . . . . . 572
15.2 Quelques principes local-globals concrets . . . . . . . . . . . . . . . . . . . . . . 574
15.3 Quelques principes local-globals abstraits . . . . . . . . . . . . . . . . . . . . . . 579
15.4 Recollement concret d’objets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 581
15.5 La machinerie locale-globale constructive de base . . . . . . . . . . . . . . . . . . 588
15.6 Quotienter par tous les idéaux maximaux . . . . . . . . . . . . . . . . . . . . . . 592
15.7 Localiser en tous les idéaux premiers minimaux . . . . . . . . . . . . . . . . . . . 595
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 595
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 599

16 Modules projectifs étendus


Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601
16.1 Modules étendus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601
16.2 Anneaux seminormaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603
16.3 Recollement à la Quillen-Vaserstein . . . . . . . . . . . . . . . . . . . . . . . . . 609
16.4 Le théorème de Horrocks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 612
16.5 Solution de la conjecture de Serre . . . . . . . . . . . . . . . . . . . . . . . . . . 615
16.6 Modules projectifs étendus depuis les anneaux arithmétiques . . . . . . . . . . . 622
Conclusion : quelques conjectures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 630
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 631
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 632

17 Théorème de stabilité de Suslin


Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 635
17.1 Le groupe élémentaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 635
17.2 Le symbole de Mennicke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 638
17.3 Vecteurs unimodulaires polynomiaux . . . . . . . . . . . . . . . . . . . . . . . . . 639
17.4 Principes local-globals de Suslin et Rao . . . . . . . . . . . . . . . . . . . . . . . 641
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 643
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 646
Table des matières v

Annexe. Logique constructive


Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 647
A.1 Objets de base, Ensembles, Fonctions . . . . . . . . . . . . . . . . . . . . . . . . 647
A.2 Affirmer signifie prouver . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 651
A.3 Connecteurs et quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 652
A.4 Calculs mécaniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653
A.5 Principes d’omniscience . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 654
A.6 Principes problématiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 657
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658

Tables des théorèmes 661

Bibliographie 669

Index des notations 679

Index des termes 685


Avant-Propos

Quant à moi je proposerais de s’en tenir aux règles suivantes :


1. Ne jamais envisager que des objets susceptibles d’être définis
en un nombre fini de mots ;
2. Ne jamais perdre de vue que toute proposition sur l’infini doit
être la traduction, l’énoncé abrégé de propositions sur le fini ;
3. Éviter les classifications et les définitions non prédicatives.
Henri Poincaré,
dans La logique de l’infini (Revue de Métaphysique et de Morale 1909).
Réédité dans Dernières pensées, Flammarion.

Ce livre est un cours d’introduction à l’algèbre commutative de base, avec un accent particulier
mis sur les modules projectifs de type fini, qui constituent la version algébrique des fibrés vectoriels
en géométrie différentielle.
Nous utilisons des méthodes constructives, avec lesquelles tous les théorèmes d’existence ont
un contenu algorithmique explicite. Les mathématiques constructives peuvent être regardées
comme la partie la plus théorique du calcul formel (computer algebra en anglais), qui s’occupe
des mathématiques qui (( tournent sur ordinateur )). Notre cours se distingue cependant des cours
de calcul formel usuels sous deux aspects essentiels.
Tout d’abord nos algorithmes sont le plus souvent seulement implicites, sous-jacents à la
preuve, et ne sont en aucune manière optimisés pour s’exécuter le plus rapidement possible,
comme il est naturel lorsque l’on vise une implémentation efficace. Ensuite, notre approche
théorique est entièrement constructive, alors que les cours de calcul formel usuels se préoccupent
peu de cette question. La philosophie n’est donc pas ici, comme il est d’usage (( blanc ou noir,
le bon chat est celui qui attrape la souris1 )) ; mais plutôt la suivante (( Le moyen fait partie
de la recherche de la vérité, aussi bien que le résultat. Il faut que la recherche de la vérité soit
elle-même vraie ; la recherche vraie, c’est la vérité déployée, dont les membres épars se réunissent
dans le résultat2 ))
Nous sommes amenés à parler souvent des deux points de vue, classique et constructif, sur
un même sujet. En particulier nous avons mis une étoile pour signaler les énoncés (théorèmes,
lemmes . . .) qui sont vrais en mathématiques classiques, mais dont nous ne donnons pas de
preuve constructive, et qui souvent ne peuvent pas en avoir. Ces énoncés (( étoilés )) ne seront
donc probablement jamais implémentés sur machine, mais ils sont bien souvent utiles comme
guides pour l’intuition, et au moins pour faire le lien avec les exposés usuels écrits dans le style
des mathématiques classiques.
Pour ce qui concerne les définitions nous donnons généralement en premier une variante
constructive, la lectrice3 voudra bien nous le pardonner, quitte à montrer en mathématiques clas-
1. Proverbe chinois.
2. Karl Marx, dans une lettre à un de ses amis, envoyée d’Alger où il était venu soigner ses poumons, cité par
Georges Perec dans Les Choses.
3. La personne qui lit ce livre subit la règle inexorable de l’alternance des sexes. Espérons que les lecteurs n’en
seront pas plus affectés que les lectrices. En tout cas, cela nous économisera bien des (( ou )) et bien des (( (e) )).
viii Avant-Propos

siques l’équivalence avec la définition usuelle. Le lecteur constatera que dans les démonstrations
(( étoilées )) nous utilisons librement le lemme de Zorn et le principe du tiers exclu, tandis que les
autres preuves ont toujours une traduction directe sous forme d’algorithme.
L’algèbre constructive est en fait une vieille discipline, développée en particulier par Gauss et
Kronecker. Nous nous situons dans la lignée de la (( bible )) moderne sur le sujet qui est le livre
A Course in Constructive Algebra de Ray Mines, Fred Richman et Wim Ruitenburg, paru en
1988. Nous le citerons sous forme abrégée [MRR]. Notre ouvrage est cependant autocontenu et
nous ne le réclamons pas comme prérequis. Les livres de Harold M. Edwards de mathématiques
constructives [Edwards89, Edwards05] sont aussi à recommander.
L’ouvrage correspond à un niveau de Master 2, du moins jusqu’au chapitre 14, mais la lectrice
est seulement supposée connaître les notions de base concernant la théorie des groupes, l’algèbre
linéaire sur les corps, les déterminants, les modules sur les anneaux commutatifs, ainsi que la
définition des anneaux quotients et localisés. Une familiarité avec les anneaux de polynômes, les
propriétés arithmétiques de Z et des anneaux euclidiens est également souhaitable.

Le contenu de l’ouvrage
Nous commençons par un bref commentaire sur les choix qui ont été faits concernant les
thèmes traités.
La théorie des modules projectifs de type fini est un des thèmes unificateurs de l’ouvrage.
Nous voyons cette théorie sous forme abstraite comme une théorie algébrique des fibrés vectoriels,
et sous forme concrète comme celle des matrices idempotentes. La comparaison des deux points
de vue est esquissée dans le chapitre introductif.
La théorie des modules projectifs de type fini proprement dite est traitée dans les chapitres 5
(premières propriétés), 6 (algèbres qui sont des modules projectifs de type fini), 10 (théorie du
rang et exemples), 14 (splitting off de Serre) et 16 (modules projectifs de type fini étendus).
Un autre thème unificateur est fourni par les principes local-globals, comme dans [Kunz] par
exemple. Il s’agit d’un cadre conceptuel très efficace, même s’il est un peu vague. D’un point de
vue constructif on remplace la localisation en un idéal premier arbitraire par un nombre fini de
localisations en des monoïdes comaximaux. Les notions qui respectent le principe local-global sont
(( de bonnes notions )) en ce sens qu’elles sont mûres pour le passage des anneaux commutatifs
aux schémas de Grothendieck, que nous ne pourrons malheureusement pas aborder dans l’espace
restreint de cet ouvrage.
Enfin un dernier thème récurrent est donné par la méthode, tout à fait familière en calcul
formel, dite de l’évaluation paresseuse, ou dans sa forme la plus aboutie évaluation dynamique.
Cette méthode est indispensable lorsque l’on veut mettre en place un traitement algorithmique
des questions qui requièrent a priori la solution d’un problème de factorisation. Cette méthode a
également permis la mise au point des machineries constructives locales-globales que l’on trouve
dans les chapitres 4 et 15, ainsi que celle de la théorie constructive de la dimension de Krull
(chapitre 13), avec d’importantes applications dans les derniers chapitres.
Nous passons maintenant à une description plus détaillée du contenu de l’ouvrage.
Dans le chapitre 1 nous expliquons les liens étroits que l’on peut établir entre les notions
de fibrés vectoriels en géométrie différentielle et de module projectif de type fini en algèbre
commutative. Ceci fait partie du processus général d’algébrisation en mathématiques, processus
qui permet souvent de simplifier, d’abstraire et de généraliser de manière surprenante des concepts
provenant de théories particulières.
Le chapitre 2 est consacré aux systèmes linéaires sur un anneau commutatif, traités sous
forme élémentaire. Il ne requiert presqu’aucun appareillage théorique, mis à part la question de
la localisation en un monoïde, dont nous donnons un rappel dans la section 2.1. Nous entrons
ensuite dans notre sujet en mettant en place le principe local-global concret pour la résolution
des systèmes linéaires (section 2.2), un outil simple et efficace qui sera repris et diversifié sans
cesse. D’un point de vue constructif la résolution des systèmes linéaires fait immédiatement
Avant-Propos ix

apparaître comme central le concept d’anneau cohérent que nous traitons dans la section 2.3. Les
anneaux cohérents sont ceux pour lesquels on a une prise minimale sur la solution des systèmes
linéaires homogènes. De manière très étonnante, ce concept n’apparaît pas dans les traités
classiques d’algèbre commutative. C’est qu’en général celle notion est complètement occultée par
celle d’anneau nœthérien. Cette occultation n’a pas lieu en mathématiques constructives où la
nœthérianité n’implique pas nécessairement la cohérence. Nous développons dans la section 2.4
la question des produits finis d’anneaux, avec la notion de système fondamental d’idempotents
orthogonaux et le théorème des restes chinois. La longue section 2.5 est consacrée à de nombreuses
variations sur le thème des déterminants. Enfin la section 2.6 revient sur le principe local-global
de base, dans une version un peu plus générale consacrée aux suites exactes de modules.
Le chapitre 3 développe la méthode des coefficients indéterminés, développée par Gauss.
De très nombreux théorèmes d’existence en algèbre commutative reposent sur des (( identités
algébriques sous conditions )) et donc sur des appartenances du type g ∈ hf1 , . . . , fs i dans un
anneau Z[c1 , . . . , cr , X1 , . . . , Xn ], où les Xi sont les variables et les cj les paramètres du théorème
considéré. En ce sens on peut considérer que l’algèbre commutative est une vaste théorie des
identités algébriques qui trouve son cadre naturel dans la méthode des coefficients indéterminés,
c’est-à-dire la méthode dans laquelle les paramètres du problème à traiter sont pris comme des in-
déterminées. Forts de cette certitude, nous sommes, autant que faire se pouvait, systématiquement
(( partis à la chasse des identités algébriques )), ceci non seulement dans les chapitres 2 et 3
(( purement calculatoires )), mais dans tout l’ouvrage. En bref, plutôt que d’affirmer en filigrane
d’un théorème d’existence (( il existe une identité algébrique qui certifie cette existence )), nous
avons tâché de donner chaque fois l’identité algébrique elle-même.
Ce chapitre 3 peut être considéré comme un cours d’algèbre de base avec les méthodes du
e
19 siècle. Les sections 3.1, 3.2 et 3.3 donnent quelques généralités sur les polynômes, avec
notamment l’algorithme de factorisation partielle, la (( théorie des identités algébriques )) (qui
explique la méthode des coefficients indéterminés), les polynômes symétriques élémentaires, le
lemme de Dedekind-Mertens et le théorème de Kronecker. Ces deux derniers résultats sont des
outils de base qui donnent des informations précises sur les coefficients du produit de deux
polynômes, ils sont souvent utilisés dans le reste de l’ouvrage. La section 3.4 introduit l’algèbre
de décomposition universelle d’un polynôme unitaire sur un anneau commutatif arbitraire, qui
est un substitut efficace au corps des racines d’un polynôme sur un corps. La section 3.5 est
consacrée au discriminant et explique en quel sens précis une matrice générique est diagonalisable.
Avec ces outils en mains on peut traiter la théorie de Galois de base dans la section 3.6. La
théorie élémentaire de l’élimination via le résultant est donnée dans la section 3.7. On peut alors
donner les bases de la théorie algébrique des nombres, avec le théorème de décomposition unique
en facteurs premiers pour un idéal de type fini d’un corps de nombres (section 3.8). La section
3.9 donne le Nullstellensatz de Hilbert comme application du résultant. Enfin la section 3.10 sur
la méthode de Newton en algèbre termine ce chapitre.
Le chapitre 4 est consacré à l’étude des propriétés élémentaires des modules de présentation
finie. Ces modules jouent un peu le même rôle pour les anneaux que les espaces vectoriels de
dimension finie pour les corps : la théorie des modules de présentation finie est une manière un
peu plus abstraite, et souvent profitable, d’aborder la question des systèmes linéaires. Les sections
4.1 à 4.4 donnent les propriétés de stabilité de base ainsi que l’exemple important de l’idéal d’un
zéro pour un système polynomial (sur un anneau commutatif arbitraire). On s’intéresse ensuite
au problème de classification des modules de présentation finie sur un anneau donné. Sur le
chemin des anneaux principaux, pour lesquels le problème de classification est complètement
résolu (section 4.7), nous rencontrons les anneaux quasi intègres (section 4.6) qui sont les anneaux
où l’annulateur d’un élément est toujours engendré par un idempotent. C’est l’occasion de mettre
en place une machinerie locale-globale élémentaire qui permet de passer d’un résultat établi
constructivement pour les anneaux intègres au même résultat, convenablement reformulé, pour
les anneaux quasi intègres. Cette machinerie de transformation de preuves est élémentaire car
basée sur la décomposition d’un anneau en produit fini d’anneaux. La chose intéressante est que
x Avant-Propos

cette décomposition est obtenue par relecture de la démonstration constructive écrite dans le
cas intègre : on voit ici qu’en mathématiques constructives la preuve est souvent encore plus
importante que le résultat. De la même manière, on a une machinerie locale-globale élémentaire
qui permet de passer d’un résultat établi constructivement pour les corps discrets au même
résultat, convenablement reformulé, pour les anneaux zéro-dimensionnels réduits (section 4.8). Les
anneaux zéro-dimensionnels, ici définis de manière élémentaire, constituent une clé importante
de l’algèbre commutative, comme étape intermédiaire pour généraliser certains résultats des
corps discrets aux anneaux commutatifs arbitraires. Dans la littérature classique ils apparaissent
souvent sous leur forme nœthérienne, c’est-à-dire celle des anneaux artiniens. La section 4.9
introduit les invariants très importants que sont les idéaux de Fitting d’un module de présentation
finie. Enfin la section 4.10 applique cette notion pour introduire l’idéal résultant d’un idéal de
type fini dans un anneau de polynômes quand l’idéal en question contient un polynôme unitaire,
et démontrer un théorème d’élimination algébrique sur un anneau arbitraire.
Le chapitre 5 est une première approche de la théorie des modules projectifs de type fini.
Les sections 5.1 à 5.4 donnent les propriétés de base ainsi que l’exemple important des anneaux
zéro-dimensionnels. La section 5.5 donne le théorème de structure locale : un module est projectif
de type fini si, et seulement si, il devient libre après localisation en des éléments comaximaux
convenables. Sa démonstration constructive est une relecture d’un résultat établi dans le chapitre 2
pour les systèmes linéaires (( bien conditionnés )) (théorème 2.5 page 37). La section 5.6 développe
l’exemple des modules projectifs localement monogènes. La section 5.7 introduit le déterminant
d’un endomorphisme d’un module projectif de type fini. Ceci donne accès à la décomposition d’un
tel module en somme directe de ses composants de rang constant. Enfin la section 5.8, que l’on
ne savait pas bien où mettre dans l’ouvrage, héberge quelques considérations supplémentaires
sur les propriétés de caractère fini, une notion introduite au chapitre 2 pour discuter les rapports
entre principes local-globals concrets et principes local-globals abstraits.
Le chapitre 6 est consacré pour l’essentiel aux algèbres qui sont des modules projectifs de type
fini sur leur anneau de base. Nous les appelons des algèbres strictement finies. Elles constituent
une généralisation naturelle pour les anneaux commutatifs de la notion d’algèbre finie sur un
corps. Comme cas important, cerise sur le gateau, les algèbres galoisiennes, qui généralisent les
extensions galoisiennes de corps discrets aux anneaux commutatifs.
La section 6.1 traite le cas où l’anneau de base est un corps discret. Elle donne des versions
constructives pour les théorèmes de structure obtenus en mathématiques classiques. Le cas des
algèbres étales (quand le discriminant est inversible) est particulièrement éclairant. On découvre
que les théorèmes classiques supposent toujours implicitement que l’on sache factoriser les poly-
nômes séparables sur le corps de base. La démonstration constructive du théorème de l’élément
primitif (6.4 page 209) est significative par son écart avec la démonstration classique. La section
6.2 applique les résultats précédents pour terminer la théorie de Galois de base commencée dans
la section 3.6 en caractérisant les extensions galoisiennes de corps discrets comme les extensions
étales et normales. La section 6.3 est une brève introduction aux algèbres de présentation finie,
en insistant sur le cas des algèbres entières, avec un Nullstellensatz faible et le lemme lying
over. La section 6.4 introduit les algèbres strictement finies sur un anneau arbitraire. Dans les
sections 6.5 et 6.6 sont introduites les notions voisines d’algèbre strictement étale et d’algèbre
séparable, qui généralisent la notion d’algèbre étale sur un corps discret. Dans la section 6.7 on
donne un exposé constructif des bases de la théorie des algèbres galoisiennes pour les anneaux
commutatifs. Il s’agit en fait d’une théorie d’Artin-Galois, puisqu’elle reprend l’approche qu’Artin
avait développée pour le cas des corps, en partant directement d’un groupe fini d’automorphismes
d’un corps, le corps de base n’apparaissant que comme un sous-produit des constructions qui
s’ensuivent.
Dans le chapitre 7 la méthode dynamique, une pierre angulaire des méthodes modernes en
algèbre constructive, est mise en œuvre pour traiter d’un point de vue constructif le corps des
racines d’un polynôme et la théorie de Galois dans le cas séparable, lorsque la proie s’échappe
pour laisser place à son ombre, c’est-à-dire lorsque l’on ne sait pas factoriser les polynômes sur le
Avant-Propos xi

corps de base que l’on considère. À titre d’entrainement la section 7.1 commence par établir des
résultats sous forme constructive pour le Nullstellensatz lorsque l’on ne sait pas factoriser les
polynômes sur le corps de base. Des considérations d’ordre général sur la méthode dynamique
sont développées dans la section 7.2. Plus de détails sur le déroulement des festivités sont donnés
dans l’introduction du chapitre.
Le chapitre 8 est une brève introduction aux modules plats et aux algèbres plates et fidèlement
plates. En langage intuitif, une A-algèbre B est plate lorsque les systèmes linéaires sur A sans
second membre n’ont (( pas plus )) de solutions dans B que dans A, et elle est fidèlement plate si
cette affirmation est vraie également des systèmes linéaires avec second membre. Ces notions
cruciales de l’algèbre commutative ont été introduites par Serre dans [155, GAGA,1956]. Nous
ne donnons que les résultats vraiment fondamentaux. C’est également l’occasion d’introduire
les notions d’anneau localement sans diviseur de zéro, de module sans torsion (pour un anneau
arbitraire), d’anneau arithmétique et d’anneau de Prüfer. Nous insistons comme toujours sur le
principe local-global quand il s’applique.
Le chapitre 9 parle des anneaux locaux et de quelques généralisations. La section 9.1 introduit
la terminologie constructive pour quelques notions classiques usuelles, dont la notion importante
de radical de Jacobson. Une notion connexe est celle d’anneau résiduellement zéro-dimensionnel
(un anneau A tel que A/ Rad A est zéro-dimensionnel). C’est une notion robuste, qui n’utilise
jamais les idéaux maximaux, et la plupart des théorèmes de la littérature concernant les anneaux
semi-locaux (en mathématiques classiques ce sont les anneaux qui n’ont qu’un nombre fini
d’idéaux maximaux) s’applique aux anneaux résiduellement zéro-dimensionnels. La section 9.2
répertorie quelques résultats qui montrent que sur un anneau local on ramène la solution de
certains problèmes au cas des corps. Les sections 9.3 et 9.4 établissent sur des exemples géomé-
triques (c’est-à-dire concernant l’étude de systèmes polynomiaux) un lien entre la notion d’étude
locale au sens intuitif topologique et l’étude de certaines localisations d’anneaux (dans le cas d’un
corps discret à la base, ces localisations sont des anneaux locaux). On introduit notamment les
notions d’espaces tangent et cotangent en un zéro d’un système polynomial. La section 9.5 fait
une brève étude des anneaux décomposables, dont un cas particulier en mathématiques classiques
sont les anneaux décomposés (produits finis d’anneaux locaux), qui jouent un rôle important
dans la théorie des anneaux locaux henséliens. Enfin la section 9.6 traite la notion d’anneau
local-global, qui généralise à la fois celle d’anneau local et celle d’anneau zéro-dimensionnel. Ces
anneaux vérifient des propriétés locales-globales très fortes, par exemple les modules projectifs de
rang constant sont toujours libres, et ils sont stables par extensions entières.
Le chapitre 10 poursuit l’étude des modules projectifs de type fini commencée dans le chapitre
5. Dans la section 10.1 nous reprenons la question de la caractérisation des modules projectifs de
type fini comme modules localement libres, c’est-à-dire du théorème de structure locale. Nous en
donnons une version matricielle (théorème 10.4 page 363) qui résume et précise les différents
énoncés du théorème. La section 10.2 est consacrée à l’anneau des rangs sur A. En mathématiques
classiques le rang d’un module projectif de type fini est défini comme une fonction localement
constante sur le spectre de Zariski. Nous donnons ici une théorie élémentaire du rang qui ne fait
pas appel aux idéaux premiers. Dans la section 10.3 nous donnons quelques applications simples
du théorème de structure locale. La section 10.4 est une introduction aux grassmanniennes. Dans
la section 10.5 nous introduisons le problème général de la classification complète des modules
projectifs de type fini sur un anneau A fixé. Cette classification est un problème fondamental et
difficile, qui n’admet pas de solution algorithmique générale. La section 10.6 présente un exemple
non trivial pour lesquels cette classification peut être obtenue.
Le chapitre 11 est consacré aux treillis distributifs et groupes réticulés. Les deux premières
sections décrivent ces structures algébriques ainsi que leurs propriétés de base. Ces structures
sont importantes en algèbre commutative pour plusieurs raisons.
D’une part la théorie de la divisibilité a comme (( modèle idéal )) la théorie de la divisibilité
des entiers naturels. La structure du monoïde multiplicatif (N∗ , ×, 1) en fait la partie positive
xii Avant-Propos

d’un groupe réticulé. Ceci se généralise en algèbre commutative dans deux directions. La première
généralisation est la théorie des anneaux intègres dont les idéaux de type fini forment un treillis
distributif, appelés des domaines de Prüfer, que nous étudierons dans le chapitre 12 : leurs idéaux
de type fini non nuls forment la partie positive d’un groupe réticulé. La deuxième est la théorie
des anneaux à pgcd que nous étudions dans la section 11.3. Signalons la première apparition
de la dimension de Krull 6 1 dans le théorème 11.8 page 435 : un anneau à pgcd intègre de
dimension 6 1 est un anneau de Bezout.
D’autre part les treillis distributifs interviennent comme la contrepartie constructive des
espaces spectraux divers et variés qui se sont imposés comme des outils puissants de l’algèbre
abstraite. Les rapports entre treillis distributifs et espaces spectraux seront abordés dans la
section 13.1. Dans la section 11.4 nous mettons en place le treillis de Zariski d’un anneau
commutatif A, qui est la contrepartie constructive du fameux spectre de Zariski. Notre but
ici est d’établir le parallèle entre la construction de la clôture zéro-dimensionnelle réduite d’un
anneau (notée A• ) et celle de l’algèbre de Boole engendrée par un treillis distributif (qui fait
l’objet du théorème 11.11 page 446). L’objet A• ainsi construit contient essentiellement la même
information que le produit des anneaux Frac(A/p ) pour tous les idéaux premiers p de A(4 ). Ce
résultat est en relation étroite avec le fait que le treillis de Zariski de A• est l’algèbre de Boole
engendrée par le treillis de Zariski de A.
Une troisième raison de s’intéresser aux treillis distributifs est la logique constructive (ou
intuitionniste). Dans cette logique, l’ensemble des valeurs de vérité de la logique classique, à
savoir {Vrai, Faux}, qui est une algèbre de Boole à deux éléments, est remplacé par un treillis
distributif assez mystérieux. La logique constructive sera abordée de manière informelle dans
l’annexe. Dans la section 11.5 nous mettons en place les outils qui servent de cadre à une étude
algébrique formelle de la logique constructive : les relations implicatives et les algèbres de Heyting.
Par ailleurs relations implicatives et algèbres de Heyting ont leur utilité propre dans l’étude
générale des treillis distributifs. Par exemple le treillis de Zariski d’un anneau nœthérien cohérent
est une algèbre de Heyting (proposition 13.6.9).
Le chapitre 12 traite les anneaux arithmétiques, les anneaux de Prüfer et les anneaux de
Dedekind. Les anneaux arithmétiques sont les anneaux dont le treillis des idéaux de type fini
est distributif. Un anneau de Prüfer est un anneau arithmétique réduit et il est caractérisé par
le fait que tous ses idéaux sont plats. Un anneau de Prüfer cohérent est la même chose qu’un
anneau arithmétique quasi intègre. Il est caractérisé par les fait que ses idéaux de type fini sont
projectifs. Un anneau de Dedekind est un anneau de Prüfer cohérent nœthérien et fortement
discret (en mathématiques classiques avec le principe du tiers exclu tout anneau est fortement
discret et tout anneau nœthérien est cohérent). Ces anneaux sont apparus tout d’abord avec les
anneaux d’entiers de corps de nombres. Le paradigme dans le cas intègre est la décomposition
unique en facteurs premiers de tout idéal de type fini non nul. Les propriétés arithmétiques du
monoïde multiplicatif des idéaux de type fini sont pour l’essentiel vérifées par les anneaux arith-
métiques. Pour les propriétés les plus subtiles concernant la factorisation des idéaux de type fini,
et notamment la décomposition en facteurs premiers, une hypothèse nœthérienne, ou au moins
de dimension 6 1, est indispensable. Dans ce chapitre nous avons voulu montrer la progression
des propriétés satisfaites par les anneaux au fur et à mesure que l’on renforce les hypothèses,
depuis les anneaux arithmétiques jusqu’aux anneaux de Dedekind à factorisation totale. Nous
insistons sur le caractère algorithmique simple des définitions dans le cadre constructif. Certaines
propriétés ne dépendent que de la dimension 6 1 et nous avons voulu rendre justice aux anneaux
quasi intègres de dimension inférieure ou égale à 1. Nous avons également fait une étude du
problème de la décomposition en facteurs premiers plus progressive et plus fine que dans les
exposés qui s’autorisent le principe du tiers exclu. Par exemple les théorèmes 12.10 page 477 et
12.24 page 485 donnent des versions constructives précises du théorème concernant les extensions
finies normales d’anneaux de Dedekind, avec ou sans la propriété de factorisation totale.
4. Ce produit n’est pas accessible en mathématiques constructives, A• en est un substitut constructif tout à
fait efficace.
Avant-Propos xiii

Le chapitre commence par quelques remarques d’ordre épistémologique sur l’intérêt intrinsèque
d’aborder les problèmes de factorisation avec le théorème de factorisation partielle pluôt qu’avec
celui de factorisation totale. Pour avoir une bonne idée du déroulement des festivités il suffit
de se reporter à la table des matières en tête du chapitre page 461 et à la table des théorèmes
page 667.
Le chapitre 13 est consacré à la dimension de Krull des anneaux commutatifs, à celle de leurs
morphismes, à celle des treillis distributifs et à la dimension valuative des anneaux commutatifs.
Plusieurs notions importantes de dimension en algèbre commutative classique sont des
dimensions d’espaces spectraux. Ces espaces topologiques très particuliers jouissent de la pro-
priété d’être entièrement décrits (au moins en mathématiques classiques) par leurs ouverts
quasi-compacts qui forment un treillis distributif. Il s’avère que le treillis distributif correspondant
a en général une interprétation simple, sans recours aucun aux espaces spectraux. En 1974, Joyal
a montré comment définir constructivement la dimension de Krull d’un treillis distributif. Depuis
ce jour faste, la théorie de la dimension qui semblait baigner dans des espaces éthérés, invisibles
lorsque l’on ne fait pas confiance à l’axiome du choix, est devenu (au moins en principe) une
théorie de nature élémentaire, sans plus aucun mystère.
La section 13.1 décrit l’approche de la dimension de Krull en mathématiques classiques. Elle
explique aussi comment on peut interpréter la dimension de Krull d’un tel espace en terme du
treillis distributif de ses ouverts quasi-compacts. La section 13.2 donne la définition constructive
de la dimension de Krull d’un anneau commutatif, notée Kdim A, et en tire quelques conséquences.
La section 13.3 donne quelques propriétés plus avancées, et notamment le principe local-global et
le principe de recouvement fermé pour la dimension de Krull. La section 13.4 traite la dimension
de Krull des extensions entières et la section 13.5 celle des anneaux géométriques (correspondant
aux systèmes polynomiaux) sur les corps discrets. La section 13.6 donne la définition constructive
de la dimension de Krull d’un treillis distributif et montre que la dimension de Krull d’un
anneau commutatif et celle de son treillis de Zariski coïncident. La section 13.7 est consacrée
à la dimension des morphismes entre anneaux commutatifs. La définition utilise la clôture
zéro-dimensionnel réduite de l’anneau source du morphisme. Pour démontrer la formule qui
majore Kdim B à partir de Kdim A et Kdim ρ (lorsque l’on a un morphisme ρ : A → B), nous
devons introduire la clôture quasi intègre minimale d’un anneau commutatif. Cet objet est une
contrepartie constructive du produit de tous les A/p lorsque p parcourt les idéaux premiers
minimaux de A. La section 13.8 introduit la dimension valuative d’un anneau commutatif et
utilise cette notion notamment pour démontrer le résultat important suivant : pour un anneau
arithmétique non nul A, on a Kdim A[X1 , . . . , Xn ] = n + Kdim A. La section 13.9 donne des
versions constructives des théorèmes Going up et Going down.
Dans le chapitre 14, intitulé Nombre de générateurs d’un module, on établit la version élé-
mentaire, non nœthérienne et constructive de (( grands )) théorèmes d’algèbre commutative, dus
dans leur version originale à Kronecker, Bass, Serre, Forster et Swan. Ces résultats concernent le
nombre de générateurs radicaux d’un idéal de type fini, le nombre de générateurs d’un module,
la possibilité de produire un sous-module libre en facteur direct dans un module, et la possibilité
de simplifier des isomorphismes, dans le sytle suivant : si M ⊕ N ' M 0 ⊕ N alors M ' M 0 . Ils
font intervenir la dimension de Krull ou d’autres dimensions plus sophistiquées, introduites par
R. Heitmann ainsi que par les auteurs de cet ouvrage et T. Coquand.
La section 14.1 est consacrée au théorème de Kronecker et à ses extensions (la plus aboutie,
non nœthérienne, est due à R. Heitmann [90]). Le théorème de Kronecker est usuellement énoncé
sous la forme suivante : une variété algébrique dans Cn peut toujours être définie par n + 1
équations. La forme due à Heitmann est que dans un anneau de dimension de Krull 6 n, pour
tout
√ idéal de type fini a il existe un idéal b engendré par au plus n + 1 éléments de a tel que

b = a. La démonstration donne aussi le théorème de Bass, dit (( stable range )). Ce dernier
théorème a été amélioré en faisant intervenir des dimensions (( meilleures )) que la dimension de
Krull. Ceci fait l’objet de la section 14.2 où est définie la dimension de Heitmann, découverte en
lisant avec attention les démonstrations de Heitmann (Heitmann utilise une autre dimension, a
xiv Avant-Propos

priori un peu moins bonne, que nous expliquons également en termes constructifs). La section 14.3
introduit les notions de support (une application d’un anneau dans un treillis distributif vérifiant
certains axiomes) et de n-stabilité. Cette dernière notion a été définie par T. Coquand après
avoir analysé (la démonstration d’) un théorème de Bass qui affirme que les modules projectifs de
type fini sur un anneau V[X], où V est un anneau de valuation de dimension de Krull finie, sont
libres. Dans les deux dernières sections tous les théorèmes apparaissent en deux versions, l’une
suppose que la dimension de Heitmann de l’anneau est < n, l’autre suppose que l’anneau est
n-stable. La section 14.5 est consacrée au théorème de Forster-Swan, au splitting-off de Serre et
au théorème de simplification de Bass, qui se ramènent tous en dernière analyse à des théorèmes
concernant des manipulations élémentaires de matrices, démontrés dans la section 14.4.
Le chapitre 15 est consacré au principe local-global et à ses variantes. La section 15.1 introduit
la notion de recouvrement d’un monoïde par une famille finie de monoïdes, ce qui généralise la
notion de monoïdes comaximaux. Le lemme de recouvrement 15.1.5 sera décisif dans la section
15.5. La section 15.2 donne des principes local-globals concrets. Il s’agit de dire que certains
propriétés sont vraies globalement dès qu’elles le sont localement. Ici localement est pris au
sens constructif : après localisation en un nombre fini de monoïdes comaximaux. La plupart
des résultats (mis à part certaines propriétés relatives aux algèbres) ont été établis dans les
chapitres précédents. Leur regroupement fait voir la portée très générale de ces principes. La
section 15.3 reprend certains de ces principes sous forme de principes local-globals abstraits.
Ici localement est pris au sens abstrait, c’est-à-dire après localisation en n’importe quel idéal
premier. C’est surtout la comparaison avec les principes local-globals concrets correspondants qui
nous intéresse. La section 15.4 explique la construction d’objets (( globaux )) à partir d’objets de
même nature définis uniquement de manière locale, comme il est usuel en géométrie différentielle.
C’est l’impossibilité de cette construction lorsque l’on cherche à recoller certains anneaux qui
est à l’origine des schémas de Grothendieck. En ce sens, les sections 15.2 et 15.4 constituent la
base à partir de laquelle on peut développer la théorie des schémas dans un cadre complètement
constructif.
Les sections suivantes sont d’une autre nature. D’ordre méthodologique, elles sont consacrées
au décryptage de différentes variantes du principe local-global en mathématiques classiques. Par
exemple la localisation en tous les idéaux premiers, le passage au quotient par tous les idéaux
maximaux ou la localisation en tous les idéaux premiers minimaux, qui s’appliquent chacune
dans des situations particulières. Un tel décryptage présente un caractère certainement déroutant
dans la mesure où il prend pour point de départ une démonstration classique qui utilise des
théorèmes en bonne et due forme, mais où le décryptage constructif de cette démonstration
n’est pas seulement donné par l’utilisation de théorèmes constructifs en bonne et due forme.
Il faut aussi regarder ce que fait la démonstration classique avec ses objets purement idéaux
(des idéaux maximaux par exemple) pour comprendre comment elle nous donne le moyen de
construire un nombre fini d’éléments qui vont être impliqués dans un théorème constructif (un
principe local-global concret par exemple) pour aboutir au résultat souhaité. En décryptant
une telle démonstration nous utilisons la méthode dynamique générale exposée au chapitre 7.
Nous décrivons ainsi des machineries locales-globales nettement moins élémentaires que celles du
chapitre 4 : la machinerie locale-globale constructive de base (( à idéaux premiers )) (section 15.5),
la machinerie locale-globale constructive à idéaux maximaux (section 15.6) et la machinerie locale-
globale constructive à idéaux premiers minimaux (section 15.7). En réalisant (( le programme
de Poincaré )) cité en exergue de cet avant-propos, nos machineries locales-globales prennent en
compte une remarque essentielle de Lakatos, à savoir que la chose la plus intéressante et robuste
dans un théorème, c’est toujours sa démonstration, même si elle est critiquable à certains égards
(voir [Lakatos]).
Dans le chapitre 16 nous traitons la question des modules projectifs de type fini sur les
anneaux de polynômes. La question décisive est d’établir pour quelles classes d’anneaux les
modules projectifs de type fini sur un anneau de polynômes proviennent par extension des
scalaires d’un module projectif de type fini sur l’anneau lui-même (éventuellement en posant
Avant-Propos xv

certaines restrictions sur les modules projectifs de type fini considérés ou sur le nombre de
variables dans l’anneau de polynômes). Quelques généralités sur les modules étendus sont données
dans la section 16.1. Le cas des modules projectifs de rang constant 1, complètement éclairci
par le théorème de Traverso-Swan-Coquand, est traité dans la section 16.2. La démonstration
constructive de Coquand utilise de manière cruciale la machinerie locale-globale constructive
à idéaux premiers minimaux. La section 16.3 traite les théorèmes de recollement de Quillen
(Quillen patching) et Vaserstein qui disent que certains objets sont obtenus par extension des
scalaires (depuis l’anneau de base à un anneau de polynômes) si, et seulement si, cette propriété
est vérifiée localement. Nous donnons aussi une sorte de réciproque du Quillen patching, due
à Roitman, sous forme constructive. La section 16.4 est consacrée aux théorèmes de Horrocks.
La démonstration constructive du théorème de Horrocks global fait subir à la démonstration
du théorème de Horrocks local la machinerie locale-globale de base et se conclut avec le Quillen
patching constructif. La section 16.5 donne plusieurs preuves constructives du théorème de
Quillen-Suslin (les modules projectifs de type fini sur un anneau de polynômes sur un corps
discret sont libres), basées sur différentes démonstrations classiques. La section 16.6 établit le
théorème de Lequain-Simis (les modules projectifs de type fini sur un anneau de polynômes sur
un anneau arithmétique sont étendus). La démonstration utilise la méthode dynamique exposée
au chapitre 7, cela permet d’établir le théorème d’induction de Yengui, une variante constructive
de l’induction de Lequain-Simis.
Dans le chapitre 17 nous démontrons le (( Suslin Stability Theorem )) dans le cas particulier des
corps discrets. Ici aussi pour obtenir une démonstration constructive nous utilisons la machinerie
locale-globale de base exposée au chapitre 15.
L’annexe décrit la théorie des ensembles constructive à la Bishop. Elle peut être vue comme
une introduction à la logique constructive. On y explique la sémantique de Brouwer-Heyting-
Kolmogorov pour les connecteurs et quantificateurs. On discute certaines formes faibles du principe
du tiers exclu ainsi que plusieurs principes problématiques en mathématiques constructives.
Pour terminer signalons que nous considérons les exercices comme une partie essentielle du
livre. Nous essaierons de publier le maximum de corrigés manquants, ainsi que des exercices
supplémentaires, sur la page web http://hlombardi.free.fr/publis/LivresBrochures.html.

Quelques remarques d’ordre épistémologique


Nous espérons dans cet ouvrage montrer que des livres classiques d’algèbre commuta-
tive comme [Eisenbud], [Kunz], [Lafon & Marot], [Matsumura], [Atiyah & Macdonald], [Glaz],
[Kaplansky], [Northcott], [Gilmer], [Lam06] (dont la lecture est vivement recommandée), ou même
[Bourbaki], pourront entièrement être réécrits avec un point de vue constructif, dissipant le voile de
mystère qui entoure les théorèmes d’existence non explicites des mathématiques classiques. Natu-
rellement nous espérons que les lecteurs profiteront de notre ouvrage pour jeter un regard nouveau
sur les livres de calcul formel classiques comme par exemple [Cox, Little & O’Shea], [COCOA],
[SINGULAR], [Elkadi & Mourrain], [Mora] , [TAPAS] ou [von zur Gathen & Gerhard].
Dans la mesure où nous voulons un traitement algorithmique de l’algèbre commutative nous
ne pouvons pas utiliser toutes les facilités que donnent l’usage systématique du lemme de Zorn
et du principe du tiers exclu en mathématiques classiques. Sans doute la lectrice comprend bien
qu’il est difficile d’implémenter le lemme de Zorn en calcul formel. Le refus du principe du tiers
exclu doit par contre lui sembler plus dur à avaler. Ce n’est de notre part qu’une constatation
pratique. Si dans une preuve classique vous trouvez un raisonnement qui conduit à un calcul du
type : (( si x est inversible, faire ceci, sinon faire cela )), il est bien clair que cela ne se traduit
directement sous forme d’un algorithme que dans le cas où on dispose d’un test d’inversibilité
dans l’anneau en question. C’est pour insister sur cette difficulté, que nous devons contourner
en permanence, que nous sommes amenés à parler souvent des deux points de vue, classique et
constructif, sur un même sujet.
xvi Avant-Propos

On peut discuter indéfiniment pour savoir si les mathématiques constructives sont une partie
des mathématiques classiques, la partie qui s’occupe exclusivement des aspects explicites des
choses, ou si au contraire ce sont les mathématiques classiques qui sont une partie des mathé-
matiques constructives, la partie dont les théorèmes sont (( étoilés )), c’est-à-dire qui rajoutent
systématiquement dans leurs hypothèses le principe du tiers exclu et l’axiome du choix. Un
de nos objectifs est de faire pencher la balance dans la deuxième direction, non par le débat
philosophique, mais par la pratique.
Signalons enfin deux traits marquants de cet ouvrage par rapport aux ouvrages classiques
d’algèbre commutative.
Le premier est la mise au second plan de la nœthérianité. L’expérience prouve en effet que la
nœthérianité est bien souvent une hypothèse trop forte qui cache la vraie nature algorithmique
des choses. Par exemple tel théorème habituellement énoncé pour les anneaux nœthériens et les
modules de type fini, lorsque l’on met sa preuve à plat pour en extraire un algorithme, s’avère
être un théorème sur les anneaux cohérents et les modules de présentation finie. Le théorème
habituel n’est qu’un corollaire du bon théorème, mais avec deux arguments non constructifs qui
permettent de déduire en mathématiques classiques la cohérence et la présentation finie de la
nœthérianité et du type fini. Une preuve dans le cadre plus satisfaisant de la cohérence et des
modules de présentation finie se trouve bien souvent déjà publiée dans des articles de recherche,
quoique rarement sous forme entièrement constructive, mais (( le bon énoncé )) est en général
absent dans les ouvrages de référence5 .
Le deuxième trait marquant de l’ouvrage est l’absence presque totale de la négation dans
les énoncés constructifs. Par exemple au lieu d’énoncer que pour un anneau A non trivial, deux
modules libres de rang m et n avec m > n ne peuvent pas être isomorphes, nous préférons
dire, sans aucune hypothèse sur l’anneau, que si ces modules sont isomorphes, alors l’anneau est
trivial (proposition 2.5.2). Cette nuance peut sembler bien mince au premier abord, mais elle a
une importance algorithmique. Elle va permettre de remplacer une preuve en mathématiques
classiques utilisant un anneau A = B/a , qui concluerait que 1 ∈ a au moyen d’un raisonnement
par l’absurde, par une preuve pleinement algorithmique qui construit 1 en tant qu’élément de
l’idéal a à partir d’un isomorphisme entre Am et An .
Pour une présentation générale des idées qui ont conduit aux nouvelles méthodes utilisées en
algèbre constructive dans cet ouvrage, on pourra lire [41, Coquand&Lombardi, 2006].

Remerciements.
Nous remercions tous les collègues qui nous ont encouragés dans notre projet, nous ont apportés
quelques sérieux coups de main ou fourni de précieuses informations. Et tout particulièrement
MariEmi Alonso, Thierry Coquand, Gema Díaz-Toca, Lionel Ducos, M’hammed El Kahoui, Marco
Fontana, Sarah Glaz, Laureano González-Vega, Emmanuel Hallouin, Hervé Perdry, Jean-Claude
Raoult, Fred Richman, Marie-Françoise Roy, Peter Schuster et Ihsen Yengui. Last but not least,
une mention toute spéciale pour notre expert Latex, François Pétiard.
Enfin nous ne saurions oublier le Centre International de Recherches Mathématiques à Luminy
et le Mathematisches Forschungsinstitut Oberwolfach qui nous ont accueillis pour des séjours de
recherche pendant la préparation de ce livre, nous offrant des conditions de travail inappréciables.

Henri Lombardi, Claude Quitté


Décembre 2008

5. Cette déformation professionnelle nœthérienne a produit un travers linguistique dans la littérature anglaise
qui consiste à prendre (( local ring )) dans le sens de (( Nœtherian local ring )).
xviii Avant-Propos

3 4

7 6 8 9

10 11

13 12

15 14

17 16
Avant-Propos xix

L’organigramme de la page précédente donne les liens de dépendance entre les différents
chapitres

2. Principe local-global de base et systèmes linéaires


Anneaux et modules cohérents. Un peu d’algèbre extérieure.
3. La méthode des coefficients indéterminés
Lemme de Dedekind-Mertens et théorème de Kronecker. Théorie de Galois de base. Null-
stellensatz classique.
4. Modules de présentation finie
Catégorie des modules de présentation finie. Anneaux zéro-dimensionnels. Machineries
locales-globales élémentaires. Idéaux de Fitting.
5. Modules projectifs de type fini, 1
Théorème de structure locale. Déterminant. Rang.
6. Algèbres strictement finies et algèbres galoisiennes
7. La méthode dynamique
Nullstellensatz général (sans clôture algébrique). Théorie de Galois générale (sans algorithme
de factorisation).
8. Modules plats
Algèbres plates et fidèlement plates.
9. Anneaux locaux, ou presque
Anneau décomposable. Anneau local-global.
10. Modules projectifs de type fini, 2
11. Treillis distributifs, groupes réticulés
Anneaux à pgcd. Treillis de Zariski d’un anneau commutatif. Relations implicatives.
12. Anneaux de Prüfer et de Dedekind
Extensions entières. Dimension 6 1. Factorisation d’idéaux de type fini.
13. Dimension de Krull
Dimension de Krull. Dimension des morphismes. Dimension valuative. Dimension des
extensions entières et polynomiales.
14. Nombre de générateurs d’un module
Théorèmes de Kronecker, Bass et Forster-Swan. Splitting off de Serre. Dimension de
Heitmann.
15. Le principe local-global
16. Modules projectifs étendus
Théorèmes de Traverso-Swan-Coquand, Quillen-Suslin, Bass-Lequain-Simis.
17. Théorème de stabilité de Suslin
1. Exemples

Sommaire
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Fibrés vectoriels sur une variété compacte lisse . . . . . . . . . . . . 2
Quelques localisations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Fibrés vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Vecteurs tangents et dérivations . . . . . . . . . . . . . . . . . . . . . . . . . 4
Différentielles et fibré cotangent . . . . . . . . . . . . . . . . . . . . . . . . . 5
Cas algébrique lisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Dérivations d’une algèbre de présentation finie . . . . . . . . . . . . . . . . . 6
1.2 Formes différentielles sur une variété affine lisse . . . . . . . . . . . 6
Le cas de la sphère . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Le cas d’une variété algébrique lisse . . . . . . . . . . . . . . . . . . . . . . . 7
Cas d’une hypersurface lisse . . . . . . . . . . . . . . . . . . . . . . . . . 7
Cas d’une intersection complète . . . . . . . . . . . . . . . . . . . . . . . 8
Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

Introduction
Dans tout l’ouvrage, sauf mention expresse du contraire, les anneaux sont commutatifs et
unitaires, et un homomorphisme d’anneaux ϕ : A → B doit vérifier ϕ(1A ) = 1B .
Soit A un anneau. On dit qu’un A-module M est libre de rang fini lorsqu’il est isomorphe
à un module An . On dit qu’il est projectif de type fini lorsqu’il existe un A-module N tel que
M ⊕ N est libre de rang fini. Il revient au même de dire que M est isomorphe à l’image d’une
matrice de projection (une matrice P telle que P 2 = P ). Il s’agit de la matrice de la projection
sur M parallèlement à N , définie précisément comme suit :

M ⊕ N −→ M ⊕ N, x + y 7−→ x pour x ∈ M et y ∈ N .

Une matrice de projection est encore appelée un projecteur.


Lorsque l’on a un isomorphisme M ⊕ A` ' Ak , le module projectif de type fini M est dit
stablement libre.
Alors que sur un corps ou sur un anneau principal les modules projectifs de type fini sont
libres (sur un corps ce sont des espaces vectoriels de type fini), sur un anneau commutatif général,
la classification des modules projectifs de type fini est un problème à la fois important et difficile.
En théorie des nombres Kronecker et Dedekind ont démontré qu’un idéal de type fini non nul
dans l’anneau d’entiers d’un corps de nombres est toujours inversible (donc projectif de type
fini), mais qu’il est rarement libre (c’est-à-dire principal). Il s’agit d’un phénomène fondamental,
qui est à l’origine du développement moderne de la théorie des nombres.
Dans ce chapitre nous essayons d’expliquer pourquoi la notion de module projectif de type
fini est importante, en donnant des exemples significatifs en géométrie différentielle.
La donnée d’un fibré vectoriel sur une variété compacte lisse V est en effet équivalente à
la donnée d’un module projectif de type fini sur l’anneau A = C ∞ (V ) des fonctions lisses sur
2 1. Exemples

V : à un fibré vectoriel, on associe le A-module des sections du fibré, ce A-module est toujours
projectif de type fini, mais il n’est libre que lorsque le fibré est trivial.
Le fibré tangent correspond à un module que l’on construit par un procédé purement formel
à partir de l’anneau A. Dans le cas où la variété V est une sphère, le module des sections du
fibré tangent est stablement libre. Un résultat important concernant la sphère est qu’il n’existe
pas de champ de vecteurs lisse partout non nul. Cela équivaut au fait que le module des sections
du fibré tangent n’est pas libre.
Nous essayons d’être le plus explicite possible, mais dans ce chapitre de motivation, nous
utilisons librement les raisonnements de mathématiques classiques sans nous soucier d’être
totalement rigoureux d’un point de vue constructif.

1.1 Fibrés vectoriels sur une variété compacte lisse


Ici, on donne quelques motivations pour les modules projectifs de type fini et la localisation
en expliquant l’exemple des fibrés vectoriels sur une variété lisse compacte. Deux cas particuliers
importants sont les fibrés tangents et cotangents correspondants aux champs de vecteurs et aux
formes différentielles C ∞ .
Nous utiliserons le terme (( lisse )) comme synonyme de (( de classe C ∞ )).
Nous allons voir que le fait que la sphère ne peut pas être peignée admet une interprétation
purement algébrique.
Dans cette section, on considère une variété différentiable réelle lisse V et l’on note A = C ∞ (V )
l’algèbre réelle des fonctions lisses globales sur la variété.

Quelques localisées de l’algèbre des fonctions continues


Considérons tout d’abord un élément f ∈ A ainsi que l’ouvert
U = { x ∈ V | f (x) 6= 0 }
et regardons comment on peut interpréter l’algèbre A[1/f ] : deux éléments g/f k et h/f k sont
égaux dans A[1/f ] si, et seulement si, pour un exposant ` on a gf ` = hf ` ce qui signifie
exactement g|U = h|U .
Il s’ensuit que l’on peut interpréter A[1/f ] comme une sous-algèbre de l’algèbre des fonctions
lisses sur U : cette sous-algèbre a pour éléments les fonctions qui peuvent s’écrire sous la
forme (g|U )/(f |U )k (pour un certain exposant k) avec g ∈ A, ce qui introduit a priori certaines
restrictions sur le comportement de la fonction au bord de U .
Pour ne pas avoir à gérer ce problème délicat on fait la remarque suivante :

Lemme 1.1.1 Soit U 0 un ouvert contenant le support de f . Alors l’application naturelle (par
restriction) de C ∞ (V )[1/f ] = A[1/f ] vers C ∞ (U 0 )[1/f |U 0 ] est un isomorphisme.

J Rappelons que le support de f est l’adhérence de l’ouvert U. On a un homomorphisme de


restriction h 7→ h|U 0 de C ∞ (V ) vers C ∞ (U 0 ) qui induit un homomorphisme ϕ : C ∞ (V )[1/f ] →
C ∞ (U 0 )[1/f |U 0 ]. Nous voulons montrer que ϕ est un isomorphisme. Si g ∈ C ∞ (U 0 ), la fonction
gf , qui est nulle sur U 0 \ U , peut se prolonger en une fonction lisse à V tout entier, en la prenant
nulle en dehors de U 0 . Nous la notons encore gf . Alors l’isomorphisme réciproque de ϕ est donné
par g 7→ gf /f et g/f m 7→ gf /f m+1 . I

Un germe de fonction lisse en un point p de la variété V est donné par un couple (U, f ) où
U est un ouvert contenant p et f est une fonction lisse U → R. Les couples (U1 , f1 ) et (U2 , f2 )
définissent le même germe s’il existe U ⊆ U1 ∩ U2 contenant p tel que f1 |U = f2 |U . Les germes de
fonctions lisses au point p forment une R-algèbre que l’on note Ap .
On a alors le petit (( miracle algébrique )) suivant.
1.1. Fibrés vectoriels sur une variété compacte lisse 3

Lemme 1.1.2 L’algèbre Ap est naturellement isomorphe au localisé ASp où Sp est la partie
multiplicative des fonctions non nulles au point p.

J Tout d’abord on a une application naturelle A → Ap qui à une fonction définie sur V associe
son germe en p. Il est immédiat que l’image de Sp est contenue dans les inversibles de Ap . Donc on
a une factorisation de l’application naturelle ci-dessus qui fournit un homomorphisme ASp → Ap .
Ensuite on définit un homomorphisme Ap → ASp . Si (U, f ) définit le germe g considérons
une fonction h ∈ A qui est égale à 1 sur un ouvert U 0 contenant p avec U 0 ⊆ U et qui est nulle
en dehors de U (dans une carte on pourra prendre pour U 0 une boule ouverte de centre p).
Alors chacun des trois couples (U, f ), (U 0 , f |U 0 ) et (V, f h) définit le même germe g. Maintenant
f h définit un élément de ASp . Il reste à vérifier que la correspondance que l’on vient d’établir
produit bien un homomorphisme de l’algèbre Ap sur l’algèbre ASp : quelle que soit la manière
de représenter le germe sous la forme (U, f ), l’élément f h/1 de ASp ne dépend que du germe g.
Enfin il n’est pas difficile de vérifier que les deux homomorphismes de R-algèbres que l’on a
définis sont bien des isomorphismes inverses l’un de l’autre. I

Bref nous venons d’algébriser la notion de germe de fonction lisse. À ceci près que le monoïde
Sp est défini à partir de la variété V , pas seulement à partir de l’algèbre A.
Mais si V est compacte, les monoïdes Sp sont exactement les complémentaires des idéaux
maximaux de A. En effet, d’une part, que V soit ou non compacte, l’ensemble des f ∈ A nulles
en p constitue toujours un idéal maximal mp de corps résiduel égal à R. D’autre part, si m est un
idéal maximal de A l’intersection des Z(f ) = { x ∈ V | f (x) = 0 } pour les f ∈ m est un compact
non vide (notez que Z(f ) ∩ Z(g) = Z(f 2 + g 2 )). Comme l’idéal est maximal, ce compact est
nécessairement réduit à un point p et l’on obtient ensuite m = mp .

Fibrés vectoriels et modules projectifs de type fini


Rappelons maintenant la notion de fibré vectoriel au dessus de V . Un fibré vectoriel est donné
par une variété lisse W , une application surjective lisse π : W → V , et une structure d’espace
vectoriel de dimension finie sur chaque fibre π −1 (p). En outre, localement, tout ceci doit être
difféomorphe à la situation simple suivante, dite triviale :

π1 : (U × Rm ) → U, (p, v) 7→ p.

avec m qui peut dépendre de U si V n’est pas connexe. Cela signifie que la structure d’espace
vectoriel (de dimension finie) sur la fibre au dessus de p doit dépendre (( convenablement )) de p.
Un tel ouvert U , qui trivialise le fibré, est appelé un ouvert distingué.
Une section du fibré vectoriel π : W → V est par définition une application σ : V → W telle
que π ◦ σ = IdV . On notera Γ(W ) l’ensemble des sections lisses de ce fibré. Il est muni d’une
structure naturelle de A-module.
Supposons maintenant la variété V compacte. Comme le fibré est localement trivial il existe
un recouvrement fini de V par des ouverts distingués Ui et une partition de l’unité (fi )i∈J1..sK
subordonnée à ce recouvrement : le support de fi est un compact Ki contenu dans Ui .
On remarque d’après le lemme 1.1.1 que les algèbres A[1/fi ] = C ∞ (V )[1/fi ] et C ∞ (Ui )[1/fi ]
sont naturellement isomorphes.
Si on localise l’anneau A et le module M = Γ(W ) en rendant fi inversible, on obtient
l’anneau Ai = A[1/fi ] et le module Mi . Notons Wi = π −1 (Ui ). Alors Wi → Ui est isomorphe à
Rmi × Ui → Ui . Il revient donc au même de se donner une section du fibré Wi , ou de se donner
les mi fonctions Ui → R qui fabriquent une section du fibré Rmi × Ui → Ui . Autrement dit le
module des sections de Wi est libre de rang m.
Vu qu’un module qui devient libre après localisation en un nombre fini d’éléments comaximaux
est projectif de type fini (principe local-global 5.1 page 170) on obtient alors la partie directe
(point 1.) du théorème suivant.
4 1. Exemples

Théorème 1.1 Soit V est une variété compacte lisse, on note A = C ∞ (V ).


π
1. Si W −−→ V est un fibré vectoriel sur V le A-module des sections lisses de W est projectif
de type fini.
2. Réciproquement tout A-module projectif de type fini est isomorphe au module des sections
lisses d’un fibré vectoriel sur V .

Évoquons la partie réciproque du théorème : si l’on se donne un A-module projectif de type fini
M on peut construire un fibré vectoriel W au dessus de V dont le module des sections est isomorphe
à M . On procède comme suit. On considère une matrice de projection F = (fij ) ∈ Mn (A) telle
que Im F ' M et l’on pose

W = { (x, h) ∈ V × Rn | h ∈ Im F |x }

où F |x désigne la matrice (fij (x)). Le lecteur pourra montrer alors que Im F s’identifie au
module des sections Γ(W ) : à l’élément s ∈ Im F on fait correspondre la section se définie par
x 7→ se(x) = (x, s|x). Par ailleurs dans le cas où F est la matrice de projection standard

Ik 0
Ik,n =
0 0r
 
(k + r = n) il est clair que W est trivial (il est égal à V × Rk × {0}r ). Enfin un module
projectif de type fini devient libre après localisation en des éléments comaximaux convenables
(théorème 5.8 page 179, point 3, ou théorème 10.4 page 363, forme matricielle plus précise). En
conséquence le fibré W défini ci-dessus est localement trivial : c’est bien un fibré vectoriel.

Vecteurs tangents et dérivations


Un exemple décisif de fibré vectoriel est le fibré tangent, dont les éléments sont les couples
(p, v) où p ∈ V et v est un vecteur tangent au point p.
Lorsque la variété V est une variété plongée dans un espace Rn , un vecteur tangent v au
point p peut être identifié à la dérivation au point p dans la direction de v.
Lorsque la variété V n’est pas une variété plongée dans un espace Rn , un vecteur tangent
v peut être défini comme une dérivation au point p, c’est-à-dire comme une forme R-linéaire
v : A → R qui vérifie la règle de Leibniz

(1.1) v(f g) = f (p)v(g) + g(p)v(f ).

On vérifie par quelques calculs que les vecteurs tangents à V forment bien un fibré vectoriel
TV au dessus de V .
À un fibré vectoriel π : W → V, est associé le A-module Γ(W ) formé par les sections lisses
du fibré. Dans le cas du fibré tangent, Γ(TV ) n’est rien d’autre que le A-module des champs de
vecteurs (lisses) usuels.
De même qu’un vecteur tangent au point p est identifé à une dérivation au point p, qui
peut être définie en termes algébriques (équation (1.1)), de même un champ (lisse) de vecteurs
tangents peut être identifé à un élément du A-module des dérivations de la R-algèbre A défini
comme suit.
Une dérivation d’une R-algèbre B dans un B-module M est une application R-linéaire
v : B → M qui vérifie la règle de Leibniz

(1.2) v(f g) = f v(g) + g v(f ).

Le B-module des dérivations de B dans M est noté DerR (B, M ).


Une dérivation de la R-algèbre B (( tout court )) est une dérivation à valeurs dans B. Lorsque le
contexte est clair nous noterons Der(B) comme une abréviation pour DerR (B, B).
1.1. Fibrés vectoriels sur une variété compacte lisse 5

Les dérivations au point p sont donc les éléments de DerR (A, Rp ) où Rp = R muni de la
structure de A-module donnée par l’homomorphisme f 7→ f (p) de A dans R. Ainsi DerR (A, Rp )
est une version algébrique abstraite de l’espace tangent au point p à la variété V .
Une variété lisse est dite parallélisable si elle possède un champ (lisse) de bases (n sections
lisses du fibré tangent qui en tout point donnent une base). Cela revient à dire que le fibré tangent
est trivial, ou encore que le A-module des sections de ce fibré, le A-module des dérivations de A,
est libre.

Différentielles et fibré cotangent


Le fibré dual du fibré tangent, appelé fibré cotangent, admet pour sections les formes diffé-
rentielles sur la variété V .
Le A-module correspondant, appelé module des différentielles, peut être défini par générateurs
et relations de la manière suivante.
De manière générale, si (fi )i∈I est une famille d’éléments qui engendre une R-algèbre B, le
B-module des différentielles (de Khäler) de B, noté ΩB/R , est engendré par les dfi (purement
formels) soumis aux relations (( dérivées )) des relations qui lient les fi : si P ∈ R[z1 , . . . , zn ] et si
P (fi1 , . . . , fin ) = 0, la relation dérivée est
Xn ∂P
(fi , . . . , fin )dfik = 0.
k=1 ∂zk 1
On dispose en outre de l’application canonique d : B → ΩB/R définie par df = la classe de f (si
f = αi fi , avec αi ∈ R, df = αi dfi ), qui est une dérivation.
P P

On montre alors que, pour toute R-algèbre B, le B-module des dérivations de B est le dual
du B-module des différentielles de Khäler.
Dans le cas où le B-module des différentielles de B est projectif de type fini (ce qui est la cas
si B = A) alors il est lui-même le dual du B-module des dérivations de B.

Cas des variétés compactes algébriques lisses


Dans le cas d’une variété algébrique réelle compacte lisse V , l’algèbre A des fonctions lisses
sur V admet comme sous-algèbre celle des fonctions polynomiales, notée R[V ].
Les modules des champs de vecteurs et des formes différentielles peuvent être définis comme
ci-dessus au niveau de l’algèbre R[V ].
Tout module projectif de type fini M sur R[V ] correspond à un fibré vectoriel W → V que
l’on qualifie de fortement algébrique. Les sections lisses de ce fibré vectoriel forment un A-module
qui est (isomorphe au) le module obtenu à partir de M en étendant les scalaires à A.
Alors le fait que la variété est parallélisable peut être testé au niveau le plus élémentaire,
celui du module M .
En effet l’affirmation concernant le cas lisse (( le A-module des sections lisses de W est libre ))
équivaut à l’affirmation correspondante de même nature pour le cas algébrique (( le R[V ]-module
M est libre )). Esquisse d’une preuve : le théorème d’approximation de Weierstrass permet
d’approcher une section lisse par une section polynomiale et un champ de bases lisse (n sections
lisses du fibré qui en tout point donnent une base), par un champ de bases polynomial.
Examinons maintenant le cas des surfaces compactes lisses. Une telle surface est parallélisable
si, et seulement si, elle est orientable et possède un champ de vecteurs partout non nul. De manière
imagée cette deuxième condition se lit : la surface peut être peignée. Les courbes intégrales du
champ de vecteurs forment alors une belle famille de courbes, c’est-à-dire une famille de courbes
localement rectifiable.
Donc pour une surface algébrique compacte V lisse orientable les propriétés suivantes sont
équivalentes.
1. il existe un champ de vecteurs partout non nul
6 1. Exemples

2. il existe une belle famille de courbes


3. la variété est parallélisable
4. le module des différentielles de Khäler de R[V ] est libre
Comme expliqué précédemment, la dernière condition relève de l’algèbre pure (voir aussi la
section 1.2).
D’où la possibilité d’une preuve (( algébrique )) du fait que la sphère ne peut pas être peignée.
Il semble qu’une telle preuve ne soit pas encore disponible sur le marché.

Module des différentielles et module des dérivations d’une algèbre de présentation


finie
Soit R un anneau commutatif. Si

A = R[X1 , . . . , Xn ]/hf1 , . . . , fs i = R[x1 , . . . , xn ]

est une R-algèbre de présentation finie les définitions du module des dérivations et du module
des différentielles s’actualisent comme suit.
On note π : R[X1 , . . . , Xn ] → A, g(X) 7→ g(x) la projection canonique.
On considère la matrice jacobienne du système f1 , . . . , fs ,
 ∂f1 ∂f1
∂X1 (X) ··· ∂Xn (X)

J(X) = 
 .. .. .

. .
∂fs ∂fs
∂X1 (X) ··· ∂Xn (X)

La matrice J(x) définit une application A-linéaire An → As . Alors on a deux isomorphismes


naturels ΩA/R ' Coker tJ(x) et Der(A) ' Ker J(x). Le premier isomorphisme résulte de la
définition du module des différentielles. Le deuxième peut s’expliciter comme suit : si u =
(u1 , . . . , un ) ∈ Ker J(x), on lui associe (( la dérivation partielle dans la direction du vecteur
tangent u )) (en fait c’est plutôt un champ de vecteurs) définie par
Xn ∂g
δu : A → A, π(g) 7→ ui (x).
i=1 ∂Xi
Alors u 7→ δu est l’isomorphisme en question.

Exercice 1.1 Démontrer l’affirmation qui vient d’être faite concernant le module des dérivations.
Confirmer ensuite à partir de cela le fait que Der(A) est le dual de ΩA/R : si ϕ : E → F est une
application linéaire entre modules libres de rang fini on a toujours Ker ϕ ' (E ? / Im tϕ)? .

Nous nous intéressons dans la suite au cas lisse, dans lequel les notions purement algébriques
coïncident avec les notions analogues en géométrie différentielle.

1.2 Formes différentielles à coefficients polynomiaux sur une


variété affine lisse
Le module des formes différentielles à coefficients polynomiaux sur la sphère
Soit S = (α, β, γ) ∈ R3 | α2 + β 2 + γ 2 = 1 . L’anneau des fonctions polynômes sur S est la


R-algèbre .D E
A = R[X, Y, Z] X 2 + Y 2 + Z 2 − 1 = R[x, y, z].
Le A-module des formes différentielles à coefficients polynomiaux sur S est

ΩA/R = (A dx ⊕ A dy ⊕ A dz)/ hxdx + ydy + zdzi ' A3 /Av.


1.2. Formes différentielles sur une variété affine lisse 7

où v est le vecteur colonne t[ x y z ]. Ce vecteur est unimodulaire (cela signifie que ses coordonnées
sont des éléments comaximaux de A) puisque [ x y z ] · v = 1. Alors la matrice
 2
x xy xz

P = v · [ x y z ] =  xy y2 yz 
xz yz z2
vérifie P 2 = P , P · v = v, Im(P ) = Av de sorte qu’en posant Q = I3 − P on obtient

Im(Q) ' A3 / Im(P ) ' ΩA/R , et ΩA/R ⊕ Im(P ) ' ΩA/R ⊕ A ' A3 .

Ceci met en évidence que ΩA/R est un A-module projectif de rang 2, stablement libre.
Les considérations précédentes auraient fonctionné en remplaçant R par un corps de caracté-
ristique 6= 2 ou même par un anneau commutatif R où 2 est inversible.
Un problème intéressant qui se pose est de savoir pour quels anneaux R exactement le
A-module ΩA/R est libre.

Le module des formes différentielles à coefficients polynomiaux sur une variété


algébrique lisse
Cas d’une hypersurface lisse
Soit R un anneau commutatif, et f (X1 , . . . , Xn ) ∈ R[X1 , . . . , Xn ] = R[X]. On considère la
R-algèbre
A = R[X1 , . . . , Xn ]/hf i = R[x1 , . . . , xn ] = R[x].
On dira que l’hypersurface S définie par f = 0 est lisse si, pour tout corps K (( extension de
R ))(1 ) et pour tout point ξ = (ξ1 , . . . , ξn ) ∈ Kn vérifiant f (ξ) = 0 on a une des coordonnées
(∂f /∂Xi )(ξ) qui est non nulle. Par le Nullstellensatz formel, cela équivaut à l’existence de
polynômes F, B1 , . . . , Bn ∈ R[X] vérifiant
∂f ∂f
F f + B1 + · · · + Bn = 1.
∂X1 ∂Xn
Notons bi = Bi (x) l’image de Bi dans A et ∂i f = (∂f /∂Xi )(x). On a donc dans A

b1 ∂1 f + · · · + bn ∂n f = 1.

Le A-module des formes différentielles à coefficients polynomiaux sur S est

ΩA/R = (A dx1 ⊕ · · · ⊕ A dxn )/hdf i ' An /Av.

où v est le vecteur colonne t[ ∂1 f · · · ∂n f ]. Ce vecteur est unimodulaire puisque [ b1 · · · bn ]·v = 1.


Alors la matrice  
b1 ∂1 f . . . bn ∂1 f
 . .. 
P = v · [ b1 · · · bn ] =  .. . 
b1 ∂n f ... bn ∂n f
vérifie P 2 = P , P · v = v, Im(P ) = Av de sorte qu’en posant Q = In − P on obtient

Im(Q) ' An / Im(P ) ' ΩA/R et ΩA/R ⊕ Im(P ) ' ΩA/R ⊕ A ' An .

Ceci met en évidence que ΩA/R est un A-module projectif de rang n − 1, stablement libre.
1. Dans ce chapitre introductif, quand nous utilisons l’expression incantatoire imagée corps K (( extension de
R )), nous entendons simplement que K est un corps muni d’une structure de R-algèbre. Cela revient à dire qu’un
sous-anneau de K est isomorphe à un quotient (intègre) de R, et que l’isomorphisme est donné. En conséquence
les coefficients de f peuvent être (( vus )) dans K et le discours qui suit l’expression incantatoire a bien un sens
algébrique précis. Dans le chapitre 3 nous définirons une extension d’anneaux comme un homomorphisme injectif.
Cette définition est en conflit direct avec l’expression imagée utilisée ici si R n’est pas un corps. Ceci explique les
guillemets utilisés dans le chapitre présent.
8 1. Exemples

Cas d’une intersection complète lisse


Nous traitons le cas de deux équations qui définissent une intersection complète lisse. La
généralisation avec un nombre quelconque d’équations est immédiate.
Soit R un anneau commutatif, et f (X), g(X) ∈ R[X1 , . . . , Xn ]. On considère la R-algèbre

A = R[X1 , . . . , Xn ]/hf, gi = R[x1 , . . . , xn ] = R[x].

La matrice jacobienne du système (f, g) est


" ∂f ∂f
#
∂X1 (X) ··· ∂Xn (X)
J(X) = ∂g ∂g ,
∂X1 (X) · · · ∂Xn (X)

On dira que la variété algébrique S définie par f = g = 0 est lisse de codimension 2 si, pour tout
corps K (( extension de R )) et pour tout point ξ = (ξ1 , . . . , ξn ) ∈ Kn vérifiant f (ξ) = g(ξ) = 0,
on a un des mineurs 2 × 2 de la matrice jacobienne, Jk,` (ξ), où
∂f ∂f

k (X) ∂X` (X)

Jk,` (X) = ∂X ,
∂g (X) ∂g
∂X` (X)

∂Xk

qui est non nul.


Par le Nullstellensatz formel, cela équivaut à l’existence de polynômes F, G et (Bk,` )16k<`6n
dans R[X] qui vérifient
X
F f + Gg + Bk,` (X)Jk,` (X) = 1.
16k<`6n

Notons bk,` = Bk,` (x) l’image de Bk,` dans A et jk,` = Jk,` (x). On a donc dans A
X
b j = 1.
16k<`6n k,` k,`

Le A-module des formes différentielles à coefficients polynomiaux sur S est

ΩA/R = (A dx1 ⊕ · · · ⊕ A dxn )/hdf, dgi ' An / Im tJ.

où tJ est la transposée de la matrice jacobienne (vue dans A) :


 
∂1 f ∂1 g
t t  .. .. 
J = J(x) =  . . .
∂n f ∂n g
P
La matrice jacobienne J(x) définit une application linéaire surjective puisque 16k<`6n bk,` jk,` =
1, et sa transposée définit une application linéaire injective : plus précisément, si l’on pose

··· 0 ··· 0 −∂k g ···


 
0 0 ∂` g 0 0
Tk,l (x) =
0 ··· 0 −∂` f 0 ··· 0 ∂k f 0 ··· 0

alors T · tJ = I2 = J · tT et la matrice P = tJ · T vérifie


P
et T = 16k<`6n bk,` Tk,l ,

P 2 = P, P · tJ = tJ, Im P = Im tJ ' A2 ,

de sorte qu’en posant Q = In − P on obtient

Im Q ' An / Im P ' ΩA/R et ΩA/R ⊕ Im P ' ΩA/R ⊕ A2 ' An .

Ceci met en évidence que ΩA/R est un A-module projectif de rang n − 2, stablement libre.
1.2. Formes différentielles sur une variété affine lisse 9

Le cas général
Nous traitons le cas de m équations qui définissent une variété lisse de codimension r.
Soit R un anneau commutatif, et fi (X) ∈ R[X1 , . . . , Xn ], i = 1, . . . , m. On considère la
R-algèbre
A = R[X1 , . . . , Xn ]/hf1 , . . . , fm i = R[x1 , . . . , xn ] = R[x].
La matrice jacobienne du système (f1 , . . . , fm ) est
 ∂f1 ∂f1
∂X1 (X) ··· ∂Xn (X)

J(X) = 
 .. .. ,

. .
∂fm ∂fm
∂X1 (X) ··· ∂Xn (X)

On dira que la variété algébrique S définie par f1 = · · · = fm = 0 est lisse de codimension r si la


matrice jacobienne vue dans A est (( de rang r )), c’est-à-dire :

tous les mineurs d’ordre r + 1 sont nuls,


et les mineurs d’ordre r sont comaximaux.

Ceci implique que pour tout corps K (( extension de R )) et en tout point ξ = (ξ1 , . . . , ξn ) ∈ Kn
de la variété des zéros des fi dans Kn , l’espace tangent est de codimension r. Si l’anneau A est
réduit, cette condition (( géométrique )) est d’ailleurs suffisante (en mathématiques classiques).
Notons Jki11,...,i r
,...,kr (X) le mineur r × r extrait sur les lignes i1 , . . . , ir et sur les colonnes k1 , . . . , kr
de J(X). Ce mineur vu dans A est noté jki11,...,i r i1 ,...,ir
,...,kr = Jk1 ,...,kr (x).
La condition sur les mineurs r × r signifie l’existence d’éléments bki11,...,i r
,...,kr de A tels que

bik11,...,i i1 ,...,ir
X
r
,...,kr jk1 ,...,kr = 1.
16k1 <···<kr 6n,16i1 <···<ir 6m

Le A-module des formes différentielles à coefficients polynomiaux sur S est

ΩA/R = (A dx1 ⊕ · · · ⊕ A dxn )/hdf1 , . . . , dfm i ' An / Im tJ,

où tJ = tJ(x) est la transposée de la matrice jacobienne (vue dans A).


Nous allons voir que Im tJ est l’image d’une matrice de projection de rang n − r. Ceci mettra
en évidence que ΩA/R est un A-module projectif de rang n − r, (mais a priori il n’est pas
stablement libre).
Pour cela il suffit de calculer une matrice H de Am×n telle que tJ H tJ = tJ car alors la
matrice P = tJ H est la matrice de projection recherchée.
On est donc ramené à résoudre un système linéaire dont les inconnues sont les coefficients de
la matrice H. Or la solution d’un système linéaire est essentiellement une affaire locale, et si on
localise en rendant un mineur r × r inversible, la solution n’est pas trop difficile à trouver, en
sachant que tous les mineurs d’ordre r + 1 sont nuls.
Voici par exemple comment cela peut fonctionner.

Exercice 1.2 Dans cet exercice, on fait un recollement de la manière la plus naïve qui soit.
Soit A ∈ An×m une matrice de rang r, on cherche à construire une matrice B ∈ Am×n telle que
ABA = A. On notera que si l’on a une solution pour une matrice A on a ipso facto une solution
pour toute matrice équivalente.

Ir 0
1. Traiter le cas où A = Ir,n,m =
0 0
2. Traiter le cas où P AQ = Ir,n,m avec P et Q inversibles.
10 1. Exemples

3. Traiter le cas où A possède un mineur d’ordre r inversible.


4. Traiter le cas général.

Solution 1. On prend B = tA.


2. On prend B = Q t(P AQ)P .
3. On suppose sans perte de généralité que le mineur inversible est dans le coin nord-ouest. On
pose s = n − r, t = m − r. On écrit δ1 = det R,

Ir RV
−V Ir 0
e
R
A= , L= , C= .
−U W e δ1 Is
UR 0 δ1 It

R −V R 0
On obtient LA = avec W 0 = −δ1 U RV
e + W . puis LAC = . Puisque
0 W0 0 δ1 W0

R 0
les mineurs d’ordre r + 1 de LA sont nuls on obtient δ1 W 0 = 0 : LAC = . On pose
0 0

R
e 0
donc M = , d’où (LAC)M (LAC) = δ1 LAC.
0 0

Avec B1 = CM L cela donne

LAB1 AC = (LAC)M (LAC) = δ1 LAC,

donc en multipliant à gauche par L


e et à droite par C
e

δ1s+t AB1 A = δ1s+t+1 A.

D’où la solution B = B1 /δ1 puisqu’on a supposé δ1 inversible.


4. La précalcul qui a été fait avec le mineur δ1 n’a pas demandé qu’il soit inversible. Il peut être fait
avec chacun des mineurs δ` d’ordre r de A. Cela donne autant d’égalités δ`s+t AB` A = δ`s+t+1 A.
P
Une combinaison linéaire ` a` δ` = 1, élevée à une puissance suffisante, donne une égalité
s+t+1
= 1, d’où ABA = A pour B = ` a` δ`s+t B` . I
P P
` a` δ`

Remarques. 1) Nous reviendrons sur l’égalité ABA = A en utilisant une formule magique à la
Cramer, cf. le théorème 2.3.
2) Dans le dernier exemple, nous nous sommes directement inspirés du (( théorème du rang ))
qui affirme que si une application lisse ϕ : U → Rk a un rang constant r en tous les points
de V = { x ∈ U | ϕ(x) = 0 } alors V est une sous variété lisse de codimension r de l’ouvert
U ⊆ Rn . Il s’avère qu’en fait l’analogue que nous avons développé ici ne fonctionne pas toujours
correctement. Par exemple avec R = F2 , f1 = X 2 + Y et f2 = Y 2 , la variété V est réduite à un
point, l’origine (même
 si on passe à la clôture algébrique de F2 ), en lequel la matrice jacobienne
0 1
est de rang 1 : , mais V n’est pas une courbe, c’est un point multiple. Cela signifie que
0 0
le théorème du rang pose quelques problèmes en caractéristique non nulle. Notre définition est
donc abusive lorsque R n’est pas une Q-algèbre.
2. Principe local-global de base et
systèmes linéaires

Sommaire
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1 Quelques faits concernant les localisations . . . . . . . . . . . . . . . 12
2.2 Principe local-global de base . . . . . . . . . . . . . . . . . . . . . . . 14
Localisations comaximales et principe local-global . . . . . . . . . . . . . . . 14
Propriétés de caractère fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Rendre des éléments comaximaux par force . . . . . . . . . . . . . . . . . . . 19
2.3 Anneaux et modules cohérents . . . . . . . . . . . . . . . . . . . . . 20
Une notion fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Caractère local de la cohérence . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Au sujet du test d’égalité et du test d’appartenance . . . . . . . . . . . . . . 23
Anneaux et modules cohérents fortement discrets . . . . . . . . . . . . . . . . 24
2.4 Systèmes fondamentaux d’idempotents orthogonaux . . . . . . . . . 24
2.5 Un peu d’algèbre extérieure . . . . . . . . . . . . . . . . . . . . . . . . 26
Sous-modules libres en facteur direct (splitting off) . . . . . . . . . . . . . . . 27
Le rang d’un module libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Puissances extérieures d’un module . . . . . . . . . . . . . . . . . . . . . . . . 28
Idéaux déterminantiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Méthode du pivot généralisée . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Formule de Cramer généralisée . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Une formule magique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Inverses généralisés et applications localement simples . . . . . . . . . . . . . 34
Grassmanniennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
Critères d’injectivité et de surjectivité . . . . . . . . . . . . . . . . . . . . . . 36
Caractérisation des applications localement simples . . . . . . . . . . . . . . . 37
Trace, norme, discriminant, transitivité . . . . . . . . . . . . . . . . . . . . . 39
2.6 Principe local-global de base pour les modules . . . . . . . . . . . . 43
Complexes et suites exactes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Localisation et suites exactes . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Principe local-global pour les suites exactes de modules . . . . . . . . . . . . 44
Exercices et problèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Solutions d’exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
Commentaires bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . 55

Dans ce chapitre, comme dans tout l’ouvrage sauf mention expresse du contraire, les anneaux
sont commutatifs et unitaires, et les homomorphismes entre anneaux respectent les 1. En
particulier un sous-anneau a le même 1 que l’anneau.
12 2. Principe local-global de base et systèmes linéaires

Introduction
La théorie de la résolution des systèmes linéaires est un thème omniprésent en algèbre
commutative (sa forme la plus évoluée est l’algèbre homologique). Nous donnons dans ce chapitre
un rappel de quelques résultats classiques sur ce sujet. Nous y reviendrons souvent.
Nous insistons particulièrement sur le principe local-global de base, sur la notion de module
cohérent et sur les variations autour de la formule de Cramer.

2.1 Quelques faits concernant les quotients et les localisations


Commençons par un rappel sur les quotients. Soit a un idéal de A. En cas de besoin, on
notera l’application canonique par πA,a : A → A/a .
L’anneau quotient (A/a , πA,a ) est caractérisé, à isomorphisme unique près, par la propriété
universelle suivante.

Fait 2.1.1 (propriété caractéristique du quotient par l’idéal a)


Un homomorphisme d’anneaux ψ : A → B se factorise par πA,a si, et seulement si, a ⊆ Ker ψ
c’est-à-dire encore ψ(a) ⊆ {0B }, et dans ce cas la factorisation est unique.

A KK
KKK
πA,a KKψK homomorphismes nuls sur a
KKK
 K
A/a _ _ _ _ _%/ B
θ!

Explication concernant la figure. Dans une figure du type ci-dessus tout est donné sauf le
morphisme θ correspondant à la flèche en traits-tirets. Le point d’exclamation signifie que θ fait
commuter le diagramme et qu’il est l’unique morphisme possédant cette propriété.
On note M /aM le A/a -module quotient du A-module M par le sous-module engendré par
les ax pour a ∈ a et x ∈ M . Ce module peut aussi être défini par extension des scalaires à A/a
du A-module M (voir page 138, et l’exercice 4.4).
Passons aux localisations, qui sont très analogues aux quotients (nous reviendrons plus en
détail sur cette analogie page 438). Dans cet ouvrage, lorsque l’on parle d’un monoïde d’un
anneau, on entend toujours une partie contenant 1 et stable pour la multiplication.
Pour un anneau A nous noterons A× le groupe multiplicatif des éléments inversibles, encore
appelé groupe des unités.
Si S est un monoïde, on note AS ou S −1 A le localisé de A en S. Tout élément de AS s’écrit
x/s avec x ∈ A et s ∈ S. Par définition on a x1 /s1 = x2 /s2 s’il existe s ∈ S tel que ss2 x1 = ss1 x2 .
En cas de besoin on notera jA,S : A → AS l’application canonique x 7→ x/1.
Le localisé (AS , jA,S ) est caractérisé, à isomorphisme unique près, par la propriété universelle
suivante.

Fait 2.1.2 (propriété caractéristique de la localisation en S)


Un homomorphisme d’anneaux ψ : A → B se factorise par jA,S si, et seulement si, ψ(S) ⊆ B× ,
et dans ce cas la factorisation est unique.

A MM
MMM
MMψM homomorphismes qui envoient S dans B×
jA,S MMM
 M&
S −1 A _ _ _ _ _/ B
θ!

De même on note MS = S −1 M le AS -module localisé du A-module M en S. Tout élément


de MS s’écrit x/s avec x ∈ M et s ∈ S. Par définition on a x1 /s1 = x2 /s2 s’il existe s ∈ S tel
2.1. Quelques faits concernant les localisations 13

que ss2 x1 = ss1 x2 . Ce module MS peut aussi être défini par extension des scalaires à AS du
A-module M (voir page 138, et l’exercice 4.4).
Un monoïde S d’un anneau A est dit saturé lorsque l’implication

∀s, t ∈ A (st ∈ S ⇒ s ∈ S)

est satisfaite. Un monoïde saturé est également appelé un filtre. Nous appellerons filtre principal
un filtre engendré par un élément : il est constitué de l’ensemble des diviseurs d’une puissance de
cet élément.
Si l’on sature un monoïde, on ne change pas la localisation1 . Deux monoïdes S1 et S2 sont
dits équivalents s’ils ont même saturé. On écrit alors AS1 = AS2 .

Nous gardons la possibilité de localiser en un monoïde qui contient 0.


Le résultat est alors l’anneau trivial (rappelons qu’un anneau est trivial
s’il est réduit à un seul élément, c’est-à-dire encore si 1 = 0).

n o
def
Si S est engendré par s ∈ A, c’est-à-dire si S = sN = sk | k ∈ N , on note As ou A[1/s]
le localisé S −1 A, qui est isomorphe à A[T ]/hsT − 1i.
Dans un anneau le transporteur d’un idéal a dans un idéal b est l’idéal (b : a)A =
{ a ∈ A | aa ⊆ b }. Plus généralement si N et P sont deux sous-modules d’un A-module M
on définit le transporteur de N dans P comme l’idéal (P : N )A = { a ∈ A | aN ⊆ P }.
Rappelons aussi que l’annulateur d’un élément x d’un A-module M est l’idéal AnnA (x) =
(h0A i : hxi) = { a ∈ A | ax = 0 }.
L’annulateur du module M est l’idéal AnnA (M ) = (h0M i : M )A . Un module est fidèle si son
annulateur est réduit à 0.
Les notations suivantes sont également utiles pour un sous-module N de M :
(N : a)M = { x ∈ M | x a ⊆ N } .
(N : a∞ )M = { x ∈ M | ∃n, x an ⊆ N } .
Ce dernier module s’appelle le saturé de N par a.
Nous disons qu’un élément x d’un A-module M est régulier (si M = A on dit aussi que x est
non diviseur de zéro, en un seul mot) si la suite
.x
0 −→ A −→ M
est exacte, autrement dit si Ann(x) = 0. Si 0A est non diviseur de zéro dans A, l’anneau est
trivial.
En général pour alléger les notations précédentes concernant les transporteurs on omet l’indice
A ou M chaque fois qu’il est clair d’après le contexte.
L’anneau total des fractions de A, que nous notons Frac A, est l’anneau localisé AS , où S
est le monoïde des éléments réguliers de A.

Fait 2.1.3
1. Le noyau de l’homomorphisme naturel jA,s : A → As = A[1/s] est l’idéal (0 : s∞ )A . Il est
réduit à 0 si, et seulement si, s est régulier.
2. De même le noyau de l’homomorphisme naturel de M dans Ms = M [1/s] est le sous-A-
module (0 : s∞ )M .
3. L’homomorphisme naturel A → Frac A est injectif.

Fait 2.1.4 Si S ⊆ S 0 sont deux monoïdes de A et M un A-module on a des identifications


canoniques (AS )S 0 ' AS 0 et (MS )S 0 ' MS 0 .
1. En fait, selon la construction précise que l’on choisit pour définir une localisation, on aura ou bien égalité,
ou bien isomorphisme canonique, entre les deux localisés.
14 2. Principe local-global de base et systèmes linéaires

2.2 Principe local-global de base


Nous étudierons le fonctionnement général du principe local-global en algèbre commutative
dans le chapitre 15. Nous le rencontrerons cependant à tous les détours de notre chemin sous
des formes particulières, adaptées à chaque situation. Une instance essentielle de ce principe est
donnée dans cette section parce qu’elle est tellement simple qu’il serait bête de se priver plus
longtemps de ce petit plaisir et de cette machinerie si efficace.
Le principe local-global affirme que certaines propriétés sont vraies si, et seulement si, elles sont
vraies après des localisations (( en quantité suffisante )). En mathématiques classiques on invoque
souvent la localisation en tous les idéaux maximaux. C’est beaucoup, et un peu mystérieux,
surtout d’un point de vue algorithmique. Nous utiliserons des versions plus simples, et moins
effrayantes, dans lesquelles seulement un nombre fini de localisations sont mises en œuvre.

Localisations comaximales et principe local-global


La définition qui suit correspond à l’idée intuitive que certains systèmes de localisés d’un
anneau A sont (( en quantité suffisante )) pour récupérer à travers eux toute l’information contenue
dans A.

Définition 2.2.1
1. Des éléments s1 , . . . , sn sont dits comaximaux si h1i = hs1 , . . . , sn i. Deux éléments comaxi-
maux sont aussi appelés étrangers.
2. Des monoïdes S1 , . . . , Sn sont dits comaximaux si chaque fois que s1 ∈ S1 , . . ., sn ∈ Sn ,
les si sont comaximaux.

Deux exemples fondamentaux.


1) Si s1 , . . . , sn sont comaximaux les monoïdes qu’ils engendrent sont comaximaux. En effet
considérons des sm i N Pn
iP (mi > 1) dans les monoïdes si , en élevant l’égalité i=1 ai si = 1 à la
puissance 1 − n + ni=1 mi , on obtient en regroupant convenablement les termes de la somme
obtenue une égalité ni=1 bi sm
P i
i = 1.
2) Si a = a1 · · · an ∈ A et si les ai sont deux à deux étrangers, alors les monoïdes aN , (1 + a1 A),
. . ., (1 + an A) sont comaximaux (voir l’exercice 2.2).

Voici une caractérisation en mathématiques classiques.

Fait∗ 2.2.2 Soient des monoïdes S1 , . . . , Sn dans un anneau non trivial A (i.e., 1 6=A 0). Les
monoïdes Si sont comaximaux si, et seulement si, pour tout idéal premier (resp. pour tout idéal
maximal) p l’un des Si est contenu dans A \ p.

J Supposons les monoïdes comaximaux et soit p un idéal premier. Si aucun des Si n’est contenu
dans A \ p, il existe, pour chaque i, un si ∈ Si ∩ p ; alors s1 , . . . , sn ne sont pas comaximaux.
Inversement, supposons que pour tout idéal maximal m l’un des Si est contenu dans A \ m et
soient s1 ∈ S1 , . . . , sn ∈ Sn alors l’idéal hs1 , . . . , sn i n’est contenu dans aucun idéal maximal,
donc il contient 1. I

Nous notons Am×p ou Mm,p (A) le A-module des matrices à m lignes et p colonnes à coeffi-
cients dans A, et Mn (A) désigne Mn,n (A). Le groupe formé par les matrices inversibles est noté
GLn (A), le sous-groupe des matrices de déterminant 1 est noté SLn (A). Le sous-ensemble de
Mn (A) formé par les matrices de projection (c’est-à-dire les matrices F telles que F 2 = F ) est
noté GAn (A). L’explication des acronymes est la suivante : GL pour groupe linéaire, SL pour
groupe linéaire spécial et GA pour grassmannienne affine.
2.2. Principe local-global de base 15

Principe local-global concret 2.1 (principe local-global de base)


Recollement concret de solutions d’un système linéaire.
Soient S1 , . . . , Sn des monoïdes comaximaux de A, B une matrice de Am×p et C un vecteur
colonne de Am . Alors les propriétés suivantes sont équivalentes.
1. Le système linéaire BX = C admet une solution dans Ap .
2. Pour i ∈ J1..nK le système linéaire BX = C admet une solution dans ApSi .
Ce principe vaut également pour les systèmes linéaires à coefficients dans un A-module M .
J Il est clair que 1. implique 2.
Montrons que 2. implique 1. Pour chaque i on a Yi ∈ Ap et si ∈ Si tels que B(Yi /si ) = C dans
Am a ti ∈ Si tel que ti BYi = si ti C dans Am . Si i ai si ti = 1 on a donc
P
Si . Cela signifie que l’onP
la solution dans A : X = i ai ti Yi . I
Remarque. Quant au fond, ce principe local-global concret se ramène à la remarque suivante
dans le cas d’un anneau intègre (un anneau est dit intègre si tout élément est nul ou régulier2 ).
Si les si sont réguliers et si
x1 x2 xn
= = ··· = ,
s1 s2 sn
P
la valeur commune de cette fraction, lorsque i si ui = 1, est aussi égale à
x1 u1 + · · · + xn un
= x1 u1 + · · · + xn un .
s1 u1 + · · · + sn un
Ce principe pourrait donc s’appeler aussi (( l’art de chasser astucieusement les dénominateurs )).
La chose la plus remarquable est sans doute que cela fonctionne en toute généralité, même si
l’anneau n’est pas intègre. Merci donc à Claude Chevalley d’avoir introduit les localisations
arbitraires. Dans certains ouvrages savants, on trouve la même chose formulée ainsi (au prix
L
d’une perte d’information sur le caractère très concret du résultat) : le A-module m A1+m (où
m parcourt tous les idéaux maximaux de A) est fidèlement plat.

Corollaire 2.2.3 Soient S1 , . . . , Sn des monoïdes comaximaux de A, x ∈ A et a, b deux idéaux


de type fini de A. Alors on a les équivalences suivantes :
1. x = 0 dans A si, et seulement si, pour i ∈ J1..nK, x = 0 dans ASi .
2. x est régulier dans A si, et seulement si, pour i ∈ J1..nK, x est régulier dans ASi .
3. a = h1i dans A si, et seulement si, pour i ∈ J1..nK, a = h1i dans ASi .
4. a ⊆ b dans A si, et seulement si, pour i ∈ J1..nK, a ⊆ b dans ASi .
J La démonstration est laissée à la lectrice. I
Remarque. En fait, comme nous le verrons dans le principe local-global 2.6 page 44, les idéaux
n’ont pas besoin d’être de type fini.

Exemples
Donnons des exemples simples d’application du principe local-global concret de base. Un cas
d’application typique du premier exemple (fait 2.2.4) est celui où le module M dans l’énoncé est
un idéal non nul d’un anneau de Dedekind.

Fait 2.2.4 On considère un module M avec deux systèmes générateurs : M = ha, bi = hc, di. On
suppose que ce module est fidèle, c’est-à-dire que son annulateur est réduit à 0, et localement
monogène, c’est-à-dire qu’après chaque localisation en des monoïdes comaximaux S1 , . . . , Sn , il
est engendré par un seul élément (gi après la localisation en Si ).
Alors il existe une matrice A ∈ SL2 (A) telle que (a, b)A = (c, d).
2. La notion est discutée plus en détail page 142.
16 2. Principe local-global de base et systèmes linéaires

−y
   
x y t
J Si A = on doit avoir pour matrice cotransposée B = Adj A = . En
z t −z x
particulier on cherche à résoudre le système linéaire suivant :

(a, b) A = (c, d), (c, d) B = (a, b) (∗)

dont les inconnues sont x, y, z, t. Notons que AB = det(A) I2 .


Inversement si ce système linéaire est résolu, on aura (a, b) = (a, b) A B donc (1−det(A))(a, b) = 0
et puisque le module est fidèle det(A) = 1.
Maintenant pour résoudre le système linéaire il suffit de le résoudre après localisation en chacun des
Si . Dans l’anneau Si−1 A, on a a = αi gi , b = βi gi , gi = µi a + νi b, donc (1 − (αi µi + βi νi )) gi = 0.Le
µ −βi
module Si−1 M est maintenant hgi i et il reste fidèle, donc 1 = αi µi +βi νi . Ainsi (a, b) i =
νi αi
µ −βi
(gi , 0) avec i = 1. De même on obtiendra (c, d) C = (gi , 0) avec une matrice C de déter-
νi αi
minant 1. Ceci montre que le système linéaire (∗) admet une solution dans Si−1 A. I

Notre deuxième exemple est donné par le lemme de Gauss-Joyal : le point 1. dans le lemme
suivant est prouvé en application du principe local-global de base.
Nous devons d’abord rappeler quelques définitions.
Un élément a d’un anneau est dit nilpotent si an = 0 pour un entier n ∈ N. Les éléments
nilpotents dans un anneau A forment un idéal appelé nilradical, ou encore radical nilpotent de
l’anneau. Un anneau est réduit si son nilradical est égal à 0. Plus généralement le nilradical d’un

idéal a de A est l’idéal formé par les x ∈ A dont une puissance est dans a. Nous le noterons a
ou DA (a). Nous notons aussi DA (x) pour DA (hxi). Un idéal a est appelé un idéal radical lorsqu’il
est égal à son nilradical. L’anneau A/DA (0) = Ared est l’anneau réduit associé à A.
Pour un polynôme f de A[X1 , . . . , Xn ] = A[X], on appelle contenu de f et l’on note cA,X (f )
ou c(f ) l’idéal engendré par les coefficients de f . Le polynôme f est dit primitif (en X) lorsque
cA,X (f ) = h1i.
Lorsqu’un polynôme f de A[X] est donné sous la forme f (X) = nk=0 ak X k , on dit que n
P

est le degré formel de f , et an est son coefficient formellement dominant. Enfin si f est donné
comme nul, son degré formel est −1.

Lemme 2.2.5
1. (Gauss-Joyal du pauvre) Le produit de deux polynômes primitifs est un polynôme primitif.
2. (Gauss-Joyal) Pour f, g ∈ A[X], il existe p ∈ N tel que (c(f )c(g))p ⊆ c(f g).
3. (éléments nilpotents dans A[X]) Un élément f de A[X] est nilpotent si, et seulement si,
tous ses coefficients sont nilpotents. Autrement dit (A[X])red = Ared [X].
4. (éléments inversibles dans A[X]) Un élément f de A[X] est inversible si, et seulement si,
f (0) est inversible et f − f (0) est nilpotent. Autrement dit A[X]× = A× + DA (0)[X] et en
particulier (Ared [X])× = (Ared )× .

J Notez que l’on a a priori l’inclusion c(f g) ⊆ c(f )c(g).


1. (pour des polynômes en une seule variable f, g ∈ A[X]). On suppose c(f ) = c(g) = h1i, on
considère l’anneau quotient B = A/DA (c(f g)) . On doit démontrer que cet anneau est trivial.
Il suffit de le faire après localisation en des éléments comaximaux, par exemple les coefficients
de f . Autrement dit on peut supposer qu’un coefficient de f est inversible. Faisons la preuve
sur un exemple suffisamment général, en supposant que f (X) = a + bX + X 2 + cX 3 + · · · et
g(X) = g0 + g1 X + g2 X 2 + · · ·.
Dans l’anneau réduit B on a ag0 = 0, ag1 + bg0 = 0, ag2 + bg1 + g0 = 0, donc bg02 = 0 puis g03 = 0,
donc g0 = 0. On a alors g = Xh et c(f g) = c(f h), et puisque le degré formel de h est plus petit
que celui de g, on peut conclure par récurrence sur le degré formel que g = 0. Comme c(g) = h1i,
l’anneau est trivial.
2.2. Principe local-global de base 17

2. (pour des polynômes en une variable). On considère un coefficient a de f et un coefficient b de


g. On veut montrer que ab est nilpotent dans l’anneau B = A/c(f g) . Cela revient à démontrer
que C = B[1/(ab)] est trivial. Or dans C, f et g sont primitifs, donc le point 1. implique que C
est trivial.
2. et 1. (cas général) On voit que 2. se démontre par récurrence sur le nombre de variables à
partir du cas univarié, puisque par exemple pour f ∈ A[X][Y ] on a l’égalité
D E
cA,X,Y (f ) = cA,X (h) | h ∈ cA[X],Y (f ) .
Ensuite on en déduit le point 1.
3. On note que f 2 = 0 implique c(f )p = 0 pour un certain p d’après le point 2.
4. La condition est suffisante : dans un anneau si x est nilpotent, 1 − x est inversible parce
que (1 − x)(1 + x + · · · + xn ) = 1 − xn+1 , donc si u est inversible et x nilpotent, u + x est
inversible. Pour voir que la condition est nécessaire il suffit de traiter le cas en une variable (on
conclut par récurrence sur le nombre de variables). Écrivons f g = 1 avec f = f (0) + XF (X) et
g = g(0) + XG(X). On a f (0)g(0) = 1. Soit n le degré formel de F et m celui de G. On doit
montrer que F et G sont nilpotents. Si n = −1 ou m = −1 le résultat est clair. On raisonne
par récurrence sur n + m en supposant n, m > 0, Fn et Gm étant les coefficients formellement
dominants. Par hypothèse de récurrence le résultat est obtenu pour les anneaux (A/hFn i)[X] et
(A/hGm i)[X]. Puisque Fn Gm = 0, on peut conclure par le lemme qui suit.
NB : des précisions dans l’exercice 7.8. I

Lemme 2.2.6 Soient a, b, c ∈ A. Si c est nilpotent modulo a et modulo b, et si ab = 0 alors c


est nilpotent.

J On a cn = xa et cm = yb donc cn+m = xyab = 0. I

Remarque. On peut formuler ce lemme de manière plus structurelle en considérant pour deux
idéaux a, b l’application canonique (diagonale) A → A/a × A/b de noyau a ∩ b. Si un élément
de A est nilpotent modulo a et modulo b, il l’est modulo a ∩ b donc aussi modulo ab (puisque
(a ∩ b)2 ⊆ ab). On touche ici au (( principe de recouvrement fermé )), voir page 442.

Propriétés de caractère fini


Le principe local-global concret de base peut être reformulé comme un (( principe de transfert )) :

Principe de transfert de base


Pour un système linéaire dans un anneau A les éléments s tels que le système linéaire ait une
solution dans A[1/s] forment un idéal de A.
Nous proposons tout d’abord au lecteur de faire la démonstration que ce principe de transfert
est équivalent au principe local-global concret de base.
Nous faisons maintenant une analyse détaillée de ce qui se passe. L’équivalence repose en fait
sur la notion suivante.

Définition 2.2.7 Une propriété P concernant les anneaux commutatifs et les modules est dite
de caractère fini si elle est conservée par localisation (par passage de A à S −1 A) et si, lorsqu’elle
est vérifiée avec S −1 A, alors elle est vérifiée avec A[1/s] pour un certain s ∈ S.

Fait 2.2.8 Soit P une propriété de caractère fini. Alors le principe local-global concret pour P est
équivalent au principe de transfert pour P. Autrement dit les principes suivants sont équivalents :
1. Si la propriété P est vraie après localisation en une famille de monoïdes comaximaux, alors
elle est vraie.
18 2. Principe local-global de base et systèmes linéaires

2. L’ensemble des éléments s de l’anneau pour lesquels la propriété P est vraie après localisation
en s forme un idéal.

J Soit A un anneau qui fournit le contexte pour la propriété P. Considérons alors l’ensemble
I = { s ∈ A | P est vraie pour As }.
1 ⇒ 2. Supposons 1. Soient s, t ∈ I, a, b ∈ A et u = as + bt. Les éléments s et t sont comaximaux
dans Au . Puisque P est stable par localisation, P est vraie pour (Au )s = (As )u et (Au )t = (At )u .
En appliquant 1, P est vraie pour Au , i.e., u = as + bt ∈ I.
2 ⇒ 1. Supposons 2 et soit (Si ) la famille de monoïdes comaximaux considérée. Puisque la
propriété est de caractère fini, on trouve dans chaque Si un élément si tel que P soit vraie après
localisation en si . Puisque les Si sont comaximaux les si sont des éléments comaximaux. En
appliquant 2, on obtient I = h1i. Et la localisation en 1 donne la réponse. I

La plupart des principes local-globals concrets que nous considérerons dans cet ouvrage
s’appliquent pour des propriétés de caractère fini. Si la lectrice le préfère elle a tout le loisir de
remplacer alors le principe local-global concret par le principe de transfert correspondant.
En mathématiques classiques on a pour les propriétés de caractère fini l’équivalence de deux
notions, l’une concrète et l’autre abstraite, que l’on peut qualifier (( de nature quasi globale )) :

Fait∗ 2.2.9 Soit P une propriété de caractère fini. Alors en mathématiques classiques les propri-
étés suivantes sont équivalentes.
1. Il existe des monoïdes comaximaux tels que la propriété P soit vraie après localisation en
chacun des monoïdes.
2. La propriété P est vraie après localisation en tout idéal maximal.

J 1 ⇒ 2. Soit (Si ) la famille de monoïdes comaximaux considérée. Puisque la propriété est de


caractère fini, on trouve dans chaque Si un élément si tel que P soit vraie après localisation en si .
Puisque les Si sont comaximaux les si sont des éléments comaximaux. Soit m un idéal maximal.
L’un des si n’est pas dans m. La localisation en 1 + m est une localisation de la localisation en si .
Donc P est vraie après localisation en 1 + m.
2 ⇒ 1. Pour chaque idéal maximal m sélectionnons un sm ∈ / m tel que la propriété P soit vraie
après localisation en sm . L’ensemble des sm engendre un idéal qui n’est contenu dans aucun
idéal maximal, donc c’est l’idéal h1i. Une famille finie de certains de ces sm est donc un système
d’éléments comaximaux. La famille des monoïdes engendrés par ces éléments convient. I

On a le corollaire immédiat suivant.

Fait∗ 2.2.10 Soit P une propriété de caractère fini. Alors le principe local-global concret pour P
est équivalent (en mathématiques classiques) au principe local-global abstrait pour P. Autrement
dit les principes suivants sont équivalents :
1. Si la propriété P est vraie après localisation en une famille de monoïdes comaximaux, alors
elle est vraie.
2. Si la propriété P est vraie après localisation en tout idéal maximal, alors elle est vraie.

Remarque. On peut aussi donner une démonstration directe de l’équivalence en mathématiques


classiques du principe de transfert et du principe local-global abstrait pour la propriété P
(supposée de caractère fini). Plus précisément.
Transfert ⇒ Abstrait. Supposons la propriété vraie après localisation en tout idéal maximal.
L’idéal donné par le principe de transfert ne peut pas être strict car sinon il serait contenu dans
un idéal maximal m, ce qui est en contradiction avec le fait que la propriété est vraie après
localisation en un s ∈
/ m.
2.2. Principe local-global de base 19

Abstrait ⇒ Transfert. Pour chaque idéal maximal m sélectionnons un sm ∈ / m tel que la propriété
P soit vraie après localisation en sm . L’ensemble des sm engendre un idéal qui n’est contenu dans
aucun idéal maximal, donc c’est l’idéal h1i. On peut conclure par le principe de transfert : la
propriété est vraie après localisation en 1 !

Commentaire. L’avantage de la localisation en un idéal premier est que le localisé est un anneau
local, lequel a de très bonnes propriétés (cf. chapitre 9). Le désavantage est que les preuves
qui utilisent un principe local-global abstrait en lieu et place du principe local-global concret
correspondant sont non constructives dans la mesure où le seul accès que l’on a (dans une situation
générale) aux idéaux premiers est donné par le lemme de Zorn. En outre même le fait 2.2.2 est
obtenu au moyen d’un raisonnement par l’absurde qui enlève tout caractère algorithmique à la
(( construction )) correspondante.
Certains principes local-globals concrets n’ont pas de correspondant abstrait, parce que la propri-
été concernée n’est pas de caractère fini. Ce sera le cas des principes local-globals concrets 2.3
page 22 pour les modules de type fini et 2.2 page 22 pour les anneaux cohérents.
Nous ferons un usage systématique efficace et constructif du principe local-global concret de
base et de ses conséquences. Souvent, nous nous inspirerons d’une démonstration d’un principe
local-global abstrait en mathématiques classiques. Dans le chapitre 15 nous mettrons au point
une machinerie locale-globale générale pour exploiter à fond de manière constructive les preuves
classiques de type local-global.

Version abstraite du principe local-global de base

Vu que la propriété considérée est de caractère fini, on obtient en mathématiques classiques


la version abstraite suivante pour le principe local-global de base.

Principe local-global abstrait∗ 2.1


(principe local-global abstrait de base : recollement abstrait de solutions d’un système linéaire)
Soient B une matrice ∈ Am×p et C un vecteur colonne de Am . Alors les propriétés suivantes
sont équivalentes.
1. Le système linéaire BX = C admet une solution dans Ap .
2. Pour tout idéal maximal m le système linéaire BX = C admet une solution dans (A1+m )p .

Rendre des éléments comaximaux par force


La localisation en un élément s ∈ A est une opération fondamentale en algèbre commutative
pour rendre s inversible par force.
Il arrive que l’on ait besoin de rendre comaximaux n éléments a1 , . . . , an d’un anneau A. À
cet effet on introduit l’anneau
.D X E
B = A[X1 , . . . , Xn ] 1− ai Xi = A[x1 , . . . , xn ].
i

Lemme 2.2.11 Le noyau de l’homomorphisme naturel ψ : A → B est l’idéal (0 : a∞ ) où


a = ha1 , . . . , an i. En particulier l’homomorphisme est injectif si, et seulement si, Ann a = 0.

J Soit c dans le noyau, vu l’isomorphisme B/h(xj )j6=i i ' A[1/ai ], on a c =A[1/ai ] 0, donc
c ∈ (0 : a∞ ∞ ∞ r
i ). On en déduit c ∈ (0 : aP). Inversement si c ∈ (0 : a ), il existe un r tel que cai = 0
pour chaque i et donc ψ(c) = ψ(c)( ai xi )nr = 0. I
20 2. Principe local-global de base et systèmes linéaires

2.3 Anneaux et modules cohérents


Une notion fondamentale
Un anneau A est dit cohérent si toute équation linéaire LX = 0 (L ∈ A1×n , X ∈ An×1 )
admet pour solutions les éléments d’un sous-A-module de type fini de An×1 . Autrement dit :

∀n ∈ N, ∀L ∈ A1×n , ∃m ∈ N, ∃G ∈ An×m , ∀X ∈ An×1 :


(
(2.1)
LX = 0 ⇐⇒ ∃Y ∈ Am×1 , X = GY

Cela signifie que l’on maîtrise un peu l’ensemble des solutions du système linéaire homogène
LX = 0.
Plus généralement si V = (v1 , . . . , vn ) ∈ M n , où M est un A-module, on appelle module des
relations entre les vi le sous-A-module de An noyau de l’application linéaire
X
V̆ : An → M, (x1 , . . . , xn ) 7→ xi vi .
i

On dira aussi de manière plus précise qu’il s’agit du module des relations pour (le vecteur) V .
Un élément (x1 , . . . , xn ) de ce noyau est appelé une relation de dépendance linéaire entre les vi .
P
En fait, par abus de langage on parle indifféremment de la relation i xi vi = 0 ou de la
relation (x1 , . . . , xn ) ∈ An . Le A-module M est alors dit cohérent si pour tout V ∈ M n le module
des relations est de type fini. Autrement dit si l’on a :

∀n ∈ N, ∀V ∈ M n×1 , ∃m ∈ N, ∃G ∈ Am×n , ∀X ∈ A1×n


(
(2.2)
XV = 0 ⇐⇒ ∃Y ∈ A1×m , X = Y G

Un anneau A est donc cohérent si, et seulement si, il est cohérent en tant que A-module.
Notez que nous avons utilisé dans l’équation (2.2) une notation transposée par rapport à
P P
l’équation (2.1). C’est pour ne pas avoir la somme i xi vi écrite sous forme i vi xi lorsque
vi ∈ M et xi ∈ A. Dans la suite, nous ne ferons généralement plus cette transposition, car il
nous semble préférable de garder la forme usuelle AX = V pour un système linéaire, même si les
matrices A et V sont à coefficients dans M .

Proposition 2.3.1
Dans un A-module cohérent M , tout système linéaire (( sans second membre )) BX = 0 (B ∈
M k×n , X ∈ An×1 ) admet pour solutions les éléments d’un sous-A-module de type fini de An×1 .

J Faisons la preuve par exemple pour k = 2 (la preuve générale fonctionne par récurrence de
la même manière). (( On résout la première équation et l’on porte la solution générale dans la
seconde )). Voyons plus précisément. La matrice B est constituée des lignes L et L0 . On a une
matrice G telle que
LX = 0 ⇐⇒ ∃Y ∈ Am×1 , X = GY.
Il reste à résoudre L0 GY = 0 qui équivaut à l’existence d’un vecteur colonne Z tel que Y = G0 Z
pour une matrice G0 convenable. Donc BX = 0 si, et seulement si, X peut s’écrire sous forme
GG0 Z. I

La proposition précédente est particulièrement importante pour les systèmes linéaires sur A
(c’est-à-dire lorsque M = A).
Commentaire. La notion d’anneau cohérent est donc fondamentale du point de vue algorithmique
en algèbre commutative. Dans les traités usuels, cette notion est rarement mise en avant parce que
l’on préfère la notion d’anneau nœthérien 3 . En mathématiques classiques tout anneau nœthérien
A est cohérent parce que tous les sous-modules de An sont de type fini, et tout module de type
3. Nous donnons après ce commentaire une définition constructive de cette notion.
2.3. Anneaux et modules cohérents 21

fini est cohérent pour la même raison. En outre, on a le théorème de Hilbert qui dit que si A est
nœthérien, toute A-algèbre de type fini est également un anneau nœthérien, tandis que la même
affirmation est en défaut si l’on remplace (( nœthérien )) par (( cohérent )).
D’un point de vue algorithmique cependant, il semble impossible de trouver une formulation
constructive satisfaisante de la nœthérianité qui implique la cohérence (voir exercice 2.8). Et la
cohérence est souvent la propriété la plus importante du point de vue algorithmique. Comme
conséquence, la cohérence ne peut pas être sous-entendue (comme c’est le cas en mathématiques
classiques) lorsque l’on parle d’un anneau ou d’un module nœthérien.
Le théorème classique disant que sur un anneau nœthérien tout A-module de type fini est
nœthérien est souvent avantageusement remplacé par le théorème constructif suivant (pour la
version non-nœthérienne voir le théorème 4.3 page 135, et pour la version nœthérienne voir
[MRR] corollaire 3.2.8 p. 83) :
Sur un anneau cohérent (resp. nœthérien cohérent) tout A-module de présentation finie est
cohérent (resp. nœthérien cohérent).
En fait, comme le montre cet exemple, la nœthérianité est souvent une hypothèse inutilement
forte.

La définition suivante d’un module nœthérien est équivalente à la définition usuelle en mathé-
matiques classiques, mais elle est beaucoup mieux adaptée à l’algèbre constructive (la définition
usuelle n’est vérifiée constructivement par aucun anneau non trivial).

Définition 2.3.2 (nœthérianité à la Richman-Seidenberg, [143, 153])


Un A-module est dit nœthérien s’il vérifie la condition de chaîne ascendante suivante : toute
suite croissante de sous-modules de type fini possède deux termes consécutifs égaux. Un anneau
A est dit nœthérien s’il est nœthérien en tant que A-module.

Un corollaire de la proposition 2.3.1 est :

Corollaire 2.3.3 (transporteurs et cohérence)


Soit A un anneau cohérent. Alors le transporteur d’un idéal de type fini dans un autre est un
idéal de type fini. Plus généralement, si N et P sont deux sous-modules d’un A-module M , si
M est cohérent et si N, P sont de type fini, alors (P : N ) est un idéal de type fini.

Théorème 2.1 Un module est cohérent si, et seulement si, sont vérifiées les deux conditions
suivantes :
1. L’intersection de deux sous-modules de type fini arbitraires est un module de type fini.
2. L’annulateur d’un élément arbitraire est un idéal de type fini.

J La première condition est nécessaire :


Soient g1 , . . . , gn des générateurs du premier sous-module et gn+1 , . . . , gm des générateurs du
second. Se donner un élément de l’intersection revient à se donner une relation α1 g1 + · · · +
αm gm = 0 entre les gi : à cette relation, α = (α1 , . . . , αm ) ∈ Am , correspond l’élément x(α) =
α1 g1 + · · · + αn gn = −(αn+1 gn+1 + · · · + αm gm ) dans l’intersection. Donc si S est un système
générateur pour les relations entre les gi , les x(s) pour s ∈ S engendrent l’intersection des deux
sous-modules. La deuxième condition est nécessaire par définition.
Voyons que ces deux conditions sont suffisantes. Nous donnons l’idée essentielle de la preuve et
laissons les détails au lecteur. Nous considérons le module des relations pour un L ∈ M n . On
raisonne par récurrence sur n. Pour n = 1 la deuxième condition s’applique et donne un système
générateur pour les relations liant l’unique élément de L.
Supposons que le module des relations pour tout L ∈ M n soit de type fini et considérons un
L0 ∈ M n+1 . Soit k un entier (1 6 k 6 n). On écrit L0 = L1 • L2 où L1 = (a1 , . . . , ak ) et
L2 = (ak+1 , . . . , an+1 ). Soit M1 = ha1 , . . . , ak i et M2 = hak+1 , . . . , an+1 i. Se donner une relation
Pn+1
i=1 αi ai = 0 revient à se donner un élément de l’intersection M1 ∩ M2 (comme ci-dessus).
22 2. Principe local-global de base et systèmes linéaires

On obtiendra donc un système générateur pour les relations entre les ai en prenant la réunion
des trois systèmes de relations suivants : celui des relations entre les éléments de L1 , celui des
relations entre les éléments de L2 et celui qui provient du système générateur de l’intersection
M1 ∩ M2 . I

En particulier un anneau est cohérent si, et seulement si, d’une part l’intersection de deux
idéaux de type fini est toujours un idéal de type fini, et d’autre part l’annulateur d’un élément
est toujours un idéal de type fini.

Exemple. Si K est un corps discret toute algèbre de présentation finie sur K est un anneau
cohérent (théorème 7.6 page 270). Il est clair aussi que tout anneau de Bezout intègre (cf.
page 144) est un anneau cohérent.

Caractère local de la cohérence


La cohérence est une notion locale, au sens suivant.

Principe local-global concret 2.2 (modules cohérents)


Soient S1 , . . . , Sn des monoïdes comaximaux d’un anneau A et M un A-module. Alors le module
M est cohérent si, et seulement si, chacun des MSi est cohérent. De même l’anneau A est
cohérent si, et seulement si, chacun des ASi est cohérent. En particulier un produit fini d’anneaux
est cohérent si, et seulement si, chaque facteur est cohérent.

J Soit a = (a1 , . . . , am ) ∈ M m , et N ⊆ Am le module des relations pour a. Nous constatons


que pour n’importe quel monoïde S, NS est le module des relations pour a dans MS . Ceci nous
ramène à démontrer le principe local-global concret qui suit. I

Principe local-global concret 2.3 (modules de type fini)


Soient S1 , . . . , Sn des monoïdes comaximaux d’un anneau A et M un A-module. Alors M est de
type fini si, et seulement si, chacun des MSi est de type fini.

J Supposons que MSi soit un ASi -module de type fini pour chaque i. Montrons que M est de
type fini. Soient gi,1 , . . . , gi,qi des éléments de M qui engendrent MSi . Soit x ∈ M arbitraire.
Pour chaque i on a un si ∈ Si et des ai,j ∈ A tels que :

si x = ai,1 gi,1 + · · · + ai,qi gi,qi dans M.


Pn
En écrivant i=1 bi si = 1, on voit que x est combinaison linéaire des gi,j . I

Remarque. Considérons le sous-Z-module M de Q engendré par les éléments 1/p où p parcourt


l’ensemble des nombres premiers. On vérifie facilement que M n’est pas de type fini mais qu’il
devient de type fini après localisation en n’importe quel idéal premier. Cela signifie que le principe
local-global concret 2.3 n’admet pas de version (( abstraite )) correspondante, dans laquelle la
localisation en des monoïdes comaximaux serait remplacée par la localisation en tous les idéaux
premiers. En fait la propriété P pour un module d’être de type fini n’est pas une propriété de
caractère fini, comme on peut le voir avec le module M ci-dessus et les monoïdes Z \ {0} ou
1 + pZ. La propriété vérifie par ailleurs le principe de transfert, mais en l’occurrence, cela n’est
d’aucune utilité.
2.3. Anneaux et modules cohérents 23

Au sujet du test d’égalité et du test d’appartenance


Nous introduisons maintenant quelques notions constructives relatives au test d’égalité et au
test d’appartenance.
Un ensemble E est bien défini lorsque l’on a indiqué comment construire ses éléments et
lorsque l’on a construit une relation d’équivalence qui définit l’égalité de deux éléments dans
l’ensemble. On note x = y ou si nécessaire x =E y l’égalité dans E. L’ensemble E est appelé
discret lorsque l’axiome suivant est vérifié
∀x, y ∈ E x = y ou ¬(x = y)
Classiquement, tous les ensembles sont discrets, car le (( ou )) présent dans la définition est
compris de manière (( abstraite )). Constructivement, le (( ou )) présent dans la définition est
compris selon la signification du langage usuel : une des deux alternatives au moins doit avoir
lieu de manière certaine. Il s’agit donc d’un (( ou )) de nature algorithmique. En bref un ensemble
est discret si l’on a un test pour l’égalité de deux éléments arbitraires de cet ensemble.
Si l’on veut être plus précis et expliquer précisément ce qu’est un test d’égalité dans l’ensemble
E on dira qu’il s’agit d’une construction qui, à partir de deux éléments de E donnés en tant que
tels, fournit une réponse (( oui )) ou (( non )) à la question posée (ces éléments sont-ils égaux ?).
Mais on ne pourra guère aller plus loin. En mathématiques constructives les notions de nombre
entier et de construction sont des concepts de base. Elles peuvent être expliquées et commentées,
mais pas à proprement parler (( définies )). La signification constructive du (( ou )) et celle du (( il
existe )) sont ainsi directement dépendantes de la notion de construction4 , que l’on ne tente pas
de définir.
Un corps discret (en un seul mot) est un anneau où est vérifié l’axiome suivant :
(2.3) ∀x ∈ A x = 0 ou x ∈ A×
L’anneau trivial est un corps discret.
Commentaire. La méthode chinoise du pivot (souvent appelée méthode du pivot de Gauss)
fonctionne de façon algorithmique avec les corps discrets. Cela signifie que l’algèbre linéaire de
base est explicite sur les corps discrets.
Un corps discret A est un ensemble discret si, et seulement si, le test (( 1 =A 0 ? )) est
explicite5 . Il arrive cependant que l’on sache qu’un anneau construit au cours d’un algorithme
est un corps discret sans savoir s’il est trivial ou non.
Si A est un corps discret non trivial, l’affirmation (( M est un espace vectoriel libre de
dimension finie )) est plus précise que l’affirmation (( M est un espace vectoriel de type fini )), car
dans le dernier cas, savoir extraire une base du système générateur revient à disposer d’un test
d’indépendance linéaire dans M .
Une partie P d’un ensemble E est dite détachable lorsque la propriété suivante est vérifiée
∀x ∈ E x ∈ P ou ¬(x ∈ P ).
Il revient au même de se donner une partie détachable de E ou sa fonction caractéristique
χP : E → {0, 1}.
En mathématiques constructives on considère que si deux ensembles E et F sont correctement
définis, il en va de même pour l’ensemble des fonctions de E vers F , que l’on note F E . En
conséquence l’ensemble des parties détachables d’un ensemble E est lui-même correctement défini
car il s’identifie à l’ensemble {0, 1}E des fonctions caractéristiques de source E.
4. En mathématiques classiques on peut vouloir définir la notion de construction à partir de la notion de
(( programme correct )). Mais ce que l’on définit ainsi est plutôt la notion de (( construction mécanisable )). Et
surtout dans la notion de (( programme correct )), il y a le fait que le programme doit s’arrêter après un nombre
fini d’étapes. Ceci cache un (( il existe )), qui en mathématiques constructives renvoie de manière irréductible à la
notion de construction.
5. La notion générale de corps en mathématiques constructives sera définie page 328. Nous verrons que si un
corps est un ensemble discret c’est un corps discret.
24 2. Principe local-global de base et systèmes linéaires

Anneaux et modules cohérents fortement discrets


Un anneau (resp. un module) est dit fortement discret lorsque les idéaux de type fini (resp.
les sous-modules de type fini) sont détachables, c’est-à-dire encore si les quotients par les idéaux
de type fini (resp. par les sous-modules de type fini) sont discrets.
Cela revient à dire que l’on a un test pour décider si une équation linéaire LX = c a ou non
une solution, et en calculer une en cas de réponse positive.
Un résultat essentiel pour l’algèbre constructive et le calcul formel affirme que Z[X1 , . . . , Xn ]
est un anneau cohérent fortement discret. Plus généralement on a la version constructive suivante
du théorème de Hilbert (voir [MRR, Adams & Loustaunau]) :
Si A est un anneau nœthérien cohérent fortement discret alors il en va de même pour toute
A-algèbre de présentation finie.
La proposition suivante se démontre comme la proposition 2.3.1.

Proposition 2.3.4 Sur un module cohérent fortement discret M , tout système linéaire BX = C
(B ∈ M k×n , C ∈ M k×1 , X ∈ An×1 ) peut être testé. En cas de réponse positive, une solution
particulière X0 peut être calculée. En outre les solutions X sont tous les éléments de X0 + N où
N est un sous-A-module de type fini de An×1 .

2.4 Systèmes fondamentaux d’idempotents orthogonaux


Un élément e d’un anneau est dit idempotent si e2 = e. Dans ce cas 1 − e est aussi un
idempotent, appelé l’idempotent complémentaire de e, ou encore le complément de e. Pour deux
idempotents e1 et e2 on a

he1 i ∩ he2 i = he1 e2 i , he1 i + he2 i = he1 , e2 i = he1 + e2 − e1 e2 i

avec e1 e2 et e1 + e2 − e1 e2 idempotents. Deux idempotents e1 et e2 sont dits orthogonaux lorsque


e1 e2 = 0. On a alors he1 i + he2 i = he1 + e2 i.
Un anneau est dit connexe si tout idempotent est égal à 0 ou 1.
Dans la suite nous utilisons implicitement le fait évident suivant : si l’on a un idempotent e
et un élément x alors e divise x si, et seulement si, x = ex.
La présence d’un idempotent 6= 0, 1 signifie que l’anneau A est isomorphe à un produit de
deux anneaux A1 et A2 , et que tout calcul dans A peut être scindé en deux calculs (( plus
simples )) dans A1 et A2 :

Fait 2.4.1 Pour tout isomorphisme λ : A → A1 × A2 , il existe un unique e ∈ A tel que


1. e est idempotent (on note son complément f = 1 − e).
2. L’homomorphisme A → A1 identifie A1 avec A/hei et avec A[1/f ].
3. L’homomorphisme A → A2 identifie A2 avec A/hf i et avec A[1/e].
Réciproquement si e est un idempotent et f son complément l’homomorphisme canonique A →
A/hei × A/hf i est un isomorphisme.

J L’élément e est défini par λ(e) = (0, 1). I

On peut apporter quelques précisions souvent utiles.

Fait 2.4.2 Soit e un idempotent de A, f = 1 − e et M un A-module.


1. Les monoïdes eN = {1, e} et 1 + f A ont le même saturé.
2.4. Systèmes fondamentaux d’idempotents orthogonaux 25

2. En tant que A-module, A est somme directe de hei = eA et hf i = f A. L’idéal eA est


un anneau si l’on prend e comme élément neutre pour la multiplication. On a alors trois
anneaux isomorphes
A[1/e] = (1 + f A)−1 A ' A/hf i ' eA.
Ces isomorphismes sont obtenus à partir des trois applications canoniques A → A[1/e] :
x 7→ x/1, A → A/hf i : x 7→ x mod hf i, A → eA : x 7→ e x, qui sont surjectives et ont
même noyau.
3. On a trois A-modules isomorphes

M [1/e] ' M/f M ' eM.

Ces isomorphismes sont obtenus à partir des trois applications canoniques M → M [1/e] :
x 7→ x/1, M → M/f M : x 7→ x mod f M , M → e M : x 7→ e x, qui sont surjectives et
ont même noyau.

Par ailleurs il faut prendre garde que l’idéal eA, qui est un anneau avec e pour élément
neutre, n’est pas un sous-anneau de A (sauf si e = 1).
Dans un anneau A un système fondamental d’idempotents orthogonaux est une liste (e1 , . . . , en )
d’éléments de A qui vérifie :
Pn
ei ej = 0 si i 6= j, et i=1 ei = 1
Ceci implique que les ei sont idempotents. Nous ne réclamons pas qu’ils soient tous non nuls6 .
Le théorème de structure ci-après et le lemme qui suit sont des (légères) généralisations des
deux faits précédents.

Théorème 2.2 (théorème de structure)


Soit (e1 , . . . , en ) un système fondamental d’idempotents orthogonaux d’un anneau A, et M un
A-module. Notons Ai = A/h1 − ei i ' A[1/ei ]. Alors :

A ' A1 × · · · × An ,
M = e1 M ⊕ · · · ⊕ en M.

Notez que e1 M est un A-module et un A1 -module, mais que ce n’est pas un A2 -module (sauf
s’il est nul).
Le lemme suivant est une réciproque du théorème de structure.
L
Lemme 2.4.3 Soient (ai )i∈J1..nK des idéaux de A. On a A = i∈J1..nK ai si, et seulement si,
il existe un système fondamental d’idempotents orthogonaux (ei )i∈J1..nK tel que ai = hei i pour
i ∈ J1..nK. Dans ce cas le système fondamental d’idempotents orthogonaux est déterminé de
manière unique.

J Supposons A = On a des ei ∈ ai tels que i ei = 1, et comme ei ej ∈ ai ∩ aj = {0}


L P
i∈J1..nK ai .
pour i 6= j, on obtient bien un système fondamental d’idempotents orthogonaux. En outre si
x ∈ aj on a x = x i ei = xej donc aj = hej i.
P

L’implication inverse est donnée par le théorème 2.2, en prenant M = A.


L’unicité résulte de celle d’une décomposition d’un élément dans une somme directe. I

Voici maintenant deux lemmes très utiles.

Lemme 2.4.4 (lemme de l’idéal engendré par un idempotent)


Un idéal a est engendré par un idempotent si, et seulement si, a + Ann a = h1i.
6. C’est beaucoup plus confortable pour obtenir des énoncés uniformes. En outre c’est pratiquement indispensable
lorsque l’on ne sait pas tester l’égalité à zéro des idempotents dans l’anneau avec lequel on travaille.
26 2. Principe local-global de base et systèmes linéaires

J Tout d’abord si e est idempotent, on a Ann hei = h1 − ei. Pour l’implication réciproque, soit
e ∈ a tel que 1 − e ∈ Ann a. Alors e(1 − e) = 0 donc e est idempotent. Et pour tout y ∈ a, y = ye,
donc a ⊆ hei . I
Lemme 2.4.5 (lemme de l’idéal de type fini idempotent)
Si a est un idéal de type fini idempotent (i.e., a = a2 ) dans A, alors a = hei avec e2 = e
entièrement déterminé par a.
J On utilise le truc du déterminant. On considère un système générateur (a1 , . . . aq ) de a et le
vecteur colonne a = t[ a1 · · · aq ]. Puisque aj ∈ a2 pour j ∈ J1..qK, il y a une matrice C ∈ aq×q
telle que a = C a, donc (Iq − C) a = 0 et det(Iq − C) a = 0. On a det(Iq − C) = 1 − e avec e ∈ a
et (1 − e)a = 0. On applique le lemme 2.4.4.
L’unicité de e est déjà dans le lemme 2.4.3. I
Rappelons enfin le théorème chinois, outil très efficace, qui cache un système fondamental
d’idempotents orthogonaux. Des idéaux b1 , . . ., b` d’un anneau A sont dit comaximaux lorsque
b1 + · · · + b` = h1i.
Théorème des restes chinois
T Q
Soient dans A des idéaux (ai )i∈J1..nK deux à deux comaximaux et a = i ai . Alors a = i ai et
l’application canonique A/a → i A/ai est un isomorphisme : il existe une famille (ei )i∈J1..nK
Q

dans A telle que ai = a + h1 − ei i et les π(ei ) forment un système fondamental d’idempotents


orthogonaux de A/a (π est la projection canonique A → A/a).
Comme corollaire on obtient le :
Lemme 2.4.6 (lemme des noyaux)
Soit P = P1 · · · P` ∈ A[X] et une application A-linéaire ϕ : M → M vérifiant P (ϕ) = 0. On
Q
suppose que les Pi sont deux à deux comaximaux. Notons Ki = Ker(Pi (ϕ)), Qi = j6=i Pj . Alors
on a :
M
Ki = Im(Qi (ϕ)), M = K1 ⊕ · · · ⊕ K` et Im(Pi (ϕ)) = Ker(Qi (ϕ)) = Ki .
j6=i

J On considère l’anneau B = A[X]/hP i. Le module M peut être vu comme un B-module pour


la loi (Q, y) 7→ Q · y = Q(ϕ)(y). On applique alors le théorème des restes chinois et le théorème
de structure 2.2 page précédente.
Ceci est une manière abstraite de présenter le calcul plus classique suivant. À partir des égalités
P
Uij Pi + Uji Pj = 1, on obtient des égalités Ui Pi + Vi Qi = 1 ainsi qu’une égalité i Wi Qi = 1.
Notons pi = Pi (ϕ), qi = Qi (ϕ) etc. Alors tous les endomorphismes obtenus commutent et l’on a
I
P
des égalités pi qi = 0, ui pi + vi qi = IdM , i wi qi = IdM . Le reste suit facilement.

2.5 Un peu d’algèbre extérieure


Qu’un système linéaire homogène de n équations à n inconnues
admette (sur un corps discret) une solution non triviale
si, et seulement si, le déterminant du système est nul,
voilà un fait d’une importance capitale dont on
n’aura jamais fini de mesurer la portée.
Anonyme
Éliminons, éliminons, éliminons
les éliminateurs de l’élimination !
Poême mathématique (extrait)
S. Abhyankar
Quelques exemples simples illustrent ces idées dans la section présente.
2.5. Un peu d’algèbre extérieure 27

Sous-modules libres en facteur direct (splitting off)


Soit k ∈ N. Un module libre de rang k est par définition un A-module isomorphe à Ak . Si k
n’est pas précisé, on dira module libre de rang fini.
Les modules dont la structure est la plus simple sont les modules libres de rang fini. On est
donc intéressé par la possibilité d’écrire un module arbitraire M sous la forme L ⊕ N où L est
un module libre de rang fini. Une réponse (partielle) à cette question est donnée par l’algèbre
extérieure.

Proposition 2.5.1 (splitting off)


Soient a1 , . . . , ak des éléments d’un A-module M , alors les propriétés suivantes sont équivalentes.
1. Le sous-module L = ha1 , . . . , ak i de M est libre de base (a1 , . . . , ak ) et il est facteur direct
de M .
2. Il existe une forme k-linéaire alternée ϕ : M k → A vérifiant ϕ(a1 , . . . , ak ) = 1.

J 1. implique 2. : si L ⊕ N = M , si π : M → L est la projection parallèlement à N et si


θj : L → A est la j-ième forme coordonnée pour la base (a1 , . . . , ak ), on définit ϕ(x1 , . . . , xk ) =
det((θj (π(xi ))i,j∈J1..kK ).
2. implique 1. : on définit π : M → M par
k
X
π(x) = ϕ(a1 , . . . , x, . . . , ak ) aj .
| {z }
j=1
(x est en position j)

On a immédiatement π(ai ) = ai et Im π ⊆ L := ha1 , . . . , ak i, donc π 2 = π et Im π = L. Enfin si


I
P
x = j λj aj = 0 alors ϕ(a1 , . . . , x, . . . , ak ) = λj = 0 (x en position j).

Cas particulier : pour k = 1 on dit que l’élément a1 de M est unimodulaire lorsqu’il existe
une forme linéaire ϕ : M → A tel que ϕ(a1 ) = 1.

Le rang d’un module libre


Comme nous allons le voir, le rang d’un module libre est un entier bien déterminé si l’anneau
n’est pas trivial. Autrement dit deux A-modules M ' Am et P ' Ap avec m 6= p ne peuvent
être isomorphes que si 1 =A 0.
Nous utiliserons la notation rgA (M ) = k (ou rg(M ) = k si A est clair d’après le contexte)
pour indiquer qu’un module (supposé libre) est de rang k.
Une preuve savante consiste à dire que, si m > p, la puissance extérieure m-ième de P
est {0} tandis que celle de M est isomorphe à A (c’est pour l’essentiel la preuve faite dans le
corollaire 2.5.17).
La même preuve peut être présentée de façon plus élémentaire comme suit.
Rappelons tout d’abord la formule de Cramer de base. Si B est une matrice carrée d’ordre n,
nous notons B e ou Adj B la matrice cotransposée (on dit parfois, adjointe). La forme élémentaire
des identités de Cramer s’écrit alors :

(2.4) A Adj(A) = Adj(A) A = det(A) In .

Cette formule, jointe à la formule du produit (( det(AB) = det(A) det(B) )), implique qu’une
matrice carrée A est inversible si, et seulement si, son déterminant est inversible, si, et seulement
si, elle est inversible d’un seul coté, et que son inverse est alors égal à (det A)−1 Adj A.
On considère maintenant deux A-modules M ' Am et P ' Ap avec m > p et une application
linéaire surjective ϕ : P → M . Il existe donc une application linéaire ψ : M → P telle que
ϕ ◦ ψ = IdM . Cela correspond à deux matrices A ∈ Am×p et B ∈ Ap×m avec AB = Im . Si m = p
la matrice A est inversible d’inverse B et ϕ et ψ sont des isomorphismes réciproques. Si m > p
28 2. Principe local-global de base et systèmes linéaires

on a AB = A1 B1 avec A1 et B1 carrées obtenues à partir de A et B en complétant par des zéros


(m − p colonnes pour A1 , m − p lignes pour B1 ).

0 0 ··· 0
.
A1 = .. A B1 = A1 B1 = Im
B
0

Ainsi 1 = det Im = det(AB) = det(A1 B1 ) = det(A1 ) det(B1 ) = 0.


Dans cette preuve on voit clairement apparaître la commutativité de l’anneau (qui est vraiment
nécessaire). Résumons.

Proposition 2.5.2 Soient deux A-modules M ' Am et P ' Ap et une application linéaire
surjective ϕ : P → M .
1. Si m = p alors ϕ est un isomorphisme. Autrement dit, dans un module Am tout système
générateur de m éléments est une base.
2. Si m > p alors 1 =A 0, en particulier si l’anneau n’est pas trivial, m > p est impossible.

Dans la suite ce théorème de classification important apparaîtra souvent comme corollaire de


théorèmes plus subtils, comme par exemple le théorème 4.4 page 141 ou le théorème 4.5.

Puissances extérieures d’un module


Terminologie. Rappelons que l’on appelle mineur d’une matrice A tout déterminant d’une
matrice carrée extraite de A sur certaines lignes et certaines colonnes. On parle de mineur d’ordre
k lorsque la matrice carrée extraite est dans Mk (A). Lorsque A est une matrice carrée, un mineur
principal est un mineur correspondant à une matrice extraite pour le même ensemble d’indices
sur les lignes et sur les colonnes. Par exemple si A ∈ Mn (A) le coefficient de X k dans le polynôme
det(In + XA) est la somme des mineurs principaux d’ordre k de A. Enfin, on appelle mineur
principal dominant un mineur principal en position nord-ouest, c’est-à-dire obtenu en extrayant
la matrice sur les premières lignes et les premières colonnes.

Soit M un A-module. Une application k-linéaire alternée ϕ : M k → P est une puissance


extérieure k-ième du A-module M si toute application k-linéaire alternée ψ : M k → R s’écrit de
manière unique sous la forme ψ = θ ◦ ϕ, où θ est une application A-linéaire de P vers R.

M k KK
KKKψ Applications k-linéaires alternées
ϕ KKK
KKK

P _ _ _ _ _ /% R
θ!

Il est clair que ϕ : M k → P est unique au sens catégorique, c’est-à-dire que pour toute autre
puissance extérieure ϕ0 : M k → P 0 il y a un isomorphisme unique θ : P → P 0 qui rend les
diagrammes convenables commutatifs.
On note alors k M = kA M pour P et λk (x1 , . . . , xk ) = x1 ∧ · · · ∧ xk pour ϕ(x1 , . . . , xk ).
V V

L’existence d’une puissance extérieure k-ième pour tout module M résulte de considérations
générales analogues à celles que nous détaillerons pour le produit tensoriel page 135 de la
section 4.4.
La théorie la plus simple des puissances extérieures, analogue à la théorie élémentaire du
déterminant, démontre que si M est un module libre ayant une base de n éléments (a1 , . . . , an ),
alors k M est nul si k > n, et sinon c’est un module libre ayant pour base les nk k-vecteurs
V

ai1 ∧ · · · ∧ aik , où (i1 , . . . , ik ) parcourt l’ensemble des k-uplets strictement croissants d’éléments
de J1..nK. En particulier n M est libre de rang 1.
V
2.5. Un peu d’algèbre extérieure 29

Toute application A-linéaire α : M → N donne une unique application A-linéaire k α :


V
Vk
M → k N vérifiant ( k α)(x1 ∧ · · · ∧ xk ) = α(x1 ) ∧ · · · ∧ α(xk ) pour tout k-vecteur x1 ∧ · · · ∧ xk
V V
Vk
M . L’application linéaire k α s’appelle la puissance extérieure k-ième de l’application
V
de
linéaire α. V  V  V
k
En outre on obtient immédiatement α ◦ k β = k (α ◦ β) quand α ◦ β est défini. En
bref, chaque k est un foncteur.
V

Si M et N sont libres de bases respectives (a1 , . . . , an ) et (b1 , . . . , bm ) et si α admet la matrice


H sur ces bases, alors k α admet la matrice notée k H sur les bases correspondantes de k M
V V V
Vk
et N . Les coefficients de cette matrice sont tous les mineurs d’ordre k de la matrice H.

Idéaux déterminantiels
Définition 2.5.3 Si G ∈ An×m et 1 6 k 6 min(m, n), l’idéal déterminantiel d’ordre k de la
matrice G est l’idéal, noté DA,k (G) ou Dk (G), engendré par les mineurs d’ordre k de G. Pour
k 6 0 on pose par convention Dk (G) = h1i, et pour k > min(m, n), Dk (G) = h0i.

Ces conventions sont naturelles car elles permettent d’obtenir en toute généralité les égalités
suivantes :
I 0
– Si H = r , pour tout k on a Dk (G) = Dk+r (H).
0 G
0 0
– Si H = , pour tout k on a Dk (H) = Dk (G).
0 G

Fait 2.5.4 Pour toute matrice G de type n × m on a les inclusions

(2.5) {0} = D1+min(m,n) (G) ⊆ · · · ⊆ D1 (G) ⊆ D0 (G) = h1i = A

Plus précisément pour tout k, r ∈ N

(2.6) Dk+r (G) ⊆ Dk (G) Dr (G)

En effet, tout mineur d’ordre h + 1 s’exprime comme combinaison linéaire de mineurs d’ordre
h. Et le (( plus précisément )) s’obtient avec le développement de Laplace du déterminant.

Fait 2.5.5 Soient G1 ∈ An×m1 , G2 ∈ An×m2 et H ∈ Ap×n .


1. Si Im G1 ⊆ Im G2 alors pour tout entier k on a Dk (G1 ) ⊆ Dk (G2 ).
2. Pour tout entier k on a Dk (HG1 ) ⊆ Dk (G1 ).
3. Les idéaux déterminantiels d’une matrice G ∈ An×m ne dépendent que de la classe d’équi-
valence du sous-module image de G (i.e., ils ne dépendent que de Im G, à automorphisme
près du module An ).
4. En particulier si ϕ est une application linéaire entre modules libres de rang fini les idéaux
déterminantiels d’une matrice de ϕ ne dépendent pas des bases choisies. On les note Dk (ϕ)
et on les appelle les idéaux déterminantiels de l’application linéaire ϕ.

J 1. Chaque colonne de G1 est une combinaison linéaire de colonnes de G2 . On conclut par la


multilinéarité du déterminant.
2. Même raisonnement en remplaçant les colonnes par les lignes.
Enfin 3. implique 4. et résulte des deux points précédents. I

Remarque. Un idéal déterminantiel est donc attaché essentiellement à un sous-module de ty-


pe fini M d’un module libre L. Mais c’est la structure de l’inclusion M ⊆ L et non pas
seulement la structure de M qui intervient pour déterminer les idéaux déterminantiels. Par
30 2. Principe local-global de base et systèmes linéaires

exemple M = 3Z × 5Z est un sous-Z-module libre de L = Z2 et ses idéaux déterminantiels sont


D1 (M ) = h1i, D2 (M ) = h15i. Si l’on remplace 3 et 5 par 6 et 10 par exemple, on obtient un autre
sous-module libre, mais la strucure de l’inclusion est différente puisque les idéaux déterminantiels
sont maintenant h2i et h60i.

Fait 2.5.6 Si G et H sont des matrices telles que GH est définie, alors, pour tout n > 0 on a

(2.7) Dn (GH) ⊆ Dn (G) Dn (H)

J En effet : le résultat est clair pour n = 1, et pour n > 1 on se ramène au cas n = 1 en notant
que les mineurs d’ordre n de G, H et GH représentent les coefficients des matrices (( puissance
extérieure n-ième de G, H et GH )) (en tenant compte de la fonctorialité de (( puissance extérieure
n-ième )) : n (ϕψ) = n ϕ n ψ). I
V V V

L’égalité suivante est immédiate :


Xn
(2.8) Dn (ϕ ⊕ ψ) = Dk (ϕ)Dn−k (ψ)
k=0

Rang d’une matrice


Définition 2.5.7 Une application linéaire ϕ entre modules libres de rangs finis sera dite de rang
6 k si Dk+1 (ϕ) = 0 (tous les mineurs d’ordre k + 1 d’une matrice représentant ϕ sont nuls). Elle
sera dite de rang > k si Dk (ϕ) = h1i . Enfin elle sera dite de rang k si elle est à la fois de rang
> k et de rang 6 k.

Nous utiliserons les notations rg(ϕ) > k et rg(ϕ) 6 k, conformément à la définition précédente,
sans présupposer que rg(ϕ) soit défini. Seule l’écriture rg(ϕ) = k signifiera que le rang est défini.
Nous généraliserons plus loin cette définition au cas d’applications linéaires entre modules
projectifs de type fini : voir notation 10.6.3 et exercices 10.21, 10.22 et 10.23.

Commentaire. La lectrice doit prendre garde qu’il n’existe pas de définition universellement
acceptée pour (( matrice de rang k )) dans la littérature. En lisant un autre ouvrage, elle doit
d’abord s’assurer de la définition adoptée par l’auteur. Par exemple dans le cas d’un anneau
intègre A, on trouve souvent le rang défini comme celui de la matrice vue dans le corps des
fractions de A. Néanmoins une matrice de rang k au sens de la définition 2.5.7 est généralement
de rang k au sens des autres auteurs.

Le principe local-global concret suivant est une conséquence immédiate du principe local-global
de base.

Principe local-global concret 2.4 (rang d’une matrice)


Soient S1 , . . . , Sn des monoïdes comaximaux de A et B une matrice ∈ Am×p . Alors les propriétés
suivantes sont équivalentes.
1. La matrice est de rang 6 k (resp. de rang > k) sur A.
2. Pour i ∈ J1..nK, la matrice est de rang 6 k (resp. de rang > k) sur ASi .
2.5. Un peu d’algèbre extérieure 31

Méthode du pivot généralisée


Terminologie.
1) Deux matrices sont dites équivalentes lorsque l’on passe de l’une à l’autre en multipliant à
droite et à gauche par des matrices inversibles.
2) Deux matrices carrées dans Mn (A) sont dites semblables lorsqu’elles représentent le même en-
domorphisme de An sur deux bases (distinctes ou non), autrement dit lorsqu’elles sont conjuguées
pour l’action (G, M ) 7→ GM G−1 de GLn (A) sur Mn (A).
3) Une manipulation élémentaire de lignes sur une matrice qui possède n lignes, consiste en
le remplacement d’une ligne Li par la ligne Li + λLj avec 1 6 i 6= j 6 n. Cela correspond à
(n)
la multiplication à gauche par une matrice, dite élémentaire, notée Ei,j (λ) (ou, si le contexte
le permet Ei,j (λ)) : elle est obtenue à partir de In par la même manipulation élémentaire de
lignes. La multiplication à droite par la matrice Ei,j (λ) correspond, elle, à une manipulation
élémentaire de colonnes (sur une matrice qui possède n colonnes), celle qui transforme la matrice
In en Ei,j (λ) : Cj ← Cj + λCi .
4) Le sous-groupe de SLn (A) engendré par les matrices élémentaires est appelé le groupe élémen-
taire et il est noté En (A). Deux matrices sont dites élémentairement équivalentes lorsque l’on
peut passer de l’une à l’autre par des manipulations élémentaires de lignes et de colonnes.

Lemme du mineur inversible (pivot généralisé)


Soit une matrice G ∈ Aq×m avec un mineur d’ordre k inversible. Alors elle est équivalente à une
matrice  
Ik 0k,m−k
0q−k,k G1
avec Dr (G1 ) = Dk+r (G) pour tout r > 0.

J En permutant éventuellement les lignes et les colonnes on ramène le mineur inversible en haut
à gauche. Puis en multipliant à droite (ou à gauche) par une matrice inversible on se ramène à la
forme  
0 Ik A
G =
B C
puis par des manipulations élémentaires de lignes et de colonnes, on obtient
 
00 Ik 0k,m−k
G =
0q−k,k G1
00
et Dr (G1 ) = Dk+r (G ) = Dk+r (G) pour tout r > 0. I

Comme conséquence immédiate on obtient :


Lemme de la liberté Soit une matrice G ∈ Aq×m de rang 6 k. Si la matrice G contient un
mineur d’ordre k inversible, alors elle est équivalente à la matrice
 
Ik 0k,m−k
Ik,q,m = .
0q−k,k 0q−k,m−k
Dans ce cas, l’image, le noyau et le conoyau de G sont libres, respectivement de rangs k, m − k
et q − k. En outre l’image et le noyau possèdent des supplémentaires libres.
Si i1 , . . . , ik (resp. j1 , . . . , jk ) sont les numéros de lignes (resp. de colonnes) du mineur inversible,
alors les colonnes j1 , . . . , jk forment une base du module Im G et Ker G est le sous-module défini
par l’annulation des formes linéaires correspondant aux lignes i1 , . . . , ik .

J Avec les notations du lemme précédent D1 (G1 ) = Dk+1 (G) = h0i, donc G1 = 0. Le dernier
point est laissé au lecteur. I

La matrice Ik,q,m est appelée une matrice simple standard. On notera Ik,n pour Ik,n,n et on
l’appellera une matrice de projection standard.
32 2. Principe local-global de base et systèmes linéaires

Définition 2.5.8 Une application linéaire entre modules libres de rangs finis sera dite simple si
elle peut être représentée par une matrice Ik,q,m sur des bases convenables. De même une matrice
sera dite simple lorsqu’elle est équivalente à une matrice Ik,q,m .

Formule de Cramer généralisée


Nous étudions dans ce paragraphe quelques généralisations des formules de Cramer usuelles.
Nous les exploiterons dans les paragraphes suivants.
Pour une matrice A ∈ Am×n nous noterons Aα,β la matrice extraite sur les lignes α =
{α1 , . . . , αr } ⊆ J1..mK et les colonnes β = {β1 , . . . , βs } ⊆ J1..nK.
Supposons la matrice A de rang 6 k. Soit V ∈ Am×1 un vecteur colonne tel que la matrice
bordée [ A | V ] soit aussi de rang 6 k. Appelons Aj la j-ième colonne de A. Soit µα,β = det(Aα,β )
le mineur d’ordre k de la matrice A extrait sur les lignes α = {α1 , . . . , αk } et les colonnes
β = {β1 , . . . , βk }. Pour j ∈ J1..kK soit να,β,j le déterminant de la même matrice extraite, à ceci
près que la colonne j a été remplacée par la colonne extraite de V sur les lignes α. Alors on
obtient pour chaque couple (α, β) de multi-indices une identité de Cramer :
Xk
(2.9) µα,β V = ν Aβj
j=1 α,β,j

due au fait que le rang de la matrice bordée [ A1..m,β | V ] est 6 k. Ceci peut se relire comme suit :

να,β,1
 
..
h i
µα,β V = Aβ1 . . . Aβk · =
 
.
να,β,k

vα1
 
 .. 
h i
= Aβ1 . . . Aβk · Adj(Aα,β ) ·  .  =
vαk

(2.10) = A · (In )1..n,β · Adj(Aα,β ) · (Im )α,1..m · V

Ceci nous conduit à introduire la notation suivante

Notation 2.5.9 Nous notons P` l’ensemble des parties de J1..`K et Pk,` l’ensemble des parties à
k éléments de J1..`K. Pour A ∈ Am×n et α ∈ Pk,m , β ∈ Pk,n nous notons

Adjα,β (A) := (In )1..n,β · Adj(Aα,β ) · (Im )α,1..m .

Par exemple avec


5 −5 7 4
 

A =  9 −1 2 7 ,
13 3 −3 10
−5
 
7
α = {1, 2} et β = {2, 3}, on a Aα,β = ,
−1 2

0 0 0
 
2 −7 −7
 
2 0
Adj(Aα,β ) = et Adjα,β (A) =  .
1 −5 1 −5 0
0 0 0

L’égalité (2.10) s’écrit alors, sous l’hypothèse que Dk+1 ([ A | V ]) = 0 :

(2.11) µα,β V = A · Adjα,β (A) · V


2.5. Un peu d’algèbre extérieure 33

On obtient donc, sous l’hypothèse que A est de rang 6 k.

(2.12) µα,β A = A · Adjα,β (A) · A

Les identités de Cramer (2.11) et (2.12) fournissent des congruences qui ne sont soumises à
aucune hypothèse : il suffit par exemple de lire (2.11) dans l’anneau quotient A/Dk+1 ([ A | V ])
pour obtenir la congruence (2.13).

Lemme 2.5.10 (formule de Cramer généralisée)


Sans aucune hypothèse sur la matrice A ou le vecteur V on a pour α ∈ Pk,m , β ∈ Pk,n :

(2.13) µα,β V ≡ A · Adjα,β (A) · V mod Dk+1 ([ A | V ])


(2.14) µα,β A ≡ A · Adjα,β (A) · A mod Dk+1 (A).

Un cas particulier simple est le suivant avec k = m 6 n.

(2.15) µ1..m,β Im = A · Adj1..m,β (A) (β ∈ Pm,n )

Cette égalité est d’ailleurs une conséquence directe de l’identité de Cramer de base (2.4). De la
même manière on obtient

(2.16) µα,1..n In = Adjα,1..n (A) · A (α ∈ Pn,m , n 6 m)

Une formule magique


Une conséquence immédiate de l’identité de Cramer (2.12) est l’identité (2.17) moins usuelle
donnée dans le théorème suivant. De même les égalités (2.18) et (2.19) résultent facilement de
(2.15) et (2.16).

Théorème 2.3 Soit A ∈ Am×n de rang k. En particulier on a une égalité


P
α∈Pk,m ,β∈Pk,n cα,β µα,β = 1.
Posons alors
P
B = α∈Pk,m ,β∈Pk,n cα,β Adjα,β (A).
1. On a
(2.17) A · B · A = A.
En conséquence A · B est une projection et Im A = Im AB est facteur direct dans Am .
2. Si k = m, alors
(2.18) A · B = Im .

3. Si k = n, alors
(2.19) B · A = In .

L’identité suivante, que nous n’utiliserons pas dans la suite, est encore plus miraculeuse.

Proposition 2.5.11 (Prasad et Robinson) Avec les hypothèses et les notations de la proposition
précédente, si l’on a ∀α, α0 ∈ Pk,m , ∀β, β 0 ∈ Pk,n cα,β cα0 ,β 0 = cα,β 0 cα0 ,β , alors

(2.20) B · A · B = B.
34 2. Principe local-global de base et systèmes linéaires

Inverses généralisés et applications localement simples


Soient E et F deux A-modules, et une application linéaire ϕ : E → F . On peut voir cette
donnée comme une sorte de système linéaire généralisé (un système linéaire usuel correspond au
cas de modules libres de rang fini). Informellement un tel système linéaire est considéré comme
(( bien conditionné )) si il y a une façon systématique de trouver une solution à l’équation en
x, ϕ(x) = y, à partir de la donnée y, lorsqu’une telle solution existe. Plus précisément on se
demande s’il existe une application linéaire ψ : F → E vérifiant ϕ(ψ(y)) = y chaque fois qu’il
existe une solution x. Cela revient à demander ϕ(ψ(ϕ(x))) = ϕ(x) pour tout x ∈ E.
Ceci éclaire l’importance de l’équation (2.17) et conduit à la notion d’inverse généralisé.
La terminologie concernant les inverses généralisés ne semble pas entièrement fixée. Nous
adoptons celle de [Lancaster & Tismenetsky]. Dans [Bhaskara Rao] l’auteur utilise le terme
(( reflexive g-inverse )) :

Définition 2.5.12 Soient E et F deux A-modules, et une application linéaire ϕ : E → F . Une


application linéaire ψ : F → E est appelée un inverse généralisé de ϕ si l’on a

(2.21) ϕ◦ψ◦ϕ=ϕ et ψ ◦ ϕ ◦ ψ = ψ.

Une application linéaire est dite localement simple lorsqu’elle possède un inverse généralisé.

Le fait suivant est immédiat.

Fait 2.5.13 Si ψ est un inverse généralisé de ϕ on a :


– ϕ ψ et ψ ϕ sont des projections,
– Im ϕ = Im ϕ ψ, Im ψ = Im ψ ϕ, Ker ϕ = Ker ψ ϕ, Ker ψ = Ker ϕ ψ,
– E = Ker ϕ ⊕ Im ψ et F = Ker ψ ⊕ Im ϕ.
– Ker ϕ ' Coker ψ et Ker ψ ' Coker ϕ.
En outre ϕ et ψ donnent par restriction des isomorphismes réciproques entre Im ψ et Im ϕ.
Matriciellement on obtient :

"
Im ψ Ker ϕ # "
Im ϕ Ker ψ #
Im ϕ ϕ1 0 Im ψ ψ1 0
= ϕ, = ψ.
Ker ψ 0 0 Ker ϕ 0 0

Remarques.
1) Si l’on a un ψ1 vérifiant comme dans le théorème 2.3 page précédente une égalité ϕ ψ1 ϕ = ϕ,
on obtient un inverse généralisé en posant ψ = ψ1 ϕ ψ1 . Autrement dit, une application linéaire
ϕ est localement simple si, et seulement si, il existe ψ vérifiant ϕ ψ ϕ = ϕ.
2) Une application linéaire simple entre modules libres de rangs finis est localement simple
(vérification immédiate).
3) Le théorème 2.3 nous dit qu’une application linéaire qui possède un rang k au sens de la
définition 2.5.7 est localement simple.

Fait 2.5.14 Soit une application linéaire ϕ : An → Am . Les propriétés suivantes sont équivalen-
tes.
1. ϕ est localement simple, i.e. elle possède un inverse généralisé.
2. Il existe ϕ• : Am → An telle que An = Ker ϕ ⊕ Im ϕ• et Am = Ker ϕ• ⊕ Im ϕ.
3. Im ϕ est facteur direct dans Am .
2.5. Un peu d’algèbre extérieure 35

J 1. ⇒ 2. Si ψ est un inverse généralisé de ϕ on peut prendre ϕ• = ψ.


2. ⇒ 3. Évident.
3. ⇒ 1. Si Am = P ⊕ Im ϕ, notons π : Am → Am la projection sur Im ϕ parallèlement à P . Pour
chaque vecteur ei de la base canonique de Am il existe un élément ai de An tel que ϕ(ai ) = π(ei ).
On définit ψ : Am → An par ψ(ei ) = ai . Alors ϕ ◦ ψ = π et ϕ ◦ ψ ◦ ϕ = π ◦ ϕ = ϕ. Et ψ ◦ ϕ ◦ ψ
est un inverse généralisé de ϕ. I

La notion d’application localement simple est une notion locale au sens suivant.

Principe local-global concret 2.5 (applications linéaires localement simples) Soient S1 ,


. . . , Sn des monoïdes comaximaux d’un anneau A. Soit une application linéaire ϕ : Am → Aq .
q
Si les ϕSi : Am Si → ASi sont simples alors ϕ est localement simple. Plus généralement ϕ est
localement simple si, et seulement si, les ϕSi sont localement simples.

J Voyons la deuxième affirmation. Montrer que ϕ est localement simple revient à trouver ψ
vérifiant ϕ ψ ϕ = ϕ. Ceci est un système linéaire en les coefficients de la matrice de ψ et l’on peut
donc appliquer le principe local-global concret de base (principe 2.1 page 15). I

La terminologie d’application localement simple est justifiée par le principe local-global


précédent et par la réciproque donnée au point 8. du théorème 2.5 page 37 (voir aussi le lemme
de l’application localement simple dans le cas des anneaux locaux page 333).

Grassmanniennes
La proposition suivante est presque une paraphrase de l’équivalence entre les points 1. et 3.
dans le fait 2.5.14, énoncée en termes de sous-modules.

Proposition 2.5.15 Soit M = hC1 , . . . , Cm i un sous-module de type fini de An et C =


[ C1 · · · Cm ] ∈ An×m la matrice correspondante.
1. Les propriétés suivantes sont équivalentes.
(a) La matrice C est localement simple.
(b) Le module M est en facteur direct dans An .
(c) Le module M est l’image d’une matrice F ∈ GAn (A).
2. Les propriétés suivantes sont équivalentes.
(a) La matrice C est de rang k.
(b) Le module M est l’image d’une matrice F ∈ GAn (A) de rang k.
(c) Le module M est l’image d’une matrice F ∈ GAn (A) telle que det(In +T F ) = (1+T )k .

J La chose nouvelle par rapport aux faits 2.5.14 et 2.5.5 est l’équivalence entre les points 2b et
2c, c’est-à-dire le fait que pour F ∈ GAn (A), il revient au même de dire que
– F est de rang k, ou que
– det(In + T F ) = (1 + T )k .
Or chacune des deux affirmations peut être certifiée localement. Après localisation en des mo-
noïdes comaximaux, d’après le théorème 2.5 page 37, la matrice devient équivalente à une matrice
de projection standard Ir,n . En particulier son image est libre de rang r et son noyau libre de
rang n − r. Comme c’est une matrice de projection elle est en fait semblable à Ir,n . Et pour une
matrice Ir,n , l’équivalence est claire7 . I

7. En notant que (1 + T )r = (1 + T )k avec r 6= k implique que l’anneau est trivial.


36 2. Principe local-global de base et systèmes linéaires

Remarque. On a donc un critère simple pour décider si une matrice de projection est de rang k.

La (( variété )) des droites vectorielles dans un espace vectoriel de dimension n + 1 est,


intuitivement, de dimension n, car une droite dépend pour l’essentiel de n paramètres (un vecteur
non nul, à une constante multiplicative près, cela fait (n + 1) − 1 paramètres indépendants). On
appelle cette variété l’espace projectif de dimension n sur K.
Par ailleurs en passant d’un corps K à un anneau arbitraire A, la bonne généralisation d’une
(( droite vectorielle dans Kn+1 )) est (( l’image d’une matrice de projection de rang 1 dans An+1 )).

Définition 2.5.16
1. On définit l’espace GAn,k (A) ⊆ GAn (A) comme l’ensemble des matrices de projection de
rang k et Gn,k (A) comme l’ensemble des sous-modules de An qui sont images de matrices
de GAn,k (A).
2. L’espace Gn+1,1 (A) est encore noté Pn (A) et on l’appelle l’espace projectif de dimension n
sur A.
3. On note Gn (A) l’espace de tous les sous-modules en facteur direct dans An (i.e., images
d’une matrice de projection).

Naturellement la définition ci-dessus est peu satisfaisante, dans la mesure où on n’explique


pas comment est structuré l’ensemble Gn,k (A). Seule cette structure lui fait mériter son nom
d’(( espace )).
Une réponse partielle est donnée par la constatation que Gn,k est un foncteur. Plus préci-
sément, à tout homomorphisme ϕ : A → B on associe une application naturelle Gn,k (ϕ) :
Gn,k (A) → Gn,k (B) avec notamment : Gn,k (IdA ) = IdGn,k (A) et Gn,k (ψ ◦ ϕ) = Gn,k (ψ) ◦ Gn,k (ϕ)
chaque fois que ψ ◦ ϕ est défini.
Nous reviendrons plus en détail par la suite sur la (( structure )) des variétés grassmanniennes
Pn (A), Gn (A) et Gn,k (A).

Critères d’injectivité et de surjectivité


Deux propositions célèbres sont contenues dans le théorème suivant :
Théorème 2.4 Soit ϕ : An → Am une application linéaire de matrice A.
1. ϕ est surjective si, et seulement si, ϕ est de rang m, c’est-à-dire ici Dm (ϕ) = h1i (on dit
alors que A est unimodulaire).
2. ϕ est injective si, et seulement si, Dn (ϕ) est fidèle, c.-à-d. si l’annulateur de Dn (ϕ) est
réduit à {0}.

J 1) Si ϕ est surjective, elle admet une inverse à droite ψ de matrice B : AB = Im et le


fait 2.5.6 donne h1i ⊆ Dm (A)Dm (B), donc Dm (A) = h1i. Réciproquement si A est de rang m,
l’équation (2.18) montre que A admet une inverse à droite, et ϕ est surjective.
2) Supposons que Dn (A) est fidèle. D’après l’égalité (2.16) : si AV = 0 alors µα,1..n V = 0 pour
tous les générateurs µα,1..n de Dn (A) et donc V = 0.
Pour la réciproque nous montrons par récurrence sur k la propriété suivante : si k vecteurs
colonnes x1 , . . . , xk sont linéairement indépendants, alors l’annulateur du vecteur x1 ∧ · · · ∧ xk est
réduit à 0. Pour k = 1 c’est trivial. Pour passer de k à k + 1 nous raisonnons comme suit. Soit z un
scalaire annulant x1 ∧ · · · ∧ xk+1 . Pour α ∈ Pk,m , nous notons dα (y1 , . . . , yk ) le mineur extrait sur
les lignes indices de α pour les vecteurs colonnes y1 , . . . , yk de Am . Puisque z(x1 ∧ · · · ∧ xk+1 ) = 0,
et vues les formules de Cramer, on a
z [dα (x1 , . . . , xk )xk+1 − dα (x1 , . . . , xk−1 , xk+1 )xk + · · ·] = 0
donc z dα (x1 , . . . , xk ) = 0. Comme ceci est vrai pour tout α, cela donne z(x1 ∧ · · · ∧ xk ) = 0. Et
par l’hypothèse de récurrence z = 0. I
2.5. Un peu d’algèbre extérieure 37

Le théorème 2.4 page précédente peut se relire sous la forme suivante :


n
ϕ : A(m) → A est
Vm
1. L’application linéaire ϕ : An → Am est surjective si, et seulement si,
surjective.
m
ϕ : A → A( n ) est
Vn
2. L’application linéaire ϕ : An → Am est injective si, et seulement si,
injective.

Corollaire 2.5.17 Soit une application A-linéaire ϕ : An → Am .


1. Si ϕ est surjective et n < m, l’anneau est trivial.
2. Si ϕ est injective et n > m, l’anneau est trivial.

Remarque. Une formulation plus positive, mais sans doute encore plus déroutante, pour les
résultats du corollaire précédent est la suivante :
1. Si ϕ est surjective alors X m divise X n dans A[X].
2. Si ϕ est injective alors X n divise X m dans A[X].
Cela se rapproche plus de la formulation en mathématiques classiques : si l’anneau est non trivial
alors m 6 n dans le premier cas (resp. n 6 m dans le deuxième cas).
L’avantage des formulations que nous avons choisies est qu’elles fonctionnent dans tous les cas,
sans avoir besoin de présupposer que l’on sache décider si l’anneau est trivial ou pas.

Corollaire 2.5.18 Si ϕ : An → Am est injective, il en va de même pour toute puissance


extérieure de ϕ.

J L’annulateur de Dn (ϕ) est réduit à 0 par le théorème précédent. Il existe un anneau B ⊇ A


tel que les générateurs de Dn (ϕ) deviennent comaximaux dans B (lemme 2.2.11). L’application
B-linéaire ϕ : Bn → Bm est donc de rang n et admet un inverse à gauche ψ (point 3. du
théorème 2.3 page 33) : ψ ◦ ϕ = IdBn . Par suite k ψ ◦ k ϕ = IdVk Bn . La matrice k ϕ est donc
V V V

injective sur B et a fortiori sur A. I

Caractérisation des applications localement simples


Le lemme suivant met en correspondance bijective les systèmes fondamentaux d’idempotents
orthogonaux et les suites d’idempotents croissantes pour la divisibilité.

Lemme 2.5.19 Soit une liste d’idempotents (eq+1 = 0, eq , . . ., e1 , e0 = 1) avec ei divise ei+1
pour i = 0, . . . , q. Alors les éléments ri := ei − ei+1 pour i = 0, . . . , q forment un système
fondamental d’idempotents orthogonaux. Et réciproquement, tout système fondamental d’idempo-
P
tents orthogonaux r0 , . . . , rq définit une telle liste d’idempotents en posant ej = k>j rk pour
j ∈ J0..q + 1K.

J Il est clair que la somme des ri égale 1. Pour 0 6 i < q, on a ei+1 = ei ei+1 donc (ei −ei+1 )ei+1 =
0, c’est-à-dire
(rq + · · · + ri+1 ) × ri = 0
On en déduit facilement que ri rj = 0 pour j > i. I

On note Diag(a1 , . . . , an ) la matrice diagonale d’ordre n qui a l’élément ai en position (i, i).
Dans le théorème qui suit certains des idempotents ri dans le système fondamental d’idempo-
tents orthogonaux peuvent très bien être nuls. Par exemple si l’anneau est connexe et non trivial
ils sont tous nuls sauf un, égal à 1.

Théorème 2.5 Soit une application linéaire ϕ : An → Am , de matrice G ∈ Am×n . On pose


q = inf(m, n). Les propriétés suivantes sont équivalentes.
38 2. Principe local-global de base et systèmes linéaires

1. ϕ est localement simple.


2. Im ϕ est facteur direct dans Am .
3. Im ϕ est facteur direct dans Am et Ker ϕ est facteur direct dans An .
4. Il existe ϕ• : Am → An telle que An = Ker ϕ ⊕ Im ϕ• et Am = Ker ϕ• ⊕ Im ϕ.
5. Chaque idéal déterminantiel Dk (ϕ) est idempotent.
6. Il existe un système fondamental d’idempotents orthogonaux r0 , r1 , . . ., rq tel que sur le
localisé A[1/rk ] l’application ϕ est de rang k.
7. Chaque idéal déterminantiel Dk (ϕ) est engendré par un idempotent ek . Soit alors rk =
ek − ek+1 . Les rk forment un système fondamental d’idempotents orthogonaux. Pour tout
mineur µ d’ordre k de G, sur le localisé A[1/(rk µ)] l’application linéaire ϕ devient simple
de rang k.
8. L’application linéaire ϕ devient simple après localisation en des éléments comaximaux
convenables.
9. Chaque idéal déterminantiel Dk (ϕ) est engendré par un idempotent ek et la matrice de ϕ
devient semblable à la matrice Diag(e1 , e2 , . . . , eq ), éventuellement complétée par des lignes
ou colonnes nulles, après localisation en des éléments comaximaux convenables.
10.? L’application linéaire ϕ devient simple après localisation en n’importe quel idéal maximal.

J L’équivalence des points 1., 2., 3., 4. est déjà claire (voir les faits 2.5.13 et 2.5.14). Par ailleurs
on a trivialement 7. ⇒ 6. ⇒ 5. et 9. ⇒ 5.
Puisque q = inf(m, n) on a Dq+1 (ϕ) = 0.
1. ⇒ 5. On a GHG = G pour une certaine matrice H et l’on applique le fait 2.5.6.
5. ⇒ 7. Le fait que chaque Dk (ϕ) est engendré par un idempotent ek résulte du fait 2.4.5. Le fait
que (r0 , . . . , rq ) est un système fondamental d’idempotents orthogonaux résulte du lemme 2.5.19
(et du fait 2.5.4).
Comme rk ek+1 = 0, sur l’anneau A[1/rk ], et a fortiori sur l’anneau A[1/(µrk )], où µ est un
mineur d’ordre k, tous les mineurs d’ordre k + 1 de la matrice G sont nuls. Donc, par le lemme
de la liberté, G est simple de rang k.
7. ⇒ 9. Sur A[1/rk ] et a fortiori sur A[1/(µrk )] (µ un mineur d’ordre k) on a Diag(e1 , . . . , eq ) =
Diag(1, . . . , 1, 0, . . . , 0) avec k fois 1.
7. ⇒ 8. Notons tk,j les mineurs d’ordre k de G. Les localisations sont celles en les tk,j rk .
P
Nous devons vérifier qu’elles sont comaximales. Chaque ek s’écrit sous forme tk,j vk,j , donc
P P P
k,j vk,j (tk,j rk ) = k ek rk = rk = 1.
8. ⇒ 1. Par application du principe local-global 2.5 page 35 puisque toute application simple est
localement simple.
8. ⇒ 10. (en mathématiques classiques) Parce que le complémentaire d’un idéal maximal contient
toujours au moins un élément dans un système d’éléments comaximaux (on peut supposer
l’anneau non trivial).
10. ⇒ 8. (en mathématiques classiques) Pour chaque idéal maximal m on obtient un sm ∈ / m et
une matrice Hm tels que l’on ait GHm G = G dans A[1/sm ]. L’idéal engendré par les sm n’est
contenu dans aucun idéal maximal donc c’est l’idéal h1i. Il y a donc un nombre fini de ces sm qui
sont comaximaux.
Terminons en donnant une preuve directe pour l’implication 6. ⇒ 1.
Sur l’anneau A[1/rk ] la matrice G est de rang k donc il existe une matrice Bk vérifiant GBk G = G
(théorème 2.3 page 33). Cela signifie sur l’anneau A que l’on a une matrice Hk dans An×m
vérifiant rk Hk = Hk et rk G = GHk G. On prend alors H = k Hk et l’on obtient G = GHG. I
P

L’équivalence des points 1. à 9. a été établie de manière constructive, tandis que le point 10.
implique les précédents uniquement en mathématiques classiques.
2.5. Un peu d’algèbre extérieure 39

Trace, norme, discriminant, transitivité


Nous notons Tr(ϕ) et Cϕ (X) la trace et le polynôme caractéristique d’un endomorphisme
ϕ d’un module libre de rang fini (nous prenons pour polynôme caractéristique d’une matrice
F ∈ Mn (A) le polynôme det(XIn − F ), qui a l’avantage d’être unitaire).

Notation 2.5.20
– Si A ⊆ B et si B est un A-module libre de rang fini, on note [B : A] pour rgA (B).
– Pour a ∈ B on note alors TrB/A (a), NB/A (a) et CB/A (a)(X) la trace, le déterminant
et le polynôme caractéristique de la multiplication par a, vue comme endomorphisme du
A-module B.

Lemme 2.5.21 Supposons que A ⊆ B et que B est un A-module libre de rang fini m.
1. Soit E un B-module libre de rang fini n. Si e = (ei )i∈J1..mK est une base de B sur A
et f = (fj )j∈J1..nK une base de E sur B, alors (ei fj )i,j est une base de E sur A. En
conséquence, E est libre sur A et
rgA (E) = rgB (E) × rgA (B).
2. Si B ⊆ C et si C est un B-module libre de rang fini, on a
[C : A] = [C : B] [B : A].

Remarque. Soit C la A-algèbre libre de rang 3 définie par C = A[Y ] Y 3 = A[y]. Puisque


y 4 = 0, B = A ⊕ Ay 2 est une sous-algèbre de C libre sur A dont le rang (égal à 2) ne divise pas
le rang de C (égal à 3). L’égalité [C : A] = [C : B][B : A] ne s’applique pas car C n’est pas libre
sur B.

Théorème 2.6 Sous les mêmes hypothèses soit uB : E → E une application B-linéaire. On
note uA cette application considérée comme une application A-linéaire. On a alors les égalités :
det(uA ) = NB/A (det(uB )), Tr(uA ) = TrB/A (Tr(uB )),
CuA (X) = NB[X]/A[X] (CuB (X)).
Pn
J On prend les notations du lemme. Soient ukj les éléments de B définis par u(fj ) = k=1 ukj fk .
Alors la matrice M de u (considérée comme une application A-linéaire) dans la base (ei fj )i,j
s’écrit comme une matrice par blocs :

···
 
M11 M1n
 .. .. 
M = . . 
Mn1 ··· Mnn

où Mkj représente l’application A-linéaire b 7→ bukj de B dans B sur la base e. Cela fournit la
relation sur la trace puisque :
Xn Xn
Tr(uA ) = Tr(Mii ) = TrB/A (uii )
i=1 i=1
Xn 
= TrB/A uii = TrB/A (Tr(uB )).
i=1

Quant à l’égalité pour le déterminant, remarquons que les matrices Mij commutent deux à
deux (Mij est la matrice de la multiplication par uij ). On peut donc appliquer le lemme 2.5.22
qui suit, ce qui nous donne :
X
det(M ) = det(∆) avec ∆= ε(σ)M1σ1 M2σ2 . . . Mnσn .
σ∈Σn

Or ∆ n’est autre que la matrice de la multiplication par l’élément


40 2. Principe local-global de base et systèmes linéaires

P
σ∈Σn ε(σ)u1σ1 u2σ2 . . . unσn
i.e., par det(uB ), donc :
det(uA ) = det(M ) = NB/A (det(uB )).
Enfin l’égalité sur le polynôme caractéristique se déduit de celle sur les déterminants en
utilisant le fait que CuA (X) est le déterminant de l’endomorphisme XIdE[X] − uA du A[X]-
module E[X] tandis que CuB (X) est celui de la même application vue comme endomorphisme
du B[X]-module E[X]. I

Dans un anneau non commutatif, deux éléments a et b sont dits permutables si ab = ba.

Lemme 2.5.22 Soit (Mij )i,j une famille de n2 matrices carrées ∈ Mm (A), deux à deux permu-
tables, et M la matrice carrée de dimension mn :

···
 
M11 M1n
 .. .. 
M = . . 
Mn1 ··· Mnn

Alors : X 
det(M ) = det ε(σ)M1σ1 M2σ2 . . . Mnσn .
σ∈Σn

J Notons ∆ la matrice n × n définie par ∆ =


P
σ∈Σn ε(σ)M1σ1 M2σ2 . . . Mnσn . Il faut donc
démontrer que det(M ) = det(∆).
Traitons les cas particuliers n = 2 puis n = 3. On remplace A par A[Y ] et Mii par Mii + Y Im ,
ce qui a l’avantage de rendre certains déterminants réguliers dans A[Y ]. Il suffit d’établir les
égalités avec ces nouvelles matrices, car on termine en faisant Y = 0.
Le point-clef de la démonstration pour n = 2 réside dans l’égalité suivante :

M11 M22 − M12 M21


    
M11 M12 M22 0 M12
= .
M21 M22 −M21 Im 0 M22

On considère ensuite le déterminant des deux membres :

det(M ) det(M22 ) = det(M11 M22 − M12 M21 ) det(M22 ),

puis on simplifie par det(M22 ) (qui est régulier) pour obtenir le résultat.
Le cas n = 3 passe par l’égalité :

M11 M12 M13 M22 M33 − M23 M32 0 0 ∆ M12 M13


    
 M21 M22 M23   M31 M23 − M21 M33 Im 0  =  0 M22 M23 
M31 M32 M33 M21 M32 − M22 M31 0 Im 0 M32 M33

qui conduit à
 
M22 M23
det(M ) det(M22 M33 − M23 M32 ) = det(∆) det .
M32 M33
 
M22 M23
Le cas n = 2 déjà traité fournit det(M22 M33 − M23 M32 ) = det . On simplifie par ce
M32 M33
dernier déterminant (qui est régulier). D’où l’égalité voulue det(M ) = det(∆).
Le cas général est laissé à la lectrice. I

Corollaire 2.5.23 Soient A ⊆ B ⊆ C trois anneaux avec C libre de rang fini sur B et B libre
de rang fini sur A. On a alors pour c ∈ C :
NC/A = NB/A ◦ NC/B , TrC/A = TrB/A ◦ TrC/B ,
 
CC/A (c)(X) = NB[X]/A[X] CC/B (c)(X) .
2.5. Un peu d’algèbre extérieure 41

Discriminants
Définition 2.5.24 Soit M un A-module, ϕ : M × M → A une forme bilinéaire symétrique et
x = x1 , . . . , xk une liste d’éléments de M . On appelle matrice de Gram de (x1 , . . . , xk ) pour ϕ la
matrice
def
GramA (ϕ, x) = (ϕ(xi , xj ))i,j∈J1..kK
Son déterminant est appelé le déterminant de Gram de (x1 , . . . , xk ) pour ϕ, il est noté
gramA (ϕ, x).
Si Ay1 + · · · + Ayk ⊆ Ax1 + · · · + Axk on a
gram(ϕ, y1 , . . . , yk ) = det(A)2 gram(ϕ, x1 , . . . , xk ),
où A est une matrice k × k qui exprime les yi en fonction des xi .
Nous introduisons maintenant un cas important de déterminant de Gram, le discriminant.
Rappelons que deux éléments a, b d’un anneau A sont dits associés s’il existe u ∈ A× tels que
a = ub.
Proposition et définition 2.5.25 Soit C ⊇ A une A-algèbre qui est un A-module libre de
rang fini et x1 , . . . , xk , y1 , . . . , yk ∈ C.
1. On appelle discriminant de (x1 , . . . , xk ) le déterminant de la matrice
(TrC/A (xi xj ))i,j∈J1..kK .
On le note discC/A (x1 , . . . , xk ) ou disc(x1 , . . . , xk ).
2. Si Ay1 + · · · + Ayk ⊆ Ax1 + · · · + Axk on a
disc(y1 , . . . , yk ) = det(A)2 disc(x1 , . . . , xk ),
où A est une matrice k × k qui exprime les yi en fonction des xi .
3. En particulier si x1 , . . . , xn et y1 , . . . , yn sont deux bases de C comme A-module, les élé-
ments disc(x1 , . . . , xn ) et disc(y1 , . . . , yn ) sont congrus multiplicativement modulo les carrés
de A× . On appelle discriminant de l’extension C/A la classe d’équivalence correspondante.
On le note DiscC/A .
4. Si DiscC/A est régulier et n = [C : A], un système u1 , . . . , un dans C est une A-base de C
si, et seulement si, disc(u1 , . . . , un ) et DiscC/A sont associés.
Par exemple dans le cas où A = Z le discriminant de l’extension est un entier bien défini,
tandis que si A = Q le discriminant est caractérisé d’une part par son signe, d’autre part par la
liste des nombres premiers qui y figurent avec une puissance impaire.
Proposition 2.5.26 Soient B, C deux A-algèbres libres de rangs m et n. On considère l’algèbre
produit B × C. Étant données une liste x = x1 , . . . , xm d’éléments de B et une liste y = y1 , . . . , yn
d’éléments de C, on a :
disc(B×C)/A (x, y) = discB/A (x) × discC/A (y)
En particulier Disc(B×C)/A = DiscB/A × DiscC/A
J La démonstration est laissée au lecteur. I
Proposition 2.5.27 Soit B ⊇ A une A-algèbre libre de rang fini p. Soit un B-module E,
une forme B-bilinéaire symétrique ϕB : E × E → B, b = (bi )i∈J1..pK une base de B sur A et
e = (ej )j∈J1..nK une famille de n éléments de E. Notons b ? e la famille (bi ej ) de np éléments de
E et ϕA : E × E → A la forme A-bilinéaire symétrique par :
ϕA (x, y) = TrB/A (ϕB (x, y)).
On a alors la formule de transitivité suivante :
gram(ϕA , b ? e) = discB/A (b)n × NB/A (gram(ϕB , e)).
42 2. Principe local-global de base et systèmes linéaires

J Dans la suite les indices i, i0 , k, j, j 0 satisfont à i, i0 , k ∈ J1..pK et j, j 0 ∈ J1..nK. Convenons de


ranger b ? e dans l’ordre (b ? e)(j−1)p+i = bi ej , i.e. :
b ? e = {b1 e1 , . . . , bp e1 , b1 e2 , . . . , bp e2 , . . . , b1 en , . . . , bp en }
Pour x ∈ B, notons µx : B → B la multiplication par x et m(x) la matrice de µx dans la base
(bi )i∈J1..pK de B sur A. On définit ainsi un isomorphisme m de l’anneau B vers un sous-anneau
commutatif de Mp (A). Si l’on note mki (x) les coefficients de la matrice m(x) on a donc :
Pp
µx (bi ) = bi x = k=1 mki (x)bk ,
avec NB/A (x) = det(m(x)). En posant ϕjj 0 = ϕB (ej , ej 0 ) ∈ B, on a
ϕA (bi ej bi0 ej 0 ) = TrB/A (ϕB (bi ej bi0 ej 0 )) = TrB/A (bi bi0 ϕjj 0 ).
Pp
En utilisant l’égalité bi0 ϕjj 0 = k=1 mki0 (ϕjj 0 )bk il vient avec Tr = TrB/A :
Xp  Xp
Tr(bi bi0 ϕjj 0 ) = Tr bi mki0 (ϕjj 0 )bk = Tr(bi bk )mki0 (ϕjj 0 ). (∗)
k=1 k=1

On définit β ∈ Mp (A) par βik = TrB/A (bi bk ). La somme de droite dans (∗) n’est autre que le
coefficient d’un produit de matrices : (β × m(ϕjj 0 ))ii0 . Le déterminant de Gram de b ? e pour ϕA
est donc une matrice np × np constituée de n2 blocs de matrices p × p. Voici cette matrice en
notant φjj 0 = m(ϕjj 0 ) pour alléger l’écriture :
 

βφ11 βφ12 ... βφ1n
 β 0 ... 0  φ11 φ12 ... φ1n

. 
 βφ21 βφ22 ... βφ2n  . . . ..  φ21 φ22 ... φ2n 

 0 β
 .. ..  =  . .. 
  
. ..
. 0   ..

 . .   .. . 

βφn1 βφn2 ... βφnn 0 ... β φn1 φn2 ... φnn

En prenant les déterminants :

φ11 φ12 ... φ1n


 
 φ21 φ22 ... φ2n 
gram(ϕA , b ? e) = det(β)n × det  .. .. 
 
 . . 
φn1 φn2 ... φnn

En utilisant le fait que les matrices φjl commutent deux à deux, on obtient que le déterminant
de droite est égal :
 
X
det  ε(σ)φ1σ1 φ2σ2 . . . φnσn  = det m(det(ϕjl )) = NB/A (gram(ϕB , e)),
σ∈Σn

ce qui démontre le résultat. I

Théorème 2.7 (formule de transitivité pour les discriminants)


Soient A ⊆ B ⊆ C, avec B libre de rang m sur A et C libre de rang n sur B : [C : B] = n,
[B : A] = m. Soit b = (bi )i∈J1..mK une base de B sur A, c = (cj )j∈J1..nK une base de C sur B et
notons b ? c la base (bi cj ) de C sur A. Alors :

discC/A (b ? c) = discB/A (b)[C:B] NB/A (discC/B (c))


[C:B]
et donc DiscC/A = DiscB/A NB/A (DiscC/B )

J Application directe de la proposition 2.5.27. I


2.6. Principe local-global de base pour les modules 43

2.6 Principe local-global de base pour les modules


Les résultats de cette section ne seront pas utilisés avant le chapitre 5.
Nous allons donner une version un peu plus générale du principe local-global de base 2.1
page 15, version qui concerne des A-modules et des applications linéaires arbitraires, tandis que
le précédent peut être considéré comme le cas particulier où les modules sont libres de rang fini.
La preuve est essentiellement la même que celle du principe local-global de base.
Auparavant nous commençons par un bref rappel sur les suites exactes et nous établissons
des propriétés de base de la localisation pour les modules.

Complexes et suites exactes


Lorsque l’on a des applications linéaires successives
α β γ
M −→ N −→ P −→ Q
on dit qu’elles forment un complexe si la composée de deux applications qui se suivent est nulle.
On dit que la suite est exacte en N si Im α = Ker β. La suite toute entière est dite exacte si elle
est exacte en N et P . Ceci s’étend à des suites de longueur arbitraire.
Ce langage (( abstrait )) a une contrepartie immédiate en termes de systèmes linéaires lorsque
l’on a affaire à des modules libres de rang fini. Par exemple si N = An , P = Am et si l’on a une
suite exacte
α β γ
0 → M −→ N −→ P −→ Q → 0
l’application linéaire β est représentée par une matrice associée à un système linéaire de m
équations à n inconnues, le module M , isomorphe à Ker β, représente le défaut d’injectivité de β
et le module Q, isomorphe à Coker β, représente son défaut de surjectivité.
Un thème important de l’algèbre commutative est fourni par les transformations qui conservent,
ou ne conservent pas, les suites exactes.
Nous allons donner deux exemples de base, qui utilisent les modules d’applications linéaires.
Nous notons LA (M, P ) le A-module des applications A-linéaires de M dans P et EndA (M )
désigne LA (M, M ) (avec sa structure d’anneau généralement non commutatif). Le module dual
de M , LA (M, A) sera en général noté M ? .

α β
Fait 2.6.1 Si 0 → M −→ N −→ P est une suite exacte de A-modules et si F est un A-module,
alors la suite 0 → LA (F, M ) −→ LA (F, N ) −→ LA (F, P ) est exacte.

J Exactitude en LA (F, M ). Soit ϕ ∈ LA (F, M ) telle que α ◦ ϕ = 0. Alors, puisque la première


suite est exacte en M , pour tout x ∈ F , ϕ(x) = 0, donc ϕ = 0.
Exactitude en LA (F, N ). Soit ϕ ∈ LA (F, N ) telle que β ◦ ϕ = 0. Alors, puisque la première
suite est exacte en N , pour tout x ∈ F , ϕ(x) ∈ Im α. Soient α1 : Im α → M la bijection
réciproque de α (lorsque l’on regarde α comme à valeurs dans Im α) et ψ = α1 ◦ ϕ. Alors
LA (F, α)(ψ) = α ◦ α1 ◦ ϕ = ϕ. I

β γ
Fait 2.6.2 Si N −→ P −→ Q → 0 est une suite exacte de A-modules et si F est un A-module,
alors la suite 0 → LA (Q, F ) −→ LA (P, F ) −→ LA (N, F ) est exacte.

J Exactitude en LA (Q, F ). Si ϕ ∈ LA (Q, F ) vérifie ϕ ◦ γ = 0, alors, puisque γ est surjective,


ϕ = 0.
Exactitude en LA (P, F ). Si ϕ : P → F vérifie ϕ ◦ β = 0, alors Im β ⊆ Ker ϕ et ϕ se factorise par
P / Im β ' Q, i.e. ϕ = ψ ◦γ pour une application linéaire ψ : Q → F , c’est-à-dire ϕ ∈ Im LA (γ, F ).
I

Fait 2.6.3 Soit β : N → P une application linéaire et γ : P → Coker β la projection canonique.


44 2. Principe local-global de base et systèmes linéaires

1. L’application canonique tγ : (Coker β)? → P ? induit un isomorphisme de (Coker β)? sur


Ker tβ.
2. Si l’homomorphisme canonique N → N ?? est un isomorphisme alors la surjection canonique
de N ? dans Coker tβ fournit par dualité un isomorphisme de (Coker tβ)? sur Ker β.

J 1. On applique le fait 2.6.2 avec F = A.


2. La surjection canonique N ? → Coker tβ fournit par dualité une injection λ : (Coker tβ)? →
N ?? = N dont l’image est contenue dans Ker β. Soit maintenant x ∈ Ker β et x e l’élément
??
correspondant de N . On voit que x t
e est nul sur Im β, donc fournit par passage au quotient un
y ∈ (Coker tβ)? tel que λ(y) = x
e. I

Localisation et suites exactes


Fait 2.6.4 Soit S un monoïde d’un anneau A.
1. Si M est un sous-module de N , on a l’identification canonique de MS avec un sous-module
de NS et de (N/M )S avec NS /MS .
En particulier, pour tout idéal a de A, le A-module aS s’identifie canoniquement avec
l’idéal aAS de AS .
2. Si ϕ : M → N est une application A-linéaire, alors
(a) Im(ϕS ) s’identifie canoniquement à (Im(ϕ))S ,
(b) Ker(ϕS ) s’identifie canoniquement à (Ker(ϕ))S ,
(c) Coker(ϕS ) s’identifie canoniquement à (Coker(ϕ))S .
3. Si
ϕ ψ
M −→ N −→ P
est une suite exacte de A-modules, alors

S ϕ S ψ
MS −→ NS −→ PS

est une suite exacte de AS -modules.


Tr
Fait 2.6.5 Si M1 , . . . , Mr sont des sous-modules de N et M = i=1 Mi alors en identifiant les
(Mi )S et MS à des sous-modules de NS on a MS = ri=1 (Mi )S .
T

Fait 2.6.6 Soient M et N deux sous-modules d’un A-module P , avec N de type fini. Alors
l’idéal transporteur (MS : NS ) s’identifie à (M : N )S (via les applications naturelles de (M : N )
dans (MS : NS ) et (M : N )S ).

Cela s’applique en particulier pour l’annulateur d’un idéal de type fini.

Principe local-global pour les suites exactes de modules


Principe local-global concret 2.6 (pour les suites exactes)
Soient S1 , . . . , Sn des monoïdes comaximaux de A, M, N, P des A-modules et deux applications
linéaires ϕ : M → N , ψ : N → P . On note Ai pour ASi , Mi pour MSi etc. Les propriétés
suivantes sont équivalentes.
ϕ ψ
1. La suite M −→ N −→ P est exacte.
ϕi i ψ
2. Pour i ∈ J1..nK, la suite Mi −→ Ni −→ Pi est exacte.
Comme conséquence, ϕ est injective (resp. surjective) si, et seulement si, pour i ∈ J1..nK, ϕi est
injective (resp. surjective)
Exercices et problèmes 45

J Nous avons vu que 1. ⇒ 2. dans le fait 2.6.4.


Supposons 2. Notons µi : M → Mi , νi : N → Ni , πi : P → Pi les homomorphismes canoniques.
Soit x ∈ M et z = ψ(ϕ(x)), on a 0 = ψi (ϕi (µi (x))) = πi (ψ(ϕ(x))) = πi (z), donc pour un si ∈ Si ,
P
si z = 0 dans P . On conclut que z = 0 en utilisant la comaximalité des Si : i ui si = 1. Soit
maintenant y ∈ N tel que ψ(y) = 0. Pour chaque i il existe un xi ∈ Mi tel que ϕi (xi ) = νi (y). On
écrit xi =Mi ai /si avec ai ∈ M et si ∈ Si . L’égalité ϕi (xi ) = νi (y) signifie que pour un certain
ti ∈ Si on a ti ϕ(ai ) = ti si y dans N . Si i vi ti si = 1 on en déduit que ϕ ( i vi ti ai ) = y. Ainsi
P P

tout élément du noyau de ψ est bien dans l’image de ϕ. I

Principe local-global abstrait∗ 2.2 (pour les suites exactes)


Soient M, N, P des A-modules et deux applications linéaires ϕ : M → N , ψ : N → P . Les
propriétés suivantes sont équivalentes.
ϕ ψ
1. La suite M −→ N −→ P est exacte.
ϕm ψm
2. Pour tout idéal maximal m la suite Mm −→ Nm −→ Pm est exacte.
Comme conséquence, ϕ est injective (resp. surjective) si, et seulement si, pour tout idéal maximal
m, ϕm est injective (resp. surjective)

J La propriété x = 0 pour un élément x d’un module est une propriété de caractère fini. De
même pour la propriété y ∈ Im ϕ. Ainsi, même si la propriété (( la suite est exacte )) n’est pas de
caractère fini, c’est une conjonction de propriétés de caractère fini, et l’on peut appliquer le fait∗
2.2.9 pour déduire le principe local-global abstait du principe local-global concret. I

Signalons enfin un principe local-global concret pour les monoïdes :

Principe local-global concret 2.7 (pour les monoïdes)


Soient S1 , . . . , Sn des monoïdes comaximaux de A, V un monoïde. Les propriétés suivantes sont
équivalentes.
1. Le monoïde V contient 0.
2. Pour i ∈ J1..nK, le monoïde V vu dans ASi contient 0.

J Pour chaque i on a vi ∈ V et si ∈ Si tels que si vi = 0. On pose v = ∈ V . Alors v est nul


Q
i vi
dans les ASi , donc dans A. I

Exercices et problèmes
Exercice 2.1 Il est recommandé de faire les démonstrations non données, esquissées, laissées à la lectrice,
etc. . . Notamment :
– Vérifier les affirmations des faits 2.1.2 à 2.1.4.
– Démontrez le corollaire 2.2.3.
– Dans le lemme 2.2.5 calculer des exposants convenables dans les points 2., 3., 4., en explicitant
complètement la démonstration.
– Démontrez le corollaire 2.3.3. Donner une preuve plus détaillée du théorème 2.1 page 21. Vérifiez
les détails dans la preuve du principe local-global 2.2 page 22. Démontrez la proposition 2.3.4.
– Vérifier les affirmations
Lr des faits 2.6.4 à 2.6.6. Pour le fait 2.6.5 on utilisera la suite exacte
0 → M → N → i=1 N/Mi qui est préservée par localisation.

Exercice 2.2 Montrez que les monoïdes donnés dans le deuxième exemple fondamental qui suit la
définition 2.2.1 sont bien comaximaux. Plus généralement, montrer que si des idéaux ai (i ∈ J1..nK) sont
deux à deux comaximaux et si le produit des ai est contenu dans un idéal principal hai, alors les monoïdes
1 + a1 , . . ., 1 + an et aN sont comaximaux.

Exercice 2.3 (voir aussi l’exercice 7.8)


Pn Pm
1. (inversibles dans B[T ], cf. lemme 2.2.5) Soient deux polynômes f = i=0 ai T i , g = j=0 bj T j et
f g = 1. Montrer que les coefficients ai , i > 1, bj , j > 1 sont nilpotents et que am+1
n = 0.
46 2. Principe local-global de base et systèmes linéaires

2. (polynôme caractéristique d’une matrice nilpotente)


Soit A ∈ Mn (B) une matrice nilpotente et CA (T ) = T n + an−1 T n−1 + · · · + a1 T + a0 son polynôme
caractéristique.
(a) Montrer que les coefficients ai sont nilpotents.
(b) Précisément, si Ae = 0 alors Tr(A)(e−1)n+1 = 0 et :
 
ei n
ai = 0 avec ei = (e − 1) +1 (i = 0, . . . , n − 1)
i

Exercice 2.4 On considère un vecteur x = (x1 , . . . , xn ) ∈ An .


1. Soit s ∈ A. Si x est unimodulaire (i.e., les xi sont comaximaux) dans A/hsi et A[1/s], il est
unimodulaire.
2. Soient b et c deux idéaux de A, si x est unimodulaire modulo b et modulo c, il l’est modulo bc.

Exercice 2.5 (Une application typique du principe local-global de base)


On considère un vecteur x = (x1 , . . . , xn ) ∈ An unimodulaire. Pour d > 1 on note A[X1 , . . . , Xn ]d le
sous-A-module des polynômes homogènes de degré d et
Id,x = { f ∈ A[X1 , . . . , Xn ] | f homogène de degré d, f (x) = 0 } .
Il est clair que Id,x est un sous-A-module de A[X1 , . . . , Xn ].
1. Si x1 est inversible montrez que tout f ∈ Id,x est une combinaison linéaire des x1 Xj − xj X1 avec
pour coefficients des polynômes homogènes de degré d − 1.
2. En déduire dans le cas général que tout f ∈ Id,x est une combinaison linéaire des (xk Xj − xj Xk )
avec pour coefficients des polynômes homogènes de degré d − 1.
3. Soit Ix la somme (directe) des A-modules Id,x . Montrer que Ix est l’idéal { F | F (tx) = 0 } (où t
est une nouvelle indéterminée). Montrer que Ix est saturé, i.e., si Xjm F ∈ Ix pour un exposant m et
pour tous les j alors F ∈ Ix .

Exercice 2.6 (variations sur le lemme de Gauss-Joyal 2.2.5)


Montrer que les affirmations suivantes sont équivalentes (chacune des affirmations est universelle, i.e.,
valable pour tous polynômes et tout anneau commutatif A) :
1. c(f ) = c(g) = h1i ⇒ c(f g) = h1i
2. (∃i0 , j0 fi0 = gj0 = 1) ⇒ c(f g) = h1i
3. ∃p ∈ N, (c(f )c(g))p ⊆ c(f g)
4. (Gauss-Joyal) DA (c(f )c(g)) = DA (c(f g))

Exercice 2.7 Montrez qu’un anneau A cohérent est fortement discret si, et seulement si, le test (( 1 ∈
ha1 , . . . , an i ? )) est explicite pour toute suite finie (a1 , . . . , an ) dans A.

Exercice 2.8 (Un exemple d’anneau nœthérien cohérent avec un quotient non cohérent.)
On considère l’anneau Z et un idéal a engendré par une suite infinie d’éléments, tous nuls sauf éventuellement
un, qui est alors égal à 3 (par exemple on met un 3 la première fois, si cela arrive, qu’un zéro de la fonction
zéta de Riemann n’a pas sa partie réelle égale à 1/2). Si l’on est capable de donner un système fini de
générateurs pour l’annulateur de 3 dans Z/a, on est capable de dire si la suite infinie est identiquement
nulle ou pas. Cela signifierait qu’il existe une méthode sûre pour résoudre les conjectures du type de celle
de Riemann.

Commentaire. Comme toute définition constructive raisonnable de la nœthérianité semble réclamer qu’un
quotient d’un anneau nœthérien reste nœthérien, et vu le (( contre-exemple )) précédent, on ne peut espérer
avoir une preuve constructive du théorème de mathématiques classiques qui affirme que tout anneau
nœthérien est cohérent.

Exercice 2.9 (idempotent de A[X])


Montrer que tout idempotent de A[X] est un idempotent de A.

Exercice 2.10 Soient u et v deux idempotents et x un élément de A.


1. Montrer que x ∈ uA ⇔ ux = x. En particulier uA = vA ⇔ u = v.
Exercices et problèmes 47

2. L’élément uv est le plus petit commun multiple de u et v parmi les idempotents de A (i.e., si w
est un idempotent, w ∈ uA ∩ vA ⇔ w ∈ uvA). En fait, on a même uA ∩ vA = uvA. On note
u ∧ v = uv.
3. L’élément 1 − (1 − u)(1 − v) = u + v − uv est noté u ∨ v. Montrer que uA + vA = (u ∨ v)A. En
déduire que u ∨ v est le plus grand commun diviseur de u et v parmi les idempotents de A (en fait
un élément arbitraire de A divise u et v si, et seulement si, il divise u ∨ v).
4. Donner une suite de manipulations élémentaires qui transforment la matrice Diag(u, v) en la matrice
Diag(u ∨ v, u ∧ v).
En déduire que les deux A-modules uA ⊕ vA et (u ∨ v)A ⊕ (u ∧ v)A sont isomorphes.
5. Montrer que les deux anneaux A/hui × A/hvi et A/hu ∨ vi × A/hu ∧ vi sont isomorphes.

Exercice 2.11 Soit A un anneau et e1 , . . . , en un système fondamental d’idempotents orthogonaux P de


Frac A = K. On écrit ei = ai /d avec ai ∈ A et d régulier dans A. On a alors ai aj = 0 pour i 6= j et i ai
régulier. Q
1. Montrer que K[1/ei ] ' Frac(A/AnnA (ai )), d’où K ' i Frac(A/AnnA (ai )) P
2. Inversement si (bi )i∈J1..nK est une famille d’éléments deux à deux orthogonaux et si b = i bi est régulier
on obtient le système fondamental d’idempotents orthogonaux (bi /b)i∈J1..nK dans K.

Exercice 2.12 (séparer les composantes irréductibles)


1. Soit A = Q[x, y, z] = Q[X, Y, Z]/hXY, XZ, Y Zi et K = Frac A. Quels sont les zéros de A dans Q3
(i.e. préciser les éléments de Q3 qui satisfont les équations xy = yz = zx = 0) ? Donner une forme
x
réduite pour les éléments de A. Montrer que x + y + z est régulier. Montrer que les éléments x+y+z ,
y z
x+y+z et x+y+z forment un système fondamental d’idempotents orthogonaux dans K. Montrer que
K ' Q(X) × Q(Y ) × Q(Z).
2. Soit B = Q[u, v, w] = Q[U, V, W ]/hU V W i et L = Frac B. Quels sont les zéros de B dans Q3 ?
Donner une forme réduite pour les éléments de B. Montrer que uv + vw + wu est régulier. Montrer que
L ' Q(U, V ) × Q(V, W ) × Q(W, U ).

Exercice 2.13 (idempotent et groupe élémentaire)    


a d
Soit a ∈ A un idempotent. Pour b ∈ A, expliciter A ∈ E2 (A) et d ∈ A tels que A = . En
b 0
particulier ha, bi = hdi.
En outre, si b est régulier (resp. inversible) modulo a alors d est régulier (resp. inversible). Enfin si b est
idempotent, d = a ∨ b = a + b − ab.

Exercice 2.14 Soit r1 , . . . , rm une familleQfinie d’idempotents


Q dans un anneau A. Posons si = 1 − ri et,
pour une partie I de J1..mK, notons rI = i∈I ri i∈I / s i .
1. Montrez que la matrice diagonale D = Diag(r1 , . . . , rm ) est semblable à une matrice D0 =
Diag(e1 , . . . , em ) où les ei sont des idempotents qui vérifient : ei divise ej si j > i. On pourra com-
mencer par le cas n = 2 et utiliser l’exercice 2.10. Montrez que hek i = Dk (D) pour tout k.
0 −1
2. Montrez que l’on peut Pécrire D = P DP avec P une matrice de permutation généralisée, c’est-à-dire
une matrice qui s’écrit j fj Pj où les fj forment un système fondamental d’idempotents orthogonaux et
chaque Pj est une matrice de permutation. Suggestions :
– Les rI forment un système fondamental d’idempotents orthogonaux. La matrice diagonale rI D a
pour coefficient en position (i, i) rI (si i ∈ I) ou 0 (sinon). La matriceP PI correspond alors à une
permutation ramenant les coefficients rI en tête de la liste. Et P = I rI PI . Notez que le test
(( rI = 0 ? )) n’est pas nécessaire !    
1 0 0 1
– On peut aussi traiter le cas m = 2 : on trouve P = e +f avec f = r2 s1 et e = 1 − f ,
0 1 1 0
D0 = Diag(r1 ∨ r2 , r1 ∧ r2 ). Ensuite on traite le cas m > 2 de proche en proche.

Exercice 2.15 Rappeler une preuve du théorème des restes chinois (page 26) et expliciter les idempotents.

Exercice 2.16 (groupe élémentaire : premiers pas) Dans M2 (A).


   
a 0
1. Soit a ∈ A ; expliciter une suite de transformations élémentaires pour 7→ et donner P ∈ E2 (A)
        0 a
a 0 εa a
telle que P = . Même chose pour 7→ où ε ∈ A× .
0 a 0 0
48 2. Principe local-global de base et systèmes linéaires

2. Écrire comme éléments de E2 (A) les matrices suivantes :


           
0 −1 x −y −1 0 x −x
: 7→ , : 7 → .
1 0 y x 0 −1 y −y

3. Toute matrice triangulaire de SL2 (A) est dans E2 (A).


     
x y −y
4. Soient u = ,v= ,w= avec x, y ∈ A. Montrer que v ∈ GL2 (A)u et w ∈ E2 (A)u, mais
y x x
pas nécessairement v ∈ SL2 (A)u. Par exemple si x, y sont deux indéterminées sur un anneau k, A = k[x, y]
et v = Au avec A ∈ GL2 (A), alors det(A)(0, 0) = −1. En conséquence det(A) ∈ −1 + Dk (0) hx, yi (lemme
2.2.5) donc det(A) = −1 si k est réduit. De plus, si det(A) = 1 alors 2 = 0 dans k et donc v ∈ SL2 (A)u
si, et seulement si, 2 = 0 dans k.

Exercice 2.17 (groupe élémentaire : deuxièmes pas)


1. Soit A∈ Mn,m (A), (n, m)
 6= (1, 1), avec un coefficient inversible. Il existe P ∈ En (A), Q ∈ Em (A) avec
1 01,m−1
P AQ = . Exemple : expliciter une suite d’opérations élémentaires pour
0n−1,1 A0
   
a 1
7→ où a ∈ A est inversible.
0 0

 SoitA ∈ M2 (A) avec un coefficient inversible. Calculer P ∈ E2 (A), Q ∈ E2 (A) telles que : P AQ =
2.
1 0
avec δ = det(A).
0 δ
Toute matrice A ∈ SL2 (A) ayant un coefficient inversible appartient à E2 (A). Expliciter les cas suivants :
   
a 0 0 a
, , avec a ∈ A×
0 a−1 −a−1 0

Écrire les matrices suivantes (avec a ∈ A× ) dans E2 (A) :


       
a b a 0 0 a b a
, , , .
0 a−1 b a−1 −a−1 b −a−1 0

3. Si A = Diag(a1 , a2 , . . . , an ) ∈ SLn (A), alors A ∈ En (A).


4. Toute matrice triangulaire A ∈ SLn (A) appartient à En (A).

Exercice 2.18 (les matrices de division Dq de déterminant 1)


Une (( division générale )) a = bq − r peut s’écrire matriciellement :
    
0 1 a b
= .
−1 q b r

0 1
Cela conduit à introduire Dq = ∈ SL2 (A).
−1 q
Montrer que E2 (A) est le monoïde engendré par les matrices Dq .

Exercice 2.19 Soit A un anneau dans lequel il existe i tel que i2 = −1 et tel que 2 soit inversible et
A, B ∈ Mn (A). Montrer que les matrices de M2n (A),
   
A −B 0 A + iB 0
M= et M =
B A 0 A − iB
sont élémentairement semblables, i.e. il existe P ∈ E2n (A) telle que P M P −1 = M 0 .
Indication : traiter d’abord le cas n = 1.

Exercice 2.20 Soient d ∈ A× et λ ∈ A ; calculer :


Diag(1, · · · , d, · · · , 1) Eij (λ) Diag(1, · · · , d−1 , · · · , 1)
En déduire que le sous-groupe des matrices diagonales de GLn (A) normalise En (A).
Exercices et problèmes 49

Exercice 2.21 (un lemme de liberté, ou un splitting off, au choix du lecteur)


Soit F ∈ GAn (A) un projecteur
 possédant
 un mineur principal d’ordre k inversible. Montrer que F est
Ik 0
semblable à une matrice où F 0 ∈ GAn−k (A).
0 F0
def
Plus précisément le module projectif de type fini P = Im F ⊆ An admet un facteur direct libre ayant
pour base k colonnes de F .

Exercice 2.22 Soit A ∈ An×m de rang 1. Construire B ∈ Am×n telle que ABA = A et vérifier que AB
est un projecteur de rang 1. Comparez votre solution à celle qui résulterait de la preuve du théorème 2.3
page 33.

Exercice 2.23 Cet exercice constitue une abstraction des calculs qui ont mené au théorème 2.3 page 33.
On considère un A-module E (( ayant assez de formes linéaires )), i.e. si x ∈ E vérifie µ(x) = 0 pour tout
µ ∈ E ? , alors x = 0. Cela signifie que l’application canonique de E dans son bidual, E → E ?? , est injective.
Cette condition est vérifiée si E est un module réflexif, i.e. E ' E ?? , par exemple un module projectif de
type fini, ou un module libre V de rang fini.
Pour x1 , . . . , xn ∈ E, on note r (x1 , . . . , xn ) l’idéal de A engendré par les évaluations de toutes les formes
r-linéaires alternéesV de E en tous les V r-uplets d’éléments de {x1 , . . . , xn }.
On suppose 1 ∈ r (x1 , . . . , xn ) et r+1 (x P1 , . . . , xn ) = 0.
On veut montrer que le sous-module Axi est facteur direct dans E en explicitant un projecteur
π : E → E dont l’image est ce sous-module.
P
1. (formules de Cramer) Soit f une forme r-linéaire alternée sur E. Montrer, pour y0 , . . . , yr ∈ Axi ,
que
Xr
(−1)i f (y0 , . . . , yi−1 , ybi , yi+1 , . . . , yr ) yi = 0
i=0
P
Ou encore, pour y, y1 , . . . , yr ∈ Axi
Xr
f (y1 , . . . , yr ) y = f (y1 , . . . , yi−1 , y, yi+1 , . . . , yr )yi
i=1

2. Construire n formes linéaires αi ∈ E ? telles


P
P qu’en posant π(x) = i αi (x)xi , l’application linéaire
π : E → E soit un projecteur d’image Axi .
On notera ψ : An → E définie par ei 7→ xi , et ϕ : E → An définie par ϕ(x) = (α1 (x), . . . , αn (x)).
On s’arrangera pour que π = ψ ◦ ϕ et π ◦ ψ = ψ, i.e. ψ ◦ ϕ ◦ ψ = ψ.
3. (nouvelle preuve du théorème 2.3 page 33) Soit A ∈ Am×n une matrice de rang r. Déduire de la
question précédente l’existence de B ∈ An×m telle que ABA = A.

Exercice 2.24 Soient A ∈ An×m et B ∈ Am×n .


1. On a la formule de commutativité suivante : det(Im + XBA) = det(In + XAB).
Première démonstration. Traiter d’abord le cas où m = n, par exemple par la méthode des coefficients
indéterminés. Si m = 6 n on peut compléter A et B par des lignes et des colonnes de 0 pour en faire des
matrices carrées A1 et B1 de taille q = max(m, n) comme dans la démonstration donnée page 27. On
vérifie alors que det(Im + XBA) = det(Iq + XB1 A1 ) et det(In + XAB) = det(Iq + XA1 B1 ).
Deuxième démonstration. On considère
 une indéterminée
 X et
 les matrices

0 XB I m 0 A In
B = et A = .
In 0n,m Im −XB
Calculer A0 B 0 et B 0 A0 et conclure.
2. Qu’en déduit-on pour les polynômes caractéristiques de AB et BA ?

Exercice 2.25 (formule de Binet-Cauchy)


On utilise les notations page 32. Si A ∈ An×m et B ∈ Am×n sont deux matrices de formats transposés, on
a la formule de Binet-Cauchy :
X
det(BA) = det(B1..m,α ) det(Aα,1..m ).
α∈Pm,n

Première démonstration. On utilise la formule det(Im + XBA) = det(In + XAB) (exercice 2.24). On
considère alors le coefficient de X m dans chacun des polynômes det(Im + XBA) et det(In + XAB).
50 2. Principe local-global de base et systèmes linéaires

Deuxième démonstration : les matrices A et B représentent


Vm Vm des applications
Vm linéaires u : Am → An et
n m
v : A → A . On considère alors les matrices de u, v et (v ◦ u)
Vmsur les bases Vm naturellement
Vm
associées aux bases canoniques de An et Am . On conclut en écrivant que (v ◦ u) = v◦ u.
Troisième démonstration : dans le produit BA on intercale entre B et A une matrice diagonale D ayant
pour coefficients des indéterminées λi , et l’on regarde quel est le coefficient de λi1 · · · λim dans le polynôme
det(BDA) (pour cela on prend λi1 = · · · = λim = 1 et les autres nuls). On conclut en prenant tous les λi
égaux à 1.
Vk Vk Vk
Exercice 2.26 Soit u ∈ EndA (An ). Pour 0 6 k 6 n, on note uk = (u) : (An ) → (An ). Montrer
n−1
que det(uk ) = det(u)(k−1) et que
n
det(u ) det(u
k n−k) = det(u)(k ) .
n×r
Exercice 2.27 Pour A ∈ A les propriétés suivantes sont équivalentes.
1. A est injective et localement simple.
2. Il existe B ∈ Ar×n telle que B A = Ir .
3. Dr (A) = h1i
(voir les théorèmes 2.3 page 33, 2.4 page 36 et 2.5 page 37)
Exercice 2.28 Traiter le cas général dans la démonstration du lemme 2.5.22.
Exercice 2.29 Montrer que si gramA (ϕ, x1 , . . . , xn ) est inversible le sous-module Ax1 + · · · + Axn est
libre avec (x1 , . . . , xn ) pour base.
Problème 2.1 (pivot de Gauss, ABA = A, et rationalité linéaire)
Soit K un corps discret ; si x ∈ Kn est un vecteur non nul, son indice pivot i est le plus petit indice i
6 0 ; on dit que le coefficient xi est le pivot de x. La hauteur h(x) de x est l’entier n − i + 1
tel que xi =
0
 
1
et l’on convient que h(0) = 0. Par exemple, pour n = 4 et x =  , l’indice pivot de x est i = 2, et


h(x) = 3. Les notions d’échelonnement qui suivent sont relatives à cette fonction hauteur h : Kn → N.
On dit qu’une matrice A ∈ Mn,m (K) est échelonnée en colonnes si les colonnes non nulles de A ont des
hauteurs distinctes ; on dit qu’elle est strictement échelonnée si de plus les lignes passant par les indices
pivot sont des vecteurs de la base canonique de Km (ces vecteurs sont nécessairement distincts). Voici un
exemple de matrice strictement échelonnée :
0 0 0 1 0 0
 
 0 0 0 a24 0 0 
 0 0 1 0 0 0
 
 0 0 a43 a44 0 0 
 
 1 0 0 0 0 0
 
 0 1 0 0 0 0
 
 a71 a72 a73 a74 0 0 
 
0 0 0 0 1 0
 
a91 a92 a93 a94 a95 0
1. Soit A ∈ Mn,m (K) strictement échelonnée ; on définit A ∈ Mn,m (K) en mettant à 0 les coefficients
non pivots (les aij dans l’exemple ci-dessus) et B = t A ∈ Mm,n (K). Vérifier que ABA = A. Décrire les
projecteurs AB, BA et la décomposition Kn = Im AB ⊕ Ker AB.
2. Soit A ∈ Mn,m (K) une matrice quelconque. Comment obtenir Q ∈ GLm (K) telle que A0 = AQ soit
strictement échelonnée ? Comment calculer B ∈ Mm,n (K) vérifiant ABA = A ?
3. Soient A ∈ Mn,m (K) et y ∈ Kn . On suppose que le système linéaire Ax = y admet une solution x sur
un sur-anneau de K. Montrer qu’il admet une solution sur K.
4. Soient K0 ⊆ K un sous-corps et E, F deux sous-K-espaces vectoriels de Kn supplémentaires : Kn =
E ⊕F . On suppose que E et F sont engendrés (comme K-espaces vectoriels) par des vecteurs à composantes
dans K0 . Montrer que Kn0 = (E ∩ Kn0 ) ⊕ (F ∩ Kn0 ).
Soit E ⊆ Kn un sous-K-espace vectoriel. On dit que E est K0 -rationnel (K0 est un sous-corps de K) s’il
est engendré, en tant que K-espace vectoriel, par des vecteurs à composantes dans K0 .
5. Soit F un supplémentaire de E dans Kn engendré par des vecteurs de la base canonique de Kn :
Kn = E ⊕ F et π : Kn  E la projection associée.
Solutions d’exercices 51

a. Montrer que E est K0 -rationnel si, et seulement si, π(ej ) ∈ Kn0 pour tout vecteur ej de la base
canonique.
b. En déduire l’existence d’un plus petit corps de rationalité pour E.
c. Quel est le corps de rationalité de l’image dans Kn d’une matrice strictement échelonnée en
colonnes ?

Problème 2.2
a) Tout d’abord expliquer l’exemple qui suit la définition 2.2.1.
b) (algorithme de factorisation partielle) Etant donnés deux entiers a et b montrer que l’on peutQcalculer
n
(( rapidement )) une famille finie d’entiers positifs pi premiers entre eux deux à deux tels que a = ± i=1 pα i
i
Qn βi
et b = ± i=1 pi .
c) On considère un système linéaire AX = B dans Z qui admet une infinité de solutions dans Qm . Pour
savoir s’il admet une solution dans Zm on peut essayer une méthode locale globale. On commence par
déterminer une solution dans Q, qui est un vecteur X ∈ Qm . On trouve un entier d tel que dX ∈ Zm , de
sorte que X est à coefficients dans Z[1/d]. Il suffit ensuite de construire une solution dans chaque localisé
Z1+pZ pour les p premiers qui divisent d et d’appliquer le principe local-global concret 2.1. Pour savoir
s’il y a une solution dans Z1+pZ et en construire une, on peut utiliser la méthode du pivot, à condition
de prendre pour pivot un élément de la matrice (ou plutôt de la partie restant à traiter de la matrice)
qui divise tous les autres coefficients, c’est-à-dire un coefficient dans lequel p figure avec un exposant
minimum.
L’inconvénient de cette méthode est qu’elle nécessite de factoriser d, ce qui peut la rendre impraticable.
Cependant, on peut légèrement modifier la méthode de façon à ne pas avoir à factoriser complètement d.
On utilisera l’algorithme de factorisation partielle. On commence par faire comme si d était un nombre
premier. Plus précisément on travaille avec l’anneau Z1+dZ . On cherche si un coefficient de la matrice est
étranger à d. Si l’on en trouve un, on le choisit comme pivot. Dans le cas contraire aucun coefficient de la
matrice n’est étranger à d et (en utilisant si nécessaire l’algorithme de factorisation partielle) on est dans
l’un des trois cas suivants :
– d divise tous les coefficients de la matrice, auquel cas, ou bien il divise aussi les coefficients de B et
l’on est ramené à un problème plus simple, ou bien il ne divise pas un coefficient de B et le système
linéaire n’admet pas de solution.
– d s’écrit sous forme d’un produit de facteurs deux à deux étrangers d = d1 · · · dk (k > 2) auquel cas
on travaille désormais avec les localisations en (1 + d1 Z), . . ., (1 + dk Z).
– d s’écrit comme une puissance pure d’un de ses diviseurs d0 , ce qui nous ramène, avec d0 à la place
de d à un problème du même type mais plus simple.
Vérifier que l’on peut exploiter récursivement l’idée exprimée ci-dessus. Écrire un algorithme et l’expéri-
menter. Examiner si l’algorithme obtenu s’exécute en temps raisonnable.

Solutions, ou esquisses de solutions, de certains exercices

Exercice 2.3 1. On suppose sans perte de généralité a0 = b0 = 1. Lorsque l’on écrit que f g = 1, il
vient 0 = an bm , 0 = an bm−1 + an−1 bm , 0 = an bm−2 + an−1 bm−1 + an−2 bm et ainsi de suite jusqu’au
degré 1. On montre alors par récurrence sur j que deg(ajn g) 6 m − j. En particulier, pour j = m + 1,
deg(am+1
n g) 6 −1, i.e. am+1
n g = 0. D’où am+1
n = 0. Enfin en raisonnant modulo DB (0), on obtient aj
nilpotent successivement pour j = n − 1, . . . , 1.
2a) On considère les polynômes sur l’anneau commutatif B[A] :
f (T ) = det(In − T A) et g(T ) = det(In + T A + T 2 A2 + · · · + T e−1 Ae−1 ).
On a f (T )g(T ) = det(In − T e Ae ) = 1. Le coefficient de degré n − i de f est ±ai . On applique 1.
Vn−i
2b) Il suffit de montrer que Tr(A)(e−1)n+1 = 0 car ai = ± Tr( (A)).
On considère le déterminant défini par rapport à une base fixée B de An . Si l’on prend la base canonique
formée par les ei , on a évidemment

Tr(f ) = detB (f (e1 ), e2 , . . . , en ) + · · · + detB (e1 , e2 , . . . , f (en ))

Ceci peut être vu sous la forme

Tr(f ) detB (e1 , . . . , en ) = detB (f (e1 ), e2 , . . . , en ) + · · · + detB (e1 , e2 , . . . , f (en )).


52 2. Principe local-global de base et systèmes linéaires

Sous cette forme on peut remplacer les ei par n’importe quel système de n vecteurs de An : les deux
membres sont des formes n-linéaires alternées (en les ei ) sur An , donc sont égales parce qu’elles coïncident
sur une base.
Ainsi multiplier un déterminant par Tr(f ) revient à le remplacer par une somme de déterminants dans
lesquels on a fait opérer f sur chacun des vecteurs.
On en déduit que l’expression Tr(f )n(e−1)+1 detB (e1 , . . . , en ) est égale à une somme de termes, chacun
étant un déterminant de la forme

detB (f m1 (e1 ), f m2 (e2 ), . . . , , f mn (en ))


P
avec i mi = n(e − 1) + 1 donc au moins l’un des exposants mi est > e.
NB : Cette solution pour la borne n(e − 1) + 1 est due à Gert Almkvist. Voir à ce sujet : Zeilberger D.
Gert Almkvist’s generalization of a mistake of Bourbaki. Contemporary Mathematics 143 (1993) 609–612.

Exercice 2.4 1. Posons a = hx1 , . . . , xn i. On obtient sr ∈ a (pour un certain r) et 1 − as ∈ a (pour un


certain a). On écrit 1 = ar sr + (1 − as)(1 + as + · · ·) ∈ a.
2. a + b = h1i, a + c = h1i et (a + b)(a + c) ⊆ a + bc, donc a + bc = h1i.

Exercice 2.5 1. Puisque f est homogène, on a f (tx) = 0 pour Pnune nouvelle indéterminée t et par
conséquent il existe des Ui ∈ A[X1 , . . . , Xn , t] tels que f = Pi=1 (Xi − txi )Ui . En spécialisant en
n
t := x−1 1 X1 , on obtient des vi ∈ A[X1 , . . . , Xn ] tels que f = i=2 (x1 Xi − xi X1 )vi . Puisque f est
homogène de degré d, on peut remplacer vi par sa composante homogène de degré d − 1.
P
2. Considérons l’égalité f = k,j (xk Xj − xj Xk )ukj où les ukj sont des polynômes homogènes de degré
d − 1. Il s’agit d’un système linéaire en les coefficients des ukj . Puisque ce système admet une solution sur
chaque localisé Axi et que les xi sont comaximaux, il admet une solution sur A.
P
3. Si F = d Fd est la décomposition de F ∈ A[X1 , . . . , Xn ] en composantes homogènes, on a F (tx) = 0
si, et seulement si, Fd (x) = 0 pour tout d, d’où le premier point de la question. Pour la saturation, il suffit
de montrer que Xi F ∈ Ix pour tout i entraîne F ∈ Ix . Or on a xi F (tx) = 0 donc, par comaximalité des
xi , F (tx) = 0, i.e. F ∈ Ix .

Exercice 2.9 Soit f (X) un idempotent de A[X]. Il est clair que e = f (0) est idempotent. On veut
montrer que f = e. Pour cela on peut raisonner séparément modulo e et modulo 1 − e.
Si e = 0, f = Xg, Xg(1 − Xg) = 0. Or 1 − Xg est régulier, donc g = 0.
Si e = 1, on considère l’idempotent 1 − f et l’on est ramené au cas précédent.

Exercice 2.10 Pour la question 5) on commence par montrer le résultat lorsque uv = 0. Ensuite dans la
situation générale, on note u0 = 1 − u et v 0 = 1 − v. On a alors un système fondamental d’idempotents
orthogonaux uv, uv 0 , u0 v, u0 v 0 et en appliquant le cas particulier précédent on voit que les deux anneaux
sont isomorphes à A/huv 0 i × (A/huvi)2 × A/hu0 vi.

Exercice 2.11 1. On a K[1/ei ] ' K/AnnK (ei ) et Ann P K (ei ) = AnnA (ai )K. Pour un élément x arbitraire
dans A, on écrit de manière unique dans K, dx = i∈J1..nK xi avec xi = ei dx = ai x. La décomposition
est donc entièrement dans A. Et dx ≡ xi mod AnnA (ai ), donc la composante K/AnnK (ei ) du produit,
quand on la voit comme l’idéal ei K, est formée des éléments de la forme ai x/y avec x ∈ A et y régulier
dans A. Mais y est régulier dans A si, et seulement si, chaque yi = ai y est régulier modulo AnnA (ai ), de
sorte K/AnnK (ei ) s’identifie à Frac(A/AnnA (ai )).

Exercice 2.12 1. Les zéros de A sont les trois (( axes de coordonnées )), x = y = 0, y = z = 0 et
x = z = 0.
Tout élément de A s’écrit de manière unique sous forme u = a + xf (x) + yg(y) + zh(z) avec f, g, h ∈ Q[T ].
Ceci implique que x + y + z est régulier car (x + y + z)u = x(a + xf (x)) + y(a + yg(y)) + z(a + zh(z)).
x y z
Il est immédiat que les éléments x+y+z , x+y+z et x+y+z forment un système fondamental d’idempotents
orthogonaux (d’après leur somme et les produits 2 à 2).
On conclut avec l’exercice 2.11 en notant que AnnA (x) = hy, zi et donc A/AnnA (x) ' Q[X].
2. Les zéros de B sont les trois (( plans de coordonnées )). Le système fondamental d’idempotents ortho-
uv vw wu
gonaux dans L est donné par uv+vw+wu , uv+vw+wu et uv+vw+wu .
Solutions d’exercices 53
   
a 0
Exercice 2.13 Il suffit de résoudre la question modulo a et modulo 1 − a. Modulo a : = 7→
          b b
b b a 1 1
7→ . Modulo 1 − a, = 7→ . En recollant : d = (1 − a)b + a avec par exemple la
b 0 b b 0
matrice A = A2 A1 , où      
1 1 1 0 1 1−a
A1 = (1 − a) +a = ,
0 1 0 1 0 1
     
1 0 1 0 1 0
A2 = (1 − a) +a = et
−1 1 −b 1 a − ab − 1 1
 
1 1−a
A= .
a − ab − 1 a

     
0 −1 x −y
Exercice 2.18 La matrice D0 = transforme en donc D02 = −I2 et D03 = −D0 =
1 0 y x
D0−1 .
On a aussi D0 = E12 (1)E21 (−1)E12 (1), D0 Dq = −E12 (q) et Dq D0 = −E21 (q).
Exercice 2.21 Notons e1 , . . . , en la base canonique de An et f1 , . . . , fn les n colonnes de F . On peut
supposer que le mineur principal inversible est en position nord-ouest de sorte que f1 , . . . , fk, ek+1 , . . . , en
def I ∗
est une base de An . Puisque F (fj ) = fj , la matrice de F dans cette base est G = k .
0 ∗
 
I 0
La matrice G est idempotente ainsi que sa transposée notée G0 = k .
∗ ∗
On applique au projecteur G l’opération que l’on vient de faire subir à F . Puisque G0 (ej ) ∈ i>k+1 Aei
0
L
 
I 0
pour j > k + 1, la matrice de G0 dans la nouvelle base est de la forme H = k . D’où le résultat
0 ∗
puisque F est semblable à tH.
Exercice 2.22 On dispose de coefficients bji ∈ A tels que 1 = i,j bji aij . Soit B ∈ Am×n définie par
P

a aij
B = (bji ). Vérifions que ABA = A : (ABA)ij = l,k ail blk akj . Mais il
P
= 0, donc (ABA)ij =
P P akl akj
l,k aij akl blk = aij l,kPakl blk = aij P
. En conséquence, AB est un projecteur. Montrons que AB est de
rang 1. On a Tr(AB) = i (AB)ii = i,j aij bji = 1 donc D1 (AB)=1. Par ailleurs D2 (AB) ⊆ D2 (A) = 0.
Exercice 2.23
1. Fixons une forme linéaire µ. L’application E r+1 → A définie par
Xr
(y0 , . . . , yr ) 7→ (−1)i f (y0 , . . . , yi−1 , ybi , yi+1 , . . . , yr )µ(yi )
i=0

ybi symbole de l’omission de l’élément) est une forme (r + 1)-linéaire alternée. D’après l’hypothèse
(V
??
r+1 (x1 , . . . , xn ) = 0 et l’injectivité de E 7→ E
Xr
(−1)i f (y0 , . . . , yi−1 , ybi , yi+1 , . . . , yr )yi = 0
i=0

Notons y au lieu de y0 et réalisons l’opération suivante : dans l’expression

(−1)i f (y, . . . , yi−1 , ybi , yi+1 , . . . , yr )

amenons y entre yi−1 et yi ; la permutation ainsi réalisée nécessite une multiplication par (−1)i−1 . On
obtient alors la deuxième égalité dans laquelle tous les signes (( ont disparu )). Par exemple avec r = 4,
l’expression
y , y1 , y2 , y3 , y4 )y − f (y, yb1 , y2 , y3 , y4 )y1 + f (y, y1 , yb2 , y3 , y4 )y2 −
f (b
f (y, y1 , y2 , yb3 , y4 )y3 + f (y, y1 , y2 , y3 , yb4 )y4 =
f (y1 , y2 , y3 , y4 )y − f (y, y2 , y3 , y4 )y1 + f (y, y1 , y3 , y4 )y2 −
f (y, y1 , y2 , y4 )y3 + f (y, y1 , y2 , y3 )y4
n’est autre que
f (y1 , y2 , y3 , y4 )y − f (y, y2 , y3 , y4 )y1 − f (y1 , y, y3 , y4 )y2 −
f (y1 , y2 , y, y4 )y3 − f (y1 , y2 , y3 , y)y4
54 2. Principe local-global de base et systèmes linéaires

Remarque pour une preuve plus expéditive : on applique une forme linéaire µ à la dernière expression
ci-dessus ; on vérifie que l’application obtenue (y, y1 , y2 , y3 , y4 ) 7→ µ(. . .) est 5-linéaire alternée donc nulle
d’après les hypothèses.
2. Traitons le cas r = 3 ; on a donc une hypothèse :
X
1= αijk fijk (xi , xj , xk ), fijk 3-linéaire alternée sur E
ijk

On définit π : E → E par :
X
π(x) = αijk [fijk (x, xj , xk )xi + fijk (xi , x, xk )xj + fijk (xi , xj , x)xk ]
ijk
P P
Il est clair que l’image de p est contenue dans le sous-module Axi . De plus pour x ∈ Axi :
fijk (x, xj , xk )xi + fijk (xi , x, xk )xj + fijk (xi , xj , x)xk = fijk (xi , xj , xk )x
P
D’où π(x) = xP: l’endomorphisme π : E → E est un projecteur d’image Axi . On voit que p est de la
forme π(x) = i αi (x)xi i.e. π = ψ ◦ ϕ et que π ◦ ψ = ψ.
3. Le module E en question est Am et les vecteurs x1 , . . . , xn sont les colonnes de A. On a ψ = A : An → Am
et si on note B ∈ An×m la matrice de ϕ : Am → An , on a bien ABA = A. Alors AB : Am → Am est un
projecteur de même image que A.
Exercice 2.26 Voyons d’abord le cas où Vku est diagonale dans la base e1 , . . . , en de valeurs propres
λ1 , . . . , λn . On dispose d’une base (eI ) de (An ) indexée par les parties I ⊆ {1, . . . , n} de cardinal k :
eI = ei1 ∧ · · · ∧ eik I = {i1 < · · · < ik }
Q
Alors uk Q est diagonale
Q dans la base (e I ) : uk I ) = λI eI avec λI =
(e i∈I λi . Il s’ensuit que
det(uk ) = #I=k i∈I λi . Reste à déterminer, pour un j donné, ∈ J1..nK, le nombre d’occurences de λj
dans le produit ci-dessus. Autrement dit, combien de parties I, de cardinal k, contenant j ? Autant que de
parties de cardinal k − 1 contenues dans {1, · · · , n} \ {j}, i.e. n−1

k−1 . Le résultat est démontré pour une
matrice générique. Donc il est vrai pour une matrice quelconque. Le deuxième point résulte de :
n−1 n−1 n−1 n−1
= nk
    
k−1 + n−k−1 = k−1 + k
Exercice 2.28 Le cas général se traite par récurrence sur n. On considère l’anneau de polynômes
Z[Xij ] à n2 indéterminées et la matrice universelle A = (Xij ) à coefficients dans cet anneau. Notons
∆11 , ∆12 , . . . , ∆1n ∈ Z[Xij ] les cofacteurs de X11 , X12 , . . . , X1n dans A. Ces cofacteurs vérifient les
identités : Xn Xn
x1j ∆1j = det A, xij ∆1j = 0 pour i > 1.
j=1 j=1
0
Puisque les Mkl commutent deux à deux, la spécialisation Xkl 7→ Mkl est légitime. Notons M1j =
∆1j (Xkl 7→ Mkl ), alors
0
P
M11 = σ∈Sn−1 ε(σ)M2σ2 M3σ3 . . . Mnσn
Définissons M 0 par :
 0 
M11 0 ... 0 ∆

M12 ... M1n

.. 
0 M22 ... M2n 
 0
 M12 Im . 
M0 =  MM0 = 

 .
 si bien que  ... ..  .
 .. .. 
. 
. 0 
M1n0
0 Im 0 Mn2 ... Mnn

En prenant les déterminants, on obtient :


M22 ... M2n
 
0 .. .. 
det(M ) det(M11 ) = det(∆) det  . .
Mn2 ... Mnn
L’hypothèse de récurrence fournit :
M22 . . . M2n
   
. ..  X
0
det  .. . = det  ε(σ)M2σ2 M3σ3 . . . Mnσn  = det(M11 )
Mn2 . . . Mnn σ∈Sn−1

La simplification par ce déterminant régulier donne l’égalité voulue det(M ) = det(∆).


Commentaires bibliographiques 55

Problème 2.1 1. Si Aj est une colonne non nulle de A, on a BAj = ej donc ABAj = Aj ; ainsi AB est
l’identité sur Im A donc ABA = A. La matrice AB est triangulaire inférieure, et ses coefficients diagonaux
sont 0, 1. La matrice BA est diagonale et ses coefficients diagonaux sont 0, 1.
0 0 0 0 1 0 0 0 0 1 0 0 0 0 0
   
0 0 0 0 0 1 0 0 0 0 1 0 0 0 0
0 0 1 0 0 0 0 0 0 0 0 1 0 0 0
   
B= BA = 
 
1 0 0 0 0 0 0 0 0 0 0 0 1 0 0
 
0 0 0 0 0 0 0 1 0 0 0 0 0 1 0
   
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 0 0 0 0 0 0 0 0
 
 a24 0 0 0 0 0 0 0 0
 0 0 1 0 0 0 0 0 0