0% ont trouvé ce document utile (0 vote)
47 vues140 pages

Cours L 32020

Le document est un cours d'algèbre de niveau L3B, couvrant des sujets tels que les groupes, les morphismes, les sous-groupes et les groupes quotients. Il aborde également des concepts avancés comme le groupe symétrique, le groupe orthogonal et les actions de groupes. Enfin, il traite des idéaux dans les anneaux, incluant des définitions, des propriétés et des constructions.

Transféré par

emedypatrick
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
47 vues140 pages

Cours L 32020

Le document est un cours d'algèbre de niveau L3B, couvrant des sujets tels que les groupes, les morphismes, les sous-groupes et les groupes quotients. Il aborde également des concepts avancés comme le groupe symétrique, le groupe orthogonal et les actions de groupes. Enfin, il traite des idéaux dans les anneaux, incluant des définitions, des propriétés et des constructions.

Transféré par

emedypatrick
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Algèbre L3B

Claire Amiot

Automne 2020
Table des matières

I Généralités sur les groupes 11


1 Définition, premiers exemples . . . . . . . . . . . . . . . . . . 11
1.1 Loi de composition interne . . . . . . . . . . . . . . . . 11
1.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Groupes finis, table de multiplication . . . . . . . . . . 14
1.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 Morphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1 Définition et exemples . . . . . . . . . . . . . . . . . . 15
2.2 Noyau et image . . . . . . . . . . . . . . . . . . . . . . 17
3 Sous-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3 Sous-groupes de Z . . . . . . . . . . . . . . . . . . . . 19
3.4 Sous-groupes engendrés . . . . . . . . . . . . . . . . . . 20
3.5 Groupes cycliques, ordre d’un élément . . . . . . . . . 21
4 Construction de nouveaux groupes à partir de groupes . . . . 22
4.1 Produit de groupes . . . . . . . . . . . . . . . . . . . . 22
4.2 Groupe de fonctions . . . . . . . . . . . . . . . . . . . 23
4.3 Groupes d’automorphismes . . . . . . . . . . . . . . . 24

II Groupes quotients, cas abélien 27


1 Relations d’équivalence . . . . . . . . . . . . . . . . . . . . . . 27
1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2 Classes d’équivalence . . . . . . . . . . . . . . . . . . . 28
2 Quotient par une relation d’équivalence . . . . . . . . . . . . . 29
2.1 Ensemble quotient . . . . . . . . . . . . . . . . . . . . 29
2.2 Théorème de factorisation . . . . . . . . . . . . . . . . 29
3 Equivalences dans les groupes . . . . . . . . . . . . . . . . . . 30
3.1 Classes à gauche . . . . . . . . . . . . . . . . . . . . . 30
3.2 Théorème de Lagrange . . . . . . . . . . . . . . . . . . 31
4 Quotients de groupes abéliens . . . . . . . . . . . . . . . . . . 32

3
4.1 Construction d’une loi sur le quotient . . . . . . . . . . 32
4.2 Théorème de factorisation . . . . . . . . . . . . . . . . 33
5 Les groupes cycliques . . . . . . . . . . . . . . . . . . . . . . . 35
5.1 Groupes monogènes . . . . . . . . . . . . . . . . . . . . 35
5.2 Générateurs . . . . . . . . . . . . . . . . . . . . . . . . 36
5.3 Produits de groupes cycliques . . . . . . . . . . . . . . 36

III Le groupe symétrique 39


1 Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.1 Définition et notations . . . . . . . . . . . . . . . . . . 39
1.2 Support d’une permutation . . . . . . . . . . . . . . . 40
1.3 Orbites . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2 Cycles et décompositions . . . . . . . . . . . . . . . . . . . . . 43
2.1 Cycles . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.2 Théorème de décomposition . . . . . . . . . . . . . . . 44
2.3 Générateurs de Sn . . . . . . . . . . . . . . . . . . . . 45
3 Signature et groupe alterné . . . . . . . . . . . . . . . . . . . 46
3.1 Signature . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.2 La signature comme morphisme de groupes . . . . . . . 46
3.3 Le groupe An . . . . . . . . . . . . . . . . . . . . . . . 48
3.4 Formule explicite . . . . . . . . . . . . . . . . . . . . . 49

IV Le groupe orthogonal 51
1 Espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.1 Produit scalaire et isométries . . . . . . . . . . . . . . 51
1.2 Le groupe On (R) . . . . . . . . . . . . . . . . . . . . . 52
1.3 Symétries . . . . . . . . . . . . . . . . . . . . . . . . . 52
2 Quelques propriétés du groupe orthogonal . . . . . . . . . . . 54
2.1 Quelques propriétés . . . . . . . . . . . . . . . . . . . . 54
2.2 Générateurs . . . . . . . . . . . . . . . . . . . . . . . . 55
3 Classification en dimensions 2 et 3 . . . . . . . . . . . . . . . . 57
3.1 Rotations et symétries en dimension 2 . . . . . . . . . 57
3.2 Sous-groupes finis de O2 (R) . . . . . . . . . . . . . . . 58
3.3 Le groupe diédral . . . . . . . . . . . . . . . . . . . . . 59
3.4 Classification en dimension 3 . . . . . . . . . . . . . . . 60

V Actions de groupes 63
1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2 Orbites et stabilisateurs . . . . . . . . . . . . . . . . . . . . . 64
3 Dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.1 Equation aux classes . . . . . . . . . . . . . . . . . . . 66
3.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . 67
4 Groupe du tétraèdre . . . . . . . . . . . . . . . . . . . . . . . 70

VI Généralités sur les anneaux 77


1 Définition et premiers exemples . . . . . . . . . . . . . . . . . 77
2 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3 Eléments inversibles et diviseurs de zéros . . . . . . . . . . . . 79
3.1 Le groupe des inversibles . . . . . . . . . . . . . . . . . 79
3.2 Diviseurs de zéro . . . . . . . . . . . . . . . . . . . . . 80
4 Sous-anneaux et morphismes . . . . . . . . . . . . . . . . . . . 81
4.1 Sous -anneaux . . . . . . . . . . . . . . . . . . . . . . . 81
4.2 Morphismes d’anneaux . . . . . . . . . . . . . . . . . . 81
5 Construction de familles d’exemples . . . . . . . . . . . . . . . 82
5.1 Anneaux produits . . . . . . . . . . . . . . . . . . . . . 82
5.2 Anneaux de fonctions . . . . . . . . . . . . . . . . . . . 83
5.3 Anneaux de matrices . . . . . . . . . . . . . . . . . . . 84
5.4 Anneaux de polynômes . . . . . . . . . . . . . . . . . . 84

VIIIdéaux 89
1 Idéal dans un anneau commutatif . . . . . . . . . . . . . . . . 89
1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . 89
1.2 Opérations sur les idéaux . . . . . . . . . . . . . . . . . 90
1.3 Idéal engendré . . . . . . . . . . . . . . . . . . . . . . . 91
1.4 Idéaux et morphismes . . . . . . . . . . . . . . . . . . 92
2 Quotient par un idéal . . . . . . . . . . . . . . . . . . . . . . . 93
2.1 Structure d’anneau de A/I . . . . . . . . . . . . . . . . 93
2.2 Théorème de projection . . . . . . . . . . . . . . . . . 94
3 L’anneau Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.1 Propriétés de Z/nZ . . . . . . . . . . . . . . . . . . . . 95
3.2 Fonction indicatrice d’Euler . . . . . . . . . . . . . . . 97
3.3 Théorème des restes chinois . . . . . . . . . . . . . . . 97
4 Idéaux premiers et maximaux . . . . . . . . . . . . . . . . . . 99
4.1 Idéal premier . . . . . . . . . . . . . . . . . . . . . . . 99
4.2 Idéal maximal . . . . . . . . . . . . . . . . . . . . . . . 100
5 Aritmétique dans un anneau intègre . . . . . . . . . . . . . . . 101
5.1 Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.2 Anneau principal, pgcd, ppcm . . . . . . . . . . . . . . 102
5.3 Eléments irréductibles . . . . . . . . . . . . . . . . . . 103
VIII
Arithmétique dans les anneaux de polynômes 105
1 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . 105
1.1 Condition pour l’existence de la division . . . . . . . . 105
1.2 Principalité d’un anneau de polynômes . . . . . . . . . 106
2 Polynômes à coefficients dans un corps . . . . . . . . . . . . . 107
2.1 Théorème des restes chinois . . . . . . . . . . . . . . . 107
2.2 Irréductibles dans k[X] . . . . . . . . . . . . . . . . . . 108
2.3 Irréductibles dans C[X]. . . . . . . . . . . . . . . . . . 110
2.4 Irréductibles dans R[X]. . . . . . . . . . . . . . . . . . 111

IX Déterminant 115
1 Forme multilinéaires . . . . . . . . . . . . . . . . . . . . . . . 115
1.1 Définition et premières propriétés . . . . . . . . . . . . 115
1.2 Formes alternées . . . . . . . . . . . . . . . . . . . . . 116
2 Déterminant d’un système de vecteurs . . . . . . . . . . . . . 117
2.1 Espace vectoriel des formes n-linéaires alternées sur E . 117
2.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . 118
2.3 Formule de récurrence . . . . . . . . . . . . . . . . . . 119
3 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . 120
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.2 Déterminant d’une matrice . . . . . . . . . . . . . . . . 121
4 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . 122
4.1 Polynôme caractéristique d’une matrice . . . . . . . . . 122
4.2 Polynôme caractéristique d’un endomorphisme . . . . . 123
4.3 Matrice compagnon . . . . . . . . . . . . . . . . . . . . 124

X Réduction des endomorphismes 125


1 Valeurs propres-vecteurs propres . . . . . . . . . . . . . . . . . 125
1.1 Racines du polynôme caractéristique . . . . . . . . . . 125
1.2 Dimension des sous-espaces propres . . . . . . . . . . . 127
2 Polynômes d’endomorphismes . . . . . . . . . . . . . . . . . . 128
2.1 Morphisme d’évaluation . . . . . . . . . . . . . . . . . 128
2.2 Polynôme minimal . . . . . . . . . . . . . . . . . . . . 130
2.3 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . 131
3 Réduction aux sous-espaces caractéristiques . . . . . . . . . . 132
3.1 Lemme de décomposition des noyaux . . . . . . . . . . 132
3.2 Sous-espaces caractéristiques . . . . . . . . . . . . . . . 134
3.3 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . 135
3.4 Diagonalisation simultanée . . . . . . . . . . . . . . . . 136
4 Reduction de Jordan . . . . . . . . . . . . . . . . . . . . . . . 137
4.1 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . 137
4.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.3 Décomposition de Dunford . . . . . . . . . . . . . . . . 138
4.4 Réduction de Jordan . . . . . . . . . . . . . . . . . . . 140
Groupes

9
Chapitre I

Généralités sur les groupes

1 Définition, premiers exemples


1.1 Loi de composition interne
Définition 1.1 Soit E un ensemble non vide. Une loi de composition interne
∗ sur E est la donnée d’une application

E×E →E
(x, y) 7→ x ∗ y

. Elle est dite associative si pour tous x, y et z éléments de E, on a (x∗y)∗z =


x ∗ (y ∗ z).
Elle est dite commutative si pour tous x, y de E, on a x ∗ y = y ∗ x.

Exemple : + et . sont des lci associatives et commutatives sur N, Z.

Définition 1.2 Soit ∗ un lci sur E. Un élément e ∈ E est dit neutre pour
∗ si pour tout x de E, on a e ∗ x = x ∗ e = x.

Proposition 1.3
Si ∗ possède un neutre dans E, il est unique.

Définition 1.4 Soit ∗ une lci sur E de neutre e. Un élément x ∈ E possède


un inverse (ou symétrique ) si il existe x0 ∈ E tel que x ∗ x0 = x0 ∗ x = e.
on dit que x est inversible .

11
Proposition 1.5
Soit ∗ une lci associative, et e un élément neutre. Si x possède un inverse,
il est unique. On le notera x−1 .
Si x est inversible, alors x−1 est inversible et on a (x−1 )−1 = x.
Si x et y sont inversibles, alors x ∗ y aussi et on a (x ∗ y)−1 = y −1 ∗ x−1 .

Démonstration : Soient y et z deux éléments satisfaisant (G3), alors

y =y∗e par (G2)


= y ∗ (x ∗ z) par (G3)
= (y ∗ x) ∗ z par (G1)
=e∗z par (G3)
=z par (G2).

1.2 Définition
Définition 1.6 Un groupe (G, ∗) est un ensemble G muni d’une application
(appelée loi de composition interne )

G×G→G
(x, y) 7→ x ∗ y

telle que
(G1) pour tous x, y et z éléments de G, on a (x ∗ y) ∗ z = x ∗ (y ∗ z) (la loi
∗ est associative ) ;
(G2) il existe e ∈ G tel que, pour tout x ∈ G, x ∗ e = e ∗ x = x ;
(G3) pour tout x ∈ G il existe y ∈ G tel que x ∗ y = y ∗ x = e.
Lorsque la loi ∗ est aussi commutative (i.e. pour tous x, y dans G, x ∗ y =
y ∗ x) alors le groupe G est dit abélien .

Exemple 1.7 — (Z, +) est un groupe. Le neutre est 0, l’inverse de x ∈ Z


est −x.
— (N, +) n’est pas un groupe. 0 est neutre, mais les éléments > 1 n’ont
pas d’inverse.
— (R, +) est un groupe, mais (R, .) n’est pas un groupe. 1 est neutre pour
tous les x 6= 0, mais 0.1 = 0 6= 1.
— (R∗ , .) est un groupe. L’élément neutre est 1, l’inverse d’un x ∈ R est
donné par x−1 = x1 . (C∗ , .) est aussi un groupe.
— L’ensemble N muni de la loi (x, y) 7→ xy n’est pas un groupe. La loi
puissance n’est pas associative. 3( 12 ) = 31 = 3 6= (31 )2 = 32 = 9.
Tous ces exemples de groupes sont abéliens. (Attention loi puissance n’est
pas non plus commutative 32 6= 23 .)

Notation : Pour un groupe quelconque, on prend souvent la notation


multiplicative, c’est-à-dire on note xy, ou x.y au lieu de x ∗ y. Dans ce cas,
le neutre est noté 1G ou 1. Si x est dans G et n ∈ Z, on définit

xn = x.x.
| {z . . . .x} si n > 1
n fois
−1 −1
=x
| .x {z . . . . .x−1} si n 6 −1
−n fois

=1 sin = 0

Attention, si G n’est pas commutatif, (xy)n 6= xn y n en général.


Lorsque G est abélien, on prend aussi souvent la notation additive, c’est-
à-dire, on note x + y. Dans ce cas le neutre est noté 0G ou 0 et l’inverse −x.
Si x est dans G et n ∈ N, on note nx l’élément nx = x | +x+ {z. . . + x}.
n fois
On peut noter G le groupe (G, .) lorsque la loi est sous-entendue.

Proposition 1.8
Soit G un groupe. On a les propriétés suivantes
1. ∀m, n ∈ Z, ∀x ∈ G, xn+m = xn .xm ,
2. ∀x, y ∈ G, (xy)−1 = y −1 x−1 .

Démonstration : laissée en exercice 


1.3 Groupes finis, table de multiplication
Définition 1.9 Lorsque l’ensemble G est fini, on dit que le groupe G est
fini. Le cardinal de G est appelé l’ordre de G, il est noté |G| ou ]G.

Soit (G, .) un groupe fini de cardinal n. Notons g1 , g2 , . . . gn ses éléments. On


peut alors écrire sa table de multiplication :

| g1 g2 g3 ··· gn
g1 | g12 g1 g2 g1 g3 ··· g1 gn
g2 | g2 g1 g22 g2 g3 ··· g2 gn
g3 | g3 g1 g3 g2 g32 ··· g3 gn
.. ..
.| .
gn | gn g1 gn g2 gn g3 · · · gn2
La table de multiplication décrit entièrement la loi du groupe.

Exercice 1.10 Vérifier que la table suivante correspond à une loi d’un groupe
à deux éléments :
| a b
a| a b
b| b a
Montrer que la loi donnée par la table suivante n’est pas une loi de groupe :

| a b
a| a b
b| b b

1.4 Exemples
1. Si E est un espace vectoriel (sur R ou C), alors (E, +) est un groupe,
de neutre le vecteur nul. Par exemple (Rn , +) est un groupe, ou bien
encore (R[X], +) ou (Mn (C), +).
2. Pour k = R ou C. Le groupe (GLn (k), .) est un groupe non abélien.
3. Soit E un k-espace vectoriel, alors l’ensemble des applications linéaires
bijectives de E dans E(ou endomorphismes inversibles de E) munie
la loi de composition ◦ est un groupe. Le neutre de (GL(E), ◦) est
l’application identité IdE . C’est aussi un groupe non abélien.
4. Notons sx la symétrie orthogonale par rapport à l’axe des x dans R2 ,
sy la symétrie orthogonale par rapport à l’axe des y, et s0 la symétrie
centrale de centre 0. Alors l’ensemble {IdR2 , sx , sy , s0 } muni de la loi
de composition est un groupe fini. Sa table de multiplication est la
suivante :
| I s x sy s0
I| I sx sy s0
sx | sx I s0 sy
sy | sy s0 I sx
s0 | s0 sy sx I
5. Pour p = 0, . . . 3 notons rp la rotation de centre 0 d’angle pπ 2
dans R2 .
Alors l’ensemble {r0 , r1 , r2 , r3 } muni de la composition est un groupe.
Sa table de multiplication est la suivante :

| r0 r1 r2 r3
r0 | r0 r1 r2 r3
r1 | r1 r2 r3 r0
r2 | r2 r3 r0 r1
r3 | r3 r0 r1 r2

6. Soit E un ensemble fini, alors l’ensemble des bijections de E dans


E muni de la loi de composition est un groupe. Il est non abélien
dés que ]E > 3. Il est fini et son cardinal est (]E)!. On l’appelle
le groupe des permutations de E, ou le groupe symétrique de E . On
l’étudiera plus en détail dans un autre chapitre.

2 Morphismes
2.1 Définition et exemples
Définition 2.1 Soient G et G0 deux groupes. Un morphisme de G dans G0
est une application f : G → G0 telle que

∀x, y ∈ G f (x.y) = f (x).f (y).

Lorsque G = G0 on parle d’endomorphisme. Lorsque f est inversible (c’est-


à-dire qu’il existe un morphisme de groupe h : G0 → G tel que f ◦ h = IdG0
et h ◦ f = IdG , on parle d’ isomorphisme . Et si de plus G = G0 f est appelé
automorphisme .

Lemme 2.2
Soit f un morphisme de G dans G0 . Alors on a les propriétés :
1. f (1G ) = 1G0 ;
2. Pour tout x ∈ G, f (x−1 ) = f (x)−1 .

Démonstration : Exercice. 

Proposition 2.3
Soit ϕ : G → H et ψ : H → K deux morphismes de groupes, alors
ψ ◦ ϕ : G → K est un morphisme de groupes.

Démonstration : Soit x, y dans G, alors on a


ψ ◦ ϕ(xy) = ψ(ϕ(x).ϕ(y)) = (ψ ◦ ϕ(x)).(ψ ◦ ϕ(y)).


Proposition 2.4
Un morphisme de groupe est un isomorphisme si et seulement si il est
bijectif.

Démonstration : Il est clair que si f est inversible, alors elle est bijective.
Supposons f bijective et notons h la bijection réciproque. Il faut montrer
que h est un morphisme. Soient x0 , y 0 ∈ G0 , notons x = h(x0 ) et y = h(y 0 ),
tels que x0 = g(x) et y 0 = g(y). On a donc
h(x0 y 0 ) = h(g(x)g(y)) = h(g(xy)) = xy = h(x0 )h(y 0 ).


La notion d’isomorphisme est primordiale. Lorsqu’on se donne un groupe


G, on veut comprendre sa structure "à isomorphisme près", c’est à dire à
quel groupe "connu" il est isomorphe.
Exemple 2.5 1. Soit p ∈ Z. La multiplication par p est un morphisme
de Z dans lui même. Ce n’est pas un isomorphisme sauf si p = ±1.
2. exp : R → R∗ est un morphisme de (R, +) dans (R∗ , .).
3. L’application déterminant est un morphisme de GLn (k) dans (k ∗ , .).
4. La conjugaison (z 7→ z) est un automorphisme de (C, +) dans (C, +)
et de (C∗ , .) dans (C∗ , .).
5. Soit G le groupe des rotations défini dans le paragraphe 1. L’application
piπ
G → U4 qui à rp associe e 2 pour p = 0, . . . , 3 est un isomorphisme de
groupe.
6. Soit G un groupe, et x ∈ G. L’application n 7→ xn est un morphisme
de Z dans G.
7. Soit E un espace vectoriel de dimension n. Chaque choix de base de E
donne un isomorphisme de GL(E) dans GLn (k).
8. Soit G un groupe, et g ∈ G. Alors l’application φg : G → G définie par

φg (x) := gxg −1

est un automorphisme de G. Il est appelé conjugaison par g .

2.2 Noyau et image


Définition 2.6 Soient G et G0 deux groupes et soit f un morphisme de G
dans G0 . Alors on définit
— le noyau de f Kerf := {x ∈ G t.q. f (x) = 1G0 } ⊂ G.
— l’ image de f Im f := {f (x), x ∈ G} ⊂ G0 .

Exemple 2.7 1. Le noyau de la multiplication par p est {0}. Son image


est pZ.
2. Ker exp = {0}, et Im exp =]0, +∞[
3. Ker det = {M ∈ GLn , det M = 1}, Im det = k ∗ .

Lemme 2.8
Un morphisme f entre deux groupes G et G0 est injectif si et seulement
si Kerf = {1G0 }.

Démonstration : Supposons f injectif. Soit x ∈ Kerf , alors f (x) = 1G0 =


f (1G ). Donc x = 1G .
Supposons maintenant que Kerf = {1G0 }. Soient x et y dans G tels que
f (x) = f (y). Alors on a

1G0 = f (x)(f (y))−1 = f (x)f (y −1 ) = f (xy −1 )

donc xy −1 est dans Kerf . Par hypothése, on a donc xy −1 = 1G , c’est-à-dire


x = y. 

3 Sous-groupes
3.1 Définition
Définition 3.1 Soit (G, .) un groupe. Un sous-ensemble H ⊂ G de G est un
sous-groupe de G si les trois conditions suivantes sont vérifiées :
(SG1) e ∈ H ;
(SG2) ∀x, y ∈ H x.y ∈ H (H est stable par la loi de groupe de G) ;
(SG3) ∀x ∈ H x−1 ∈ H (H est stable par passage à l’inverse).
En d’autres termes, (H, .) est un groupe.

Il est facile de voir que si G est un groupe, alors G et {1G } sont des
sous-groupes de G (appelés sous-groupes triviaux).

Remarque 3.2 Soit (G, .) un groupe et H ⊂ G. Alors H est un sous-groupe


de G si et seulement si e ∈ H et pour tous x, y ∈ H, x.y −1 ∈ H.

Proposition 3.3
Soit f : G → G0 un morphisme de groupes.
1. Soit H un sous-groupe de G, alors f (H) = {f (h), h ∈ H} est un
sous-groupe de G0 . En particulier Im f est un sous-groupe de G0 .
2. Soit H 0 un sous-groupe de G0 Alors f −1 (H 0 ) = {x ∈ G | f (x) ∈ H 0 }
est un sous-groupe de G. En particulier Kerf est un sous-groupe de
G

Démonstration : à faire plus tard. 


3.2 Exemples
1. nZ est un sous-groupe de (Z, +), il est isomorphe à Z.
2. (Z, +) est un sous-groupe de (R, +) qui est lui même un sous-groupe
de (C, +).
3. (]0, +∞[, .), ainsi que ({1, −1}, .) sont des sous-groupes de (R∗ , .), ]0, +∞[
est l’image du morphisme exponentielle.
4. L’ensemble U = {z ∈ C tel que ||z|| = 1} est un sous-groupe de (C∗ , .).
5. Soit n ∈ N∗ . L’ensemble Un = {z ∈ C tel que z n = 1} des racines
niémes de l’unité est un sous-groupe de U et donc de (C∗ , .).
6. L’ensemble SLn (R) = {M ∈ GLn (R) tel que detM = 1} est un sous-
groupe de GLn (R), c’est le noyau du déterminant.
7. L’ensemble {M ∈ GLn (R) tel que t M.M = In } muni de la loi de mul-
tiplication est un groupe.
8. Soit G un groupe, alors Z(G) = {z ∈ G, ∀g ∈ Ggz = zg} est un
sous-groupe de G appelé le centre de G. Le groupe G est abélien si
et seulement si Z(G) = G. Le centre de GLn (k) est l’ensemble des
matrices de la forme λIn avec λ ∈ k ∗ (preuve ?).
La conjugaison étant un morphisme de groupe, on en déduit :

Proposition 3.4
Soit H un sous-groupe d’un groupe G. Alors pour tout x ∈ G, xHx−1 =
{xhx−1 , h ∈ H} est un sous-groupe de G.

3.3 Sous-groupes de Z

Théorème 3.5
Tous les sous-groupes de Z sont de la forme nZ, n ∈ N.

Démonstration : Soit H un sous-groupe de Z. Si H = {0} alors H = 0Z.


Supposons H 6= {0}. Soit x 6= 0 ∈ H. Alors x et −x sont dans H, donc H
contient des entiers strictement positifs. Notons n le plus petit entier > 1
contenu dans H. On va montrer que nZ = H.
Tout d’abord, pour tout p ∈ N, pn = n + n + . . . + n ∈ H et −pn =
−(pn) ∈ H donc nZ ⊂ H.
Soit maintenant x ∈ H. Ecrivons la division euclidienne de x par n,
x = nq + r avec 0 6 r 6 n − 1. Alors

x − nq ∈ H.
r = |{z}
|{z}
∈H ∈nZ⊂H

Par minimalité de n, on a donc r = 0, c’est-à-dire x = nq ∈ nZ. 

3.4 Sous-groupes engendrés

Proposition 3.6
Soit G un groupe et H1 et H2 deux sous-groupes de G, alors H1 ∩ H2 est
un sous-groupe de G.
un ensemble, et qu’on a pour tout i ∈ I
Plus généralement, si I est T
un sous-groupe Hi de G, alors i∈I Hi est un sous-groupe de G.

Démonstration : Exercice. 

Attention, H1 ∪ H2 n’est en général pas un sous-groupe de G.

Proposition 3.7
Soit p, q ∈ N alors pZ ∩ qZ = ppcm(p, q)Z.

Définition 3.8 Soit X un sous-ensemble d’un groupe G. Alors on appelle


sous-groupe engendré par X l’intersection de tous les sous-groupes de G
contenant X. C’est un sous-groupe par la proposition 3.6. Il est noté hXi.
Proposition 3.9
— Le sous-groupe hXi est le plus petit sous-groupe de G contenant
X, c’est-à-dire que si K est un sous-groupe de G qui contient X
alors hXi ⊂ K.
— x ∈ hXi si et seulement si il existe x1 , . . . , xn ∈ X tels que x =
x±1 ±
1 . . . xn .

Proposition 3.10
Soit p, q ∈ N alors hp, qi = pgcd(p, q)Z.

Exemple 3.11 1. hGi = G. hei = {e}


2iπ
2. Un = he n i.
3. Z = h1i.
4. G = hr1 i dans l’exemple 5 du paragraphe 1.
5. G = hsx , sy i dans l’exemple 4 du paragraphe 1.

3.5 Groupes cycliques, ordre d’un élément


Définition 3.12 Un (sous-)groupe G est dit monogène s’il est engendré
par un seul élément.
Un (sous-)groupe monogène et fini est dit cyclique .

Exemple 3.13 Z est une groupe monogène infini. Un est un groupe cyclique.

Définition 3.14 Soit a ∈ G. Si il existe n ∈ N tel que an = e, alors a est


dit d’ordre fini . L’ ordre de a est le plus petit entier strictement positif n
tel que an = e.

Proposition 3.15
Soit G un groupe et x ∈ G. On a les propriétés suivantes
1. hxi = {xn , n ∈ Z}.
2. hxi est un sous-groupe abélien.
3. Soit p > 1 l’ordre de x, et soit n ∈ Z tel que xn = e. Alors p divise
n.
4. hxi est fini, si et seulement si x est d’ordre fini. Dans ce cas hxi =
{e, x, x2 , . . . , xp−1 } où p est l’ordre de x, et l’ordre de hxi est p.

Démonstration :
1. x ∈ hxi, donc xn ∈ hxi pour tout n ∈ Z. Donc {xn , n ∈ Z} ⊂ hxi. De
plus il est clair que {xn , n ∈ Z} est un sous-groupe de G. Donc on a
bien égalité.
2. xp xq = xp+q = xq+p = xq xp .
3. Soit n = pq + r la division euclidienne de n par p. Alors e = xn =
xpq+r = (xp )q .xr = xr . Or 0 6 r 6 p − 1, comme p est le plus petit
entier strictement positif vérifiant xp = e, on a nécessairement r = 0.
Autrement dit p divise n.
4. Si hxi est fini, il existe des entiers p 6= q tels que xp = xq . Supposons
p > q. Alors on a xp−q = xp x−q = xq x−q = 1G . Donc x est d’ordre fini.
Réciproquement, soit x d’ordre fini. Notons p son ordre. On va montrer
que hxi = {e, x, x2 , . . . , xp−1 }, ce qui entrainera la finitude de hxi. Par
1., il suffit de montrer que xn ∈ {e, x, x2 , . . . , xp−1 } pour tout n ∈ Z.
Soit n ∈ Z et notons r le reste de la division euclidienne de n par p.
Alors n = pq +r avec 0 6 r 6 p−1. On a alors xn = xpq+r = (xp )q .xr =
eq .xr = xr . Autrement dit, xn ∈ {e, x, x2 , . . . , xp−1 }.
Vérifions maintenant que tous ces éléments sont différents. Si xi = xj ,
alors xi−j = e, donc p divise i − j. Si 0 6 i, j 6 p − 1, cela implique
i − j = 0.


4 Construction de nouveaux groupes à partir


de groupes
4.1 Produit de groupes
Proposition 4.1
Soit (G1 , •) et (G2 , ?) deux groupes. Alors on peut munir G1 × G2 d’une
structure de groupe en posant (x1 , x2 ) ∗ (y1 , y2 ) := (x1 • y1 , x2 ? y2 ) pour
tous x1 , y1 ∈ G1 et x2 , y2 ∈ G2 .

Le groupe G1 × G2 est appelé le produit direct de G1 par G2 .


On vérifie facilement les choses suivantes :
— L’élément neutre de G1 × G2 est (1G1 , 1G2 ).
— L’inverse de (x1 , x2 ) est (x−1 −1
1 , x2 ).
— L’inclusion G1 → G1 × G2 envoyant g1 sur (g1 , 1G2 ) est un morphisme
de groupe injectif dont l’image est isomorphe à G1 .
— La projection p1 : G1 × G2 → G1 est un morphisme surjectif de groupes
dont le noyau est isomorphe à G2 .
— Le groupe G1 × G2 est fini si et seulement si G1 et G2 sont finis, et dans
ce cas |G1 × G2 | = |G1 |.|G2 |.
— Le groupe G1 × G2 est abélien si et seulement si G1 et G2 le sont.

Démonstration :Exercice. 

Exemple 4.2 Le groupe (R2 , +) est le produit direct de (R, +) par (R, +).

4.2 Groupe de fonctions

Proposition 4.3
Soit X un ensemble et (G, .) un groupe. Alors l’ensemble GX des ap-
plications de X dans G est un groupe pour la loi ∗ définie par :
(φ ∗ ψ)(x) := φ(x).ψ(x) pour tout φ, ψ ∈ GX et tout x ∈ X.

On vérifie aussi le propriétés suivantes :


— L’élément neutre de GX est l’application qui à tout x ∈ X associe 1G .
— L’inverse de φ ∈ GX est l’application ψ telle que ψ(x) = φ(x)−1 pour
tout x ∈ X.
— Si G est abélien, alors GX est aussi abélien.
Démonstration : Tout d’abord ∗ est bien une loi interne pour GX au sens
où si φ et ψ sont des applications de X dans G alors φ ∗ ψ définit bien une
application de X dans G.
Vérifions les propriétés (G1), (G2) et (G3) pour (GX , ∗).
(G1) Soient φ ,ψ et η dans GX . Alors pour tout x ∈ X on a

((φ ∗ ψ) ∗ η)(x) = (φ ∗ ψ)(x).η(x) par définition de ∗


= (φ(x).ψ(x)).η(x)
= φ(x).(ψ(x).η(x)) par associativité de ∗
= φ(x).(ψ ∗ η)(x)
= (φ ∗ (ψ ∗ η))(x)

Ceci étant vrai pour tout x ∈ X, on a bien (φ ∗ ψ) ∗ η = φ ∗ (ψ ∗ η)


comme applications.
(G2) Notons e l’application x 7→ 1G . Soit φ ∈ GX , alors on a pour tout
x∈X
(φ.e)(x) = φ(x).e(x) = φ(x).1G = φ(x),
c’est-à-dire φ.e = φ. De même e.φ = φ. Donc e est bien un élément
neutre pour (GX , ∗).
(G3) Soit φ ∈ GX . Notons ψ l’application de X dans G qui à x associe
φ(x)−1 . Alors on a pour tout x ∈ X

(φ ∗ ψ)(x) = φ(x).ψ(x) = φ(x).φ(x)−1 = 1G = e(x),

c’est-à-dire φ ∗ ψ = e. De même ψ ∗ φ = e. L’application φ admet donc


un inverse.


Exemple 4.4 Soit X un ensemble, alors (F(X, R), +) est un groupe.


Si X est réduit à un élément, alors GX est canoniquement isomorphe
à G. Si X = {1, . . . , n} alors GX est canoniquement isomorphe à Gn =
G × G × · · · × G.
Soit E et F des espaces vectoriels, alors L(E, F ) est un sous-groupe de
E
F .
(C(R, R), +) est un sous-groupe de RR .

4.3 Groupes d’automorphismes


Proposition 4.5
Soit G un groupe. On considère l’ensemble des automorphismes Aut(G)
(donc des isomorphismes de groupes G → G) muni de la loi de composi-
tion. Alors (Aut(G), ◦) est un groupe.

Démonstration : Il est plus simple de montrer que c’est un sous-groupe de


Bij(G). Pour cela, on doit vérifier que l’inverse d’un isomorphisme de groupe
est un isomorphisme de groupes, et que la composition de deux isomor-
phismes de groupe est un isomorphismes de groupes, ce qui est aussi déjà
fait. 

Rappelons que si x ∈ G, on peut définir la conjugaison par x qui est un


automorphisme de G dans G. Un tel automorphisme est appelé un automor-
phisme intérieur. On peut alors vérifier que Inn(G) est un sous-groupe de
Aut(G).
Chapitre II

Groupes quotients, cas abélien

1 Relations d’équivalence
1.1 Définition
Définition 1.1 Soit E un ensemble. Une relation R sur E est la donnée
d’un sous-ensemble de PR ⊂ E ×E. On notera xRy pour tout couple (x, y) ∈
PR , et on dira que x est en relation avec y.

Définition 1.2 Soit E un ensemble. Un relation R sur E est appelée relation d’équivalence
si elle vérifie les propriétés suivantes :
1. R est réflexive , c’est-à-dire xRx pour tout x ∈ E ;
2. R est symétrique , c’est-à-dire xRy si et seulement si yRx ;
3. R est transitive , c’est -à-dire si xRy et yRz alors xRz.

Exemple 1.3 — L’égalité est une relation d’équivalence correspondant


au sous-ensemble {(s, s) | s ∈ E} ⊂ E × E.
— Soit E = Z × N∗ . La relation (p, q)R(p0 , q 0 ) si et seulement si pq 0 = p0 q
est une relation d’équivalence.
— Soit E = Z et p ∈ Z. La relation définie par mRn si et seulement
si m − n est divisible par p est une relation d’équivalence. On note
m = n mod p ou m = n [p].
— Soit f : E → E 0 une application d’ensembles. Alors on définit x ∼ y
si et seulement si f (x) = f (y). C’est une relation d’équivalence. Les
3 exemples ci-dessus sont de cette forme. Dans le premier f = IdE .
Dans le deuxiéme E 0 = Q et f (p, q) = pq et dans le troisiéme, E 0 =
{0, 1, . . . , p − 1} et f est l’application qui à un entier n associe le reste
de la division euclidienne de n par p. on verra ensuite que toutes les
relations d’équivalence sont de cette forme.

27
1.2 Classes d’équivalence
Définition 1.4 Soit R une relation d’équivalence sur E. Soit x ∈ E, la
classe d’équivalence de x est le sous-ensemble {y ∈ E | xRy} souvent noté
Cx ou x.
Tous les éléments de Cx sont appelés représentants de la classe de x.

Exemple 1.5 — Pour l’égalité, on a x = {x} pour tout x ∈ E.


0
— (p, q) = {(p0 , q 0 ) ∈ Z × N∗ | pq = pq0 }
— m = {n ∈ Z | m − n ∈ pZ} = {m + kp k ∈ Z} = m + pZ.
Si p = 2 alors C0 = 2Z = P l’ensemble des nombres pairs, et on a

C0 = C2 = C4 = C−2 = . . . = C2k pour tout k ∈ Z

De plus C1 = 1 + 2Z = I est l’ensemble des nombres d’impairs, et on a

C1 = C2k+1 pour tout k ∈ Z

Lemme 1.6
Soit R un relation d’équivalence sur E. Alors pour tout x ∈ E on a
x ∈ Cx . De plus on a

xRy ⇔ y ∈ Cx ⇔ x ∈ Cy ⇔ Cx = Cy .

Théorème 1.7
Soit R une relation d’équivalence sur un ensemble E. Alors on a les
propriétés suivantes :
1. Pour tous x, y dans E, les classes Cx et Cy sont soit disjointes
(Cx ∩ Cy = ∅) soit égales.
2. L’ensemble E est l’union des classes d’équivalences pour la relation
R.
On dit que l’ensemble des classes d’équivalence de R forme une partition
de E.

Démonstration :
1. Soient x, y ∈ E tels que Cx ∩ Cy 6= ∅. Alors il existe z ∈ Cx et z ∈ Cy ,
autrement dit, xRz et yRz. Par symétrie, zRy, et par transitivité xRy
donc Cx = Cy . S
2. On a x ∈ Cx pour tout x de E, donc E = x∈E Cx .

Exemple 1.8 Z = P ∪I. Pour p = 3, on a 3 classes d’équivalences distinctes


qui sont C0 , C1 et C2 et on a bien Z = C0 ∪ C1 ∪ C2 .

2 Quotient par une relation d’équivalence


2.1 Ensemble quotient
Définition 2.1 Soit E un ensemble et ∼ une relation d’équivalence sur E.
Le quotient de E par ∼ est l’ensemble des classes d’équivalence de E. Il est
noté E/ ∼.
L’application p : E → E/ ∼ qui à x associe Cx est appelée projection canonique
associée à ∼. Elle est surjective.

Exemple 2.2 — Pour l’égalité, on a E/ == {{x}, x ∈ E}, la projection


canonique est une bijection entre E et E/ =.
— On a Z × N∗ /R est en bijection avec Q. (exercice)
— Soit p ∈ Z et la relation définie précédemment. Alors on a Z/ ∼=
{C0 , C1 , . . . , Cp−1 }. Le cardinal de Z/ ∼ est p.

2.2 Théorème de factorisation

Théorème 2.3
Soit E un ensemble muni d’une relation d’équivalence R, on note p :
E → E/R la projection canonique. Soit f : E → E 0 une application
d’ensemble. Alors on a les équivalences
1. il existe f¯ : E/R → E 0 telle que f = f¯ ◦ p ;
2. ∀x, y ∈ E, xRy ⇒ f (x) = f (y).
Dans ce cas, f¯ est unique.
Démonstration : Supposons que f = g ◦ p pour une certaine application
g : E/ ∼→ E 0 . Alors si x ∼ y, on a Cx = Cy donc p(x) = p(y). D’où
f (x) = g ◦ p(x) = g ◦ p(y) = f (y).
Récirpoquement, supposons que si x ∼ y alors f (x) = f (y). Soit C ∈
E/ ∼. Alors C = Cx pour un x ∈ E. On pose g(C) := f (x). Il faut vérifier
que c’est bien une application. En effet si C = Cy , alors Cx = Cy , donc x ∼ y,
donc par hypothése f (x) = f (y), la valeur g(C) est donc bien définie. 

Exercice 2.4 Soit f : E → F une application d’ensemble et soit R la


relation d’équivalence définie par xRy si et seulement si f (x) = f (y). Montrer
qu’il existe f : E/R → F telle que f = f ◦ p. Montrer que f est injective.

3 Equivalences dans les groupes


3.1 Classes à gauche
Définition 3.1 Soit G un groupe et H un sous-groupe de G. Alors on définit
la relation d’équivalence sur G

x ∼ y ⇔ x−1 y ∈ H.

Vérifions d’abord que c’est bien une relation d’équivalence. x−1 x = e ∈ H,


donc ∼ est réflexive. Ensuite si ∼ y alors x−1 y ∈ H. Comme H est un sous-
groupe, (x−1 y)−1 = y −1 x ∈ H, c’est-à-dire que y ∼ x, donc ∼ est symétrique.
Enfin si x ∼ y et y ∼ z, alors x−1 z = (x−1 y)(y −1 z) ∈ H car H est stable par
multiplication, donc ∼ est transitive.
On voit alors facilement que la classe d’un élément x pour cette relation
d’équivalence est donnée par x = xH. En effet,

y ∈ x ⇔ x−1 y ∈ H
⇔ ∃ h ∈ H tel que x−1 y = h
⇔ ∃ h ∈ H tel que y = xh
⇔ y ∈ xH.

On appelle les classes xH, les classes à gauche suivant H. On note G/H
l’ensemble quotient G/ ∼.
On peut aussi définir les classes à droite en prenant la relation d’équi-
valence x ∼ y ⇔ yx−1 ∈ H, l’ensemble quotient se note H\G.
3.2 Théorème de Lagrange

Théorème 3.2 (Lagrange)


Soit G un groupe fini et H un sous-groupe de G. L’ordre de H divise
l’ordre de G. Plus précisément on a ]H.](G/H) = ]G.

Démonstration : Par la section précédente, G est l’union disjointe des classes


à gauches. On va montrer le lemme suivant :

Lemme 3.3
Pour tout x ∈ G, on a |xH| = |H|.

On a l’égalité des cardinaux car la multiplication à gauche par x donne


un bijection de H dans xH ( la bijection réciproque est la multiplication à
gauche par x−1 .)
Revenons maintenant au théorème. Toutes les classes à gauche ont le
même cardinal ]H par le lemme. De plus le nombre de classe à gauche est
exactement ](G/H). Donc on a bien ]H.](G/H) = ]G. 

On notera [G : H] le cardinal de G/H, c’est l’indice de H dans G. Notons


qu’il peut être fini même si G et H ne sont pas fini, par exemple G = Z et
H = nZ.

Corollaire 3.4
Soit x un élément d’ordre n dans un groupe fini G. Alors n divise l’ordre
de G.
Si en particulier l’ordre de G est fini égal à m alors pour tout x dans
G on a xm = 1.

Démonstration : On a vu dans Proposition 3.15 que dans ce cas l’ordre de


hxi est n. Donc on a le résultat par le théoréme précédent. 
Corollaire 3.5
Soit G 6= {e} un groupe fini d’ordre p avec p premier. Alors G est cyclique
et tout x 6= e engendre G.
En particulier, tout groupe fini d’ordre p avec p premier est abélien.

Démonstration : Soit x un élément de G. Alors comme G est fini, hxi est


aussi fini, donc x est d’ordre fini q par Proposition 3.15. Cet ordre q divise p
qui est premier, donc on a q = 1 ou q = p. Si q = 1 alors x = x1 = e. Sinon,
x 6= e, et hxi est un sous-groupe de G d’ordre p. Donc on a hxi = G qui est
cyclique. 

4 Quotients de groupes abéliens


Dans toute cette section, les groupes sont abéliens. On notera
donc + pour la loi et 0G pour le neutre.

4.1 Construction d’une loi sur le quotient


Soit (G, +) un groupe abélien et H un sous-groupe. On va définir une loi
sur l’ensemble des classes à gauches G/H par

∀x, y ∈ G x + y := x + y.

Vérifions tout d’abord que cette loi est bien définie, en effet il faut vérifier
que si on prend d’autres représentants de la classe x et de la classe y, on
obtient bien la même classe x + y. Soit x0 un autre représentant de x et y 0 un
autre représentant de y. Alors par définition on a x − x0 ∈ H et y − y 0 ∈ H.
On veut vérifier que x0 + y 0 = x + y, c’est-à-dire que (x + y) − (x0 + y 0 ) ∈ H.
C’est vrai car par commutativité de la loi + de G on a

(x + y) − (x0 + y 0 ) = (x − x0 ) + (y − y 0 ) ∈ H
| {z } | {z }
∈H ∈H

La loi + est donc bien définie sur G/H.


Maintenant on a

(x + y) + z = x + y + z
= (x + y) + z
= x + (y + z)
= x + y + z = (x + y) + z

Donc la loi est bien associative.


La loi est aussi commutative car x + y = x + y = y + x = y + x.
L’élément neutre est 0G . En effet x + 0G = x + 0G = x.
L’inverse est donné par −x = −x car x + −x = x − x = 0G .
Finalement, on a démontré le théorème suivant.

Théorème 4.1
Soit (G, +) un groupe abélien, et H un sous-groupe de G. Alors (G/H, +)
est un groupe abélien.

Remarque 4.2 Notons qu’ici comme le groupe est abélien, on a x + H =


H + x c’est-à-dire que les classes à gauche sont égales aux classes à droites.
Si G n’est pas abélien, il est aussi possible de définir une loi de groupe
sur G/H pour des sous-groupes H tels que les classes à gauche sont égales
aux classes à droite.

Exemple 4.3 Soit n ∈ N∗ . Alors Z/nZ = {0, 1, . . . , n − 1} a un structure


de groupe. Il est commutatif et cyclique (engendré par 1).

4.2 Théorème de factorisation


Notons tout d’abord une propriété pour la projection.

Proposition 4.4
Soit G un groupe abélien et H un sous-groupe, alors p : G → G/H la
projection canonique est un morphisme de groupes.
Démonstration : Par définition on a p(x + y) = x + y = x + y = p(x) + p(y),
donc p est un morphisme de groupe. 

On a alors un analogue du Théorème 2.3.

Théorème 4.5
Soit G un groupe abélien et H un sous-groupe, on note p : G → G/H
la projection canonique sur les classes à gauche. Soit f : G → G0 un
morphisme de groupe. Alors on a les équivalences
1. il existe f¯ : G/H → G0 telle que f = f¯ ◦ p ;
2. H ⊂ Kerf .
De plus l’application f¯ est un morphisme de groupes qui est injectif
si et seulement si H = Kerf .

Démonstration :
Supposons qu’il existe un morphisme g : G/H → G0 tel que f = g ◦ p.
Soit x ∈ H, alors x = 0G . Donc on a f (x) = g ◦ p(x) = g(x) = g(0G ) = eG0
car g est un morphisme de groupe. D’où x ∈ Kerf .
Supposons maintenant que H ⊂ Kerf . Si x − y ∈ H alors x − y ∈ Kerf ,
c’est-à-dire f (x − y) = eG0 . Comme f est un morphisme, f (x).f (y)−1 = eG0 ,
donc f (x) = f (y). Alors par le lemme de factorisation (Lemme ??), il existe
g : G/H → G0 tel que p ◦ g = f . Il faut vérifier que g est un morphisme de
groupe. Soient x, y ∈ G/H. Alors

g(x + y) = g(p(x) + p(y))


= g ◦ p(x + y) car p est un morphisme
= f (x + y)
= f (x).f (y) car f est un morphisme
= g(p(x)).g(p(y))
= g(x)g(y)

Donc g est un morphisme. 


Corollaire 4.6
Soit G un groupe abélien et f : G → G0 un morphisme de groupes. Alors
on a un isomorphisme G/Kerf ' Im f .

Notons que même si G0 n’est pas abélien, Im f est toujours abélien si G


l’est.

5 Les groupes cycliques


5.1 Groupes monogènes

Théorème 5.1
1. Tout groupe monogène infini est isomorphe à Z
2. Tout groupe cyclique d’ordre n > 1 est isomorphe à Z/nZ.

Démonstration :
1. Soit G = hxi un groupe monogène infini. Notons φ : Z → G l’appli-
cation qui à n associe xn . C’est un morphisme de groupe car xm+n =
xm xn . Il est surjectif car x engendre G. Montrons qu’il est injectif. Sup-
posons qu’on ait xn = xm avec n > m, alors xn−m = 1, et donc x est
d’ordre fini, mais alors hxi est d’ordre fini ce qui est un contradiction.
2. Supposons que G = hxi ait cardinal n.
On va montrer que l’applicationφ : Z → G telle que φ(k) = xk se
factorise en un isomorphisme de groupe Z/nZ → G en utilisant le
théorème de factorisation.
On sait que x est d’ordre n par Prop 3.15 donc nZ ⊂ Kerf . Maintenant
si xm = 1 alors n divise n (cf Prop 3.15), et donc Kerf = nZ. Comme
f est surjective, on peut donc appliquer le corollaire précédent et on
obtient G ' Z/nZ.

Corollaire 5.2
Si G est un groupe de cardinal p avec p premier, alors G est isomorphe à
Z/pZ.

Démonstration : Soit x 6= 1 élément de G. Son ordre est 6= 1 et divise p c’est


donc p. On a donc hxi = G et on conclut par le théorème précédent. 

5.2 Générateurs

Proposition 5.3
Soit n ∈ N∗ . Alors x ∈ Z/nZ est un générateur si et seulement x ∧ n = 1.

Démonstration : Supposons x ∧ n = 1. Et notons q l’ordre de x. Alors q divise


n par Proposition 3.15 (3.). On a qx = 0, c’est-à-dire n divise qx. Comme n
est premier avec x, n divise q. Donc n = q.
Réciproquement supposons x ∧ n = p > 1. Alors n = pq avec q < n et
x = pq 0 . Donc on a
qx = qpq 0 = nq 0 = 0 modn.
L’ordre de x divise donc q < n, donc l’ordre de x est strictement inférieur à
n. 

Exemple 5.4 Les générateurs de Z/10Z sont 1, 3, 7 et 9. L’ordre de 6 dans


Z/10Z par exemple est 5, ce n’est donc pas un générateur.

5.3 Produits de groupes cycliques

Théorème 5.5
Soient m, n ∈ N∗ . Alors le groupe Z/mZ × Z/nZ est cyclique si et seule-
ment si m ∧ n = 1. Dans ce cas Z/mZ × Z/nZ ∼ = Z/mnZ.
Démonstration : Commençons par démontrer le lemme suivant.

Lemme 5.6
L’ordre de (x, y) ∈ Z/mZ × Z/nZ est le ppcm de l’ordre de x ∈ Z/mZ
et de l’ordre de y ∈ Z/nZ.

Démonstration : Notons p = ord(x), q = ord(y) et r = ord(x, y). Alors


r(x, y) = (rx, ry) = (0, 0), donc p et q divisent r. Donc le ppcm de p et q
divise r.
Maintenant si t = ppcm(p, q) alors p et q divisent tous les deux t = pp0 =
qq 0 , on a donc

t(x, y) = (tx, ty) = (p0 px, q 0 qy) = (p0 px, q 0 qy)(0, 0).

Donc r divise t. 
Notons d’abord que Z/mZ×Z/nZ est un groupe fini d’ordre mn. Donc s’il est
cyclique il est forcément isomorphe à Z/mnZ par la proposition précédente.
Supposons que m ∧ n = 1. Alors par le lemme, l’ordre de (1, 1) est le
ppcm de l’ordre de 1 ∈ Z/mZ et de l’ordre de 1 ∈ Z/nZ, c’est-à-dire m ∨ n.
Comme m ∧ n = 1, alors m ∨ n = mn. Donc Z/mZ × Z/nZ a un élément
d’ordre mn, comme son ordre est mn, cet élément est générateur.
Réciproquement soit (x, y) ∈ Z/mZ × Z/nZ un générateur. On a alors
mn = p ∨ q avec p = ord(x) et q = ord(y). Comme de plus p|m et q|n, on a
forcément p = m et q = n. Alors mn = m ∨ n si et seulement si m ∧ n = 1.


Notons que si n ∧ m = 1, par le lemme précédent, (x, y) est générateur si


et seulement si x et y le sont (respectivement dans Z/nZ et dans Z/mZ. Il
y a donc plusieurs isomorphismes entre Z/mZ × Z/nZ et Z/mnZ.
Si on prend n = 2 et m = 3, on peut par exemple envoyer (1, 1) sur
1 ∈ Z/6Z, mais aussi envoyer (1, 1) sur 5.
Chapitre III

Le groupe symétrique

1 Permutations
1.1 Définition et notations
Définition 1.1 Soit E un ensemble fini. On appelle permutation de E, une
bijection de E dans E. On note SE ou SE l’ensemble des permutations de
E.
Si E = {1, . . . , n}, on note Sn son ensemble des permutations.

Théorème 1.2
Soit E un ensemble fini de cardinal n > 1. L’ensemble SE muni de la loi
◦ de composition est un groupe fini de cardinal n!.
Si de plus F est un ensemble de cardinal n, alors toute bijection de E
dans F induit un isomorphisme de groupes SE → SF .

Démonstration : On a déjà vu que SE a une structure de groupe. Si E =


{e1 , . . . , en }, la donnée de σ ∈ SE équivaut à la donnée de (σ(e1 ), . . . , σ(en )).
On a n possibilités pour σ(e1 ), mais seulement n − 1 pour σ(e2 ) car σ est
une bijection, etc... donc le cardinal est bien n!.
Soit ϕ : E → F une bijection. Alors on définit Φ : SE → SF par
Φ(σ) = ϕ ◦ σ ◦ ϕ−1 . On vérifie facilement que c’est un isomorphisme de
groupes. 
Le but de ce chapitre est de comprendre le groupe Sn , qu’on appelle aussi
le groupe symétrique , et on notera E = {1, . . . , n}.

39
Notation : Pour σ ∈ Sn , on notera
 
1 2 ··· n
.
σ(1) σ(2) · · · σ(n)
     
1 2 3 4 1 2 3 4 1 2 3 4
Par exemple ◦ =
3 1 2 4 4 2 3 1 4 1 2 3
 −1  
1 2 3 4 1 2 3 4
et =
3 1 4 2 2 4 1 3

1.2 Support d’une permutation


Définition 1.3 Soit σ ∈ Sn . On définit Supp(σ) := {a ∈ E| σ(a) 6= a}.
C’est le support de σ. Les éléments a ∈ E tel que σ(a) = a sont appelés les
points fixes de σ.

Proposition 1.4
Soit σ ∈ Sn . Alors on a les propriétés suivantes :
1. Supp(σ) = ∅ ⇔ σ = IdE ;
2. Supp(σ −1 ) = Supp(σ)
3. σ(Supp(σ)) = Supp(σ)
4. Supp(σ n ) ⊂ Supp(σ) ∀n ∈ Z
5. Supp(σ◦σ 0 ) ⊂ Supp(σ)∪Supp(σ 0 ) et si Supp(σ)∩Supp(σ 0 ) = ∅ alors
on a égalité. On dit alors que σ et σ 0 sont à supports disjoints .

Démonstration :
1. clair
2. On a
a∈
/ Supp(σ) ⇔ σ(a) = a
⇔ a = σ −1 (a)
⇔ a∈/ Supp(σ −1 )
3. Soit b ∈ σ(Supp(σ)), alors b = σ(a) avec σ(a) 6= a. Comme σ est
injective, on a donc σ 2 (a) 6= σ(a), c’est à dire σ(b) 6= b. Et on a
σ(Supp(σ)) ⊂ Supp(σ).
De la même façon, on a donc σ −1 (Supp(σ −1 )) ⊂ Supp(σ −1 ). En appli-
quant σ de chaque côté on obtient Supp(σ −1 ) ⊂ σ(Supp(σ −1 )), et en
appliquant le point 2., on obtient Supp(σ) ⊂ σ(Supp(σ)).
4. Soit b ∈ / Supp(σ), alors σ(b) = b, et donc σ n (b) = b autrement dit
b∈ / Supp(σ n ).
5. Soit a ∈/ Supp(σ) ∪ Supp(σ 0 ), cela signifie a ∈
/ Supp(σ) et a ∈ / Supp(σ 0 ),
donc σ(a) = a et σ 0 (a) = a. Donc σ ◦ σ 0 (a) = σ(a) = a et donc
a∈ / Supp(σ ◦ σ 0 ).
Supposons maintenant que Supp(σ) ∩ Supp(σ 0 ) = ∅. Soit a ∈ / Supp(σ ◦
0 0 0 0
σ ), alors σ ◦ σ (a) = a. Supposons a ∈ Supp(σ ), alors σ (a) = b 6= a, et
donc σ(σ 0 (a)) = σ(b) = a 6= b donc a ∈ Supp(σ). Ce qui est impossible
car Supp(σ) ∩ Supp(σ 0 ) = ∅. On a donc a ∈ / Supp(σ 0 ), autrement dit
σ 0 (a) = a. Et comme σ 0 (σ(a)) = a, on obtient σ(a) = a, c’est-à-dire
a∈ / Supp(σ).


Lemme 1.5
Deux permutations à supports disjoints commutent.

Démonstration : Soient σ et σ 0 deux telles permutations.


Soit a ∈ E. Si a n’est ni dans le support de σ, ni dans celui de σ 0 , alors
on a σ ◦ σ 0 (a) = σ(a) = a et σ 0 ◦ σ(a) = σ 0 (a) = a.
Soit a ∈ Supp(σ), alors par hypothèse, a ∈ / Supp(σ 0 ). On a donc σ◦σ 0 (a) =
σ(a). De plus par le point 3. précédent, on a que σ(a) ∈ Supp(σ), et donc
σ(a) est fixé par σ 0 . On a donc σ 0 (σ(a)) = σ(a).
De même si a ∈ / Supp(σ 0 ). Donc on a bien pour tout a dans E, σ 0 ◦ σ(a) =
0
σ ◦ σ (a).


1.3 Orbites
Définition 1.6 Soit σ ∈ Sn et a ∈ E. On définit l’orbite de a sous l’action
de σ comme le sous-ensemble

Oσ (a) := {a, σ(a), σ 2 (a), . . .} ⊂ E.

Remarquons que a est un point fixe de σ si et seulement si Oσ (a) = {a}.


Lemme 1.7
On a Oσ (a) = {σ m (a), m ∈ Z}. Et si le cardinal de Oσ (a) est p, alors p
est le plus petit entier tel que σ p (a) = a et on a

Oσ (a) := {a, σ(a), σ 2 (a), . . . , σ p−1 (a)}.

Démonstration : Notons tout d’abord que σ est d’ordre fini puisqu’élément


d’un groupe fini. Donc il existe m tel que σ m (a) = a. Notons p le plus petit
entier > 0 vérifiant σ p (a) = a.
On va montrer l’inclusion

{σ m (a), m ∈ Z} ⊂ {a, σ(a), σ 2 (a), . . . , σ p (a)},

et que les éléments de l’ensemble de droite sont tous distincts, ce qui montrera
toutes les égalités.
Soit n ∈ Z, et soit n = pq +r la division euclidienne de n par p. On a alors
σ n (a) = σ r (a) donc on a l’inclusion demandée. De plus si 0 6 j 6 k 6 p − 1
sont tels que σ j (a) = σ k (a), alors σ k−j (a) = a. Par minimalité de p, on en
déduit j − k = 0, et donc les p éléments de l’ensemble de droite sont 2 à 2
distincts.


 
1 2 3 4 5 6
Exemple 1.8 Prenons la permutation σ = . Alors on a
3 4 6 2 1 5
O(1) = {1, 3, 6, 5} = O(3) et O(2) = O(4) = {2, 4}.

Proposition 1.9
Soit σ ∈ Sn . L’ensemble des orbites sous l’action de σ forme une partition
de E.

Démonstration : On définit la relation ∼ sur E par a ∼ b ⇔ O(a) = O(b).


Il est immédiat de voir que c’est une relation d’équivalence. montrons que
la classe de a est exactement O(a). Si b ∼ a alors b ∈ O(b) = O(a) donc
Ca ⊂ O(a). Si b ∈ O(a) alors b = σ m (a) pour un certain entier m. Cela
implique que tout σ k (b) est aussi dans l’orbit de a donc O(b) ⊂ O(a). Par
ailleurs, a = σ −m (b) et donc O(a) ⊂ O(b).


2 Cycles et décompositions
2.1 Cycles
Définition 2.1 Un cycle est une permutation ayant une unique orbite non
triviale. On parle de m-cycle lorsque m est le cardinal de cette orbite non
triviale. Un 2-cycle est aussi appelé une transposition .

Notation : Si σ est un m-cycle, on notera σ = (a, σ(a), . . . , σ m−1 (a)), où


Oσ (a) est l’orbite non triviale.
 
1 2 3 4 5 6
Exemple 2.2 Par exemple est un 5-cycle. On le note
3 2 6 1 4 5
(13654).  
1 2 3 4 5 6
La permutation n’est pas un cycle, car il a deux
3 4 6 2 1 5
orbites non triviales O(1) = {1, 3, 6, 5} et O(2) = {2, 4}.

Proposition 2.3
Si σ est un m-cycle, alors σ est d’ordre m et hσi ' Z/mZ.

Démonstration : Soit Oσ (a) l’orbite non triviale. Alors on a vu par le lemme


précédent que m est le plu petit entier tel que σ m (a) = a. Montrons que
σ m (b) = b pour tout b ∈ E. Si b ∈ Oσ (a), alors b = σ k (a), et donc σ m (b) =
σ k+m (a) = σ k (a) = b. Si b ∈
/ Oσ (a), alors b est un point fixe, c’est-à-dire
σ(b) = b, donc σ (b) = b. On a donc bien σ m = Id. Par minimalité de m,
m

c’est bien l’ordre de σ. 


2.2 Théorème de décomposition

Théorème 2.4
Toute permutation s’écrit de manière unique comme produit de cycles à
supports disjoints.

Regardons d’abord sur un exemple comment on décompose une permu-


tation enproduit de cycles. 
1 2 3 4 5 6 7
On a = (1375)◦(26) = (26)◦(1375). On voit qu’il
3 6 7 4 1 2 5
faut prendre les cycles correspondants aux orbites non triviales de σ.
Démonstration : Soit σ un permutation. On va donc noter O1 , . . . , Op les or-
bites non triviales de σ. Puis on définit pour tout i = 1, . . . , p un permutation
ci par ci (x) = x si x ∈ / Oi et ci (x) = σ(x) si x ∈ Oi .
Notons tout d’abord que si x ∈ Oi , si et seulement si ci (x) ∈ Oi . Montrons
maintenant que ci est une permutation, il suffit de montrer que c’est injectif.
Si ci (x) = ci (y), alors si x ∈/ Oi , on a ci (x) = x = ci (y) n’est pas dans Oi ,
donc y n’est pas dans Oi . Et donc ci (y) = y et donc x = y. Si maintenant
x ∈ Oi , alors ci (x) = ci (y) est aussi dans Oi , et donc y ∈ Oi . On a donc
σ(x) = ci (x) = ci (y) = σ(y), donc x = y.
On va maintenant montrer que ci est un cycle dont le support est Oi .
Un récurrence immédiate montre que si x ∈ Oi , alors pour tout ` ∈ N,
c`i (x) = σ ` (x). Pour x ∈ Oi , on a donc Oci (x) = {x, σ(x), . . .} = Oσ (x) = Oi .
Comme ci fixe tous les éléments en dehors de Oi , ci n’a donc qu’une seule
orbite qui est Oi .
Comme les orbites Oi , les ci commutent.
Montrons maintenant que σ = c1 ◦ c2 · · · cp . Soit x ∈ E. Si x n’est dans
aucun des Oi , alors x est fixé par tous les ci , et on a donc c1 · · · cp (x) = x =
σ(x). Si x ∈ Oi , alors il n’est pas dans les autres Oj pour j 6= i. On a donc

c1 . . . cp (x) = ci ◦ c1 . . . ci−1 ci+1 . . . cp (x) = ci (x) = σ(x).

Montrons enfin l’unicité. Supposons que σ = c01 . . . c0q à support disjoints,


et notons Oi0 l’orbite non triviale de c0i . Alors par la proposition 1.4 5., on a
Supp(σ) = O10 ∪ . . . ∪ Oq0 , et l’union est disjointe. Montrons que chaque Oi0
est une orbite de σ. En effet si x ∈ Oi0 , alors x est un point fixe pour tous les
autres c0j , et donc σ(x) = c0i (x). Par un récurrence immédiate on a alors que
σ ` (x) = (c0i )` (x), et donc Oi0 = Oσ (x).


Exemple 2.5 On a (1243)(25617)(346) = (174256).

Proposition 2.6
Soit σ = c1 . . . cp la décomposition de σ en produit de cycles à supports
disjoints, alors

ord(σ) = ppcm(ord(c1 ), . . . , ord(cp )).

Démonstration : Soit q le ppcm des ordres des ci . Alors l’ordre de chqeu ci


divise q et donc cqi = IdE . On a donc σ q = (c1 . . . cp )q = cq1 . . . cqp = IdE .
Supposons maintenant que σ m = IdE , alors on a cm m
1 . . . cp = IdE . Le
support de cmi est inclus dans le support de ci , donc les supports des ci sont
m
m
disjoints. On a donc nécessairement ci = IdE pour tout i, et donc m divise
le ppcm de l’ordre des ci .


Exemple 2.7 On a (123)(25164) = (1643)(25) est d’ordre 4.

2.3 Générateurs de Sn

Théorème 2.8
Le groupe Sn est engendré par les transpositions.

Démonstration : Il suffit d’après le théorème pécédent de montrer que les


cycles sont des produits de transpositions. Or on vérifie facilement que (a1 . . . a` ) =
(a1 a2 )(a2 a3 ) . . . (a`−1 a` ). 
Théorème 2.9

Sn = h(i, i + 1), i = 1, . . . , n − 1i
= h(1i), i = 2, . . . , ni
= h(12), (12 . . . n)i.

Démonstration : On a (i, j) = (j − 1, j) . . . (i + 1, i + 2)(i, i + 1)(i + 1, i +


2) . . . (j − 1, j) ce qui suffit à démontrer la première égalité.
On a (i, j) = (1, i)(1, j)(1, i). Ce qui montre la seconde.
Enfin notons c = (12 . . . n), alors on a (i, i + 1) = ci−1 (12)ci−1 , ce qui
montre la dernière.


3 Signature et groupe alterné


3.1 Signature
Définition 3.1 Soit σ ∈ Sn . La signature de σ est (σ) = (1)n−m où m est
le nombre d’orbites de σ. On dit que σ est paire si (σ) = 1 et impaire is
(σ) = −1.

Exemple 3.2 — (IdE ) = (−1)n−n = 1.


— Si σ est un `-cycle, il a alors 1+n−` orbites. On a donc (σ) = (−1)`−1 .
En particulier la signature d’une transposition est −1.
— ((18)(27463)) = (−1)9−4 = −1

3.2 La signature comme morphisme de groupes

Lemme 3.3
Si σ ∈ Sn et τ est une permutation, alors on a (σ ◦ τ ) = −(σ).
Démonstration : Notons σ = c1 . . . cp la décomposition de σ en cycles à sup-
ports disjoints. On va montrer que le nombre d’orbites de σ ◦ τ est un de plus
ou un de moins que le nombre d’orbites de σ.
Notons τ = (ab). On va distinguer quatre cas selon que a, b appartiennent
aux orbites des ci .
Cas 1 : a et b n’appartiennent pas au support de σ.
Dans ce cas, c1 . . . cp τ est la décomposition en produit de cycles à supports
disjoints. Donc son nombre d’orbites est 1 de moins que celles de σ.
Cas 2 : a ∈ Supp(ci ) et b n’appartient pas au support de σ.
Notons ci = (a, a2 . . . , as ). La permutation τ commute avec tous les autres cj
et on a ci ◦ (ab) = (a, b, a2 , . . . , as ). Le nombre d’orbites a donc diminué de 1.
Cas 3 : a, b ∈ Supp(ci ).
Dans ce cas τ commute avec tous les cj sauf ci . Notons ci = (a1 , . . . , as ) avec
a1 = a et at = b. On a alors ci ◦ τ = (a1 , at+1 , at+2 , . . . , as )(a2 , a3 , . . . at ). Le
nombre d’orbites a donc augmenté de 1.
Cas 4 : a ∈ Supp(ci ) et b ∈ Supp(cj ) pour i 6= j.
Notons ci = (a, a2 , . . . , as ) et cj = (b, b2 , . . . , bq ). On a ci cj τ = (a, b2 , . . . , bq , b, a2 , . . . , as ).
Le nombre d’orbites a donc diminué de 1.


Corollaire 3.4
L’application  : Sn → {+1, −1} est un morphisme de groupes.

Démonstration : En effet le lemme précédent permet de montrer par un récur-


rence immédiate que si τ1 , . . . , τm sont des permutations, alors (τ1 . . . τm ) =
(−1)m . On voit alors immédiatement que c’est un morphisme de groupes. 

Théorème 3.5
La signature est l’unique morphisme de groupes Sn → C∗ non trivial.
Avant de montrer ce théorème, on doit d’abord montrer le lemme suivant :

Lemme 3.6
Soient τ et τ 0 deux transpositions, alors il existe σ ∈ Sn tel que σ ◦τ ◦σ =
τ 0.

Démonstration : Si τ = (i, j) et τ 0 = (k, `) tous distincts, alors on peut poser


σ = (ik)(j`).
Si τ = (ij) et τ 0 = (jk), alors on peut prendre σ = (ik).


Démonstration :(du théorème) Soit φ : Sn → C∗ un morphisme de groupes.


Soit τ une transposition. Comme τ 2 = IdE , on doit avoir φ(τ )2 = 1, autre-
ment dit φ(τ ) = ±1.
Si φ(τ ) = 1, alors d’après le lemme, pour toute autre transposition on
aura
φ(τ 0 ) = φ(σ ◦ τ ◦ σ −1 ) = φ(σ)φ(τ )φ(σ)−1 = φ(τ ) = 1.
Comme toute permutation est produit de transpositions, on aura donc φ(σ) =
1 pour tout σ.
Si maintenant φ(τ ) = −1, par le même argument, pour toute autre trans-
position on aura φ(τ 0 ) = −1. Et donc si σ est un produit de m transpositions,
on aura φ(σ) = (−1)m = (σ).


3.3 Le groupe An
Le noyau d’un morphisme de groupes étant un sous-groupe, il est donc
naturel d’introduire la définition suivante :
Définition 3.7 Le groupe alterné An est le noyau de la signature, c’est
donc un sous-groupe de Sn . Il contient toutes les permutations de signature
1.
Exemple 3.8 On a A2 = {IdE }.
On a A3 = {IdE , (123), (132)}. Il est abélien isomorphe à Z/3Z.
Le groupe A4 contient 12 éléments : l’identité, 3 doubles transpositions,
et 8 3-cycles. Il n’est pas abélien.
Proposition 3.9
n!
Le cardinal du groupe An est .
2

Démonstration : Par le théorème de factorisation, la signature  : Sn →


{+1, −1} se factorise en une application Sn /An → {+1, −1}. Cette applica-
tion est clairement surjective, et elle est injective. On a donc ](Sn /An ) = 2.
On conclut par le théorème de Lagrange.


Théorème 3.10
Le groupe alterné est engendré par les 3-cycles.

Démonstration : Les éléments du groupe alterné sont des produits d’un


nombre paire de transpositions. Il suffit de démontrer que le produit de deux
transpositions est toujours un produit de 3-cycles. Or on a (ij)(jk) = (ijk)
et (ij)(k`) = (ijk)(jk`). 

3.4 Formule explicite

Théorème 3.11
Soit σ ∈ Sn . Alors on a la formule
Y σ(j) − σ(i)
(σ) = .
16i<j6n
j − i

Démonstration : Notons f : Sn → C∗ la fonction donnée par cette formule.


On va montrer que f est un morphisme de groupes non trivial.
Q que f est à valeurs
Notons tout d’abord Q +1 ou −1. En effet comme σ est
une bijection, on a i<j |σ(j) − σ(i)| = i<j (j − i).
Q τ = (k, k + 1). Pour montrer que f (τ ) = −1, il suffit donc de montrer
Soit
que i<j τ (j) − τ (i) est négatif.
Si i < k alors τ (j) − τ (i) = τ (j) − i est positif. Si j > k + 1, alors
τ (j) − τ (i) = j − τ (i) est aussi toujours positif. Il reste donc le cas où i = k
et j = k + 1, dans ce cas τ (j) − τ (i) = k − (k + 1) = −1. Donc finalement,
le produit est négatif, et f (τ ) = −1.
On va maintenant montrer que f est un morphisme de groupes. On a
Y σ1 σ2 (j) − σ1 σ2 (i)
f (σ1 ◦ σ2 ) =
i<j
j−i
Y σ1 σ2 (j) − σ1 σ2 (i) σ2 (j) − σ2 (i)
= .
i<j
σ2 (j) − σ2 (i) j−i
Y σ1 σ2 (j) − σ1 σ2 (i) Y σ2 (j) − σ2 (i)
=
i<j
σ2 (j) − σ2 (i) i<j
j−i
Y σ1 σ2 (j) − σ1 σ2 (i)
= f (σ2 )
i<j
σ2 (j) − σ2 (i)

Par ailleurs on a
Y σ1 σ2 (j) − σ1 σ2 (i) Y σ1 σ2 (j) − σ1 σ2 (i) Y σ1 σ2 (j) − σ1 σ2 (i)
A= =
i<j
σ2 (j) − σ2 (i) σ2 (j) − σ2 (i) σ2 (j) − σ2 (i)
i<j,σ2 (i)<σ2 (j) i<j,σ2 (i)>σ2 (j)

En effectuant le changement de variables k = σ2 (i) et ` = σ2 (j) dans le


premier terme et k = σ2 (j), ` = σ2 (k) dans le deuxième, on obtient
Y σ1 (`) − σ1 (k) Y σ1 (k) − σ1 (`)
A =
`−k `−k
σ2−1 (k)<σ2−1 (`),k<` σ1−1 (`)<σ1−1 (k),k<`
Y σ1 (`) − σ1 (k)
=
k<`
`−k
= f (σ1 ).

On obtient donc bien f (σ1 ◦ σ2 ) = f (σ1 )f (σ2 ).



Chapitre IV

Le groupe orthogonal

1 Espaces euclidiens
On commence ici par quelques rappels sur les espaces euclidiens. Dans
tout ce chapitre E désignera un R-espace vectoriel de dimension n.

1.1 Produit scalaire et isométries


Définition 1.1 Un produit scalaire sur E est une application bilinéaire
h., .i : E × E → R qui est
— symétrique , i.e. ∀x, y ∈ E, hx, yi = hy, xi ;
— définie positive , i.e. ∀x 6= 0, hx, xi > 0.
On dit alors que (E, h., .i) est un espace euclidien .

Définition 1.2 Un isométrie vectorielle f est un endomorphisme de E tel


que
∀x, y ∈ E hf (x), f (y)i = hx, yi.

Le proposition suivante est facile à vérifier

Proposition 1.3
L’ensemble des isométries vectorielles de E est un sous-groupe de GL(E).

On appelle groupe orthogonal le groupe des isométries vectorielles, et on


le note O(E).

51
1.2 Le groupe On (R)
Définition 1.4 Une base (e1 , . . . , en ) de E est dite orthonormale si hei , ei i =
1 pour tout i et si hei , ej i = 0 pour i 6= j.

Une telle base existe toujours dans E (on peut par exemple en construire
une en utilisant l’algoritme de Gram-Schmidt).

Proposition 1.5
Soit f ∈ L(E, E) et B une base orthonormale de E. Alors on a les équi-
valences
f ∈ O(E) ⇔ M = Mat(f, B) vérifie M T .M = In
⇔ f (B) est une base orthonormale

On notera On (R) := {M ∈ GLn (R)|M T .M = In }. Une conséquence de la


proposition ci-dessus est que chaque choix de base orthonormale induit un
isomorphisme de groupes entre O(E) et On (R).
On note SO(E) (ou O+ (E)) l’intersection Ker det ∩O(E) et SOn (R) =
O+ (R) = Ker det ∩On (R). C’est le groupe spécial orthogonal , ou le groupe
des isométries directes .

1.3 Symétries
Définition 1.6 Soit F un sous-espace vectoriel de E. On note F ⊥ := {x ∈
E| ∀y ∈ F hx, yi = 0} son orthogonal . C’est clairement un sous-espace
vectoriel de E.

On a de plus la proposition suivante

Proposition 1.7
Soit F un sous-espace de E, alors on a F ⊕ F ⊥ = E.

Ce résultat peut par exemple se démontrer en prenant une base de F


qu’on complète en une base de E, et à qui on applique l’algorithme de Gram-
Schmidt. On obtient alors une base orthonormale dont la première partie
engendre F , et dont la deuxième partie est dans F ⊥ . Le fait que F ∩F ⊥ = {0}
provient du fait que le produit scalaire est défini positif.
Définition 1.8 Soit F un sous-espace vectoriel de E. La symétrie orthogonale
sF par rapport à F est la symétrie par rapport à F parallélement à F ⊥ .
Pour x ∈ E, si x = x1 + x2 avec x1 ∈ F et x2 ∈ F ⊥ , alors sF (x) = x1 − x2 .

On vérifie facilement que sF est une isométrie. Par ailleurs, dans une base
orthonormale adaptée à la décomposition F ⊕ F ⊥ la matrice de sF est de la
forme  
Im 0
Mat(f, B) = , où m = dim F.
0 −In−m
On a par ailleurs la caractérisation suivante des symétries orthogonales.

Proposition 1.9
Soit u ∈ O(E). Alors u est une symétrie orthogonale si et seulement si
u2 = IdE .

Démonstration : Il est clair qu’une symétrie orthogonale vérifie u2 = IdE .


Supposons donc que u2 = IdE . Notons F := Ker(u − IdE ) et G := Ker(u +
IdE ).
Il est facile de voir que F et G sont en somme directe (ce sont des sous-
espaces propres associés à des valeurs propres distinctes). Et par ailleurs on
peut écrire
1 1
x = (x + u(x)) + (x − u(x)),
2 2
et on vérifie x + u(x) ∈ F et x − u(x) ∈ G. On a donc F ⊕ G = E. De plus
si x ∈ F et y ∈ G, on a

hx, yi = hu(x), u(y)i = hx, −yi = −hx, yi

donc hx, yi = 0 et donc G ⊂ F ⊥ . Par égalité des dimensions, on obtient donc


G = F ⊥ . Comme on a
1 1
u(x) = (x + u(x)) − (x − u(x)),
2 2
on obtient donc que u est la symétrie orthogonale par rapport à F .

Proposition 1.10
Soit F un sous-espace de E, et u un isométrie de E. Alors on a

u ◦ sF ◦ u−1 = su(F ) .

Démonstration : On va montrer que u ◦ sF ◦ u−1 agit comme l’identité sur


u(F ) et comme mois l’identité sur u(F )⊥ .
Soit x ∈ u(F ), et notons x = u(y), y ∈ F . Alors on a u ◦ sF ◦ u−1 (x) =
u ◦ sF (y) = u(y) = x car y ∈ F .
Montrons maitenant que u(F )⊥ = u(F ⊥ ). En effet on a les équivalences

x ∈ (u(F ))⊥ ⇔ ∀y ∈ F hu(y), xi = 0


⇔ ∀y ∈ F hy, u−1 (x)i = 0
⇔ u−1 (x) ∈ F ⊥
⇔ x ∈ u(F ⊥ )

Donc si x ∈ (u(F ))⊥ , on a x = u(y) avec y ∈ F ⊥ . Et donc u ◦ sF ◦ u−1 (x) =


u ◦ sF (y) = u(−y) = −x.
On a donc démontré que u ◦ sF ◦ u−1 = sF . 

2 Quelques propriétés du groupe orthogonal


2.1 Quelques propriétés

Proposition 2.1
Si dimR E > 2, le centre de O(E) est {±IdE }.

Démonstration : Une inclusion est évidente. Supposons maintenant que u


soit dans le centre, alors pour toute droite vectorielle D, u commute avec sD
et donc on a u ◦ sD ◦ u−1 = sD . Par la proprositon précédente, on obtient
sD = su(D) donc u(D) = D. Ceci implique que tout vecteur non nul de E
est un vecteur propre de u. L’application u est donc une homothétie, et les
seules homothéties de O(E) sont celles de rapport +1 ou −1. 
Le groupe O(E) est bien entendu infini, mais il contient des sous-groupes
finis. Par exemple cette propriété fait le lien avec le chapitre précédent.

Proposition 2.2
Il existe un morphisme de groupes injectif Φ : Sn → O(E), tel que
det ◦Φ =  (la signature).

Démonstration : Notons B = (e1 , . . . , en ) une base orthonormale de E. Soit


σ ∈ Sn , on définit Φσ comme l’endomorphisme envoyant ei sur eσ(i) . C’est
bien une isométrie puisque qu’il envoie la base B sur B (en permutant son
ordre). On a de plus
Φσ ◦ Φσ0 (ei ) = Φσ (eσ0 (i) ) = eσ◦σ0 (i) = Φσ◦σ0 (ei )
pour tout i, donc Φ est bien un morphisme de groupes.
De plus, si τ est la transposition (12), alors la matrice de Φt au dans la
base B a la forme
 
0 1
1 0 0 
 
Mat(Φτ , B) = 
 1 .

 . . 
 0 . 
1
Et donc on vérifie aisément que det Φt au = −1. Comme det ◦Φ est un mor-
phisme de groupes Sn → {±1}, on en déduit que det ◦Φ = .


2.2 Générateurs
Définition 2.3 Une réflexion est une symétrie orthogonale par rapport à
un hyperplan H.
Dans une base orthonormale B adaptée à la décomposition H ⊕ H ⊥ , on
a donc  
In−1 0
Mat(sH , B) = .
0 −1
Le résultat suivant nous donne un système de générateur pour le groupe
orthogonal.

Théorème 2.4
Le groupe orthogonal est engendré par les réflexions.

Avant de démontrer ce théorème, notons l’analogie avec les groupe sy-


métrique. En effet, notons Φ(12) l’isométrie échangeant les vecteurs e1 et e2 .
Alors la base ( e1√+e2 2 , e1√−e2 2 , e3 , . . . , en ) est encore orthonormale, et dans cette
base, la matrice de Φ(12) est la matrice d’une réflexion. De même chaque Φ(ij)
est une réflexion. On peut donc voir ce théorème comme un analogue du fait
que les transpositions engendrent le groupe symétrique.
Démonstration : On va démontrer par récurrence sur p que si u ∈ O(E) avec
p = n − Ker(u − IdE ) alors u peut s’écrire comme un produit d’au plus p
réflexions.
Pour p = 0, on a n = dim Ker(u − IdE ) et donc u = IdE et l’assertion est
vraie.
Supposons donc l’assertion vraie pour tout i 6 p ∈ N, p > 0.
Soit u notons Fu = Ker(u − IdE ) et supposons dim Fu = n − (p + 1),
autrement dit supposons que dim Fu⊥ = p + 1. On va construire une réflexion
s telle que u ◦ s vérifie Fu est strictement inclus dans Fu◦s . On pourra alors
appliquer l’hypothèse de récurrence à l’isométrie u ◦ s, et on aura le résultat.
Soit x ∈ Fu⊥ non nul (il existe car p + 1 > 1), et posons y = u(x). Notons
d’abord que y 6= x car x ∈ / Fu . Ensuite si z ∈ Fu (donc u(z) = z), alors on a

hz, yi = hu(z), u(x)i = hz, xi = 0,

ce qui montre que y ∈ Fu⊥ .


Notons H = vect(y − x)⊥ . C’est bien un hyperplan car y 6= x. De plus,
comme H ⊥ = vect(y − x) ⊂ Fu⊥ , on a Fu ⊂ H. On veut vérifier que
vect(Fu , y) ⊂ Fu◦sH et donc que u ◦ sH satisfait l’hypothèse de récurrence
(en effet y n’est pas dans Fu , donc le sous-espace vect(Fu , y) est strictement
plus grand que Fu ).
Si z ∈ Fu , alors z ∈ H donc on a u ◦ sH (z) = u(z) = z. Donc F ⊂
Ker(u ◦ sH − IdE ) = Fu◦sH .
Par ailleurs on a

hx + y, x − yi = hx, xi − hy, yi = hx, xi − hu(x), u(x)i = 0,


x+y y−x
donc x + y ∈ vect(y − x)⊥ = H. Alors y = 2
+ 2
est la décomposition
de y selon H ⊥ ⊕ H. On obtient alors que

x+y y−x
sh (y) = − = x.
2 2
Finalement on obtient u ◦ sh (y) = u(x) = y, donc y ∈ Fu◦sH et

vect(Fu , y) ⊂ Fu◦sH ,

ce qui finit la preuve.




3 Classification en dimensions 2 et 3
Nous allons maintenant nous intéresser à O2 (R) et O3 (R) et essayer de
classifier leurs éléments. On commence par le cas de la dimension 2.

3.1 Rotations et symétries en dimension 2


 
a b
Soit M = une matrice de O2 (R). La relation M T .M = I2 nous
c d
donne les équations 
 ab + cd = 0
a2 + c 2 = 1
 2
b + d2 = 1
On en déduit donc l’existence d’uniques θ, theta0 ∈ [0, 2π[ tels que

a = cos θ, c = sin θ, b = cos θ0 , d = sin θ0 .

L’équation ab + cd = 0 nous donne alors cos(θ − θ0 ) = 0, autrement dit


θ − θ0 = ± π2 .
 
0 π cos θ − sin θ
Cas 1 : θ = θ + 2 . On a alors M = , c’est donc la
sin θ cos θ
matrice Rθ de rotation d’angle θ.
 
0 π cos θ sin θ
Cas 2 :θ = θ − 2 . On a alors M := Sθ = . Cette
− sin θ cos θ
matrice est diagonalisable (avec valeurs propres 1 et −1), c’est donc une
réflexion. C’est la réflexion par rapport à la droite engendrée par le vecteur
de coordonnées (cos 2θ , sin 2θ ). Par ailleurs on vérifie immédiatement que
 
1 0
Sθ = Rθ .S0 avec S0 =
0 −1
On a donc montré le résultat suivant

Théorème 3.1

SO2 (R) = {Rθ , θ ∈ [0, 2π[} et O2 (R) = {Rθ , Sϕ | θ ∈ [0, 2π[, ϕ ∈ [0, π[}.

On a les relations Rθ ◦ Rϕ = Rθ+ϕ , Sθ ◦ Sϕ = Rθ−ϕ , et Sϕ ◦ Rθ = R−θ ◦ Sϕ .

Notons qu’il en découle que le groupe O2 (R) est engendré par SO2 (R) et
S0 .
Il en découle aussi qu’on a un isomrophisme entre SO2 (R) et U le sous-
groupe des racines de l’unité, donné par Rθ 7→ eiθ , et que ce groupe est
abélien.

3.2 Sous-groupes finis de O2 (R)


On va voir maintenant qu’on peut totalement classifier les sous-groupes
finis de O2 (R).

Théorème 3.2
Soit G un sous-groupe fini de O2 (R). Alors on a

G = hR 2π i ou G = hR 2π , Sϕ i,
n n

pour un certain n ∈ N et ϕ ∈ [0, π[.

Démonstration : Notons tout d’abord que si G est un sous-groupe fini de


O2 (R), alors G ∩ SO2 (R) est un sous-groupe fini de SO2 (R). Par l’isomor-
phisme précédent, on peut donc le voir comme un sous-groupe fini G0 de U.
Supposons que l’ordre de G0 est n. Alors on a pour tout z ∈ G0 , z n = 1.
Comme il y a exactement n-racines n-ièmes de l’unité, on obtient
2iπ
G0 = {z ∈ C|z n = 1} = he n i.

Cela nous dit donc que G ∩ SO2 (R) = hR 2π i. Si G est inclus dans SO2 (R), on
n
a donc le premier résultat. Supposons maintenant que G ne soit pas inclus
dans SO2 (R). Alors il existe ϕ ∈ [0, π[ tel que Sϕ ∈ G. On va montrer que
G = hR 2π , Sϕ i. Soit g un élément de G. Si g est dans SO2 , alors, g est dans
n
G ∩ SO2 (R) = hR 2π i. Si maintenant g n’est pas directe, alors g = Sθ pour
n
un certain θ. Mais alors Sθ ◦ Sϕ = Rθ−ϕ est dans G ∩ SO2 (R) = hR 2π i, donc
n
on a
Sθ ◦ Sϕ = (R 2π )k
n

autrement dit
Sθ = (R 2π )k ◦ Sϕ ∈ hR 2π , Sϕ i.
n n

Donc on a bien G = hR 2π , Sϕ i.
n


3.3 Le groupe diédral


Dans le théorème précédent, on comprend bien les groupes de la forme
G = hR 2π i qui sont des groupes cycliques, donc abélien et isomorphes à
n
Z/nZ. Par contre la structure d’un groupe de la formeG = hR 2π , Sϕ i . C’est
n
l’objet de ce paragraphe de les étudier plus en détail.
Définition 3.3 Soit Pn le polygone régulier à n côtés de centre O. No-
tons v1 , . . . , vn ses sommets (ou les vecteurs correspondants). On note Dn :=
{f ∈ O(R2 )| f (Pn ) = Pn )}. C’est un sous-groupe de O2 (R) qu’on appelle le
groupe diédral .

Essayons de comprendre les éléments de Dn . Un élément de Dn préserve


le polygone Pn , il doit donc envoyer chaque vi sur un vj .
Notons de plus que f ∈ Dn est entièrement déterminé par f (v1 ) et f (v2 ).
En effet, (v1 , v2 ) est une base, et un endomorphisme est déterminé par l’image
d’une base.
Enfin si f (v1 ) = v`+1 , alors comme f est une isométrie, on doit avoir
f (v2 ) = v` ou f (v2 ) = v`+2 . On va donc traiter ces deux cas.
Cas 1 : f (v2 ) = v`+2 . Dans ce cas, on voit immédiatement que f est la
2π`
rotation d’angle .
n
Cas 2 : f (v2 ) = v` . On montre alors assez facilement que f (vj ) = v`−j .
C’est une symétrie car si (v1 , v2 ) est une base directe, alors la base (v`+1 , v` )
est indirecte. On va alors distinguer plusieurs cas.
Si n est pair et ` est pair, les points v ` et v n+` sont fixés par f , donc f
2 2
est la symétrie par rapport à la droite passant par v ` et v n+` .
2 2
Si n est pair et ` est impair, alors f ne fixe aucun des vj , mais il fixe les
segments [v `−1 , v `+1 ] et [v n+`−1 , v n+`+1 ], donc il fixe leur milieux respectifs.
2 2 2 2
C’est donc la symétrie par rapport à la droite passant par ces deux milieux.
Si n est impair, alors soit v ` soit v +n` est l’unique sommet fixé. C’est
2 2
donc la symétrie par rapport à la droite passant par ce sommet et le milieu
du côté opposé.
Finalement, on en déduit que le groupe Dn a 2n éléments n rotations, et
n symétries. Si on note r la rotation d’angle 2π n
, et s une symétrie quelconque
de Dn , on a alors

Dn = hr, si = {rk , srk , k = 0, . . . , n − 1}.

avec les relations rn = 1, s2 = 1 et sr = r−1 s.


Tous les sous-groupes finis de O(R2 ) non inclus dans SO2 (R) sont iso-
morphes à un groupe diédral.

3.4 Classification en dimension 3


Essayons maintenant de comprendre quelles sont les isométries de R3 .
Tout d’abord notons que si f ∈ O(R3 ), alors son polynôme caractéristique est
un polynôme de degré 3 à coefficients réels, il admet donc au moins une racine
réelle, autrement dit il admet (au moins) une valeur propre que l’on notera λ.
Comme f est une isométrie, cette valeur propre λ doit être égale à 1 ou à −1.
Notons e3 un vecteur propre correspondant de norme 1, et complétons le en
une base orthonormale (e1 , e2 , e3 ). On a donc V := vect(e1 , e2 ) = vect(e3 )⊥ .
Comme f (e3 ) = ±e3 , on a

hf (e1 ), e3 i = hf (e1 ), f (±e3 )i = he1 , ±e3 i = 0

et donc f (e1 ) ∈ V . De même pour f (e2 ). On obtient donc que V est un sous-
espace stable par f . De plus, on voit facilement que f|V est une isométrie de
V.
Autrement dit, dans la base (e1 , e2 , e3 ), la matrice de f sera de la forme
 0 
M 0
Mat(f, B) = avec M 0 ∈ O2 (R) et λ = ±1
0 λ
On va donc pouvoir se servir de la classification précédente, et on se retrouve
avec a priori 4 cas à taiter :
       
Rθ 0 Rθ 0 Sϕ 0 Sϕ 0
, , ,
0 1 0 −1 0 1 0 −1

Le premier cas correspond à une rotation d’angle θ autour de l’axe


vect(e3 ). Dans le cas où θ = 0 on obtient l’ identité . Dans le cas où θ = π,
on obtient la symétrie orthogonale par rapport à l’axe vect(e3 ). Une telle
isométrie s’appelle un retournement ou demi-tour .
Le deuxième cas peut s’écrire
 
    1
Rθ 0 Rθ 0 
= 1 ,
0 −1 0 1
−1

il s’agit donc d’une rotation d’angle θ autour de l’axe vect(e3 ) composée avec
la symétrie orthogonale par rapport au plan vect(e1 , e2 ) (donc orthogonal à
l’axe de rotation) ce qu’on appelle parfois une anti-rotation . Dans le cas où
θ = 0, on obtient la réflexion par rapport au plan vect(e1 , e2 ). Dans le cas
où θ = π, on obtient −I3 , qui est donc la symétrie centrale .
Dans le troisième cas, la matrice est diagonalisable, et donc dans une base
orthonormale (e01 , e02 , e3 ) on a
 
1
Mat(f, B) =  −1 
1

C’est donc la réflexion par rapport au plan vect(e01 , e3 ).


Dans le troisième cas, la matrice est aussi diagonalisable, et donc dans
une base orthonormale (e01 , e02 , e3 ) on a
 
1
Mat(f, B) =  −1 
−1

C’est donc la symétrie par rapport à l’axe vect(e01 ), autrement dit un


demi-tour .
On a donc finalement montré le résultat suivant.
Théorème 3.4
Les isométries vectorielles directes de R3 sont toutes des rotations :
— l’identité (rotation d’angle 0) ;
— les demi-tours (donc les symétries orthogonales par rapport à une
droite, qui sont aussi les rotations d’angle π)
— les rotations d’angle θ autour d’un certain axe.
Les isométries vectorielles indirectes de R3 sont
— les réflexions (donc les symétries orthogonales par rapport à un
plan) ;
— la symétrie centrale (symétrie orthogonale par rapport au sous-
espace {0} ;
— les anti-rotations d’angle θ autour d’un certain axe.
Chapitre V

Actions de groupes

1 Définitions
Définition 1.1 Soit X un ensemble et G un groupe. On dit que G agit sur
X s’il existe une application

G × X −→ X
(g, x) 7−→ g.x

telle que
— 1G .x = x pour tout x ∈ X ;
— g.(h.x) = (gh).x pour tous g, h ∈ G, x ∈ X

Exemple 1.2 1. Soit X = {1, . . . , n} et G = Sn , avec l’action définie


par σ.x := σ(x).
2. X = Rn et G = GLn (R) ou On (R) ou SLn (R), avec l’action définie par
f.x := f (x).
3. X = G avec l’action définie par la multiplication à gauche, g.x := gx,
ou encore avec l’action par conjugaison g.x := gxg −1 .
4. On peut prendre aussi le groupe diédral Dn agissant sur les sommets
d’un n-gone régulier centré en 0.

Proposition 1.3
Se donner une action de G sur X revient à se donner un morphisme de
groupes G → SX .

63
Démonstration : Soit G×X → X une action de G sur X. On définit Φ : G →
SX par Φ(g)(x) = g.x. Vérifions tout d’abord que Φ(g) est bien une bijection.
En effet, on a Φ(g −1 ) ◦ Φ(g)(x) = g −1 .(g.x) = 1G .x = x et Φ(g) ◦ Φ(g −1 )(x) =
g.(g −1 .x) = 1G .x = x, donc Φ(g) est inversible, d’inverse Φ(g −1 ). Par ailleurs
on a Φ(gh) = Φ(g)Φ(h) par le deuxième point de la définition. Et donc Φ est
bien un morphisme de groupes. 

Notons qu’une conséquence immédiate de cette définition est que si H est


un sous-groupe de G, alors H agit naturellement sur X, via la composition
H ⊂ G → SX .

Définition 1.4 On dit que G agit fidèlement sur X si le morphisme G →


SX est injectif, ou autrement dit si g.x = x pour tout x, alors g = 1G .
On dit que G agit transitivement sur X si ∀x, y ∈ X il existe g ∈ G tel
que g.x = y.

Exemple 1.5 Reprenons les exemples précédents.


1. Soit X = {1, . . . , n} et G = Sn , avec l’action définie par σ.x := σ(x).
Alors l’action est fidèle et transitive.
2. X = Rn et G = GLn (R) ou On (R) ou SLn (R), avec l’action définie par
f.x := f (x). Alors l’action est fidèle, mais pas transitive, en effet on a
toujours f (0) = 0. Par contre, si on prend G = GLn (R) agissant sur
Rn \ {0}, alors l’action est transitive.
3. L’action de G sur G par multiplication à gauche est fidèle et transitive.
L’action par conjugaison est fidèle seulement si Z(G) = {1G }. Elle n’est
pas transitive, car 1G est toujours envoyé sur 1G .
4. Le groupe diédral Dn agit fidèlement et transitivement sur {1, . . . , n}.

Notons qu’une conséquence du fait que l’action de G sur lui même par
multiplication à gauche est fidèle équivaut à dire qu’on a un morphisme de
groupe injectif G → SG . Donc si G est fini, il est isomorphe à un sous-groupe
d’un groupe symétrique.

2 Orbites et stabilisateurs
Définition 2.1 Soit G agissant sur X. On définit une relation sur X par

x ∼ y ⇔ ∃ g ∈ G g.x = y.

C’est la relation d’intransitivité .


Proposition 2.2
La relation d’intransitivité est une relation d’équivalence.

Démonstration : Exercice 

Remarquons que l’action est transitive si et seulement si la relation d’in-


transitivité n’a qu’une seule classe d’équivalence.
Définition 2.3 Soit G agissant sur X, et x ∈ X. L’ orbite de x (sous l’ac-
tion de G) est la classe d’équivalence de x pour la relation d’intransitivité.
Autrement dit
OG (x) := G.x = {g.x, g ∈ G} ⊂ X.

Exemple 2.4 1. Soit σ ∈ Sn , et a ∈ {1, . . . , n}. Alors on a


Ohσi (a) = {σ n (a), n ∈ Z} = Oσ (a).
2. X = Rn et G = GLn (R) ou On (R) ou SLn (R), avec l’action définie par
f.x := f (x). Alors la partition de Rn en orbites est Rn = (Rn \{0})∪{0}.
Si G = On (R), alors il y a une infinité d’orbites qui sont les sphères
d’un rayon donné.

Définition 2.5 Soit x ∈ X. Le stabilisateur de x est défini comme


StabG (x) := {g ∈ G |g.x = x} ⊂ G
Il est aussi appelé le sous-groupe d’isotropie de x.
Plus généralement, si Y ⊂ X, on note
StabG (Y ) := {g ∈ G |g.y ∈ Y ∀ y ∈ Y } ⊂ G

Proposition 2.6
Le stabilisateur est un sous-groupe de G.

Démonstration : Exercice 
Exemple 2.7 1. Soit x ∈ {1, . . . , n}, alors le stabilisateur de x est en
bijection avec Sn−1 .
2. Soit x ∈ Rn et G = GLn (R). Si x est nul, alors le stabilisateur est G. Si
x est non nul, alors le stabilisateur de x est l’ensemble des u ∈ GL(E)
tels que x est vecteur propre associé à la valeur propre 1 de u.
3. StabO2 (R) (Pn = Dn

3 Dénombrement
3.1 Equation aux classes

Proposition 3.1
Soit G un groupe fini agissant sur un ensemble X, alors pour tout x ∈ X
on a l’égalité
|OG (x)||StabG (x)| = |G|.

Démonstration : Notons H = StabG (x). On considère l’application evx :


G → OG (x) envoyant g sur g.x. Alors on a evx (g) = evx )(h) si et seulement
si g −1 h.x = x autrement dit si et seulement si g −1 h ∈ H, donc si et seule-
ment si gH = hH. Par le théorème de factorisation, evx se factorise en une
application injective G/H → OG (x). Comme elle clairement surjective, on a
alors |G/H| = |OG (x)|, et on conclut par le Théorème de Lagrange. 

Une conséquence de cette proposition est le formule suivante reliant le


cardinal de G au cardinal de X.

Théorème 3.2 (Equation aux classes)


Soit G un groupe fini, agissant sur un ensemble fini X. Soit Y ⊂ X un
sous-ensemble contenant exactement un représentant de chaque orbite.
Alors on a
X X |G|
|X| = |OG (y)| = .
y∈Y y∈Y
|Stab G (y)|
3.2 Applications
Définition 3.3 Soit g ∈ G, on note Fix(g) = {x ∈ X | g.x = x} ⊂ X, c’est
l’ensemble des points fixes de g.

Théorème 3.4 (Formule de Burnside)


Soit G fini agissant sur X fini. Notons Ω l’ensemble des orbites, alors on
a la formule :
1 X
|Ω| = |Fix(g)|.
|G| g∈G

Démonstration : Notons Ω = {O1 , . . . , O` } l’ensemble des orbites. Soit


A = {(x, g) ∈ X × G| g.x = x}.
L’idée est de compter les éléments de A de deux façons différentes. D’un côté
on a X X
|A| = |{x ∈ X| g.x = x}| = |Fix(g)|.
g∈G g∈G

D’un autre on a
X
|A| = |{g ∈ G| g.x = x}
x∈X
X
= |StabG (x)|
x∈X
X |G|
=
x∈X
|OG (x)|
` X
X 1
= |G|
i=1 x∈O
Oi
i
`
X
= |G| 1 = `|G|
i=1

On obtient donc la formule voulue. 

L’équation aux classes permet par exemple de montrer ce résultat qui est
une réciproque à une propriété des groupes finis. Notons que ce résultat ne
parle pas d’action de groupes.
Théorème 3.5 (de Cauchy)
Soit G un groupe fini. Alors pour tout nombre p premier divisant |G|, il
existe un élément de G d’ordre p.

Démonstration : Soit p un nombre premier divisant |G|. Notons X l’ensemble


suivant
X = {(x1 , . . . , xp ) ∈ Gp | x1 . . . xp = 1G }.
On va calculer le cardinal de X de deux manières différentes. D’abord notons
que pour x1 , . . . , xp−1 éléments quelconques de G, il existe un unique xp tel
que x1 . . . , xp = 1. Donc on a |X| = |G|p−1 .
On fait maintenant agir Z/pZ sur Gp de la façon suivante. :

i.(x1 , . . . , xp ) := (xi+1 , . . . , xi+p )(où les indices sont pris modulo p.

Il est clair que c’est une action. Par ailleurs, si x1 . . . xp = 1, alors on a

xi+1 . . . xi+p = (xi+1 . . . xp )(x1 . . . xp )(xi+1 . . . xp )−1 = 1G ,

donc l’action se restreint en une action sur X.


Pour un élément y ∈ X, son stabilisateur étant un sous-groupe de Z/pZ, il
est soit de cardinal 1, soit de cardinal p, autrement dit d’après la proposition
son orbite est soit de cardinal 1 (et c’est un point fixe), ou de cardinal p.
Parmi les ` orbites, il y en a donc q de cardinal 1, et ` − q de cardinal p. On
obtient donc |X| = q + p(` − q). Comme p divise |X| = |G|p−1 par le petit
Théorème de Fermat, on obtient donc que p divise q.
Par ailleurs, l’orbite d’un élément (x1 , . . . , xp ) est réduite à un point si
et seulement si x1 = x2 = . . . = xp avec xp1 = 1. L’ensemble des points
fixes sont donc en bijection avec les éléments du groupe dont l’ordre divise p.
L’élément 1G est clairement un tel élément. Donc q > 1 et il existe au moins
p − 1 éléments dont l’ordre divise p (et qui ne sont pas 1G ), ils sont donc
d’ordre p.


En considrant une autre action sur G, on peut aussi obtenir des résultats
sur le cardinal du centre.
Théorème 3.6
Soit G un groupe fini. Alors il existe N > 0 et des sous-groupes
H1 , . . . , HN non triviaux tels que
N
X |G|
|G| = |Z(G) + .
i=1
|Hi |

Démonstration : On considère cette fois l’action de G sur lui même par conju-
gaison. Alors un élément a son orbite réduite à un point si et seulement si il
est dans le centre de G.
En notant Y un ensemble de représentants des orbites, on a donc la
formule
X |G|
|G| = |Z(G) + .
StabG (y)
y∈Y \Z(G)

Par ailleurs, le stabilisateur de y est réduit à G si et seulement si y est un


point fixe. Il n’est jamais réduit à {1G }, en effet y commute toujours avec lui
même, donc le stabilisateur de y 6= 1G contient au moins 2 éléments, 1G et y.
Donc les sous-groupes StabG (y) dans la somme précédente sont non triviaux.


Corollaire 3.7
Soit G un groupe de cardinal pα avec p premier. Alors le centre de G
n’est pas réduit à l’élément neutre (il est même divisible par p).

Démonstration : En appliquant le résultat précédent, on voit que le deuxième


terme de la somme est divisible par p, ainsi que la somme entière. On a donc
que p divise l’ordre du centre de G. 
Corollaire 3.8
Tout groupe de cardinal p2 avec p premier est abélien.

Démonstration : Par le résultat précédent, on obtient que le cardinal du


centre de G est égal à p ou à p2 . Supposons qu’il soit égal à p, et prenons
x ∈ G \ Z(G). Le stabilisateur de x contient Z(G), mais aussi x, il contient
donc au moins p+1 éléments. Comme c’est un sous-groupe de G, son cardinal
divise p2 , c’est donc p2 . Ceci signifie alors que x est un point fixe, et alors x
est dans le centre de G. On obtient donc une contradiction. 

4 Groupe du tétraèdre
On revient maintenant aux sous-groupes d’isométries, mais cette fois dans
3
R . On a étudié le groupe diédral, comme groupes d’isométries laissant inva-
riant un polygone régulier. On va passer maintenant en dimension 3 et étudier
le sous-groupes des isométries laissant invariant un tétraèdre. régulier.
On considère un tétraèdre régulier T de centre O. Notons {v1 , . . . , v4 }, les
vecteurs correspondants de R3 . On définit alors

G = StabO3 (R) (T ) = StabO3 (R) ({v1 , v2 , v3 , v4 }).

.
.
.

Notons les vi ont tous la même norme, que hvi , vj i = hv1 , v2 i pour tout
i 6= j et que v1 + v2 + v3 + v4 = 0.
.

.
.
.
.

Le but est de démontrer le théorème suivant :

Théorème 4.1
Le groupe G est isomorphe à S4 . De plus le groupe des isométries directes
préservant le tétraèdre T est isomorphe à A4 .

Démonstration : On va ici utiliser les actions de groupes. Le groupe G agit


naturellement sur l’ensemble {v1 , . . . , v4 }, on obtient donc un morphisme
G → S4 .
Ce morphisme est injectif, en effet l’action est fidèle car si f ∈ G vérifie
f (vi ) = vi pour tout i, alors comme (v1 , v2 , v3 ) est une base de R3 , on a bien
f = Id.
Montrons qu’il est surjectif. Soit σ ∈ S4 . On définit l’application linéaire
f sur la base (v1 , v2 , v3 ) par f (vi ) = vσ(i) . C’est une application linéaire
bijective. De plus comme v4 = −v1 − v2 − v3 on a bien
3
X 3
X
f (v4 ) = − f (vi ) = − vσ(i) = vσ(4) .
i=1 i=1

On doit vérifier maintenant qu’elle est orthogonale (en effet ce n’est pas
clair, car la base (v1 , v2 , v3 ) n’est pas orthonormale). On a alors pour tout
i 6= j,
hf (vi ), f (vj )i = hvσ(i) , vσ(j) i = hvi , vj i,
f est donc une isométrie.

Donnons maintenant une description un peu plus précises de ces isomé-
tries.
On a tout d’abord les 3-cycles, qui correspondent à une rotation d’angle

± autour d’un axe passant par un des sommets et orthogonal à la face
3
opposée.

On a ensuite les transpositions qui correspondent à la réflexion par rap-


port à un plan de type vect(vi , vj ), c’est le plan passant par deux des sommets
et le milieu des deux autre sommets.

.
.
.

On a aussi les doubles transpositions qui correspondent à un demi-tour


(rotation d’angle π) autour d’un axe passant par les milieux de deux arêtes
opposées.
.

.
.
.

Enfin on a les 4-cycles qui correspondent à une anti-rotation : c’est la


π
composée de la rotation d’angle autour de l’axe passant par les milieux
2
d’arêtes opposées avec la réflexion par rapport au plan orthogonal à cet axe.
Anneaux

75
Chapitre VI

Généralités sur les anneaux

1 Définition et premiers exemples


Définition 1.1 Un anneau est un ensemble A muni de deux opérations (ou
lois internes) A × A → A notées + et . telles que :
(A1) (A, +) est un groupe abélien.
(A2) la loi . est associative (c’est-à-dire pour tous x, y, z ∈ A, (x.y).z =
x.(y.z)).
(A3) la loi . est distributive par rapport à la loi + (c’est-à-dire, pour tous
x, y, z ∈ A, (x + y).z = x.z + y.z et z.(x + y) = zx + zy).
(A4) La loi . posséde un élément neutre noté 1A .

Le neutre de la loi + sera noté 0A et l’inverse pour la loi + d’un élément x


sera noté −x. Comme pour les groupes, on notera nx = x | +x+{z· · · + x} et
n fois
xn = |x.x.{z
· · · .x} pour n ∈ N et nx = (−n)(−x) pour n < 0.
n fois
On dit que A est commutatif si la loi . est commutative.
Exemple 1.2 1. Z, Q, R et C sont des anneaux commutatifs.
2. (Z/nZ, +, .) est un anneau commutatif. On sait déjà que c’est un groupe
pour la loi +. Vérifions que la loi . est bien définie : Posons x̄.ȳ := x.y.
Si x̄0 = x̄ et ȳ = ȳ 0 alors x0 y 0 = (x + kn)(y + `n) = xy + n(ky + `x + k`n)
donc xy = x0 y 0 .
Voici les tables d’additions et de multiplication de Z/3Z.

+ 0 1 2 . 0 1 2
0 0 1 2 0 0 0 0
1 1 2 0 1 0 1 2
2 2 0 1 2 0 2 1

77
Voici les tables d’additions et de multiplication de Z/4Z.

+ 0 1 2 3 . 0 1 2 3
0 0 1 2 3 0 0 0 0 0
1 1 2 3 0 1 0 1 2 3
2 2 3 0 1 2 0 2 0 2
3 3 0 1 2 3 0 3 2 1
3. (Mn (k), +, .) où k = R ou C est un anneau non commutatif. De manière
équivalente, si E est un k-espace vectoriel de dimension finie, alors
(End(E), +, ◦) est un anneau.
4. R[X] est un anneau commutatif.

2 Règles de calcul

Proposition 2.1
Soit (A, +, .) un anneau. Alors on a les propriétés suivantes :
— ∀x ∈ A 0A .x = x.0A = 0A
— pour tous x, y ∈ A, (−x).y = x.(−y) = −(x.y).
— pour tous x, y ∈ A et n ∈ Z, n(x.y) = (nx).y = x.(ny).
— pour tout x ∈ A et n, m ∈ Z, on a (n + m)x = nx + mx et
(nm)x = n(mx) = (n1A ).(mx).

Démonstration : Laissée en exercice.




Remarque 2.2 Si 1A = 0A alors pour tout x ∈ A on a x = x.1A = x.0A =


0A . L’anneau 0A est un anneau appelé anneau trivial. Dans tous les autres
anneaux on a 1A 6= 0A . Dans la suite on supposera toujours 1A 6= 0A .

Proposition 2.3
Soit (A, +, .) un anneau et x et y des éléments de A tels que x.y = y.x (par
exemple si A est commutatif). Alors pour tout n ∈ N on a la formule :
X n
n
(x + y) = (nk )xk y n−k ,
k=0
n!
où (nk ) = (n−k)!k!
.

Démonstration :
Laissée en exercice.


3 Eléments inversibles et diviseurs de zéros


3.1 Le groupe des inversibles
Définition 3.1 Un élément de A ayant un inverse pour la loi . est dit
inversible . On notera alors son inverse x−1 . L’ensemble des inversibles sera
noté A× .
Exemple 3.2 1A et −1A sont toujours inversibles (mais attention on peut
avoir 1A = −1A ).
0A n’est jamais inversible.
Les inversibles de Z sont 1 et −1. On a Q× = Q∗ , R× = R∗ et C× = C∗ .
Les inversibles de Mn (k) sont les matrices inversibles, c’est-à-dire GLn (k).

Proposition 3.3
Soit (A, +, .) un anneau. Alors (A× , .) est un groupe.

Démonstration : 1A est clairement inversible, donc dans Inv(A). De plus si a


et b sont dans Inv(A), alors a.b est inversible car (a.b)−1 = b−1 .a−1 . Enfin, si
a est inversible, alors son inverse est aussi inversible car (a−1 )−1 = a. 

Exemple 3.4 (GLn (k), .) est un groupe.


Les éléments inversibles sont ceux qui contiennent 1 dans leur colonne et
dans leur ligne dans la table de multiplication. On a donc (Z/3Z)× = {1̄, 2̄}.
Ce qui implique un isomorphisme ((Z/3Z)× , .) ' (Z/2Z, +).
On a (Z/4Z)× = {1̄, 3̄}. Mais 2̄ n’est pas inversible.
Attention : (Inv(A), .) n’est pas stable pour la loi +. La somme de deux
matrices inversibles n’est pas forcément inversible.
Attention, un élément x peut-être inversible à droite (c’est-à-dire il existe
y tel que xy = 1A ) sans que yx = 1A . (Exemple dans un espace vectoriel
de dimension infinie.) Les inversibles sont les éléments "inversibles des deux
côtés ".
Définition 3.5 Un anneau dont tous les éléments 6= 0A sont inversibles est
appelé un corps .
Exemple 3.6 Q, R et C sont des corps. Z/2Z et Z/3Z sont des corps mais
pas Z/4Z.

3.2 Diviseurs de zéro


Définition 3.7 Si il existe a, b ∈ A non nuls tels que a.b = 0A , alors a et
b sont dits diviseurs de zéro . Plus précisément, a est dit diviseur de zéro à
gauche et b à droite.
Un élément a ∈ A tel qu’il existe n ∈ N avec an = 0A est dit nilpotent .
(Notons que c’est alors un diviseur de zéro.)
Un anneau COMMUTATIF n’ayant pas de diviseur de zéro est appelé
intègre .

Proposition 3.8
Dans un anneau intègre, on peut SIMPLIFIER, c’est-à-dire si x 6= 0A et
xy = xz alors y = z.

Démonstration : Il suffit d’écrire x(y − z) = 0A . 

Proposition 3.9
Un inversible n’est jamais diviseur de zéro, et un diviseur de zéro n’est
jamais inversible.

Exemple 3.10 Un corps commutatif est toujours intègre. Z est intègre.


R[X] est intègre. Z/4Z n’est pas intègre.
Mn (k) n’est pas intègre (il existe des matrices nilpotentes).
4 Sous-anneaux et morphismes
4.1 Sous -anneaux
Définition 4.1 Soit (A, +, .) un anneau. Un sous-ensemble B ⊂ A est un
sous-anneau de A si
(SA1) (B, +) est un sous-groupe de (A, +) ;
(SA2) 1A ∈ B ;
(SA3) B est stable par ., c’est-à-dire ∀ x, y ∈ B, x.y ∈ B.

Exemple 4.2 (Z, +, .) est un sous-anneau de (R, +, .). Par contre le seul
sous-anneau de Z est Z. En effet, si B est un sous-anneau de Z alors 1 ∈ B
donc n = 1 + 1 + · · · + 1 est dans B ainsi que −n.
L’ensemble des matrices triangulaires supérieures est un sous-anneau de
Mn (k).

4.2 Morphismes d’anneaux


Définition 4.3 Soient (A, +, .) et (B, +, .) deux anneaux. Une application
f : A → B est un morphisme d’anneau s’il vérifie pour tous x, y ∈ A :
1. f (x + y) = f (x) + f (y) (c’est-à-dire f est un morphisme de groupes)
2. f (x.y) = f (x).f (y).
3. f (1A ) = 1B .
Si A = B on parle d’endomorphisme d’anneau. Si f est une bijection, on parle
d’isomorphisme d’anneau. Si de plus A = B on parle d’automorphisme.

Attention, la propriété (1) implique que f (0A ) = 0B , mais la propriété (2)


n’implique pas forcément que f (1A ) = 1B , pour cela il faudrait être capable
de simplifier. C’est vrai dans un anneau intègre, mais faux en général. Par
exemple l’inclusion de Mn (k) dans Mn+1 (k) est additif et multiplicatif, mais
envoie 1A sur un diviseur de zéro.

Exemple 4.4 — si B est un sous-anneau de A alors l’injection naturelle


B → A est un morphisme d’anneau injectif.
— Soit E un ensemble et A un anneau. Soit x ∈ E alors alors l’application
AE → A qui à φ ∈ AE associe φ(x) ∈ A est un morphisme d’anneau
appelé morphisme d’évaluation en x.
— Soit E un espace vectoriel de dimension n sur k. Alors pour toute base
de E, on a un isomorphisme End(E) ' Mn (k).
— La projection Z → Z/nZ est un morphisme d’anneaux.
— L’application Z → A qui à n associe n1A est un morphisme d’anneau.
C’est l’unique morphisme Z → A.

Remarque 4.5 Soit f un morphisme d’anneaux. On a alors f (nx) = nf (x)


(et f (xn ) = f (x)n ). L’application f est donc "Z-linéaire".

Proposition 4.6
Soit f : A → B un morphisme d’anneau. Alors Im f est un sous-anneau
de B. Plus généralement, si A0 ⊂ A est un sous-anneau de A, alors f (A0 )
est un sous-anneau de B.
Si B 0 ⊂ B est un sous-anneau de B alors f −1 (B 0 ) est un sous-anneau
de A.

Démonstration : f est en particulier un morphisme de groupe, donc (Im f, +)


est un sous-groupe de (B, +). Comme f (1A ) = 1B alors 1B ∈ Im f . Et enfin,
si y1 et y2 sont dans Im f alors y1 = f (x1 ) et y2 = f (x2 ) donc y1 .y2 =
f (x1 ).f (x2 ) = f (x1 .x2 ) ∈ Im f .
Suite : exercice. 

Attention : Kerf n’est jamais un sous-anneau. En effet f (1A ) =


1B 6= 0B , donc 1A n’est pas dans Kerf .

5 Construction de familles d’exemples


Comme dans le chapitre sur les groupes, nous recensons ici plusieurs
constructions standards permettant de construire de nouveaux exemples d’an-
neaux.

5.1 Anneaux produits

Proposition 5.1
Soient (A1 , +, .) et (A2 , +, .) deux anneaux. Alors A1 × A2 est un anneau
pour les lois :

(x1 , x2 )+(y1 , y2 ) = (x1 +y1 , x2 +y2 ) et (x1 , x2 ).(y1 , y2 ) = (x1 .y1 , x2 .y2 ).
Les éléments neutres sont 0A1 ×A2 := (0A1 , 0A2 ) pour + et 1A1 ×A2 :=
(1A1 , 1A2 ) pour ..

Démonstration : Exercice. 

Attention : A1 × {0} est un sous-groupe de A1 × A2 mais n’est pas un


sous-anneau de A1 × A2 .

Exemple 5.2 1. (C2 , +, .) est un anneau. (Attention à ne pas penser aux


éléments de C2 comme à des vecteurs).
2. L’isomorphisme de groupes Φ1 : Z/2Z × Z/3Z → Z/6Z envoyant (1̄, 1̄)
sur 1̄ est un isomorphisme d’anneaux. On peut par exemple vérifier que

Φ((1̄, 0̄).(1̄, 2̄)) = Φ((1̄, 0̄)).Φ((1̄, 2̄).

Par contre attention il existe un isomorphisme de groupes Φ1 : Z/2Z ×


Z/3Z → Z/6Z envoyant (1̄, 1̄) sur 5̄. Mais ce n’est pas un morphisme
d’anneaux.

5.2 Anneaux de fonctions

Proposition 5.3
Soit E un ensemble et A un anneau. L’ensemble AE des applications de
E dans A est un anneau pour les lois :

(φ + ψ)(x) = φ(x) + ψ(x) et (φ.ψ)(x) = φ(x).ψ(x)

pour φ, ψ ∈ AE et x ∈ E.

Démonstration :Exercice. 
Proposition 5.4
Soit A un anneau, E un ensemble et x ∈ E. Alors l’application evx :
AE → A envoyant Φ sur Φ(x) est un morphisme d’anneaux. Il est appelé
morphisme d’évaluation en x .

Exemple 5.5 L’ensemble F(R, R) a une structure d’anneau. C(R, R) est un


sous-anneau de F(R, R).
L’application naturelle R[X] → F(R, R) est un morphisme d’anneau in-
jectif.

5.3 Anneaux de matrices


Soit A un anneau (commutatif), on peut définir Mn (A) comme les ma-
trices à coefficients dans A. En effet les lois d’addition et de multiplication
des matrices n’utilisent que les lois + et . de A.
Le déterminant d’une matrice à coefficient dans A a aussi du sens, car
il n’y a que somme et produit dans la formule. Attention par contre les in-
versibles ne sont pas les matrices dont le déterminant est non nul. C sont
eux dont le déterminant est un inversible de A. En effet grâce à la formule
de l’inverse utilisant la transposée de la comatrice, on voit que l’unique "élé-
ment" à inverser est le déterminant. Par exemple on a GLn (Z) = {M ∈
Mn (Z)|detM = ±1}.

5.4 Anneaux de polynômes


L’idée ici est de penser à un polynôme, non pas comme une fonction d’une
variable réelle, mais plutôt comme la suite de ses coefficients. Le propriété
clé est donnée par le fait suivant :

Deux polynômes sont égaux si et seulement si leurs coefficients sont égaux.

Définition
Cela motive ainsi la définition suivante :

Définition 5.6 Soit (A, +, .) un anneau commutatif. Un polynôme à co-


efficients dans A est une suite P = (ak )k∈N = (a0 , a1 , . . . , ) d’éléments de
A n’ayant qu’un nombre fini de ak différents de 0A . Les ak sont appelés les
coefficients de P .
Si P = (ak )k∈N est de degré n, on le notera P = a0 + a1 X + a2 X 2 + · · · +
an X n , où n est le plus grand entier tel que an 6= 0.
On note A[X] l’ensemble des polynômes à coefficients dans A.

En utilisant les lois de A, on peut définir des lois d’additions et de mul-


tiplications sur l’ensemble des polynômes.
Si P = (ak )k∈N et Q = (bk )k∈N alors P + Q = (ak + bk )k∈N .
P
Si P = (ak )k∈N et Q = (bk )k∈N alors P.Q = (ck )k∈N avec ck = i+j=k ai .bj =
Pk
i=0 ai bk−i .

Théorème 5.7
Muni des lois définis ci-dessus, A[X] est un anneau commutatif.

Démonstration : (A[X], +) est clairement un groupe abélien dont le neutre


est le polynôme nul (dont tous les coefficients sont nuls).
Il est aussi clair que la loi . est commutative.
Vérifions l’associativité de la loi .. Soient P = (ak ), Q = (bk ) et R = (ck )
des polynômes. Alors le niéme coefficient de (P.Q).R est donné par :
X X X X
( ak b` )cj = (ak b` )cj
i+j=n k+`=i i+j=n k+`=i
X
= (ak b` )cj
k+`+j=n
X
= ak (b` cj )
k+`+j
X X
= ak (b` cj )
k+p=n `+j=p
X X
= ak ( b` c j )
k+p=n `+j=p

qui est le niéme coefficient de P.(Q.R).


Vérifions la distributivité. Soient P = (ak ), Q = (bk ) et R = (ck ) des
polynômes. Alors le nième coefficient de (P + Q).R est donné par :
X X
(ai + bi )cj = ai c j + b i c j
i+j=n i+j=n
X X
= ai c j + bi c j
i+j=n i+j=n

qui est le niéme coefficient de P R + QR.


Enfin le polynôme U = (ai )i∈N tel que a0 = 1A et ai = 0A pour i > 1 est
neutre pour la loi . En effet si Q = (bj ) alors le niéme coefficient du polynôme
U.Q est
X
ai b j = a0 b n = b n ,
i+j=n

donc U.Q = Q.


Proposition 5.8
L’application A[X] → F(A, A) qui à P associe la fonction correspondante
est un morphisme d’anneaux.

Attnetion, elle n’est pas toujours injective. Par exemple le polynôme P =


2
X − X de Z/2Z[X], est non nul en tant que polynôme, mais on a P (0) =
P (1) = 0, c’est un élément du noyau de ce morphisme.

Degré-valuation et intégrité

Définition 5.9 Soit A un anneau. Soit P ∈ A[X] non nul. On définit


deg P := max{n, an 6= 0A }. C’est le degré de P . Par convention on pose
deg 0 = −∞. Si P est de dergé n, le coefficient an est appelé coefficient dominant .
De manière similaire on pose val P := min{n, an 6= 0}. C’est la valuation
de P .
Proposition 5.10
Soient P et Q des polynômes. On a

deg(P + Q) 6 max{deg P, deg Q} et deg(P Q) 6 deg P + deg Q.

De plus si A est intègre on a deg(P Q) = deg P + deg Q.

Démonstration : Posons P = a0 + . . . + an X n et Q = b0 + . . . + bm X m avec


an 6= 0 et bm 6= 0. Si n > m, alors le terme de plus haut degré de P + Q est
an X n . Si n = m, alors le coefficient de degré n est an + bn . S’il est non nul,
le degré est n, s’il est nul le degré est strictement inférieur à n.
P`
Soit ` > m + n + 1. Alors on a la formule (P Q)` = i=0 ai b`−i . Si
0 6 i 6 n, alors on a m + 1 6 ` − i 6 ` donc ai b`−i = 0. Si i > n + 1, on a
aussi ai bk−i =
P0. Donc le degré est inférieur à m + n. Si A est intègre, alors
(P Q)m+n = m+n i=0 ai bm+n−i = an bm . Comme an et bm sont non nuls, le degré
est bien égal à m + n.


Théorème 5.11
A est intègre, si et seulement si A[X] est intègre.
Dans ce cas A[X]× = A× .

Démonstration : Si A est intègre. Par la formule précédente, on obtient que


si P et Q sont non nuls, alors P Q est non nuls, car de degré 6 0.
Si P est inversible, alors son degré est forcément égal à 0. Maintenant, il
est clair qu’un polynôme constant a0 est inversible dans A[X] si et seulement
si a0 ∈ A× .
Réciproquement, A peut-être vu comme un sous-anneau de A[X]. Il sera
donc intègre si A[X] l’est. 

Ceci est faux si A n’est pas intègre. Par exemple si A = Z/4Z, alors on a
(2̄X + 1)2 = 1, donc 2̄X + 1 est inversible.
Chapitre VII

Idéaux

Dans tout ce chapitre, les anneaux sont COMMUTATIFS.

1 Idéal dans un anneau commutatif


1.1 Définition
Définition 1.1 Soit (A, +.) un anneau commutatif. Un sous-ensemble I ⊂ A
est appelé idéal si
— (I, +) est un sous-groupe de (A, +) ;
— pour tout x ∈ A pour tout y ∈ I, xy est dans I.

Remarque 1.2 Comme A est commutatif, si I est un idéal de A, on a aussi


pour tout x ∈ A et tout y ∈ I, y.x est dans I.
Il existe aussi une notion d’idéal dans les anneaux non commutatifs. On
parle alors d’idéal à gauche, ou à droite, ou bilatére lorsque qu’ils sont à la
fois à droite et à gauche.

Proposition 1.3
Soit A un anneau commutatif, et I un idéal. Alors on a les équivalences

I = A ⇔ 1A ∈ I ⇔ I est un sous-anneau de A.

Démonstration : Supposons que 1A ∈ I. Alors d’aprés la définition, I est un


sous-anneau de A. Soit a ∈ A, alors a = a.1A avec a ∈ A et 1A ∈ I. Donc
a ∈ I, c’est-à-dire A = I. Les autres implications sont immédiates. 

89
Exemple 1.4 {0} et A sont des idéaux de A.

Proposition 1.5
Les idéaux de Z sont les nZ, n ∈ Z.

Démonstration : Ce sont clairement des idéaux. Réciproquement, un idéal est


un sous-groupe. 

1.2 Opérations sur les idéaux

Proposition 1.6
Soient I1 et I2 deux idéaux de A. Alors I1 ∩ I2 est un idéal de A.
T Plus généralement, si (Ik )k∈K est une famille d’idéaux de A, alors
k∈K Ik est un idéal de A.

Démonstration : Exercice. 

Exemple 1.7 Soient p, q ∈ Z. Alors pZ ∩ qZ = ppcm(p, q)Z. En effet tout


nombre à la fois divisible par p et q est divisible par leur ppcm. Récirpo-
quement, tout nombre divisible par le ppcm est donc divisible par p et par
q.

Proposition 1.8
Soient I1 et I2 deux idéaux de A. Alors I1 +I2 := {x1 +x2 , x1 ∈ I1 , x2 ∈ I2 }
est un idéal de A.
Attention dans I1 +I2 l’écriture de x = x1 +x2 n’est pas forcément unique !
Démonstration : I1 + I2 est clairement non vide. Si x = x1 + x2 et y = y1 + y2
sont des éléments de I1 + I2 , alors x − y = (x1 + x2 ) − (y1 + y2 ) = (x1 −
y1 ) + (x2 − y2 ) est aussi dans I1 + I2 . Donc (I1 + I2 , +) est un sous-groupe
de (A, +).
Maintenant, si x = x1 + x2 ∈ I1 + I2 et y ∈ A, alors x.y = (x1 + x2 ).y =
x1 .y + x2 .y est dans I1 + I2 . Donc c’est un idéal. 

Exemple 1.9 Soient p, q ∈ Z. Alors pZ + qZ = pgcd(p, q)Z.


Notons ` le pgcd. Alors d’aprés Bezout, il existe u, v ∈ Z tels que pu+qv =
`, donc ` ∈ pZ+qZ. On a donc `Z ⊂ pZ+qZ. Réciproquement si m = pa+qb
alors m est divisible par `.

1.3 Idéal engendré

Proposition 1.10
Soient I1 et I2 deux idéaux de A. Alors I1 ∩ I2 est un idéal de A.
T Plus généralement, si (Ik )k∈K est une famille d’idéaux de A, alors
k∈K Ik est un idéal de A.

Démonstration : Exercice. 

Définition 1.11 Soit X ⊂ A un sous-ensemble de A. L’ idéal engendré par X


est l’intersection de tous les idéaux de A contenant X, on le note (X). C’est
le plus petit idéal de A contenant X, au sens où si J est un idéal contenant
X alors (X) ⊂ J.
Si X = {x1 , . . . , xk } alors on note (X) = (x1 , . . . , xk ).

Proposition 1.12
Soit X = {x1 , . . . , xk } un sous-ensemble d’un anneau commutatif A.
Alors (x1 , . . . , xk ) = { ki=1 ak xk , ai ∈ A}.
P
En particulier (x1 ) = x1 A = Ax1 .
Démonstration : Pour tout i = 1, . . . , k, pour tout ai ∈ A, alors ai xi ∈ hXi
puisque que hXi est un idéal. Puisque hXi Pk est aussi un sous-groupe, alors
P k
a x
i=1 i i ∈ hXi. Donc on a l’inclusion { i=1 ak xk , ai ∈ A} ⊂ hXi.
Pk
Vérifions maintenant
P que { i=1 ak xk , ai ∈ A} est un idéal. Il contient
clairement 0A = i [Link] . Il est stable par somme, car
X X X
ai x i + bi x i = (ai + bi ).xi
i i i
P P
On a aussi −( i ai xi ) = P i (−ai ).xi . Donc
P c’est un sous-groupe additif.
Enfin si a ∈ A, alors a.( i ai xi ) = i ([Link] ).xi . C’est donc bien un idéal.
Il contient xi = 0.x1 + 0.x2 + . . . + [Link] + [Link]+1 · · · + [Link] . Il contient donc
hx1 , . . . , xk i. 

Corollaire 1.13
Soient I1 et I2 deux idéaux, alors (I1 , I2 ) = I1 + I2 . En particulier
(x1 , x2 ) = (x1 ) + (x2 ).

1.4 Idéaux et morphismes

Proposition 1.14
Soit f : A → B un morphisme d’anneau. Alors Kerf est un idéal de A.
Plus généralement, si I est un idéal de B alors f −1 (I) est un idéal de
A.

Démonstration : On sait déjà que (Kerf, +) est un sous-groupe de (A, +).


Soit x ∈ A et y ∈ Kerf . Alors f (x.y) = f (x).f (y) = f (x).0B = 0B donc
x.y ∈ Kerf .
Suite : exercice. 

Attention : Par contre, si I est un idéal de A, f (I) n’est pas en général


un idéal de B.
Caractéristique d’un anneau
Soit A un anneau (non nécessairement commutatif). Le noyau de l’unique
morphisme Z → A est un idéal de A donc de la forme nZ, pour n ∈ N. Cet
entier est appelé caractéristique de l’anneau A.
Par exemple, la caractéristique de Z est 0, celle de R[X] aussi, celle de
Z/nZ est n.

2 Quotient par un idéal


2.1 Structure d’anneau de A/I
Définition 2.1 Soit A un anneau commutatif, et I ⊂ A un idéal. On définit
la relation dans A
x ∼ y ⇔ x − y ∈ I.
C’est une relation d’équivalence (c’est la même que celle pour les sous-
groupes). On note A/I l’ensemble des classes d’équivalence pour cette re-
lation.
On va définir une structure d’anneau sur l’ensemble A/I. Les lois sont
données par
x + y := x + y et xy := x.y ∀x, y ∈ A.
On a déjà vu que la loi + est bien définie, et que (A/I, +) est un groupe.
Vérifions que la loi . est bien définie. Soient x ∼ x0 et y ∼ y 0 . Alors on a
x.y − x0 .y 0 = x.y − x.y 0 + x.y 0 − x0 .y 0 = x. (y − y 0 ) − (x − x0 ) .y 0
| {z } | {z }
∈I ∈I

y − y 0 ∈ I donc x.(y − y 0 ) ∈ I de même (x − x0 ).y 0 ∈ I, d’où x.(y − y 0 ) + (x −


x0 ).y 0 ∈ I, c’est-à-dire x.y ∼ x0 .y 0 . Donc la loi . est bien définie.
De plus on a (x.y).z = x.y.z = (x.y).z = x.(y.z) = x.y.z = x.(y.z). Donc
. est associative.
On a aussi (x + y).z = x + y.z = (x + y).z = x.z + y.z = x.z + y.z =
x.z + y; z Donc . est distributive par rapport à +.
Enfin 1A .x = 1A .x = x. Donc 1A est un élément neutre pour .
On a donc finalement montré le théorème suivant.

Théorème 2.2
Soit A un anneau commutatif et I ⊂ A un idéal. Alors (A/I, +, .) est un
anneau commutatif.
On retrouve ainsi la structure d’anneau de Z/nZ vue précédemment.

2.2 Théorème de projection

Théorème 2.3 (de factorisation)


Soit A un anneau commutatif et I ⊂ A un idéal. Alors la projection
naturelle p : A → A/I est un morphisme d’anneau.
De plus pour tout morphisme d’anneau f : A → B tel que I ⊂ Kerf ,
f se factorise en un morphisme d’anneau f : A/I → B.

Démonstration : Même démo que pour les groupes. Il reste à montrer que
f (x.y) = f (x.y) = f (x.y) = f (x).f (y) = f (x).f (y). 

Théorème 2.4
Soit f : A → B un morphisme d’anneau. Alors on a un isomorphisme
d’anneau A/Kerf ' Im f .

Démonstration : Par le théorème précédent, on a un morphisme d’anneau


f : A/Kerf → Im f , puisqu’on a un morphisme d’anneau f : A → Im f de
noyau Kerf . Vérifions qu’il est surjectif : Soit y ∈ Im f , alors y = f (x) avec
x ∈ A. Par définition, on a donc f (x) = y donc y ∈ Im f . Le morphisme f
est donc surjectif.
Vérifions qu’il est injectif. Soit x ∈ A/Kerf tel que f (x) = 0B . Alors
f (x) = 0B par définition de f . Donc x ∈ Kerf , c’est-à-dire x = 0A .Donc f
est injective. 

Exemple 2.5 — Soit f : R[X] → R définie par f (P ) = P (0) = a0 .


On vérifie aisément que c’est un morphisme d’anneaux. Son noyau est
l’ensemble des polynômes dont le terme constant est nul, c’est-à-dire
l’ensemble des polynômes divisibles par X. On a donc Kerf = (X). Il
est par ailleurs claire que f est surjectif. On obtient donc un isomor-
phisme R[X]/(X) ' R.
— On peut montrer de même que f : R[X] → C définie par f (P ) = P (i) se
factorise en un isomorphisme R[X]/(X 2 + 1) ' C. En effet si P (i) = 0,
alors en faisant la division euclidienne de P par X 2 + 1, on obtient que
le reste R est un polynôme de degré 6 1 qui s’annule en i. Comme les
coefficients de P sont réels, on a P (−i) = 0, et R s’annule aussi en −i,
donc R = 0.

3 L’anneau Z/nZ
On a déjà vu que (Z/nZ, +, .) est un anneau commutatif.

3.1 Propriétés de Z/nZ

Proposition 3.1
Z/nZ est intègre si et seulement si n est premier ou nul.

Démonstration : On sait déjà que Z = Z/0Z est intègre. Soit n = pq non


premier. Alors on a p̄q̄ = 0̄ avec p̄, q̄ 6= 0̄, donc Z/nZ n’est pas intègre.
Réciproquement, si n est premier, alors āb̄ = 0̄ implique n divise ab. Par le
lemme d’Euclide, on aura alors n divise a ou n divise b, c’est-à-dire ā = 0̄ ou
b̄ = 0̄. 

Corollaire 3.2
Si A est intègre, sa caractéristique est 0 ou un nombre premier.

Démonstration : Soit A un anneau intègre, et soit n sa caractéristique. Alors


par le théorème de factorisation, on a un morphisme injectif f : Z/nZ → A.
Si ab = 0 alors f (a)f (b) = 0A . Comme A est intègre, on a alors f (a) = 0A
ou f (b) = 0A . Puisque f est injective on déduit a = 0 ou b = 0. Autrement
dit Z/nZ est intègre. On a donc n = 0 ou n est premier. 
Théorème 3.3
Inv(Z/nZ) = {k tels que k ∧ n = 1}

Démonstration : On a les équivalences suivantes :

k inversible dans Z/nZ ⇔ ∃u ∈ Z/nZ avec k.u = 1


⇔ ∃u ∈ Z avec ku = 1
⇔ ∃u ∈ Z avec ku − 1 divisible par n
⇔ ∃u, v ∈ Z avec ku − 1 = nv
⇔k∧n=1

Corollaire 3.4
Z/nZ est un corps si et seulement si n est premier.

Corollaire 3.5 (Petit théorème de Fermat)


Si p est premier, alors pour tout x ∈ Z on a xp = x mod p.

Démonstration : En effet, si p est premier, alors Z/pZ est un corps, c’est-à-


dire que (Z/pZ∗ , .) est un groupe. Son ordre est p−1. Donc pour tout élément
x ∈ Z/pZ∗ on a xp−1 = 1 (car dans un groupe l’ordre d’un élément divise
l’ordre d’un groupe (Thm Lagrange)). Autrement dit, pour tout x ∈ Z tel
/ pZ), alors xp−1 = 1 mod p. En multipliant par x de chaque
que x 6= 0 (ou x ∈
côté, on obtient xp = x mod p. Enfin si x est divisible par p, alors clairement
xp = 0 = x mod p. 
3.2 Fonction indicatrice d’Euler
Définition 3.6 Soit n ∈ Z, on note ϕ(n) = ](Z/nZ)× ) = |{1 6 k 6 n|k ∧
n = 1}|.

Proposition 3.7
Soit p un nombre premier et α ∈ N∗ . Alors ϕ(pα ) = (p − 1)pα−1 .

Démonstration : Un nombre k n’est pas premier avec pα si et seulement si p


divise k. Les entiers 6 pα non premiers avec pα sont donc
{p, 2p, 3p, . . . , pα = pα−1 p}.
Il y en a pα−1 donc ϕ(pα ) = pα − pα−1 . 

3.3 Théorème des restes chinois

Théorème 3.8 (des restes chinois)


Soit n1 , n2 , . . . , nk des entiers premiers entre eux deux à deux, et n =
n1 n2 . . . nk leur produit. Alors le morphisme Z → Z/n1 Z × Z/n2 Z ×
. . . × Z/nk Z qui à x ∈ Z associe (x [n1 ], . . . , x [nk ]) se favorise en un
isomorphisme d’anneau

Z/nZ ' Z/n1 Z × Z/n2 Z × . . . × Z/nk Z.

Démonstration :Tout d’abord remarquons que ce morphisme est bien un mor-


phisme d’anneau. Montrons ensuite la factorisation. Si x = 0 [n] alors n divise
x, donc pour tout i, ni divise x et donc l’image de x par l’application est alors
nulle.
On va calculer le noyau de ce morphisme. Soit x ∈ Z tel que x = 0 [ni ]
pour tout i. Donc x est divisible par le ppcm des ni . Or comme les ni sont
premiers entre eux deux à deux, le ppcm des ni est leur produit c’est-à-
dire n. Donc x = 0 [n]. Cela prouve l’injectivité du morphisme Z/nZ →
Z/n1 Z × Z/n2 Z × . . . × Z/nk Z.
Enfin, comme Z/nZ et Z/n1 Z × Z/n2 Z × . . . × Z/nk Z ont même cardinal,
le morphisme est aussi surjectif. 

On voit que la surjectivité du morphisme se déduit de la preuve. On peut


aussi montrer "à la main" que c’est
Q surjectif en nutilisant l’identité de Bezout.
En effet on a pour tout i, ni ∧ j6=i nj = ni ∧ ni = 1. On peut donc trouver
des entiers ui et vi tels que ui ni + vi nni = 1. Posons ei = vi nni . On a alors
ei = 0[nj ] pour j 6= i, et ei = 1[ni ], autrement dit Φ(ei ) = (0, 0, . . . , 1, 0 . . .).
Les Φ(ei ) sont des générateurs du groupe Z/n1 Z × Z/n2 Z × . . . × Z/nk Z, cela
montre donc que Φ est surjective. Cela permet aussi de construire l’applica-
tion réciproque. Prenons un exemple avec Z/30Z ' Z/2Z × Z/3Z × Z/5Z et
calculons l’image réciproque de (1, 2, 3).
On a 2 ∧ 15 = 1, donc 15 − 2.7 = 1 donc e1 = 15. On a 3 ∧ 10 = 1, donc
10 − 3.3 = 1 donc e2 = 10. Enfin 5 ∧ 6 = 1 donc 6 − 5 = 1 et e3 = 6. On aura
donc

(1, 2, 3) = (1, 0, 0) + 2(0, 1, 0) + 3(0, 0, 1)


= Φ(e1 ) + 2Φ(e2 ) + 3Φ(e3 )
= Φ(e1 + 2e2 + 3e3 )
= Φ(15 + 2.10 + 3.6) = Φ(53)

On vérifie bien que 23 est une solution.

Corollaire 3.9 Q
Soit n ∈ Z et n = si=1 pαi i sa décomposition en facteurs premiers. Alors
on a un isomorphisme d’anneaux :
s
Y
Z/nZ ' Z/pαi i Z.
i=1

Corollaire 3.10 Q
Soit n ∈ Z et n = si=1 pαi i sa décomposition en facteurs premiers. Alors
φ(n) = si=1 pαi i −1 (pi − 1).
Q
Démonstration : Le corollaire précédent donne un isomorphisme de groupes
s
Y
(Z/nZ)× ' (Z/pαi i Z)× .
i=1

En effet les inversibles d’un anneau produit sont A× ×


1 × A2 . Et on applique la
proposition précédente.


4 Idéaux premiers et maximaux


4.1 Idéal premier
Définition 4.1 Soit A un anneau commutatif. Un idéal I ⊂ A est dit
premier si I 6= A et

∀a, b ∈ A, a.b ∈ I ⇒ a ∈ I ou b ∈ I.

Exemple 4.2 Les idéaux premiers de Z sont les pZ où p est premier et 0Z.
En effet, par le lemme de Gauss, si ab est divisible par p premier, alors p
divise a ou p divise b. Réciproquement, si pZ est premier et p = q.r alors p
divise q ou p divise r, ce qui montre que p est premier.

Proposition 4.3
Un idéal I ⊂ A est premier si et seulement si A/I est un anneau intègre.

Démonstration : Supposons que I soit premier. On va montrer que A/I ne


contient pas de diviseur de zéro. Soit a, b ∈ A tels que a.b = 0. Alors ab = 0
c’est-à-dire ab ∈ I. Donc par hypothèse, on a a ∈ I ou b ∈ I, autrement dit
a = 0 ou b = 0, donc A/I est intègre.
Réciproquement supposons que A/I soit intègre. Soit ab ∈ I, alors ab = 0
et donc a ∈ I ou b ∈ I. 
4.2 Idéal maximal
Définition 4.4 Un idéal I ⊂ A est dit maximal si I 6= A et si pour tout
idéal J contenant strictement I, alors J = A.

Proposition 4.5
I est maximal si et seulement si A/I est un corps.

Démonstration : Soit I maximal, et a ∈ A − I (existe car I 6= A), c’est-à-dire


a 6= 0 dans A/I. On va montrer que a est inversible. En effet l’idéal engendré
par I et a hI, ai contient strictement I. Donc il est égal à A, et contient 1.
Autrement dit 1 = au + b avec b ∈ I. Donc 1 = au + b = au c’est-à-dire a est
inversible.
Réciproquement, supposons que A/I soit un corps. Soit J un idéal conte-
nant strictement I. Prenons a ∈ J − I. Alors a 6= 0 dans A/I, donc a est
inversible par définition. Ceci implique l’existence de u ∈ A tel que au = 1,
c’est-à-dire au−1 ∈ I. Donc 1 = au−(au−1) avec au ∈ J et (au−1) ∈ I ⊂ J,
donc 1 ∈ J, ce qui montre A = J. 

Exemple 4.6 Les idéaux maximaux de Z sont les pZ où p est premier.


Attention, l’idéal {0} n’est pas maximal, mais premier.

Corollaire 4.7
I maximal ⇒ I premier.

Démonstration : I maximal ⇒ A/I corps ⇒ A/I intègre ⇒ I premier. 

Corollaire 4.8
A est un corps si et seulement si ses seuls idéaux sont (0A ) et A.
Démonstration : Soit A un corps et I 6= 0A un idéal. Soit u ∈ I avec u 6= 0A ,
alors u est inversible, et donc 1A = uu−1 ∈ I et I = A.
Réciproquement, si les seuls idéaux de A sont (0A ) et A, alors (0A ) est un
idéal maximal. On aura donc A = A/(0A ) est un corps. 

5 Aritmétique dans un anneau intègre


On suppose ici que A est intègre.

5.1 Divisibilité
Définition 5.1 On dit que a ∈ A divise b ∈ A si il existe x ∈ A tel que
b = ax. On dit alors que a est un diviseur de b, ou que b est un multiple de
a et on note a|b.

Proposition 5.2
Soient a, b ∈ A.
— a|b si et seulement si (b) ⊂ (a) (c’est donc une relation d’ordre sur
les éléments de A).
— a|b et b|a si et seulement si a = ub avec u inversible. (On dit alors
que a et b sont associés).

Démonstration : Supposons que b = ax. Soit y ∈ (b), alors y = bz avec z ∈ A.


Donc y = axz = a(xz) ∈ (a).
Réciproquement, si (b) ⊂ (a) alors b ∈ (a), c’est-à-dire b = ax pour un
certain x ∈ A.
Si a = bx et b = ay, alors a = bx = ayx = a(yx). Comme A ne contient
pas de diviseur de zéro on peut simplifier pas a et on obtient yx = 1, c’est-
à-dire que x et y sont inversibles. 

Exemple 5.3 — Dans Z, a et b sont associés si et seulement si a = b ou


a = −b.
— Dans A[X], P et Q sont associés si et seulement si il existe a ∈ Inv(A)
tel que P = aQ. Par exemple X + 1 et 3X + 3 sont associés dans R[X]
mais pas dans Z[X].
— (1 + i)|2 dans Z[i].

5.2 Anneau principal, pgcd, ppcm


Définition 5.4 Un anneau A est dit principal s’il est intègre et si tout idéal
est de la forme (a).

Définition 5.5 Soient a1 , . . . , an des éléments de A principal.


Un élément δ ∈ A est appelé pgcd (plus grand commun diviseur) de
a1 , . . . , an si on a (a1 )+· · ·+(an ) = (δ). Il existe et est unique à multiplication
par un inversible prés. On le note a1 ∧ . . . ∧ an .
Si (a1 ) + (a2 ) + . . . + (an ) = A = (1) alors on dit que a1 , a2 , . . . , an sont
premiers entre eux dans leur ensemble. (Si n = 2 on dit seulement que a1 et
a2 sont premiers entre eux.)
Un élément µ ∈ A est appelé ppcm (plus petit commun multiple) de
a1 , . . . , an si on a (a1 )∩. . .∩(an ) = (µ). Il existe et est unique à multiplication
par un inversible prés. On le note a1 ∨ . . . ∨ an .

Exemple 5.6 On a déjà vu que dans Z, pZ + qZ = (p ∧ q)Z et pZ ∩ qZ =


(p ∨ q)Z.

Corollaire 5.7 (Théorème de Bezout)


Les éléments a1 , . . . , an sont premiers entre eux dans
Pleur ensemble si et
n
seulement si il existe des éléments vi tels que 1A = i=1 ai vi .

Proposition 5.8
Soit a1 , . . . , an ∈ A. Notons δ = a1 ∧ . . . ∧ an et µ = a1 ∨ . . . ∨ an .
1. δ divise tous les ai et si d divise tous les ai alors d divise δ.
2. Tous les ai divisent µ et si m est divisible par tous les ai alors µ
divise m.

Démonstration : Pour tout i, ai ∈ (a1 )P + . . . + (aP


n ) = (δ) donc P
δ divise ai . De
plus si d divise tous les ai , alors δ = i ai vi = i da ivi = d( i a0 ivi ) donc
0

d divise δ.
µ ∈ (ai ) pour tout i donc ai divise µ. Si ai divise m pour tout i, alors m
est dans l’intersection des (ai ) il est donc dans (µ) ce qui signifie que µ divise
m.


Proposition 5.9
Soient a, b et c dans A. Alors on a les propriétés suivantes :
1. a ∨ b = b ∨ a et a ∧ b = b ∧ a.
2. a ∨ (b ∨ c) = a ∨ b ∨ c = (a ∨ b) ∨ c et a ∧ (b ∧ c) = a ∧ b ∧ c = (a ∧ b) ∧ c.
3. ac ∨ ab = a(c ∨ b) et ab ∧ ac = a(b ∧ c).
4. (Lemme de Gauss) si a|bc et a ∧ b = 1 alors a|c.
5. (a ∨ b)(a ∧ b) = ab.

Démonstration :
1. et (2) sont clairs.
(3) On a (a(b∧c)) = a(b∧c) = a((b)+(c)) = (a(b)+a(c)) = ((ab)+(ac)) =
(ab ∧ ac). De même pour ∨.
(4) On a a|bc et a|ac donc par la proposition précédente, a divise ac ∧ bc,
qui est (a ∧ b)c = c par (3).
(5) Notons δ = a ∧ b et µ = a ∨ b. On a alors a = δa0 et b = δb0 , avec
a0 ∧ b0 = 1. On veut montrer que µ = δa0 b0 . On va montrer qu’ils se
divisent l’un et l’autre. a divise δa0 b0 , et b aussi, donc µ divise δa0 b0 .
Ecrivons maintenant µ = ax = by = δa0 x = δb0 y. Comme A est intègre,
on a a0 x = b0 y. Donc a0 divise b0 y, et comme a0 ∧ b0 = 1 alors a0 divise
y par Gauss. On aura donc δa0 b0 divise δyb0 = µ.


5.3 Eléments irréductibles


Définition 5.10 Un élément a ∈ A est dit irreductible s’il n’est pas inver-
sible et si ses seuls diviseurs sont les inversibles de A et les éléments associés
à a.
Exemple 5.11 Les irréductibles de Z sont les nombres premiers et leurs
opposés.
Proposition 5.12
Soit a ∈ A non nul. Si (a) est premier, alors a est irréductible.

Démonstration : Soit a = xy ∈ (a). Alors comme (a) est premier, on a x ∈ (a)


(ou y ∈ (a)), c’est-à-dire a divise x. Mais alors a = xy = azy, en simplifiant
par a (A INTEGRE), on obtient que y est inversible. 

NB : la réciproque est fausse


√ en général. Par exemple √ on peut√ montrer
que 2 est√irréductible dans Z[i 3], mais 4 = 2.2 = (1 + i 3)(1 − i 3) ∈ (2),
or (1 + i 3) n’est pas dans (2), donc (2) n’est pas premier.

Proposition 5.13
Soit A un anneau principal. Si a est irréductible, alors (a) est premier.

Démonstration : Soit a non inversible. On va montrer que (a) est maximal (il
sera donc premier). D’abord (a) 6= A car a ∈ / A× . Soit J un idéal contenant
(a). Alors J = (b) pour un certain b ∈ A. On a (a) ⊂ (b) donc b divise a. Par
irréductibilité de a, b est soit inversible, soit associé à a. S’il est inversible
alors J = A, et s’il est assoccié à a alors J = (a). L’idéal (a) est donc
maximal.


Corollaire 5.14 (Lemme d’Euclide)


Soit A un anneau principal et p irréductible. Si p divise ab alors p divise
a ou p divise b.

Démonstration : Par la proposition précédente, ab ∈ (p) qui est premier, on


a donc a ∈ (p) ou b ∈ (p). 
Chapitre VIII

Arithmétique dans les anneaux de


polynômes

On supposera dorénavant que A est un anneau intègre, et donc A[X] est


aussi intègre.

1 Division euclidienne
1.1 Condition pour l’existence de la division

Théorème 1.1
Soit P1 et P2 deux polynômes de A[X] (où A est intègre). On suppose
que le coefficient dominant de P2 est inversible dans A. Alors il existe des
uniques polynômes Q et R tels que

P1 = P2 Q + R et deg R < deg P2 .

Démonstration :
Existence : On le démontre par récurrence sur le degré de P1 . Si deg P1 <
deg P2 alors Q = 0 et R = P1 conviennent. Supposons
Pm le jrésultat vrai pour
deg P1 6 n et soit deg P1 = n + 1. Notons P2 = j=0 bj X avec m 6 n + 1.
Alors le polynôme P1 − an+1 b−1
m X
n+1−m
P2 est de degré 6 n. Par hypothèse
de récurrence, on obtient

P1 − an+1 b−1
m X
n+1−m
P2 = P2 Q + R,

105
donc
P1 = (Q + an+1 b−1
m X
n+1−m
)P2 + R.

Unicité : Si on a P1 = P2 Q + R = P2 S + T , alors P2 (Q − S) = T − R.
Le degré du terme de droite est inférieur à deg P2 , tandis que celui du terme
de gauche est deg P2 + deg(Q − S). On a donc nécessairement Q − S = 0, et
donc T − R = 0.


Corollaire 1.2
On peut toujours faire une division euclidienne dans k[X] si k est un
corps.

Exemple 1.3 Faisons la division euclidienne de 2X 2 − 2X + 3 par 3X − 1


dans Z/7Z[X]. Il faut commencer par trouver l’inverse de 3. On peut le faire
−1
grâce à Bezout : 7 = 2.3 + 1 donc 3 = (−2) = 5. Puis on résout 3x = 2, ce
qui donne x = 25 = 3. On peut donc écrire

2X 2 − 2X + 3 3X − 1
2X 2 − 3X + 0 − − −−
X + 3 3X + 5
X −5
1
Et on a 2X 2 − 2X + 3 = (3X + 5)(3X − 1) + 1.

1.2 Principalité d’un anneau de polynômes


La division euclidienne va nous permettre de savoir quand un anneau de
polynôme est principal (ou ne l’est pas).

Théorème 1.4
A[X] est principal si et seulement si A est un corps.
Démonstration : Supposons que A est un corps, et soit I un idéal de A
différent de zéro. Posons n = min{deg P, P ∈ I \ {0}}, ce minimum existe
car I 6= 0, et est atteint par un polynôme P de I. Soit S un polynôme de I.
En faisant la division euclidienne de S par I, on obtient S = QP + R. Or
QP ∈ I, donc R = S − QP ∈ I. C’est donc le polynôme nul par minimalité
du degré. On a donc montré que S ∈ (P ). L’idéal I est alors principal.
Réciproquement, supposons que A[X] est principal. Soit a ∈ A non nul.
Et posons I = (X, a). Il existe donc un P tel que (X, a) = (P ). Comme P
divise a, le degré de P est forcément 0, P = b. Maintenant b divise X, donc
on peut écrire X = (c0 + c1 X)b, ce qui nous donne c1 b = 1 et donc b est
inversible.
Enfin b ∈ (a, X), donc peut s’écrire b = λX + µa, donc on a b = µa et
donc a est inversible. 

2 Polynômes à coefficients dans un corps


On suppose dorénavant que k est un corps.

2.1 Théorème des restes chinois


L’existence de la division euclidienne nous permet d’avoir un analogue du
théorème des restes chinois dans k[X] où k est un corps.

Théorème 2.1
Soit k un corps et soient P1 et P2 deux polynômes de k[X] premiers entre
eux. Alors le morphisme d’anneaux

Φ : k[X] −→ k[X]/(P1 ) × k[X]/(P2 )

envoyant P sur ses classes modulo P1 et P2 se factorise en un isomor-


phisme d’anneaux

k[X]/(P1 P2 ) ' k[X]/(P1 ) × k[X]/(P2 ).

Démonstration : La preuve est complétement similaire à celle pour Z. En effet


Φ(P ) = 0 est équivalent à dire que P1 divise P et que P2 divise P . Donc leur
ppcm divise P . Comme ils sont premiers entre eux, leur ppcm est P1 P2 . On a
donc un morphisme d’anneau injectif k[X]/(P1 P2 ) ' k[X]/(P1 ) × k[X]/(P2 ).
Pour montrer la surjectivité, on ne peut plus utiliser le cardinal. Mais
par contre, on peut toujours utiliser l’algorithme de Bezout (puisque k[X]
est principal) pour construire l’application réciproque de Φ. Soit A et B
deux polynômes. Soit U P1 + V P2 = 1 un couple de Bezout, et posons P :=
BU P1 + AV P2 . Alors la classe de P modulo P1 est AV P2 = 1 − U P1 A = A.
De même la classe de P modulo P2 est B. On a donc montré que Φ était
surjective.


Théorème 2.2
Soit k un corps, et P un polynôme non nul dans k[X]. Alors on a les
équivalences

P est irréductible ⇔ k[X]/(P ) est un corps ⇔ k[X]/(P ) est intègre

Démonstration : La preuve est une conséquence du fait que k[X] est principal
et des propositions 5.12 et 5.13. En effet, si P est irréductible, alors (P ) est
maximal, et donc k[X]/(P ) est un corps, et donc intègre. Réciproquement,
si k[X]/(P ) est intègre, alors (P ) est premier, et donc par proposition 5.12,
on a bien que P est irréductible.


2.2 Irréductibles dans k[X]


Dans cette section k est un corps.
On aimerait donc maintenant comprendre quels sont les irréductibles de
k[X].

Proposition 2.3
Soit a ∈ k. Alors X − a est un polynôme irréductible de k[X]. De plus si
a 6= b alors (X − a) ∧ (X − b) = 1.
Démonstration : Si X − a n’est pas irréductible, il s’écrit X − a = P.Q où
ni P ni Q ne sont inversibles, c’est-à-dire ni P ni Q ne sont des polynômes
constants. C’est clairement impossible pour des raisons de degré.
Si a 6= b alors on a (b − a)−1 ((X − a) − (X − b)) = 1k on conclut par
Bezout. 

Proposition 2.4
Soit a ∈ k et P ∈ k[X]. Alors le reste de la division euclidienne de P par
X − a est P (a)

Démonstration : P = (X − a)Q + R avec deg R 6 deg(X − a) − 1 = 0. Donc


R = r0 ∈ k est un polynôme constant. Si on applique a alors on obtient
P (a) = R(a) = r0 . 

Définition 2.5 Soit P ∈ k[X] et a ∈ k. On dit que a est une racine de P


si P (a) = 0, ou de manière équivalente si P est divisible par X − a.
On appelle multiplicité de X − a dans P le grand petit entier k tel que
le reste de la division euclidienne de P par (X − a)k est nul.
OnQ dit que P est scindé dans k[X] si il existe a, a1 , . . . , an ∈ k tels que
P = a ni=1 (X − ai )ri

Proposition 2.6
1. Un polynôme P non nul a au plus deg P racines distinctes.
2. Notons r1 , . . . , rn les multiplicités respectives de a1 , . . . , an dans P .
Alors on a deg P > r1 + · · · + rn .
3. Si k est infini et si P (a) = 0 pour tout a ∈ k alors P = 0.

Démonstration :
1. Soient a1 , . . . , an des racines distinctes de P . Alors X − a1 divise P =
(X − a1 )P1 . Comme a1 6= a2 on a que (X − a1 ) et (X − a2 ) sont
premiers entre eux. Alors X − a2 divise QP 2 par Gauss. On montre ainsi
n
par récurrence que P est divisible par i=1 (X − ai ). Son degré est donc
plsu grand que n.
fait que (X − a1 )r1 est premier avec − ai )ri on
Q
2. En utilisant leQ i>2 (X
démontre que ni=1 (X − ai )ri divise P .
3. C’est une conséquence de (1).


Remarque 2.7 Dans Z/pZ le polynôme X p − X s’annule en tout point de


Z/pZ par le petit théorème de Fermat. Or il est non nul (au sens où tous ses
coefficients ne sont pas nuls). Le morphisme d’anneau k[X] → F(k, k) qui à
un polynôme associe la fonction polynôme n’est pas toujours injectif.

2.3 Irréductibles dans C[X].


Ce théorème appelé théorème fondamental de l’algèbre est admis.

Théorème 2.8 (D’Alembert-Gauss)


C est algébriquement clos, c’est-à-dire que pour tout P ∈ C[X] non
constant, il existe a ∈ C avec P (a) = 0.

Corollaire 2.9
Les irréductibles de C[X] sont de la forme X − a avec a ∈ C (à multipli-
cation par un scalaire non nul près.

Démonstration : On sait déjà que les polynômes X − a sont irréductibles.


Montrons qu’il n’y en a pas d’autres. En effet, soit P dans C[X] de degré
> 2, alors P admet une racine a. Il est donc divisible par X − a. Ainsi tout
polynôme de degré > 2 n’est pas irréductible. 
Théorème 2.10
Soit P ∈ C[X] non nul. Alors il existe a, a1 , . . . ar ∈ C et m1 , . . . mr ∈ N∗
tels que
Yr
P = a (X − ai )mi .
i=1

Les a, ai et mi sont uniques.

Démonstration : L’existence se démontre facilement par récurrence sur le


degré de P .
Montrons l’unicité par récurrence sur le degré de P . Si le degré de P est
1, alors P = a(X − a1 ) = b(X − b1 ), on obtient donc a = b et a1 = b1 .
Supposons l’unicité pour P de degré n − 1. Alors si on a
r
Y s
Y
P = a (X − ai ) = b (X − bj )nj ,
mi

i=1 j=1

X − a1 divise b sj=1 (X − bj )nj , et comme X − a1 est irréductible, par le


Q
lemme d’Euclide, X − a1 divise un des X − bj . Par le proposition 2.3 il existe
j tel que bj = a1 . On supposera j = 1 quitte à réindexer lesQbj . En simplifiant
par X − a1 (k[X] est intègre), on obtient (X − a1 )m1 −1 a ri=2 (X − ai )mi =
s
(X − b1 )n1 −1 b j=2 (X − bj )nj , de degré n − 1. On conclut alors à l’aide de
Q
l’hypothèse de récurrence.


2.4 Irréductibles dans R[X].

Lemme 2.11
Soit P = ni=0 ai X i ∈ C[X]. Notons P̄ le polynôme P̄ := ni=0 āi X i ∈
P P
C[X]. Alors α est racine de P si et seulement si ᾱ est racine de P̄ .

Pn
Démonstration : Soit α une racine de P . Alors on a P̄ (ᾱ) = i=0 āi ᾱi =
Pn i
i=0 ai α = P (α) = 0, donc ᾱ est une racine de P̄ . 
Le théorème fondamental de l’algèbre nous permet de démontrer les ré-
sultat suivant.

Théorème 2.12
Les polynômes irréductibles de R[X] sont de la forme X − a avec a ∈ R
et X 2 + bX + c avec b2 − 4c < 0 (à multiplication par un scalaire près).

Démonstration :[Démonstration du théorème 2.12]


Notons tout d’abord que X 2 + bX + c avec b2 − 4c < 0 est irréductible. En
effet, s’il était réductible, il s’écrirait comme le produit de deux polynômes de
degré 1 à coeeficients réels. Cette égalité serait vraie dans C[X], et donc par
unicité de la décomposition en irréductibles, on obtiendrait une contradiction.
Montrons maintenant qu’il n’y a pas d’autres irréductibles.
Soit P un irréductible dans R[X]. Alors P est aussi dans C[X] et P = P̄
car tous ses coefficients sont réels. Il a donc une racine complexe α. Si α est
réelle, alors P est divisible par X − α, donc par irréductibilité P = a(X − α)
pour a ∈ R.
Si α n’est pas réel, alors par le lemme ᾱ 6= α est racine de P̄ = P . Comme
X − α et X − ᾱ sont premiers entre eux, leur produit (X − α)(X − ᾱ) =
X 2 −(α+ᾱ)X+αᾱ divise P . Par ailleurs X 2 −(α+ᾱ)X+αᾱ = (X 2 +2Re(α)+
||α||2 ) est dans R[X]. Donc par irréductibilité, P = a(X 2 + 2Re(α) + ||α||2 ).

On en déduit alors le théorème suivant.

Théorème 2.13
Soit P ∈ R[X] non nul. Alors il existe a, a1 , . . . ar ∈ R et m1 , . . . mr ∈ N∗ ,
(b1 , c1 ) 6= (b2 , c2 ), . . . , (bt , ct ) ∈ R2 avec b2j − 4cj < 0 et n1 , . . . , nt tels que
r
Y t
Y
mi
P = a (X − ai ) (X 2 + bj X + cj )nj .
i=1 j=1

Les a, ai , mi , bj , cj et nj sont uniques.


Algèbre linéaire

113
Chapitre IX

Déterminant

Dans tout ce chapitre, k est un corps, et E sera un k-espace vectoriel de


dimension finie.

1 Forme multilinéaires
1.1 Définition et premières propriétés
Définition 1.1 Soit p > 1 un entier. Une forme p-linéaire sur E est une
application f : E p → k telle que Pour tout j = 1, . . . , p on a

f (x1 , . . . , xj + λyj , . . . , xp ) = f (x1 , . . . , xp ) + λf (x1 , . . . , yj , . . . , xp ),

et ce pour tous vecteurs xi , yi , scalaire λ.

Exemple 1.2 Pour p = 1, ce sont les formes linéaires sur E noté L(E, k).
Pour p = 2, ce sont les formes bilinéaires, par exemple un produit scalaire
dans E.
p
Q Pour n = 1 et p quelconque, l’application k → k qui à (x1 , . . . , xp ) associe
xi est p-linéaire.

Proposition 1.3
Soient f et g deux formes p-linéaires, et B une base de E. Alors f = g si
et seulement si f et g prennent les mêmes valeurs sur les vecteurs de B.

115
Proposition 1.4
L’ensemble des forme p-linéaires forme un k-espace vectoriel de dimension
finie.

1.2 Formes alternées


Définition 1.5 • Une forme p-linéaire est dite symétrique si f (. . . , x, . . . , y . . .) =
f (. . . , y, . . . , x . . .).
• Une forme p-linéaire est dite antisymétrique si f (. . . , x, . . . , y . . .) =
−f (. . . , y, . . . , x . . .).
• Une forme p-linéaire est dite alternée si f (. . . , x, . . . , x . . .) = 0.

Proposition 1.6
Si la caractéristique de k est différente de 2, alors on a f antisymétrique
⇔ f alternée.

Démonstration : Si f est antisymétrique, on a f (. . . , x, . . . , x, . . .) = −f (. . . , x, . . . , x, . . .),


donc 2f (. . . , x, . . . , x, . . .) = 0.
Si f est alternée, on a f (. . . , x + y, . . . , x + y, . . .) = 0, en développant on
obtient f (. . . , x, . . . , y, . . .) + f (. . . , y, . . . , x, . . .) = 0. 

Il est facile de voir que l’ensemble des formes p-linéaires alternées forme
un sous-espace vectoriel de l’espace des formes p-linéaires.

Proposition 1.7
Si f est alternée, alors pour toute famille liée (x1 , . . . , xp ) on a
f (x1 , . . . , xp ) = 0.

Démonstration : C’est clair en utilisant la linéarité. 


Corollaire 1.8
Si p > n + 1 alors il n’existe pas de forme p-linéaire alternée sur E.

2 Déterminant d’un système de vecteurs


Le but va être maintenant d’étudier l’espace des formes n-linéaires alter-
nées sur E.

2.1 Espace vectoriel des formes n-linéaires alternées sur


E

Théorème 2.1
Soit f une forme n-linéaire alternée, et soit B = (e1 , . . . , en ) une base de
E. Alors f ne dépend que de la valeur f (e1 , . . . , en ) et on a la formule :
X
f (x1 , . . . , xn ) = (σ)λσ(1),1 · · · λσ(n),n f (e1 , . . . , en ),
σ∈Sn
P
où xj = i λji ei . De plus pour tout α ∈ k, il existe une (unique) forme
n-linéaire alternée telle que f (e1 , . . . , en ) = α.

Démonstration : Par n-linéarité on a


X
f (x1 , . . . , xn ) = λi1 ,1 λin ,n f (ei1 , . . . , ein ).
i1 ,...,in

Comme f est alternée, f (ei1 , . . . , ein ) = 0 dès que deux des indices sont
égaux, donc on peut réécrire la somme de la manière suivante :
X
f (x1 , . . . , xn ) = λσ(1),1 λσ(n),n f (eσ(1) , . . . , eσ(n) ).
σ∈Sn

Soit σ ∈ Sn , et σ = τ1 · · · τr une décomposition en produits de trans-


positions. En utilisant l’antisymétrie, on montre par récurrence sur r que
f (eσ(1) , . . . , eσ(n) ) = (−1)r f (e1 , . . . , en ).
Enfin, il faut de montrer que la formule
X
f (x1 , . . . , xn ) = (σ)λσ(1),1 · · · λσ(n),n α
σ∈Sn

définit une application n-linéaire alternée :

X X
f (x1 + µx01 , . . . , xn ) = (σ)λσ(1),1 · · · (λi,1 + µλ0i,1 ) · · · λσ(n),n α
i σ,σ(i)=1
X X
= (σ)λσ(1),1 · · · λi,1 · · · λσ(n),n α
i σ,σ(i)=1
X X
+µ (σ)λσ(1),1 · · · λ0i,1 · · · λσ(n),n α
i σ,σ(i)=1

= f (x1 , . . . , xn ) + µf (x01 , . . . , xn ),

f est donc n-linéaire.


Par ailleurs si f et g sont deux formes n-linéaires alternées telles que
f (e1 , . . . , en ) = g(e1 , . . . , en ), alors , pour toute permutation σ on a f (eσ(1) , . . . , eσ(n) ) =
g(eσ(1) , . . . , eσ(n) ). Les applications f et g sont donc égales sur une base, elles
sont donc égales.


Corollaire 2.2
Le sous-espace des formes n-linéaires alternées est un sous-espace de di-
mension 1.

2.2 Définition
Définition 2.3 Soit B une base de E. Le déterminant dans la base B est
l’unique application n-linéaire alternée detB telle que

det(e1 , . . . , en ) = 1.
B
Proposition 2.4
Soient B et B 0 des base de E. Alors on a

det
0
= det
0
(B) det .
B B B

En particulier detB0 (B) detB (B 0 ) = 1, et donc le déterminant ne s’an-


nule jamais sur une famille libre. On a donc la réciproque de la Proposition
1.7.

Démonstration : Ce sont deux applications n-linéaires alternées, qui prennent


la même valeur sur B. 

2.3 Formule de récurrence


Soit B = (e1 , . . . , en ) une base. On note B ` = B \ {e` }, E` = vect(B ` ) et
p` : E → E` la projection sur E` parallélement à vect(e` ).

Lemme 2.5
On a la formule detB (e` , x2 , . . . , xn ) = (−1)`+1 detB` (p` (x2 ), . . . , p` (xn )).

Démonstration : Les deux applications envoyant (x2 , . . . , xn ) ∈ E n−1 sur les


deux termes de la formule sont n − 1-linéaires. Elles sont de plus clairement
alternées. Pour vérifier qu’elles coincident, il suffit de le vérifier sur des vec-
teurs de B (qui sont donc 2 à 2 distincts). De plus, si un des vecteurs est e` ,
alors le terme de gauche est nul, et celui de droite aussi car p` (e` ) = 0.
Par ailleurs, si on restreint ces applications à E`n−1 , elles sont n − 1-
linéaires alternées sur un espace de dimension n − 1. Il suffit donc de vé-
rifier qu’elles coincident sur B ` . Or on a detB (e` , B ` ) = (−1)`+1 detB (B) =
(−1)`+1 detB` (B ` ).

Corollaire
P 2.6
Si x1 = n`=1 λ`1 e` , alors on a la formule
n
X
det(x1 , . . . , xn ) = (−1)`+1 λ`1 det(p` (x2 ), . . . , p` (xn )).
B B`
`=1

3 Déterminant d’un endomorphisme


3.1 Définition
Soit u ∈ L(E) un endomorphisme de E. Soit B une base de E. Alors l’ap-
plication (x1 , . . . , xn ) 7→ detB (u(x1 ), . . . , u(xn )) est n-linéaire alternée. Donc
il existe un scalaire α ∈ k tel que detB (u(x1 ), . . . , u(xn )) = α detB (x1 , . . . , xn ).
On va montrer que ce scalaire α ne dépend pas de la base B.
En effet, par la formule de changement de base, si B 0 est une autre base,
on a

det
0
(u(x1 ), . . . , u(xn )) = det(u(x1 ), . . . , u(xn )) det
0
(B)
B B B
= α det(x1 , . . . , xn ) det
0
(B)
B B
= α det
0
(x1 , . . . , xn ).
B

Ceci nous incite à poser la définition suivante :


Définition 3.1 Soit u ∈ L(E) un endomorphisme de E. Le déterminant
de u est l’unique scalaire det u ∈ k tel que pour toute base B de E et toute
famille de vecteurs (x1 , . . . , xn ) on ait

det(u(x1 ), . . . , u(xn )) = (det u) det(x1 , . . . , xn ).


B B

Proposition 3.2
1. Soient u et v dans L(E). On a l’ égalité det(u ◦ v) = det(u) det(v).
2. soit u ∈ L(E). Alors u est inversible si et seulement si det u 6= 0.
Dans ce cas, on a det(u−1 ) = det1 u .
Démonstration : provient directement de la définition. 

3.2 Déterminant d’une matrice


Définition 3.3 Soit A ∈ Mn (k). Alors on note det A = det u où u est défini
par A = Mat(u, B, B). On a alors la formule
X
det A = (σ)aσ(1)1 . . . aσ(n)n .
σ∈Sn

On retrouve alors les formules connues pour n = 2 et n = 3.


Pour n = 2, on obtient

det A = a11 a22 − a12 a21 ,

en effet le premier terme correspond à la permutation identité, tandis que le


deuxième terme correspond à la transposition (12) dont la signature est −1.
Pour n = 3, on obtient

det A = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a21 a12 a33 . . .

Le premier terme correspond à l’identité, le deuxième au 3-cycle (123), le troi-


sième au 3-cycle (132), tous de signature 1. Le quatrième terme correspond
à la tranposition (12) de signature −1.

Remarque 3.4 Notons que le propriétés du type P "la valeur du déterminant


ne change pas si on remplace la colonne ci par ci + λj cj " etc... se déduisent
directement de la n-linéarité du déterminant.

On retrouve aussi les propriétés bien connues de déterminant.

Proposition 3.5
Soit A une matrice triangulaire, alors det A = ni=1 aii .
Q
Soit A une matrice triangulaire par bloc de la forme
 
B C
A=
0 D

alors on a det A = det B det C.


Démonstration : Montrons la deuxième assertion. Notons p la taille de la
matrice B. Soit σ ∈ Sn telle que aσ(1)1 . . . aσ(n),n 6= 0. Alors pour tout i 6 p,
on a σ(i) 6 p. On en déduit donc que pour tout i > p + 1, on a σ(i) >
p + 1. Ceci implique que l’ensemble {1, . . . , p} est une union d’orbites de σ,
et que l’ensemble {p + 1, . . . , n} aussi. Ceci veut dire que l’on peut écrire
σ = σ1 ◦ σ2 avec Supp(σ1 ) ⊂ {1, . . . , p} et Supp(σ2 ) ⊂ {p + 1, . . . , n}. Par
ailleurs, l’application Sp × Sn−p → Sn envoyant (σ1 , σ2 ) sur σ1 ◦ σ2 est
injective On peut donc écrire
X X X
(σ)aσ(1)1 . . . aσ(n)n = (σ1 ◦ σ2 ) . . .
σ∈Sn σ1 ∈Sp σ2 ∈Sn−p
 
X
=  (σ1 )aσ1 (1)1 . . . aσ1 (p),p  .
σ1 ∈Sp
 
X
 (σ2 )aσ2 (p+1)p+1 . . . aσ2 (n),n 
σ2 ∈Sn−p

4 Polynôme caractéristique
4.1 Polynôme caractéristique d’une matrice
Définition 4.1 Soit A ∈ Mn (k). Le polynôme caractéristique de A est
défini comme
χA (X) = det(XIn − A)

Notons ici que de manière cachée, on se place dans l’anneau Mn (k[X]). En


effet, la matrice de XIn − A peut-être vue comme un élément de Mn (k[X]).
Le déterminant est donc bien défini, et est un "scalaire" donc dans k[X].

Proposition 4.2
Soit A ∈ Mn (k). On a la formule

χA (X) = X n − (trA)X n−1 + . . . + (−1)n det A.


Démonstration : Notons bij les coefficients de la matrice XIn − A (ce sont
donc des polynômes !)
Tout d’abord notons P que le degré de χA est inférieur ou égale à n car
degbσ(1)1 . . . bσ(n)n = i degbσ(i)i et que chaque coeeficient de la matrice a
degré 6 1.
Par ailleurs si σ n’est pas l’identité, alors il existe au moins deux i tels
que bσ(i)i est de degré 0, et donc le degré de bσ(1)1 . . . bσ(n)n est inférieur
ou égal à n − 2. Le coefficient devant X n provient alors de l’unique terme
n
b11 . . . bnn . Comme bii = X − aQ ii , on obtient que le coefficient devant X est le
même que celui du polynôme i (X − aii ). C’est donc 1. Le coefficient devant
n−1
X
Q du polynôme caractéristique
P est aussi le même que celui du polynôme
i (X − aii ), c’est donc − i aii .
Enfin, on a χA (0) = det(−A) = (−1)n det(A) qui est le terme constant
de χA .


4.2 Polynôme caractéristique d’un endomorphisme


Soit B une base de E. Alors on un isomorphisme
ΦB := L(E) −→ Mn (k).
Soit u ∈ L(E), on peut donc calculer χΦB (u) qui a priori dépend de la base
B. La propriété suivante nous dit que ce polynôme ne dépend pas du choix
de la base B.

Proposition 4.3
Soit A ∈ Mn (k) et P ∈ GLn (k). Alors on a

χP −1 AP = χA .

Démonstration : En effet, on a
χP −1 AP (X) = det(XIn −P −1 AP ) = det(P −1 (XIn −A)P = det P −1 χA (X) det P = χA (X).


On peut donc poser la définition suivante.


Définition 4.4 Soit u ∈ L(E). Le polynôme caractéristique de u est défini
comme
χu (X) := χA (X)
où A désigne la matrice de u dans une base quelconque B de E.

Par ailleurs, on obtient que le polynôme caractéristique est un invariant


de similitude.

4.3 Matrice compagnon


On peut se demander si tout polynôme unitaire de degré n est le polynôme
caractéristique est le polynôme d’une matrice. C’est clairement vrai si le
polynôme est scindé, car alors une matrice diagonale (ou même triangulaire)
dont les coefficients diagonaux sont les racines (avec multiplicité) de P a son
polynôme caractéristique égal à P .
Il existe néanmoins une autre construction d’une telle matrice, bien utile.

Définition 4.5 Soit P = a0 + a1 X + . . . an−1 X n−1 + X n ∈ k[X]. On pose

−a0
 
0
 ... .. 
1 . 
M (P ) :=  . ..  .
 .. 0 . 
1 −an−1

C’est la matrice compagnon du polynôme P .

Proposition 4.6
On a χM (P ) = P .

Démonstration : Ceci se démontre par récurrence sur n, en développant par


rapport à la première ligne.

Chapitre X

Réduction des endomorphismes

1 Valeurs propres-vecteurs propres


1.1 Racines du polynôme caractéristique
On a vu que χf était un invariant de similitude. C’est donc que l’ensemble
de ses racines sont aussi un invariant de similitude.
Or on a les équivalences suivantes
χf (λ) = 0 ⇔ det(λIdE − f ) = 0
⇔ λIdE − f non inversible
⇔ Ker(λIdE − f ) 6= 0
⇔ ∃v 6= 0E t.q. f (v) = λv
Ceci nous pousse à établir les définitions suivantes
Définition 1.1 Un tel λ est appelé un valeur propre de f . Un tel vecteur v
est appelé un vecteur propre associé à la v.p. λ. Et on note Vλ = Ker(λIdE −
f ), c’est le sous-espace propre associé à la v.p. λ.
Enfin on note Speck (f ) l’ensemble des valeurs propres de χf .
Une conséquence immédiate du fait que les valeurs propres sont les racines
du polynôme caractéristique est que f a au plus n valeur propres distinctes.
Avant d’étudier plus en détail les sou-espaces propres de f , faisons quelques
rappels.
Définition 1.2 Des sous-espaces vectoriels F1 , . . . , Fm sont en somme directe
si pour tout v ∈ F1 + . . . + Fm l’écriture
m
X
v= fi , fi ∈ Fi
i=1

125
est unique. De manière équivalente, on a
m
X
fi = 0, fi ∈ Fi ⇒ fi = 0∀i.
i=1

On note alors F1 ⊕ · · · ⊕ Fm pour la somme des Fi .

On a la propriété suivante facile à vérifier

Proposition 1.3
Soit B i une base de Fi pour
S i i = 1 . . . m, alors les Fi sont en somme
directe si et seulement si B forme une base de F . En conséquence, si
les espaces sont en somme directe on a
M X
dim Fi = dim Fi .
i

Proposition 1.4
Si Spec(f ) = {λ1 , . . . , λm } alors on a

Vλ1 + Vλ2 + · · · + Vλm = Vλ1 ⊕ · · · ⊕ Vλm .

On va tout d’abord montrer

Lemme 1.5
Une famille de vecteurs propres associés à des valeurs propres distinctes
est libre.

Démonstration : Soient λ1 , . . . , λm des valeurs propres distinctes. Ceci se dé-


montre par récurrence sur m. Pour m = 1 l’assertion est évidente car un
vecteur propre est non nul par définition. Soient maintenant v1 , . . . , vm des
vecteurs propres associés à λ1 , . . . , λm respectivement. Et supposons que l’on
ait des scalaires αi tels que
X m
αi vi = 0
i=1
. En appliquant f on obtient
m
X m
X
0 = f( αi vi ) = αi λi vi .
i=1 i=1

On peut donc écrire


m
X m
X m−1
X
0 = λm αi vi − αi λi vi = (λm − λi )αi vi .
i=1 i=1 i=

Par hypothèse de récurrence on obtient alors que pour tout i (λm − λi )αi =
0. Comme les valeurs propres sont deux à deux distinctes, on obtient bien
αi = 0. 

Démonstration : (de la proposition) Soit pour tout i vi ∈ Vλi tels que m


P
i=1 vi =
0. Alors si certains vi ne sont pas nuls, ils forment une famille libre ce qui
est impossible. On a donc nécessairement pour tout i, vi = 0, et donc les
sous-espaces propres sont en somme directe.


1.2 Dimension des sous-espaces propres

Proposition 1.6
Les dimensions des sous-espaces propres sont des invariants de simili-
tudes.

Démonstration : Si g = uf u−1 , et si x est un vecteur propre pour f , alors


u(x) est un vecteur propre de g. Donc u induit un isomorphisme de Vλ (f )
dans Vλ (g). 

On va par ailleurs voir le lien entre dimension des sous-espaces propres


et polynôme caractéristique.
Définition 1.7 Soit F un sous-espace de E. On dit que F est stable par f
si f (F ) ⊂ F . On peut alors définir f|F l’ endomorphisme restreint à F , qui
est un endomorphisme de F .

Exemple 1.8 Kerf , Im f , et Vλ sont stables par f .

Proposition 1.9
Si p = dim Vλ , alors (X − λ)p divise χf .

On utilise le lemme suivant :

Lemme 1.10
Si F est stable par f , alors χf|F divise χf .

Démonstration : Soit F un sous-espace stable par f . Choisissons alors une


base B 0 de F que l’on compète en une base B de E. Dans la base B, la matrice
de f est alors triangulaire par bloc, avec le bloc en haut à gauche égal à la
matrice de f|F dans la base B 0 . On conclut alors par la Proposition 3.5. 

Démonstration : (de la proposition) Le sous-espace propre Vλ est stable par


f , et f restreint à Vλ est l’homothétie de rapport λ. Donc son polynôme
caractéristique est (X − λ)p . 

2 Polynômes d’endomorphismes
2.1 Morphisme d’évaluation
Définition 2.1 Soit f ∈ End(E) et P = a0 + a1 X + . . . + am X m ∈ k[X]. On
définit P (f ) = a0 IdE + a1 f + . . . + am f m , c’est le polynôme P évalué en f .
Proposition 2.2
L’application evf : k[X] → End(E) qui à P associe P (f ) est un mor-
phisme d’algèbres (c’est-à-dire un morphisme d’anneaux et une applica-
tion linéaire).

Démonstration : Le fait que ce soit une application linéaire est clair. Si P1 =


X m et P2 = X p , alors (P1 P2 )(f ) = f m+p = f m ◦ f p = P1 (f ) ◦ P2 (f ).
Si P1 et P2 sont quelconques, on conclut par distributivité et linéarité. 

De même, on peut définir evA : k[X] → Mn (k), où A ∈ Mn (k).

Proposition 2.3
Si A = Mat(f, B), alors P (A) = Matn (P (f ), B).

Démonstration : En effet si on note ΦB : (E) → Mn (k) l’application envoyant


f sur Mat(f, B), ΦB est un isomorphisme d’algèbres. Donc si A = ΦB (f ) et
si P (X) = a0 + . . . + an X n on aura

a0 I n + a1 A + . . . + an A n = a0 ΦB (IdE ) + a1 ΦB (f ) + . . . + an ΦB (f )n
= a0 ΦB (IdE ) + a1 ΦB (f ) + . . . + an ΦB (f n )
= ΦB (a0 IdE + a1 f + . . . + an f n )
= P (f )

Proposition 2.4
Si g = uf u−1 , et si P ∈ k[X], alors P (g) = uP (f )u−1 .
Démonstration : Cela provient du fait que g n = (uf u−1 )n = uf n u−1 , donc
c’est vrai pour les monômes X n . 

Proposition 2.5
Si f (x) = λx alors P (f )(x) = P (λ)x.

Démonstration : On montre tout d’abord que pour tout p, f p (x) = λp x par


récurrence. Puis on conclut par linéarité. 

2.2 Polynôme minimal


Comme le morphisme d’évaluation est un morphisme d’anneaux, son
noyau est un idéal de k[X]. Comme k[X] est principal, cet idéal est de la
forme (µf ) où µf est un certain polynôme que l’on peut supposer unitaire.
Le noyau de evf est l’ensemble des polynômes qui s’annulent en f . C’est donc
l’unique polynôme qui vérifie :
1. µf unitaire ;
2. µf (f ) = 0 ;
3. pour tout P ∈ k[X] tel que P (f ) = 0, alors µf divise P .
Les polynômes de l’idéal (µf ) sont appelés polynômes annulateurs de f , et
le polynôme µf est appelé polynôme minimal de f .

Proposition 2.6
Le polynôme minimal est un invariant de similitude.

Démonstration : C’est une conséquence immédiate de Proposition 2.4. 

Définition 2.7 Soit f un endomorphisme et v un vecteur. Alors on peut


montrer que l’ensemble des polynômes P tels que P (f )(v) = 0E est un
idéal de k[X]. Il s’écrit donc (µf,v ), où µf,v est appelé le polynôme minimal
de f en v .
Proposition 2.8
Soit B = (e1 , . . . , en ) une base de E. Alors µf est le ppcm des µf,ei où
i = 1, . . . , n.

Démonstration : Il est clair que µf,ei divise µf pour tout i, donc leur ppcm
divisePµf . Supposons maintenant que P soitP divisible par tous les µf,ei . Soit
v= λi ei un vecteur, alors P (f )(v) = i λi P (f )(ei ) = 0. Donc µf divise
P. 

2.3 Théorème de Cayley-Hamilton

Théorème 2.9
χf (f ) = 0

Démonstration : On va montrer que pour tout x ∈ E, on a χf (f )(x) = 0E .


C’est clair pour x = 0E .
Soit donc x 6= 0E . Alors il existe p tel que la famille (x, f (x), .P . . , f p (x)) est
libre et la famille (x, f (x), . . . , f p+1 (x)), et on a donc f p+1 (x) = pi=0 ai f i (x).
Notons F = vect(x, f (x), . . . , f p (x)). Alors F est stable par f et la matrice
f|F dans la base (x, f (x), . . . , f p (x)) est
 
0 0 . . . a0
 ...
1 a1 

. . . . . ... 
 . 

1 ap

C’est la matrice compagnon du polynôme P = X p+1 − ap X p · · · − a0 . On a


donc χf|F (f )(x) = f p+1 (x) − ap f p (x) · · · − a0 x = 0. Comme χf|F divise χf ,
on a en déduit χf (f )(x) = 0E .

Corollaire 2.10
Le polynôme minimal divise le polynôme caractéristique. En particulier
le degré du polynôme minimal est toujours 6 n.

Corollaire 2.11
Les racines de µf sont exactement les valeurs propres de f .

Démonstration : µf divise χf , donc toute racine de µf est une racine de χf


donc une valeur propre.
Réciproquement, soit λ une valeur propre et x un vecteur propre associé.
Alors 0E = µf (f )(x) = µf (λ)x, donc µf (λ) = 0. 

Corollaire 2.12
f est nilpotent si et seulement si χf = X n si et seulement si SpecC (f ) =
{0}.

On a finalement montré que si f est un endomorphisme , alors on peut


lui associer {(λ1 , p1 , q1 , m1 ), . . . , (λs , ps , qs , ms )} où lesλi ∈ k sont les valeurs
propres, pi est la multiplicité de λi dans µf , qi = dimVλi et mi est la multi-
plicité de λi dans χf . Alors ces nombres sont des invariants de similitude.
NB : on a toujours pi , qi 6 mi . Mais on peut avoir pi 6 qi ou l’inverse.

3 Réduction aux sous-espaces caractéristiques


3.1 Lemme de décomposition des noyaux
Proposition 3.1
Soit P ∈ k[X] et f ∈ End(E). Alors KerP (f ) est un sous-espace stable
par f .

Démonstration : Cela vient du fait que P (u) ◦ u = u ◦ P (u). 

Théorème 3.2
Soient P et Q des polynômes premiers entre eux. Alors Ker(P Q(f )) =
Ker(P (f )) ⊕ Ker(Q(f )).

Démonstration : Montrons d’abord que les espaces sont en somme directe. Par
Bezout on a P U +QV = 1, ce qui implique donc U (f )◦P (f )+V (f )◦Q(f ) =
IdE . Soit x dans l’intersection des noyaux. Alors x = U (f ) ◦ P (f )(x) + V (f ) ◦
Q(f )(x) = 0E .
Soit x ∈ KerP Q(f ), et notons x1 = U P (f )(x) et x2 = V Q(f )(x). On a
alors x = x1 + x2 . Or Q(f )(x1 ) = U P Q(f )(x) = 0, et de même P (f )(x2 ) = 0.
On a donc une inclusion.
Enfin KerP (f ) ⊂ KerP Q(f ), et de même pour Q, donc la somme est
aussi incluse.


Corollaire 3.3
LsP1 , . . . , Ps sont premiers entre eux deux à deux, on a KerP (f ) =
Si
i=1 KerPi (f ).
3.2 Sous-espaces caractéristiques
Définition 3.4 Soit f un endomorphisme de E, λ ∈ Spec(f ), et m la multi-
plicité de λ dans χf . On définit Eλ = ker((λIdE − f )m ), c’est le sous-espace
caractéristique associé à la valeur propre λ.

Proposition 3.5
1. Le sous-espace propre Vλ est un sous-espace vectoriel du sous-espace
caractéristique Eλ .
2. Eλ est un sous-espace stable par f .
3. Si p est la multiplicité de λ dans µf , alors on a Eλ = ker((λIdE −
f )p ).

Démonstration :
1. Clair.
2. Soit x ∈ Eλ . Alors (λIdE − f )m (f (x)) = f ◦ (λIdE − f )m (x) = 0E , donc
Eλ est stable par f .
3. Le polynôme minimal de f restreint à Eλ divise µf , et il divise (X −λ)m
qui annule f|Eλ . Il divise donc leur pgcd qui est (X−λ)p , et donc (X−λ)p
est un polynôme annulateur de f|Eλ .


Théorème 3.6
Soit f tel que χf est scindé sur k, et notons χf = ri=1 (X − λi )mi , et
Q
notons fi l’endomorphisme f restreint à Eλi . Alors on a
1. E = Eλ1 ⊕ · · · ⊕ Eλr ;
2. dimk Eλi = mi
3. µfi = (X − λ)pi et χfi = (X − λ)mi .

Démonstration :
1. La décomposition en somme directe vient du lemme des noyaux. Le fait
que la somme soit E vient de Cayley-Hamilton.
2. On a que χfi divise χf . Et par ailleurs pour tout x dans Ei , on a
(f − λ − iIdEi )mi (x) = 0E , ce qui veut dire que (X − λi )pi annule fi .
Le polynôme caractéristique de fi a donc une unique racine qui est λi ,
il est don de la forme (X − λi )ti . Comme il divise χf , on a ti 6 mi ,
P ti est donc la dimension
où P de Ei . Finalement comme par le 1. on a
t
i i = n, comme i mi = n on obtient mi = ti pour tout i.
3. On a déjà vu chifi = (X − λi )mi . Le polynôme minimal lui divise µf ,
et χfi , il divise donc leur pgcd (X − λi )pi . Il est donc de la forme
(X − λi )si avec si 6 pi . Comme les µfi sont premiers entre eux, le
lemme des noyaux et 1. nous dit que
M M Y
E= Ei = Kerµfi = Ker( µfi ).
i i i

− λi )si . D’où
Q Q
Autrement dit i µfi annule f , et donc µf divise i (X
si > pi .


Ceci implique que pour une base adaptée à la décomposition en sous-


espaces caractéristiques, la matrice de f est diagonale par blocs.

3.3 Diagonalisation
Définition 3.7 Un endomorphisme est dit diagonalisable si il existe une
base B telle que Mat(f, B) est diagonale, ou autrement dit s’il existe une
base de vecteurs propres de f .
On a donc les équivalences

Théorème 3.8
Soit f avec Spec(f ) = {λ1 , . . . , λr }. Les assertions suivantes sont équiva-
lentes :
1. f est diagonalisable ;
2. il existe une base de E formée de vecteurs propres de f ;
3. E = Vλ1 ⊕ · · · ⊕ Vλr ;
4. χf est scindé sur k et pour tout i on a Eλi = Vλi ;
5. χf est scindé et pour tout i on a qi = mi (c’est-à-dire dimk Eλi =
dimk Vλi ) ;
6. µf est scindé et pour tout i, pi = 1 (autrement dit µf est scindé à
racines simples.)
Démonstration : 1 ⇔ 2 ⇔ 3 est clair, car on sait que les sous-espaces propres
sont en somme directe.
4 ⇒ 3 vient du théorème précédent.
3 ⇒ 4 vient de fait que dans la base correspondante à la décomposition,
la matrice de f est diagonale, sont polynôme caractéristique est donc scindé.
Puis on utilise Vi ⊂ Ei .
4 ⇔ 5 vient du fait que
Qr V i ⊂ E i .
3 ⇔ 6 Notons P = i=1 (X − Λi ). On a alors P divise µf car toutes les
valeurs propres sont racines de µf . On a les équivalences
r
M
E = Vλ1 ⊕ · · · ⊕ Vλr ⇔ Ker(λi IdE − f ) = E
i=1
⇔ KerP (f ) = E par le lemme des noyaux
⇔ P (f ) = 0
⇔ µf divise P
⇔ P = µf

3.4 Diagonalisation simultanée

Théorème 3.9
Soient f et g deux endomorphismes diagonalisables tels que f ◦ g = g ◦ f .
Alors il existe une base B telle que les matrices de f et g dans B soient
diagonales.

Démonstration : Soit V = Vλi (f ) un sous-espace propre de f , alors V est


stable par g. En effet si v ∈ V , on a f (g(v)) = g(f (v)) = g(λi v) = λi g(v),
donc g(v) ∈ V . De plus gi := g|V est digonalisable (son polynôme minimal
est scindé à racines simples). Soit B i une base de diagonalisation de gi . Alors
B = (B 1 , . . . , B s ) est une base de diagonalisation de g, elle l’est aussi de f
car elle respecte la décomposition en sous-espaces propres.

4 Reduction de Jordan
4.1 Trigonalisation
Définition 4.1 Un endomorphisme est trigonalisable s’il existe une base B
de E dans laquelle la matrice de f est triangulaire supérieure.

Théorème 4.2
f est trigonalisable si et seulement si χf est scindé sur k.

Corollaire 4.3
Toute matrice est trigonalisable sur C.

Démonstration : Le sens direct est immédiat.


On prouve par récurrence su n = dim E. Pour n = 1 c’est clair. Soit f
et λ une valeur propre de f (qui existe car χf est scindé) et v un vecteur
propre. Complétons v en une base (v, v2 , . . . , vn ), alors la matrice de f dans
cette base est triangulaire par bloc (un bloc de taille 1 et un de taille n − 1).
 
λ ∗
0 
 
 .. 
. B 
0

Par hypothèse de récurrence, il existe Q tel que Q−1 BQ est diagonale. En


posant  
1 0 0
0 
,
 
 ..
. Q 
0
on vérifie facilement que R−1 AR est triangulaire supérieure. 
Corollaire
Q 4.4
Si χf = (X − λi )mi est scindé sur k, il existe une base dans laquelle la
matrice de f est de la forme
 
T1 0 0
 0 T2 
 
 .. 
 . 
0 Ts

où chaque Ti est une matrice triangulaire supérieure de taille mi × mi .

4.2 Exemple
Exemple de calcul du polynôme minimal et des sous-espaces caractéris-
tiques, et d’une forme diagonale par bloc, où chaque bloc est triangulaire.
Etape 1 : Calculer le polynôme caractéristique, et le factoriser dans C.
Cela permet de déduire les valeur propres.
Etape 2 : Pour chaque valeur propre λi , on a des inclusions de sous-
espaces :
Vλi = Ker(f −λi IdE ) = Ei1 ⊂ Ker(f −λi IdE )2 = Ei2 ⊂ · · · ⊂ Ker(f −λi IdE )mi = Eimi = Eλi .
On sait que la dimension de Ei1 est qi 6 1, et que celle de Eimi est exactement
mi . Il existe donc un pi tel que Eipi = mi . Ce pi est la multiplicité de λi dans
µf . Il faut donc calculer ces noyaux successifs pour chaque valeur propre.

4.3 Décomposition de Dunford

Théorème 4.5 (Décomposition de Jordan-Dunford)


Soit f tel que χf est scindé sur k. Alors il existe des uniques endomor-
phismes d et n de E tels que
1. f = d+w;
2. d est diagonalisable ;
3. w es nilpotent ;
4. w ◦ d = d ◦ w.
Démonstration : Soient λ1 , . . . , λs les valeurs propres de f et E1 , . . . , Es les
sous-espaces caractéristiques. On définit d comme l’unique endomorphisme
tel que les Ei soient stables, et d|Ei = λi IdEi . Il est alors clair que d est
diagonalisable, en effet toute base respectant la décomposition en sous-espace
caractéristique est une base de diagonalisation.
De plus pour tout x de Ei , on a f ◦ d(x) = f (λi x) = λi f (x). Par ailleurs
d ◦ f (x) = λi f (x) car Ei est stable par f . Donc d ◦ f = f ◦ d sur Ei et donc
sur E. Finalement en posant w = f − d, on a bien que d et w commutent.
Montrons maintenant que w est nilpotent. Soit x ∈ Ei . Alors wmi (x) =
(f − d)mi (x) = (f − λi IdEi )mi (x) = 0E . En prenant le ppcm de tous les mi
on a bien que w est nilpotent.
Enfin montrons l’unicité. Supposons que d + w = d0 + w0 . On montre
d’abord que les Ei sont stables par d0 et w0 . Si x ∈ Ei , comme d0 commute à
w0 , il commute à f et donc il commute à (λi IdE − f )mi . On a donc (λi IdE −
f )mi ◦ d0 (x) = d0 ◦ (λi IdE − f )mi (x) = 0E donc d0 (x) ∈ Ei qui donc stable par
d0 .
De plus d et d0 commutent sur Ei car d est une homothétie. Ils sont alors
diagonalisables dans une même base. Dans cette base la matrice d − d0 sera
diagonale. Or on a d − d0 = w0 − w, il reste à montrer que la somme de deux
endomorphismes nilpotents qui commutent est encore nilpotent. Cela vient
de la formule du binôme de Newton. Si on prend une puissance assez grande,
tous les termes s’annulent.


Proposition 4.6
Dans la décomposition de Dunford, les endomorphismes d et w sont des
polynômes en f .

Démonstration : Notons Pi = (X − λi )pi et Qi = j6=i Pi .


Q

Les polynômes Pi et Qi sont premiers entre eux, on a donc un couple de


Bezout et donc :
Pi Ui (f ) + Qi Vi (f ) = IdE

L va vérifier que gi := Qi Vi (f ) est la projection sur Ei parallélement à


On
j6=i Ej .
Si x ∈ Ei , alors Pi Ui (f )(x) = 0 donc on obtient x = Qi Vi (f )(x) = gi (x).
Si x ∈ Ej avec j 6= i, alors Qi Vi (f ) = 0 L c’est à dire gi (x) = 0. Donc gi est
bien la projection surP Ei parallèlement
P à j6=i Ej .
On a donc d P = i λi gi = ( i λi Q
Pi Vi )(f ) est un polynôme en f , et
w = f − d = f − i λi Qi Vi (f ) = (X − i λi Qi Vi )(f ) aussi.


Vous aimerez peut-être aussi