Cours Algebre-1-2
Cours Algebre-1-2
Cours d’Algèbre 1
Andry Rabenantoandro et Christalin Razafindramahatsiaro
1
4 Introduction à la théorie des Groupes 46
4.1 Introduction et Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 Homomorphismes de Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.1 Introduction et Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.2 Groupes Quotients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3 Exemples de Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.3.1 Le groupe de permutations Sn . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.3.2 Le groupe diédral Dn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.3 Le groupe linéaire GLn (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2
1 Théorie Naı̈ve des Ensembles
1.1 Introduction et Définitions
Un objet est dit un objet mathématiques s’il a été formellement défini avec lequel on peut
faire un raisonnement déductif et des preuves mathématiques. Ainsi, de manière naı̈ve, on définit
un ensemble comme une collection d’objets mathématiques rassemblés d’après, au moins, une
propriété commune. Ces propriétés sont suffisants pour affirmer si un objet appartient ou pas à
l’ensemble. Les objets sont appelés aussi les éléments de l’ensemble. Si x est un élément d’un
ensemble E, on le notera tout simplement par : x ∈ E.
On notera aussi un ensemble en écrivant ses éléments séparés par des virgules entre deux acco-
lades ou en indiquant les propriétés de ses éléments entre deux accolades. Ainsi, par exemple,
on pourra noté l’ensemble des nombres entiers naturels pairs, soit par {0, 2, 4, 6, . . .}, ou bien par
{n ∈ N|n est pair} .
Deux éléments d’un ensemble sont égaux s’il définissent le même objet mathématiques. Ainsi,
l’ensemble
{−3, 5, {1, 2, 3} , 2, 4, 2, {2, 3, 1}}
définit le même ensemble que
{−3, 5, 4, 2, {2, 3, 1}} .
Soient A et B deux ensembles. On dit que A est inclus dans B (qu’on notera par A ⊂ B) si tout
élément de A est un élément de B. On dit aussi dans ce cas que l’ensemble A est une partie ou
sous-ensemble de B. Ainsi, les deux ensembles sont égaux (qu’on notera par A = B) si A ⊂ B et
B ⊂ A.
Si E est un ensemble, on notera l’ensemble des parties de E par P(E).
3
de plus, les ensembles A et B n’ont pas d’éléments en commun, on dit qu’ils sont disjoints et on
a A ∩ B = ∅.
Ainsi, on a les propriétés suivantes :
Démonstration. Exercice.
A × B:= {(a, b) : a ∈ A, b ∈ B}
est appelé le produit cartésien de A par B. Bien attendu, en général, on a A × B 6= B × A.
Enfin, si A et B sont deux parties d’un ensemble E, on dit que A et B sont disjoints si A ∩ B = ∅.
Exercice 1 (Travaux dirigés). 1. Considérons les ensembles suivants : A = {1, 13, 25} ; B =
{{1, 13} , 25} ; C = {{1, 13, 25}} ; D = {∅, 1, 13, 25} ; E = {25, 1, 13} ; F = {{1, 13} , {25}} ; G =
{{25} , {1, 13} , 25} ; H = {{1} , {13} , 25} .
a). Quelles sont les relations (d’égalité ou d’inclusion) qui existent entre ces ensembles ?
b). Déterminer A ∩ B; G ∪ H; E \ G; CA
D.
(A ∩ B) ∪ B c = A ∪ B c
(A \ B) \ C = A \ (B ∪ C)
A \ (B ∩ C) = (A \ B) ∪ (A \ C).
1.2 Applications
Dans cet section, considérons deux ensembles E et F.
4
Définition 1.2.1. Une application f de l’ensemble E dans l’ensemble F est une relation de cor-
respondance qui à tout élément x de E, on associe un unique élément y de F. L’application f sera
noté par :
f :E −→ F
x 7−→ y:=f (x).
Ainsi, si y = f (x), on dit que l’élément y est l’image de x par f, tandis que x est l’antécédent
de y par f. Bien attendu, les variables x et y sont muets. On pourra les notés par d’autres lettres.
Par exemple, si e est un élément de E, f (e) est l’image de e par f dans F.
g ◦ f :E → G
x 7→ g(f (x)).
Démonstration. Exercice.
5
Définition 1.2.3. Soit f une application de E dans F. On dit que :
1. f est injective ou une injection si tout élément de Im(f ) admet un unique antécédent,
i.e, pour tout e1 et e2 éléments de E tels que f (e1 ) = f (e2 ), on a, forcément e1 = e2 ;
2. f est surjective ou une surjection si Im(f ) = F, i.e, tout élément de F admet au moins
un antécédent ;
3. f est bijective ou une bijection si tout élément de F admet un unique antécédent, i.e, si
elle est à la fois injective et bijective.
Soit E un ensemble. L’application IdE de E dans E qui à tout élément x de E, on associe IdE (x):=x
est appelée l’application identique de E.
Proposition 1.2.5. Soit f une application de E dans F. L’application f est bijective si et seulement
si il existe une application g de F dans E telle que g ◦ f = IdE et f ◦ g = IdF . De plus, si f est une
bijection, une telle application g est bijective et unique. Elle sera appelée l’application inverse
de f. On la notera (par abus de notation) par f −1 .
Question 1.2.6. Soit une application f de E dans F. La condition d’existence d’une application
g telle que g ◦ f = IdE est -elle suffisante pour que f soit bijective ? Si oui, donnez une preuve.
Sinon, trouvez un contre exemple.
6
Exercice 3 (Travaux dirigés). 1. Considérons les parties de R suivantes :
f :E → G
x 7→ 2 − x;
g :F → G
x 7→ x2 + 1.
1.3 Dénombrabilité
Soit E un ensemble. On dit que E est un ensemble fini s’il possède un nombre fini d’éléments.
Si ce n’est pas le cas, on dit que E est infini. Dans le cas où l’ensemble E est fini, on note le
nombre d’éléments de E par #E ou par Card(E).
Définition 1.3.2. Soit E un ensemble. On dit que E est dénombrable s’il existe une injection de
E dans N. Cela veut dire qu’on peut numéroter les éléments d’un ensemble dénombrable.
Exemples 1.3.3. L’ensemble des entiers naturels N est dénombrable. En particulier, les ensembles
finis sont dénombrables.
7
Démonstration. A faire en classe.
Théorème 1.3.5 (Cantor). L’ensemble des nombres réels R n’est pas dénombrable. En particulier,
l’ensemble des nombres irrationnels n’est pas dénombrable.
Corollaire 1.3.6. Un nombre réel est dit transcendant s’il n’est pas algébrique. L’ensemble des
nombres transcendants n’est pas dénombrable.
De manière générale,
Définition 1.3.7. Soient E et F deux ensembles. On dit que E et F sont équipotents s’il existe
une bijection entre E et F.
Exemples 1.3.8. — Deux ensembles finis sont équipotents si et seulement si ils ont le même
nombre d’éléments ;
— Deux ensembles dénombrables infinis sont toujours équipotents ;
— Q n’est pas équipotent à R;
Le résultat suivant permet la plus part du temps pour montrer que deux ensembles sont équipotents :
8
Démonstration. On peut supposer que E ⊂ F et qu’il existe un sous-ensemble A de E tel que A
est équipotent à F.
Comme A est équipotent à F, il existe une bijection f : F → A. Posons C0 :=F \ E. Alors, les
ensembles C1 :=f (C0 ) et C0 sont deux sous-ensembles disjoints de F. En effet, par définitions,
C0 ⊂ F \ E et C1 ⊂ A ⊂ E. De la même manière, on pose C2 :=f (C1 ). On a :
C2 ⊂ f (A) ⊂ f (E) ⊂ A ⊂ E.
Or, par définition, les sous-ensembles C1 et f (E) sont disjoints. En effet, comme f est une bijection,
on a C1 = f (F \ E) = f (F ) \ f (E). Par conséquent, les ensembles C0 , C1 et C2 sont deux à deux
disjoints. Ainsi, on construit une suite des sous-ensembles (Ci )i∈N deux à deux disjoints de F définie
par : Ci+1 = f (Ci ). Posons :
C = ∪i≥0 Ci , D = ∪i≥1 Ci .
La fonction f induit ainsi une bijection de C dans D. De plus, on a :
F \ C = F \ (∪i≥0 Ci )
= F ∩ (∪i≥0 Ci )c
= F ∩ (∩i≥0 Cic )
= (F ∩ C0c ) ∩ (∩i≥1 C1c )
= (F ∩ E) ∩ (∩i≥1 C1c )
= E \ D.
Théorème 1.3.11 (Cantor). Soit E un ensemble. Les ensembles E et P(E) ne sont pas équipotents.
Démonstration. Supposons par l’absurde qu’il existe une bijection f : E → P(E). Considérons
l’ensemble :
A:= {u ∈ E : u ∈ / f (u)} .
Par définition, l’ensemble A est une partie de E et qu’il existe alors un élément p ∈ E tel que
A = f (p). Deux cas se présentent :
— Si p ∈ A : Alors, on a p ∈ f (p). Or, par définition de A, c’est une contradiction ;
— Si p ∈
/ A : Alors, on a aussi p ∈
/ f (p). Mais cela est aussi impossible.
D’où le résultat.
9
Exercice 5 (Travaux dirigés). 1. En s’inspirant de la preuve du théorème 1.19, expliciter une
bijection entre les intervalles [a, b[ et ]a, b[ .
2. Montrer que l’ensemble NN des suites d’entiers est équipotent à R.
3. Montrer que l’ensemble des parties de R n’est ni dénombrable, ni équipotent à R.
4. Montrer que l’ensemble RR n’est ni dénombrable, ni équipotent à R.
10
Remarque 1.4.3. Si la relation R est symétrique, on a ClRg (x) = ClRd (x). Dans ce cas, on le
note tout simplement par ClR (x) ou par ẋ ou par x et sera appelé la classe d’équivalence de
l’élément x.
Définition 1.4.6. Soit E un ensemble non vide. Une partition de E est une famille de sous-
ensembles non vides de E, deux à deux disjoints, dont la réunion est égal à E.
Proposition 1.4.7. Soit F une relation d’équivalence sur un ensemble E. Si x et y deux éléments
de E, on a :
1. x ∈ ClF (x);
2. ẋ = ẏ si et seulement si y ∈ ẋ;
3. Si y ∈
/ ẋ, on a ẋ ∩ ẏ = ∅.
Corollaire 1.4.8. Soit E un ensemble non vide. L’ensemble des classes d’équivalence de E forme
une partition de E. Inversement, toute partition d’un ensemble définit une relation d’équivalence.
Définition 1.4.9. Soit R une relation d’équivalence sur un ensemble E. L’ensemble E/R des
classes d’équivalences défini par :
E/R:= {ẏ : y ∈ E}
est appelé ensemble quotient de E par R. Ainsi, on en déduit une application de E vers E/R
qui a x ∈ E, on associe la classe ẋ. Cette application est appelé la projection (ou surjection)
canonique de E dans E/R.
a ≡ b mod n.
cette relation est dite la relation de congruence modulo n. Elle sera notée par nZ.
11
Proposition 1.4.10. La relation binaire nZ est une relation d’équivalence sur Z.
Ainsi :
Z/nZ:= {ȧ | a ∈ Z} .
Comme les restes possibles après division euclidienne par n sont : 0, 1, 2, . . . , n − 1, on conclut que :
Z/nZ = 0, 1, 2, . . . , n − 1 .
Pour la multiplication :
× 0 1 2 3 4 5
0 0 0 0 0 0 0
1 0 1 2 3 4 5
2 0 2 4 0 2 4
3 0 3 0 3 0 3
4 0 4 2 0 4 2
5 0 5 4 3 2 1
12
Soit a un entier. On dit que a est inversible dans Z/nZ s’il existe un entier u tel que
u·a=1
C’est à dire :
au ≡ 1 mod n.
Si c’est le cas, on dit que u est l’inverse de a dans Z/nZ. Noter bien que u est aussi inversible et
que a est son inverse.
L’ensemble des éléments inversibles de Z/nZ est noté par (Z/nZ)× . D’après la table de multipli-
cation ci-dessus, on a par exemple :
(Z/6Z)× = 1, 5 .
Preuve. Supposons que a est inversible. Donc, il existe un entier u tel que au ≡ 1 mod n. C’est à
dire, il existe un entier v tel que au = 1 + nv. D’après le théorème de Bézout, comme au − nv = 1,
où u et v sont des entiers, alors pgcd(a, n) = 1. Supposons maintenant que pgcd(a, n) = 1. D’après
Bézout encore, ils existent deux entiers u et v tels que au + nv = 1. Dans, Z/nZ, on a au + nv =
au + nv = au = 1 car nv = 0. D’où a est inversible dans Z/nZ.
Ainsi, pour vérifier si un élément a est inversible dans Z/nZ, il suffit de calculer le pgcd de a et n.
S’ils sont premiers entre eux, on conclut que a est inversible. Pour calculer l’inverse, on cherche un
couple d’entier (u, v) tel que
au + nv = 1
en utilisant l’algorithme d’Euclide. Ainsi, l’inverse de a est u.
Exemples 1.4.14. 1. L’ordre usuelle ≤ sur N, Z, Q ou sur R est une relation d’ordre (Ordre
total) ;
2. L’inclusion sur l’ensemble des parties P(E) d’un ensemble E est une relation d’ordre (Ordre
partiel) ;
3. La divisibilité sur l’ensemble des entiers Z est une relation d’ordre (Ordre partiel).
Noter bien que dans la plus part des cas, par abus, on notera une relation d’ordre par ≤ .
Soient (E, ≤) un ensemble ordonné et A une partie de E :
13
— Un élément M de E est appelé un majorant de A si pour tout élément x de A, on a x ≤ M ;
— Un élément m de E est appelé un minorant de A si pour tout élément x de A, on a m ≤ x;
— Un élément de A est appelé le plus grand élément de A s’il majore tous les éléments de
A et est noté par max(A);
— Un élément de A est appelé le plus petit élément de A s’il minore tous les éléments de
A et est noté par min(A);
— Si l’ensemble des majorants de A admet un plus grand élément, cet élément est appelé borne
supérieure et est noté sup(A);
— Si l’ensemble des majorants de A admet un plus grand élément, cet élément est appelé borne
inférieure et est noté inf(A).
— Si A admet une borne supérieure, on dit que la partie A est majorée. Si A admet une borne
inférieure, on dit que la partie A est minorée. Si de plus, elle est minorée et majorée, on dit
que A est bornée.
Remarque 1.4.15. Si la partie A admet un maximum, elle admet une borne supérieure et on a
max(A) = sup(A). De même, si A admet un minimum, elle admet une borne inférieure et on a
min(A) = inf(A).
Exercice 6 (Travaux dirigés). 1. Montrer que les relations suivantes sont des relations d’équivalences :
i). Le parallélisme sur l’ensemble des droites de R2 ou de R3 ;
ii). Sur R2 , (x, y)R(x0 , y 0 ) si et seulement si x + y = x0 + y 0 .
2. Montrer que les relations suivantes sont des relations d’ordres partiels :
i). L’inclusion sur l’ensemble des parties P(E) d’un ensemble E ;
ii). La divisibilité sur l’ensemble des entiers Z;
iii). Sur R2 , (x, y)T (x0 , y 0 ) si et seulement si |x0 − x| ≤ y 0 − y.
3. Soit E = R2 \ {(0, 0)} . Considérons la relation binaire R sur E définie comme suit : Pour tout
a et b dans E, aRb si et seulement si a et b appartiennent à une droite passant par (0, 0).
i). Soient (x, y) et (x0 , y 0 ) deux éléments de E. Montrer que (x, y)R(x0 , y 0 ) si et seulement
si il existe un nombre réel non nul λ tel que (x, y) = λ(x0 , y 0 ).
ii). Montrer que R est une relation d’équivalence.
iii). Notons par [x, y] la classe d’équivalence d’un élément (x, y) de E. Vérifier qu’on a [x, 1] =
[y, 1] si et seulement si x = y.
iv). Montrer qu’on a : E/R = {[x, 1] : x ∈ R} ∪ {[1, 0]}
4. (Important.) Soit f une application d’un ensemble E dans un ensemble F. On sait que la
relation R définie pour tout a et b dans E, par :
14
2 Equations Linéaires et Matrices
2.1 Vecteurs : Introduction
Avant de définir en general ce que c’est qu’un espace vectoriel, nous nous proposons dans cette
section de traiter la notion de vecteur. Ceci nous fournit un exemple concret d’espace vectoriel et
en même temps une motivation pour l’ étude abstraite des espaces vectoriels plus tard.
Dans tout ce qui suivra R et C sont respectivement l’ensemble des nombres réels et l’ensemble des
nombres complexes.
Définition 2.1.1 (Opérations sur les vecteurs). Etant donnés deux vecteurs u = (u1 , u2 , · · · , un )
et v = (v1 , v2 , · · · , vn ) ∈ Rn , et un élément k ∈ R, on définit les opérations suivantes :
— Addition : u + v = (u1 + v1 , u2 + v2 , · · · , un + vn ).
— Multiplication par un scalaire : ku = (ku1 , ku2 , · · · , kun ).
Dans ce cas, l’élément k ∈ R est appelé un scalaire.
On verra plus tard que (Rn , +, ·) où · représente la multiplication par un scalaire, forme une struc-
ture qu’on appelle espace vectoriel. Plus précisément, (Rn , +, ·) est un espace vectoriel sur R ou un
R-espace vectoriel où le R se réfère au corps des scalaires (on définira plus tard ce qu’est un corps).
On dit que l’addition el la multiplication par un scalaire se font composante par composante.
15
Interprétations graphique
— La somme u + v est représenté par la flêche qui part de l’origine et dont le sommet forme un
parallélogramme avec l’origine et les sommets de u et v.
— L’ensemble des points ku où u est un vecteur et k parcours R est la droite dirigée par le
vecteur u.
— Etant donnés deux vecteurs non nulls u et v de R2 . Quelle est l’ensemble de toutes les
combinaisons linéaires cu + dv de u et v ? Si u et v sont parallèles c’est une droite, sinon c’est
tout le plan R2 . Qu’en est-it de l’ensemble des combinaisons linéaires de trois vecteurs, quatre
vecteurs, etc ? On verra que deux vecteurs suffisent pour ”générer” R2 .
Le théorème suivant nous fournit les propriétés essentielles des opérations dans Rn . Ce sont les
propriétes que nous allons abstraire quand on étudiera les espaces vectoriels de manière abstraites.
Théorème 2.1.4. Quels que soient les vecteurs u, v, w ∈ Rn et quels que soient les scalaires
k, l ∈ R, on a :
(i) (u + v) + w = u + (v + w) (Associativité de l’addition)
(ii) u + v = v + u (Commutativité de l’addition)
(iii) u + 0 = u (0 est l’ élément neutre de l’addition)
(iv) u + (−u) = 0 (−u est l’inverse additive de u)
(v) k(u+v) = ku+kv (Distributivité de la multiplication par un scalaire par rapport à l’addition)
(vi) (k + l)u = ku + lu (La première addition est l’addition dans R tandis que la seconde est
celle dans Rn )
(vii) (kl)u = k(lu)
(viii) 1u = u.
u · v = u1 v1 + u2 v2 + · · · + un vn .
En effet, graphiquement, pour n = 2 ou n = 3, deux vecteurs non nulls sont orthogonaux si et seule-
ment si leur produit scalaire est null. La notion d’orthogonalité n’ est donc qu’une généralisation
en dimension supérieure de la notion usuelle de perpendicularité.
16
Théorème 2.1.8. Soient u, v, w ∈ Rn et soit k ∈ R.
(i) (u + v) · w = u · w + v · w
(ii) (ku) · v = k(u · v)
(iii) u · v = v · u
(iv) u · u ≥ 0
(v) u · u = 0 si et seulement si u = 0.
On dit que l’espace vectoriel Rn muni du produit scalaire est un espace euclidien de dimension n.
n
Définition 2.1.9. Soient deux vecteursp u = (u1 , · · · , un ) et v = (v1 , · · · , vn ) ∈ R . La distance
2 2
p1 − v1 ) + · · · + (un − vn ) . La norme (ou longueur ) du
entre u et v est définie par d(u, v) = (u
√
vecteur u est définie par kuk = u · u = u21 + · · · + u2n . Un vecteur w appelé un vecteur unitaire
si kwk = 1.
w
On observe que d(u, v) = ku − vk et que pour tout vecteur w 6= 0, le vecteur kwk est unitaire et
de même direction que w. On rappelle que le cercle centré à l’origine et de rayon de longueur 1 est
appelé le cercle unité.
En dimension √ 2, si nous considérons deux vecteurs p = (a, b) et q = (c, d), on voit facilement
que
p kpk = a2 + b2 représente la longueur de la flêche représentant le vecteur p et d(p, q) =
(a − c) + (b − d)2 représente la distance euclidienne qui sépare les pointes des flêches représentant
2
Exemples 2.1.10. Les vecteurs i et j sont unitaires. Compte tenu de la relation cos2 θ0 +sin2 θ0 = 1
pour tout θ0 ∈ R, tout vecteur unitaire du plan xy s’écrit sous la forme (cos θ, sin θ) où θ est l’angle
que fait le vecteur par rapport à l’axe des x.
u
Le vecteur u = (2, 2, 1) est de longueur 3 et kuk = ( 23 , 32 , 13 ) est unitaire (à vérifier).
Soit v = ( 12 , 21 , 12 , 12 ). On a v · v = 41 + 14 + 41 + 14 = 1. Soit w = (1, 1, 1, 1), on a kwk = 2 donc v = kwk
w
.
Le théorème suivant nous fournit une inégalité fondamentale reliant le produit scalaire et la norme.
17
D’un autre côté, on invite le lecteur a vérifier que pour tout nombres réels a et b on a l’inégalité
ab ≤ 12 (a2 + b2 ). Donc,
Pn n
i=1 |ui vi | |ui ||vi |
X
=
kukkvk kukkvk
i=1
n
1 |ui |2 |vi |2
X
≤ +
2 kuk2 kvk2 (2)
i=1
n n
!
1 X |ui |2 X |vi |2
= +
2 kuk2 kvk2
i=1 i=1
=1.
Définition 2.1.13. On définit l’angle θ entre deux vecteurs non null u et v ∈ Rn par :
u·v
cos θ = .
kukkvk
Proposition 2.1.14. Quels que soient les vecteurs u, v ∈ Rn et quel que soit le scalaire k ∈ R, la
norme dans Rn satisfait les propriétés suivantes :
(i) kuk ≥ 0.
(ii) kuk = 0 si et seulement si u = 0.
(iii) kkuk = |k|kuk.
(iv) ku + vk ≤ kuk + kvk (Inégalité triangulaire 2 ).
18
Nous rappellons les propriétés élémentaires suivantes.
Nous allons maintenant rapidement refaire ce qu’on a fait dans la section précédente. Dans toute
la suite K = R ou C, l’espace complexe à n dimensions Cn est en effet à la fois un espace vectoriel
sur R et un espace vectoriel sur C. Bien que l’ensemble sous-jacent soit le même, on verra plus tard
qu’il y a des différences entre les structures d’espace vectoriel sur R et sur C.
Comme dans le cas réel, les éléments de Cn sont appelés vecteurs (ou points) et les éléments de
K sont appelés scalaires. L’addition de deux vecteurs et la multiplication par un scalaire se font
composante par composante comme dans le cas réel. Dans le cas complexe, le produit scalaire et la
norme se définissent d’une manière légèrement différente du cas réel.
z · ω = z1 ω1 + · · · + zn ωn .
Il est facile de voir qu’avec cette définition z · z est un nombre réel positif, ce qui permet de définir
la norme.
Les notions d’orthogonalité et de distance se définissent de la même manière que dans le cas réel.
Exercice 7 (Travaux dirigés). 1. a). Déterminez si le vecteur (1, 3, 5) ∈ R3 est une combi-
naison linéaire de (0, 1, 0), (1, 4, 1) et (1, 0, 1).
b). Déterminez si le vecteur (1, 1) ∈ R2 est une combinaison linéaire de (0, 1), (1, 4) et
(1, 0). Dans le cas où la réponse est affirmative, est-ce que la représentation en tant que
combinaison linéaire est unique ?
2. Décrivez le sous-ensemble de R3 formé par toutes les combinaisons linéaires des vecteurs
u = (1, 1, 0) et v = (0, 1, 1). Trouvez un vecteur qui n’est pas combinaison linéaire de u et v.
3. Soient u = (π, 0) et v = (0, 2). Décrivez les sous ensembles de R2 suivants :
a). {cu|c ∈ N}.
b). {cu|c ≥ 0}.
c). {cu + dv|c ∈ N et d ∈ R}.
19
4. Est-ce que le vecteur w = (1, 0) est une combinaison linéaire des vecteurs u = (2, −1) et
v = (−1, 2) ?
5. Si u + v = ( 12 , 4, 1) et u − 2v = (1, 0, 2), calculez u et v.
6. Montrez que pour tout vecteur u, 0u = 0.
7. Démontrez Théorème 2.1.4.
8. Démontrez Proposition 2.1.8.
9. Démontrez Proposition 2.1.11.
10. Pour deux vecteurs u et v ∈ R2 , quand est-ce qu’on a l’égalité |u · v| = kukkvk ? l’égalité
ku + vk = kuk + kvk ?
11. Démontrez Proposition 2.1.14. Pour l’inégalité triangulaire on pourra utiliser le Théorème de
Cauchy-Schwarz.
12. Démontrez Proposition 2.2.1.
13. Montrez que pour z, ω ∈ Cn et k ∈ K on a :
a). z · ω = ω · z.
b). (kz) · ω = z · (kω).
c). z · (kω) = k(z · ω).
(Comparer avel le cas réel).
14. a). Soient u = (a, b) et v = (c, d) deux vecteurs du plan. Trouver une condition nécessaire
et suffisante pour que tout élément de R2 soit une combinaison linéaire de u et v.
c). Trouver quatre vecteurs de R4 tels que tout vecteur de R4 soit une combinaison linéaire
de ces vecteurs.
15. Si kuk = 5 et kvk = 3, quelles sont la plus petite et la plus grande valeurs de ku − vk ? Même
question pour u · v.
16. Est-il possible d’avoir trois vecteurs du plan dont les produits scalaires (deux à deux) sont
tous strictement négatifs ? Quand est-il dans R3 ?
17. Soient x, y et z trois nombres réels tels que x + y + z = 0. Trouver l’angle que les vecteurs
u = (x, y, z) et v = (z, x, y) font entre eux.
18. Reprendre les résultats (théorèmes, propositions, lemmes, corollaires) de la section 2.1.1 et
vérifiez si ils restent vrai ou deviennent faux (dans quel cas, fournir des contre-exemples) dans
le cas complexe.
Résoudre des systèmes d’équations linéaires est l’un des problèmes les plus importants en algèbre.
Dans cette section, on développera une méthode générale en utilisant des objets qui seront au centre
de notre cours : Les Matrices.
Pour commencer, considérons le système d’équations, qu’on va résoudre dans R2 , suivant :
(
2x − y =5
.
3x + 2y = 4
On peut voir ce système de deux manières différentes :
1er point de vue :
20
Ce système représente deux droites dans R2 d’équations respectives :
2x − y − 5 = 0, 3x + 2y − 4 = 0.
Les deux droites ne sont pas parallèles, la solution est donc les coordonnées du point d’intersection
qui est (x = 2, y = −1).
2e point de vue :
résoudre ce système estéquivalent
à répondre à la question
suivante : Trouver la combinaison
2 −1 5
linéaire des vecteurs et qui donne le vecteur , i.e, trouver x et y, nombres réels,
3 2 4
tels que :
2 −1 5
x +y = .
3 2 4
C’est dans ce deuxième point de vue qu’on va voir les choses la plus part du temps.
2.3 Matrices
Considérons les trois vecteurs de R3 suivants :
1 0 0
u = −1 , v =
1 , w = 0 .
0 −1 1
Une combinaison linéaire de ces trois vecteurs est de la forme :
x1
x1 u + x2 v + x3 w = x2 − x1
x3 − x2
où x1 , x2 et x3 sont des scalaires.
Maintenant, on va réecrire cette combinaison en utilisant l’un des plus importants objets en algèbre
linéaire : Les Matrices.
On va mettre les trois vecteurs dans les colonnes de la matrice A comme suit :
1 0 0
A:=(u v w) = −1 1 0 .
0 −1 1
x1
Posons x = x2 ∈ R3 . Ainsi, on définit le produit A · x (noté par Ax) comme suit :
x3
1 0 0 x1 x1
Ax = −1 1 0 x2 =x1 u + x2 v + x3 w = x2 − x1 .
0 −1 1 x3 x3 − x2
Par conséquent,Axest un vecteur de R3 qui est une combinaison linéaire des vecteurs u, v et w.
b1
De plus, si b = b2 est un vecteur de R3 , l’équation linéaire
b3
21
Ax = b
est un système de trois équations linéaires. La solution de ce système est :
x1
= b1
x2 = b1 + b2 .
x3 = b1 + b2 + b3
Ainsi,
1 0 0
x = b1 1 + b2 1 + b3 0 = Sb,
1 1 1
où
1 0 0
S = 1 1 0 .
1 1 1
Remarque 2.3.1. Considérons l’équation linéaire dans R :
ax = b
où a et b sont donnés et x est l’inconnu. La solution est :
b
x= = a−1 b
a
si a est non nul.
De la même manière, pour résoudre l’équation Ax = b, on suggère de trouver une méthode pour
trouver A−1 . On verra plus tard les conditions d’existence de la matrice A−1 . Ici,
A−1 = S.
Et, on dit dans ce cas que S est l’inverse de A. Par analogie, A est l’inverse de S.
22
On appellera la matrice I3 , la matrice identité de dimension 3. Cela nous donne une idée
assez clair sur comment on va faire la multiplication de deux matrices. Dans notre exemple, on a :
et
SA = (u0 v0 w0 )(u v w) = (Su Sv Sw) = I3 .
Avant de décrire les règles d’opérations sur les matrices, noter bien aussi la remarque suivante :
Remarque 2.3.2. Jusqu’à maintenant, on n’a adopté que le deuxième point de vue : ”Le point
de vue des colonnes”. Bien évidemment, on peut voir aussi les matrices sur les lignes (Le premier
point de vue). Posons :
Définition 2.3.3. Soient I et J deux ensembles d’indices. Une matrice A est une application :
A :I × J −→ K
(i, j) 7−→ aij
où K est l’ensemble de scalaires. Dans toute la suite, sauf mention explicite du contraire, les en-
sembles I et J sont finis et sont respectivement {1, 2, . . . , m} et {1, 2, . . . , n} . Dans ce cas, on
représentera la matrice A comme un tableau rectangulaire de dimension m×n dont les mn éléments
sont des scalaires. Les nombres des lignes et des colonnes sont respectivement m et n. On note A
par :
A = (aij )1≤i≤m,1≤j≤n
23
où aij sont des scalaires ; ou simplement par
A = (aij )
s’il n’y a pas de confusion. Le scalaire aij se trouve ainsi sur la i-ème ligne et la j-ème colonne de
la matrice A. Les n−tuplets
(ai1 . . . ain ) sont appelés les vecteurs lignes de A tandis que les
a1j
m ..
vecteurs de K , . sont appelés les vecteurs colonnes de A.
amj
Si de plus, n = m, on dit que la matrice A est une matrice carrée de dimension n. On notera par
Mn (K) l’ensemble des matrices carrées de dimension n (à coefficients dans K).
Par définition, on peut considérer comme des matrices, les éléments de Rn ou Cn . Ainsi, les vecteurs
colonnes de Rn ou Cn sont des matrices de dimension n × 1, tandis que les vecteurs lignes sont de
dimension 1 × n. Comme dans le cas de ces vecteurs, on a l’addition et la multiplication par un
scalaire entre les matrices. Par exemple :
0 1 2 1 2 2 0 1 0 −2
2 1 + 0 0 = 2 1 ; −2 2 1 = −4 −2 .
1 3 1 1 2 4 1 3 −2 −6
Par conséquent :
A + B = (aij + bij ).
Si k est un scalaire, on définit kA par :
kA = (kaij ).
AB = (ai · bj )1≤i≤m,1≤j≤p
a1
..
où A = . avec ai (1 ≤ i ≤ m) sont les vecteurs lignes de A.
am
24
On remarque ainsi que chaque vecteur colonne de AB est une combinaison linéaire des colonnes de
A. Mais encore, on a :
i-ème ligne de AB = i-ème ligne de A × B
et
j-ème colonne de AB = A × (j-ième colonne de B).
Proposition 2.3.6 (Linéarité de la multiplication par une matrice). Soit A une matrice dans
Mn (K). Considérons trois vecteurs colonnes u, v et w de Kn tels que w = au + bv où a et b sont
des scalaires. Alors on a :
Aw = aAu + bAv.
Preuve. Exercice.
Preuve. Exercice.
Définition 2.3.8. La matrice de Mn (K), qu’on notera par In (ou par I s’il n’y a pas de confusion),
définie par :
In = (aij )
où (
1 si i = j;
aij =
0 sinon.
est appelée la matrice identité.
Remarque 2.3.9. On remarque que la matrice I commute avec toutes les matrices dans Mn (K),
i.e, pour toute matrice A dans Mn (K), on a :
IA = AI.
Ainsi, si k est un scalaire, la matrice kI commute, elle aussi, avec toute les éléments de Mn (K).
25
Question 2.3.10. Peut-on trouver d’autres matrices (autres que kI) qui pourraient commuter avec
toute les éléments de Mn (K) ?
Réponse. Exercice.
Une dernière chose (importante) concernant la multiplication des matrices est ce qu’on appelle la
décomposition d’une matrice en blocs. Considérons par exemple une décomposition de la matrice
A en blocs suivante :
1 0 0 1 0 0
0 1 0 0 1 0 1 0 0
0 1 0 B
A= 0 0 1 0 0 1 = 0 0 1
0 0 0 0 1 0
O C
0 0 0 0 0 1
où
1 0 0
0 0 0 0 1 0
B = 0 1 0 , O= , C= .
0 0 0 0 0 1
0 0 1
Proposition 2.3.11. Soient A et B deux matrices décomposées en blocs des matrices. Si le nombre
des blocs sur une ligne de A est égal au nombre des blocs sur une colonne de B, la multiplication
de A × B peut se faire blocs par blocs (suivant la règle de multiplication de deux matrices).
Preuve. Exercice.
Ainsi, on obtient une troisième manière de multiplier deux matrices qui suit :
Corollaire 2.3.12. Soient A et B deux matrices tels que AB est bien défini. Pour tout i =
1, 2, . . . , n, notons respectivement par ai et bi les vecteurs colonnes de A et les vecteurs lignes de B.
Alors, on a :
AB = a1 b1 + . . . + an bn .
Voici un exemple :
3 1 −1 1 3 1 −3 3 1 0 −2 3
= (−1 1) + (1 0) = + = .
1 1 1 0 1 1 −1 1 1 0 0 1
2.3.2 Inverses
Soit A une matrice dans Mm×n (K). On dit que la matrice A admet un inverse à gauche (resp. à
droite) s’il existe une matrice G (resp. une matrice D) dans Mn×m (K) tel que :
GA = In (resp. AD = Im ).
Noter qu’en général (dans le cas où m 6= n), on peut vérifier que G 6= D.
26
Proposition 2.3.13. Soit A une matrice inversible dans Mn (K). Notons respectivement par G et
D un inverse à gauche et un inverse à droite de A. Alors :
G = D.
De plus, l’inverse de A est unique qu’on notera par A−1 . Ainsi, A est l’inverse de A−1 .
Dans toute la suite, quand on parle des inverses de matrices, on ne s’intéressera qu’au cas où la
matrice est carrée. Ainsi, on notera par GLn (K), le (sous-) ensemble des matrices inversibles de
Mn (K).
Preuve. Exercice.
Question 2.3.15. Si A et B deux matrices inversibles, est-ce que A + B est aussi inversible ?
Réponse. Exercice.
Proposition 2.3.16. Soit A une matrice dans Mn (K). La matrice A est inversible si et seulement
si pour tout vecteur b de Kn , il existe un unique solution dans Kn de l’équation :
Ax = b.
Ax = b.
Pour tout i = 1, 2, . . . , n, notons par bi le i-ième colonne de la matrice identité In . Par hypothèse,
il existe un unique xi dans Rn , solution de l’équation
Ax = bi
27
A−1 = (x1 x2 ··· xn )
est l’inverse de A.
Remarque 2.3.17. On a, dans la preuve de la proposition précédente, une méthode pour calculer
l’inverse d’une matrice.
On verra plus tard dans ce cours, des critères pour qu’une matrice soit inversible, ainsi que d’autres
méthodes pour calculer l’inverse d’une matrice.
x1 u1 + x2 u2 + . . . + xr ur = 0.
Ils sont dits linéairement indépendants dans le cas contraire.
Proposition 2.3.19. Soit A une matrice dans Mn (K). La matrice A est inversible si et seulement
si les vecteurs colonnes de A sont linéairement indépendants.
Preuve. Pour tout i = 1, 2, . . . , n, notons par ui le i-ième colonne de A. D’après Proposition 2.3.16,
l’équation Ax = x1 u1 + x2 u2 + . . . + xn un = 0 admet un unique solution. Or, le vecteur nul dans
Kn est une solution de cet équation. D’où le résultat.
Théorème 2.3.20. Soit A une matrice dans Mn (K). Les vecteurs colonnes de A sont linéairement
indépendants si et seulement si les vecteurs lignes de A le sont aussi.
Preuve. Notons par u1 , u2 , . . . , un les vecteurs lignes de A. Supposons que les vecteurs colonnes de
A sont linéairement indépendants. D’après la proposition 2.3.19, la matrice A est inversible. Ainsi,
en multipliant à droite par A−1 , l’équation
xA = x1 u1 + x2 u2 + . . . + xn un = 0
où x = (x1 , x2 , . . . , xn ) admet un unique solution (qui est le vecteur nul). D’où les vecteurs lignes
sont aussi linéairement indépendants. La réciproque se démontre de la même manière.
Ax = 0
admet plusieurs (au moins deux) solutions si et seulement si A n’est pas inversible. Dans ce cas,
on dit que la matrice A est singulière.
Preuve. Exercice.
28
2.3.4 Transpositions et Permutations
Dans ce paragraphe, on va introduire deux opérateurs (importants) opérant sur les matrices à
savoir : la Transposition et la Permutation.
Définition 2.3.22. Soit A une matrice. La matrice dont les colonnes sont respectivement les
vecteurs lignes de A est appelée la transposée de A (qu’on notera par AT ). Plus précisément :
Remarque 2.3.25. Soient A une matrice dans Mn (K) et x un vecteur colonne de Kn . Le vecteur
Ax est une combinaison linéaire des vecteurs colonnes de A tandis que xT A est celle des vecteurs
lignes de A.
Dans toute la suite, sauf mention explicite du contraire, tout vecteur de Kn sera considérer comme
un vecteur colonne.
Remarque 2.3.26. Soient x et y deux vecteurs de Kn . Alors on a :
x · y = xT y.
Si de plus, A est une matrice dans Mn (K), on a :
Ax = b
où A une matrice carrée, b un élément de Kn et x dans Kn est l’inconnu.
29
Remarque 2.3.28. Si A est une matrice triangulaire supérieure, sa transposée AT est une matrice
triangulaire inférieure, et inversement.
Définition 2.3.29. Soit A = (aij ) une matrice dans Mn (K). La matrice est dite symétrique si
AT = A, i.e, aij = aji .
Il est clair que si A est une matrice symétrique et inversible, alors l’inverse est aussi une matrice
symétrique.
Proposition 2.3.30. Soit A une matrice dans Mm×n (K). La matrice AT A dans Mn (K) est une
matrice symétrique.
Définition 2.3.31. Soit A = (aij ) une matrice dans Mn (K). La matrice est dite antisymétrique
si AT = −A, i.e, aij = −aji .
Définition 2.3.32. Une matrice P est dite une matrice de permutation si P est le produit de
matrices de type Pij . L’ensemble des matrices de permutations dans Mn (K) est noté par Pn .
Preuve. Exercice.
30
2.4 Equations Linéaires
Avant de passer aux choses sérieuses, illustrons cette section avec l’un des fondations (Si ce n’est
la fondation) de l’algèbre linéaire à savoir : La résolution d’un système d’équations linéaires.
Considérons le système suivant :
2x − y + z = 1
x+y+z =0
x + y − 2z = −1
où (x, y, z) ∈ K3 est l’inconnu. En utilisant la méthode d’élimination, on peut avoir le système
réduit (qui est plus facile à résoudre) qui suit :
2x − y + z = 1
−3y − z =1 .
−6z = −2
D’où :
x
= 19
y = − 49 .
z = 13
.
Maintenant l’idée est de ”revisiter” cette méthode en utilisant les matrices. La méthode est bien
connue sous le nom : La méthode de pivot de Gauss.
Reprenons l’exemple ci-dessus :
Considérons l’équation linéaire suivante :
Ax = b
où x ∈ K3 est l’inconnu avec :
2 −1 1 1
A = 1 1 1 ; b = 0 .
1 1 −2 −1
Définition 2.4.1. Soit A = (aij ) une matrice dans Mn (K). Une matrice Eij vérifiant les deux
propriétés suivantes :
i). La multiplication à gauche de A par Eij ne change que la i-ième ligne de A;
ii). La (i, j) position de la matrice Eij A est zéro ;
est appelée une matrice d’élimination du coefficient aij de A.
Proposition 2.4.2. Soient A = (aij ) une matrice dans Mn (K) et i, j et k trois entiers entre 1 et n
avec k < i. Supposons que akj et aij sont non nuls. Alors, la matrice déduite de la matrice identité
aij
In en remplaçant seulement la (i, k) position par − akj , est une matrice d’élimination du coefficient
aij de A. On notera cette matrice par Eij . De plus, La i-ième ligne de la matrice Eij A est égal à
aij
− akj Lk + Li où Lk et Li sont respectivement la k-ième ligne et la i-ième ligne de la matrice A.
31
Preuve. Exercice.
Proposition 2.4.3. Les matrices d’éliminations sont inversibles. De plus, si E = (ekl ) est une
matrice d’élimination de la (i, j) position d’une matrice donnée, la matrice inverse E −1 se déduit
de la matrice E en remplaçant seulement la (i, j) position par −eij .
Preuve. Exercice.
A0 x = b0
où
2 −1 1 1
A0 = E32 E31 E21 A = 0 3/2 1/2 ; b0 = E32 E31 E21 b = −1/2
0 0 −3 −1
avec
1 0 0 1 0 0 1 0 0
E21 = −1/2 1 0 ; E31 = 0 1 0 ; E32 = 0 1 0 .
0 0 1 −1/2 0 1 0 −1 1
Par conséquent, on retrouve le résultat :
x
= 19
y = − 49 .
z = 13
.
Remarquons ainsi que, A se factorise comme suit :
A = LU
où L et U sont respectivement une matrice triangulaire inférieure et une matrice triangulaire
supérieure, avec :
−1 −1 −1
L = E21 E31 E32
où
1 0 0 1 0 0 1 0 0
−1 −1 −1
E21 = 1/2 1 0 ; E31 = 0 1 0 ; E32 = 0 1 0 .
0 0 1 1/2 0 1 0 1 1
Remarque 2.4.4. En général, dans le procédé de la méthode d’élimination de la Proposition 2.4.2,
si le coefficient aij qu’on veut éliminer est déjà zéro, on ne fait rien, on passe au suivant qui est
généralement a(i+1)j ou a(i+1)(j+1) . Mais, plus important encore, on peut pas éliminer si akj = 0.
Si c’est le cas, on permute les lignes de A jusqu’à ce qu’on obtienne un premier coefficient qui est
non nul. On commence souvent par a11 .
32
Théorème 2.4.5 (Factorisation LU). Soit A une matrice carrée. Alors il existe une matrice de
permutation P tel que A se factorise comme suit :
P A = LU
où L et U sont respectivement une matrice triangulaire inférieure et une matrice triangulaire
supérieure.
Preuve. Une explication sera donnée en cours magistral.
Remarque 2.4.6. Maintenant, on sait que toute matrice carré A peut s’écrire de la forme :
P A = LU
comme l’indique le précédent théorème. Si de plus, la matrice A est inversible, il sera facile de
trouver son inverse en utilisant cette factorisation en utilisant le fait qu’il est ”facile” de trouver
les inverses des matrices d’élimination ainsi que les matrices triangulaires.
Exercice 8 (Travaux dirigés). Dans toute la suite, sauf mention explicite du contraire, K
désignera le corps des nombres réels R ou le corps des nombres complexes C.
1. Ecrire les deux problèmes suivants sous la forme Ax = b où A est une matrice 2 × 2, puis
donner une solution à chaque problème :
a). Alice est deux fois plus jeune que Bob et la somme de leur age est 33 ;
b). Les deux points (2, 5) et (3, 7) appartiennent à une droite d’équation y = mx+c. Trouver
m et c.
2. Pour chacune des matrices suivantes, trouver le scalaire a pour que la matrice soit singulière
(non inversible) :
1 3 5 1 0 a a a a
1 2 4 ; 1 1 0 ; 2 1 5
1 1 a 0 1 1 3 3 6
3. Soit A une matrice dans M3 (K) telle qu’il existe un vecteur colonne non nul x dans K3
vérifiant Ax = 0.
a). Montrer que les vecteurs colonnes de A forment un plan P dans K3 .
b). Montrer que P et x sont perpendiculaires.
4. Soit un système d’équations linéaires dans K3 .
a). Montrer que ce système ne peut pas avoir exactement deux solutions.
b). Si (x, y, z) et (u, v, w) sont deux solutions du système, pouvez vous trouver un autre ?
5. Trouver les matrices matrices E et L telles que l’on ait :
EP3 = P2 ; LP3 = I4
où
1 0 0 0 1 0 0 0
1 1 0 0 0 1 0 0
P3 =
1
; P2 = .
2 1 0 0 1 1 0
1 3 3 1 0 1 2 1
33
6. Considérons les matrices suivantes :
1 0 0 0 1 0 0 0 1 0 0 0
a 1 0 0 0 1 0 0 0 1 0 0
E1 = b 0 1 0 ; E2 = 0
; E3 = .
d 1 0 0 0 1 0
c 0 0 1 0 e 0 1 0 0 f 1
Montrer que :
1 0 0 0
a 1 0 0
L = E1 E2 E3 =
b
.
d 1 0
c e f 1
7. Calculer les inverses de trois matrices suivantes :
2 −1 0
0 0 0
1 −a 0 0 2 −1 0 0 −1 2 −1 0
0 0
0 1 −b 0 −1 2 −1 0 0 −1 2 −1 0 0
A= ; B=
0 −1 2 −1 ;
K=
.
0 0 1 −c 0 0 −1 2 −1 0
0 0 0 1 0 0 −1 2 0 0 0 −1 2 −1
0 0 0 0 −1 2
Calculer 4K −1 et 7K −1 .
8. Soit A et B deux matrices carrées de même dimension.
a). Montrer que A(I + BA) = (I + AB)A.
b). En déduire que I + BA est inversible si et seulement si I + AB l’est aussi.
9. Un sous ensemble de Mn (K) est appelé un groupe de matrices si pour toutes A et B deux
matrices de l’ensemble, on a : le produit AB et l’inverse de chaque élément sont dans l’en-
semble.
a). Montrer que si G est un groupe de matrices, la matrice identité In est automatiquement
dans G;
b). Montrer que : l’ensemble des matrices triangulaires inférieures telles que aii = 1; l’en-
sembles des matrices symétriques ; l’ensemble des matrices de permutations sont des
groupes de matrices.
c). Donner plus de groupes de matrices.
10. Ecrire une matrice dans M3 (K) de votre choix.
a). Trouver deux matrices B et C telles que : A = B + C et B et C soient respectivement
symétrique et anti-symétrique.
b). Ré-écrire B et C en fonction de A et AT .
11. Factoriser les matrices suivantes (de la forme A = LU ou P A = LU ) :
1 1 1 1
2 1 0 0 1 2 0 1 1
1 2 1 ; 0 3 8 ; 1 0 1 ; 1 2 3 4 .
1 3 6 10
0 1 2 2 1 1 2 3 4
1 4 10 20
34
3 Espaces Vectoriels et Sous-Espaces Vectoriels
Dans ce chapitre, nous allons étudier l’une des structures mathématiques fondamentales, étroitement
liées à l’algèbre linéaire : les espaces vectoriels. Les espaces vectoriels fournissent un cadre général,
et plus abstrait, pour l’étude des équations linéaires, des applications linéaires et des matrices entre
autres. Dans le premier chapitre, on a vu quelques exemples d’espaces vectoriels, notemment Rn
et Cn , ainsi que quelques propriétés de ces derniers. Certaines de ces propriétés vont nous servir
comme point de départ pour définir abstraitement ce qu’est un espace vectoriel (cf. Théorème
2.1.4), et de ce fait formeront les axiomes de base d’un espace vectoriel.
Dans tout ce chapitre, on fixe un ”corps” des scalaires K (pour l’instant, R ou C).
35
sans écrire les parenthèses, et la commutativité implique que l’ordre de sommation n’est pas im-
portant.
Proposition 3.1.4. L’élément neutre 0 est unique et pour tout u ∈ K, l’opposé −u de u est unique.
Preuve. Exercice.
Preuve. Exercice.
Exemples 3.1.7. Soit K = R ou C (ou un corps quelconque). On vérifie facilement que l’ensemble
Kn des n-tuples d’éléments de K muni de l’addition et de la multiplication par les scalaires fait com-
posantes par composantes est un espace vectoriel. Lélément neutre de l’addition est 0 = (0, 0, · · · , 0)
et bien sur −(a1 , a2 , · · · , an ) = (−a1 , −a2 , · · · , −an ).
Exemples 3.1.8. On vérifie que Mm×n (K) muni de l’addition des matrices et de la multiplication
des matrices par un scalaire est un espace vectoriel. La matrice nulle où toutes les entrées sont 0
est lélément 0 et l’opposé se déduit facilement.
36
Exemples 3.1.10. Soit E un ensemble non vide et soit F(E, K) l’ensemble de toutes les applica-
tions de E dans K. On munit F(E, K) de l’addition des applications et de la multiplication par un
scalaire comme suit : pour tout f, g ∈ F(E, K) et k ∈ K, on définit f + g par
et kf par
(kf )(x) = kf (x).
Lélément 0 est l’application nulle qui à chaque x ∈ E associe 0.
La vérification de ces exemples est un exercice facile laissé aux étudiants.
En particulier, {0} et V sont des sous-espaces vectoriels de V dites triviaux. On laisse le soin de
vérifier les quelques exemples suivant aux lecteurs :
Exemples 3.2.4. Soit le R-espace vectoriel V = R3 . L’ensemble W des vecteurs dont la dernière
composante est 0 est un sous-espace vectoriel de V .
Exemples 3.2.5. L’ensemble des matrices symt́riques de Mn (K) est un sous-espace vectoriel de
Mn (K).
Exemples 3.2.6. Soit V = K[X] l’ensemble des polynômes à coefficients dans K. Le sous-ensemble
des polynômes de degré inférieur ou égale à n est un sous-espace vectoriel de V .
Théorème 3.2.7. L’intersection de sous-espaces vectoriels d’un espace vectoriel V est un sous-
espace vectoriel de V . En particulier, toute intersection finie.
Preuve. Exercice à faire en classe.
Remarque 3.2.8. La réunion de deux sous-espaces vectoriels n’est pas forcément un espace vec-
toriel.
37
3.3 Combinaisons Linéaires et Générateurs
On a déja vu la notion de combinaison linéaire dans Kn . Il s’avère que cette notion peut se généraliser
au cas d’un espace vectoriel quelconque. Soient V un K-espace vectoriel et v1 , v2 , · · · , vn ∈ V . Un
vecteur de la forme a1 v1 + a2 v2 + · · · + an vn où les ai ∈ K est appelé une combinaison linéaire de
v1 , v2 , · · · , vn .
Définition 3.3.1. Soit S 6= ∅ un sous-ensemble non vide de V . Le plus petit sous-espace vectoriel
de V contenant S, qu’on notera désormais L(S) (une autre notation est Vect(S)), est appelé le
sous-espace de V engendré par S. On dit que S est un système générateur ou une famille
génératrice de L(S), ou encore, que les éléments de S sont des générateurs de L(S).
Lorsque S = {u1 , u2 , · · · , um }, on écrira L(S) = L(u1 , u2 , · · · , um ) s’il n’y a pas risque de confusion.
On convient que L(∅) = {0}.
Définition 3.3.2 (Espace vectoriel de type fini). Un espace vectoriel V est dit de type fini s’il
peut être engendré par un nombre fini d’éléments.
Théorème 3.3.3. Soit S ⊆ V un sous-ensemble. Alors L(S) est l’ensemble de toutes les combi-
naisons linéaires des éléments de S.
Preuve. Soit WS l’ensemble de toutes les combinaisons linéaires des éléments de S. D’une part,il
est clair que 0 = 0 s ∈ WS (s ∈ S). Aussi, on vérifie facilement que l’addition de deux combinaisons
linéaires d’ éléments de WS est un élément de WS . De même, la multiplication par un scalaire
d’une combinaison linéaire d’ éléments de WS est un élément de WS . Donc, WS est un sous-espace
vectoriel de V contenant S. Comme L(S) est le plus petit sous-espace vectoriel de V contenant S,
on a L(S) ⊆ WS . D’autre part, L(S) étant un sous-espace contenant S, donc L(S) contient toute
combinaison linéaire d’éléments de S. Donc, WS ⊆ L(S). Finalement, on a alors L(S) = WS .
Théorème 3.3.4. Soit S ⊆ V un sous-ensemble. Alors, L(S) est l’intersection de tous les sous-
espaces vectoriels de V contenant S.
Preuve. Exercice.
0
Exemples 3.3.5. Soit le R-espace vectoriel V = et v ∈R2 R2 \ {
}. On peut se demander quel
0
est le sous-espace engendré par v, ou L({v}). D’après Théorème 3.3.3, L(v) = {λv| λ ∈ R}. C’est
donc la droite passant par l’origine et v. Soit w ∈
/ L(v) un autre élément non null de V . On peut
montrer que L(v, w) = R2 (que l’on fera plus tard).
38
Exemples 3.3.8. Soit le R-espace vectoriel V = C). On sait que tout élément de C s’écrit sous la
forme a + ib où a, b ∈ R. Donc, {1, i} est un système générateur de C en tant que R-espace vectoriel.
Définition 3.4.1. L’espace colonne de la matrice A ∈ Mm×n (K), qu’on écrira C(A), est le sous-
espace de Km engendré par les vecteurs colonnes de A. C’est donc l’ensemble de toutes les combi-
naisons linéaires possible des vecteurs colonnes de A.
En effet, on sait que s’il existe un x tel que Ax = b alors b est une combinaison linéaire des colonnes
de A. Il s’avère que c’est une condition suffisante selon la proposition suivante
Preuve. Si x est une solution, donc b ∈ C(A). Inversement, si b ∈ C(A), alors b est une combinaison
linéaire des colonnes de A et les coefficients de cette combinaison linéaire nous fournit une solution
x du système Ax = b.
3 0
Exemples 3.4.3. L’espace colonne C(A) de la matrice A = 4 1 est le sous-espace de R3
2 1
3 0
engendré par 4 et 1, i.e. le plan contenant ces deux vecteurs. Notez bien que A ∈ M3×2 (R)
2 1
et que C(A) ⊆ R . 3
Il est clair que 0 ∈ C(A), ce qui indique en particulier que l’équation Ax = 0 admet au moins une
solution, à savoir au moins la solution x = 0. Les sous-espaces vectoriels formés par les solutions de
telles equations tiennent une place importante dans la théorie des espaces vectoriels. On y reviendra
un peu plus tard.
39
3.5 Espace Ligne d’une Matrice
D’une manière analogue au cas des espaces colonnes, on a
Définition 3.5.1. L’espace ligne de la matrice A ∈ Mm×n (K), qu’on écrira R(A), est le sous-espace
de Kn engendré par les vecteurs lignes de A. C’est donc l’ensemble de toutes les combinaisons
linéaires possible des vecteurs lignes de A.
Remarque 3.5.2. La notation R(A) vient de l’anglais ”row” qui signifie ”ligne”. Aussi, la notation
L(·) est réservé aux sous-espaces engendrés par des éléments de l’espace vectoriel en question.
Théorème 3.5.3. Soient A = (aij ) ∈ Mn (K), Pn une matrice de permutation et Eij une matrice
d’élimination de la composante aij de A. Alors, R(Pn A) = R(Eij A) = R(A).
Preuve. Exercice.
Une méthode, entre autres, pour montrer qu’un sous-ensemble de Kn est donc un sous-espace
vectoriel est de montrer que le sous-ensemble en question est l’espace nulle d’une matrice. En
général, tout sous-espace vectoriel de Kn est l’espace nulle d’une matrice. Pour l’instant, on n’a pas
assez de matériels pour prouver cette dernière assertion.
Exemples 3.6.3. Considérons le plan R3 déquation
de : 2x + y − 3z = 0. On remarque que cette
x 0
équation est équivalente à 2 1 −3 y = 0, i.e. que le plan en question est l’espace nulle
z 0
de la matrice A = 2 1 −3 .
40
3.7 Sommes et Sommes Directes
Soit V un K-espace vectoriel. Soient U et W deux sous-espaces de V . On définit un nouveau
sous-ensemble de V .
U + W := {u + w| u ∈ U, w ∈ W }.
Preuve. Exercice.
Définition 3.7.3. On dit que la somme U + W est une somme directe si pour tout t ∈ U + W , il
existe un unique couple (u, w) ∈ U × W tel que t = u + w. En d’autre termes, la somme est directe
si la décomposition de tout élément de U + W en somme d’un élément de U et d’un élément de W
est unique. Dans ce cas, on écrit U ⊕ W .
Cette définition s’étend sans aucune difficulté au cas d’un nombre fini de sous-espaces. On peut
même définir la notion de somme directe d’une famille infinie, dénombrable ou non, de sous-espaces,
mais on se limite au cas fini pour l’instant.
Théorème 3.7.4. L’espace vectoriel V est la somme directe des sous-espaces U et W si et seule-
ment si :
(i) V = U + W et
(ii) U ∩ W = {0}.
Exercice 9 (Travaux dirigés). 1. Donnez un exemple montrant que la réunion de deux sous-
espaces vectoriels n’est pas forcément un espace vectoriel.
2. Soit V = KN l’ensemble de toutes les suites (a1 , a2 , a3 , · · · ) déléments de K muni de l’addition
par composante et de la multiplication par un scalaire par composante. Vérifiez que V est un
K-espace vectoriel. Notons K(N) le sous-ensemble des suites à support fini, i.e., les suites dont
tous les termes sont nuls sauf un nombre fini d’entre eux. Montrez que K(N) est un sous-espace
vectoriel de KN .
3. Est-ce que le sous-ensemble de R2 suivant est un espace vectoriel sur R ?
E = {(x, y) ∈ R2 | x ≥ 0}.
Expliquez.
41
4. Décidez, dans chacun des cas suivant, si V = R2 muni des lois d’additions et de multiplications
par un scalaire données sont des espaces vectoriels sur R ou non (justifiez en cas de réponse
négative) :
i). (a, b) + (c, d) = (a + b, c + d) et k(a, b) = (ka, b).
ii). (a, b) + (c, d) = (a + b) et k(a, b) = (ka, kb).
iii). (a, b) + (c, d) = (a + b, c + d) et k(a, b) = (k 2 a, k 2 b).
5. Considérons le système d’equations linéaires en les inconnus x1 , · · · , xn et à coefficients dans
R suivant :
Un tel système est dit homogène (toutes les monômes ont le même degré, ici 1). Montrez que
l’ensemble de toutes les solutions de ce système forme un sous-espace vectoriel de Rn . Si le
systéme linéaire n’est pas homogène, est-ce que l’ensemble des solutions forme toujours un
espace vectoriel ? Si oui, démontrez, si non donnez un contre-exemple.
6. Soit V = F(E, K) comme dans Exemples 3.1.10 avec K = R. Montrez que le sous ensemble
W de F(E, K) des fonctions bornées dans V est un sous-espace vectoriel. On rappelle qu’une
fonction f á valeur réelle est bornée s’il existe un nombre réel M ∈ R tel que |f x| ≤ M pour
tout x ∈ E.
7. Donnez un système générateur de C2 en tant que C-espace vectoriel, puis en tant que R-espace
vectoriel.
8. Soit V = R4 en tant que R-espace vectoriel. Déterminez si v = (3, 9, −4, −2) appartient au
sous-espace de V engendré par u1 = (1, −2, 0, 3), u2 = (2, 3, 0, −1) et u3 = (2, −1, 2, 1).
9. Décrivez les espaces colonnes des matrices suivantes :
1 0
a). I2 = .
0 1
2 3
b). A = .
1 23
1 2 3
c). A = .
0 0 4
1 0 0 0
10. a). Décrivez un sous-espace de M2 (R) contenant A = mais pas B = .
0 0 0 −1
b). Si un sous-espace de M2 (R) contient A et B, est-ce que ce sous-espace doit contenir I2 ?
c). Décrivez un sous-espace de M2 (R) ne contenant aucune matrice diagonale non-nulle. Une
matrice carée est dite diagonale si tous ses coefficients qui ne sont pas sur la diagonale
sont nuls.
11. Vrai ou faux, justifiez votre réponse :
a). L’ensemble des matrices symétriques de Mn (K) forme un sous-espace vectoriel.
42
b). L’ensemble des matrices antisymétriques de Mn (K) forme un sous-espace vectoriel.
c). L’ensemble des matrices de Mn (K) qui ne sont pas symétriques forme un sous-espace
vectoriel.
12. Vrai ou faux, justifiez votre réponse :
a). Les éléments b qui ne sont pas dans C(A) (pour une matrice A) forme un sous-espace.
b). Si C(A) = 0, alors A est la matrice nulle.
c). Soit A ∈ Mm×n (R), alors C(2A) = C(A).
d). Soit A ∈ Mn (K), alors C(A − In ) = C(A)
3.8.1 Base
Avant de traiter le cas général, revenons d’abord au cas du R-espace vectoriel C. On sait que tout
nombre complexe z est une combinaison linéaire à coefficients réels de 1 et de i, i.e. z = a + ib
où a, b ∈ R, ou encore que L(1, i) = C (i.e. {1, i} engendre C) en tant que R-espace vectoriel. En
plus, cette écriture est UNIQUE, ce qui revient à dire que si z = a + ib = a0 + ib0 alors a = a0 et
b = b0 (ce qui équivaut à dire que si z = a + ib = 0 alors a = b = 0). On dit que {1, i} est une
base de C en tant que R-espace vectoriel. De la même manière, on voit que tout élément, disons
(a, b), du R-espace vectoriel R2 s’écrit de maniére unique comme (a, b) = ae1 + be2 où e1 = (1, 0)
et e2 = (0, 1). Dans chacun des deux cas ci-dessus, les vecteurs 1 et i pour C et les vecteurs e1 et
e2 pour R2 , ont les ont deux propriétés fondamentales qui incarnent la notion de base : ils suffisent
pour décrire tout él’ement de l’espace ent tant que leurs combinaisons linéaires, et chaque écriture
est unique. On peut faire le même exercice pour Cn , Rn et d’autres espaces vectoriels. Dans ce
paragraphe, nous allons formaliser ces notions.
Définition 3.8.1 (Indépendance linéaire). Soit V un K-espace vectoriel et E ⊆ V un sous-ensemble
(fini ou infini). On dit que les vecteurs de E sont linéairement indépendants (ou, par abus, que
E est linéairement indépendant), ou que E forme une famille libre de vecteurs, si :
n
!
X
∀n ∈ N\{0}, ∀a1 , a2 , · · · , an ∈ K et ∀v1 , v2 , · · · , vn ∈ E : ai vi = 0 ⇒ a1 = a2 = · · · = an = 0 .
i=1
Sinon, on dit que les vecteurs de E sont linéairement dépendants (ou, par abus, que E est
linéairement dépendant), ou encore que E forme une famille liée.
Ainsi, v1 , v2 , · · · , vm ∈ V sont linéairement indépendants si l’égalité
a1 v1 + a2 v2 + · · · + am vm = 0, a1 , a2 , · · · am ∈ K,
implique
a1 = a2 = · · · = am = 0.
Remarquons que si l’un des vi ∈ E est le vecteur null, alors les vecteurs de E sont forcément
linéairement dépendants.
43
Exemples 3.8.2. Considérons le R-espace vectoriel R3 . Soient les vecteurs u = (1, −1, 0), v =
(1, 3, −1) et w = (5, 3, −2). Comme 3u + 2v − w = 0, ces vecteurs sont linéairement dépendants.
Démonstration. Exercice.
Définition 3.8.5 (Base). On appelle un sous-ensemble B d’un espace vectoriel V une base de V
si B engendre V et si B forme une famille libre de vecteurs.
Proposition 3.8.6. Une famille B de vecteurs d’un espace vectoriel V est une base si et seulement
si tout vecteur v ∈ V s’écrit de manière unique comme combinaison linéaire d’élements de B :
v = a1 v1 + · · · + an vn .
Démonstration. Exercice.
Le théorème suivant caractérise les bases finis, auxquelles on va se réduire la plupart du temps.
(iv) B est un ensemble maximal linéairement indépendant, i.e. : les vecteurs de B sont linéairement
indépendant mais pour tout v ∈ / B, les vecteurs de l’ensemble B ∪ {v} sont linéairement
dépendants.
44
3.8.2 Dimension
La ”dimension” est un invariant fondamental des espaces vectoriels qui permet en quelque sorte de
mesurer leurs ”tailles”. C’est un peu plus pertinent que la cardinalité (qui mesure la ”taille” d’un
ensemble) car la dimension prends en compte la structure d’espace vectoriel.
Lemme 3.8.11.
Pn Soient V un K-espace vectoriel de type fini et B = {w1 , w2 , · · · , wn } une base de
0
V . Soit ω = i=1 ai wi ∈ V (ai ∈ K). Si aj 6= 0, alors B = {w1 , w2 , · · · , wj−1 , ω, wj+1 , · · · , wn } est
une base de V . On peut donc changer wj en ω (avec aj 6= 0) et on obtient encore une base.
Démonstration. On montre d’abord que B 0 engendre V . Pour cela, il suffit de montrer que ωj est
une combinaison linéaire d’éléments de B 0 . En effet, on a
n
1 X −ai
ωj = ω+ ωi .
aj aj
i=1,i6=j
alors, on a
n n
!
X X
b a i wi + bi ωi = baj ωj
i=1 i=1,i6=j
3.8.3 Déterminants
Exercice 10 (Travaux dirigés). 1. Considérons R4 en tant que R-espace vectoriel. Montrez
que les vecteurs suivants sont indépendants : (6, 2, 3, 4), (0, 5, −3, 1) et (0, 0, 7, −2).
2. Démontrez la Proposition 3.8.4.
3. Montrez que deux vecteurs sont linéairement dépendants si et seulement si l’un d’entre eux
est un multiple de l’autre.
4. Vérifiez l’exemple 3.8.7.
5. Donnez une base du R-espace vectoriel V = {(a, a, b)|a, b ∈ R}.
6. Soit le Q-espace vectoriel V = Q3 et W ⊆ V le sous-espace engendré par E = {(1, 2, 3), (2, 3, 4), (3, 5, 7)}.
Montrez que E n’est pas une base de V mais que {(1, 2, 3), (2, 3, 4)} en est une.
7. Montrez que l’ensemble suivant est un R-espace vectoriel :
45
4 Introduction à la théorie des Groupes
On sait que l’ensemble Z, Q ou R est muni de deux opérations usuelles à savoir : L’addition et la
multiplication. Un espace vectoriel est aussi muni d’une opération de telle sorte : L’addition de deux
vecteurs. Cela donne un nouveau moyen de mieux comprendre ces ensembles et mieux encore : de
les classifier. Ainsi, avec ces opérations, on a ce qu’on appellera des structures algébriques sur
ces ensembles. Ainsi notre but est de formaliser ces idées de manière abstraite.
Définition 4.0.1. Soit E un ensemble. Une opération binaire (ou loi de composition interne)
? sur E est définie par l’application :
E×E →E
(x, y) 7→ x ? y.
Autrement dit, pour tout x et y éléments de E, x ? y est un élément de E et il est défini de manière
unique. Un ensemble E muni d’une opération ? sera noté par (E, ?). S’il n’y a pas de confusion,
l’opération x ? y sera notée tout simplement par xy.
Si T est une partie de E, on dit que l’opération est fermée sur T, si la restriction de l’application
sur T × T a pour image dans T. Autrement dit, pour tout x et y dans T, on a x ? y ∈ T. On dit
aussi que la loi de composition sur T est interne.
Un opération binaire sur un ensemble E définit de ce qu’on appellera une structure algébrique
sur E. Autrement dit, on dit que (E, ?) est une structure algébrique.
Exemples 4.0.2. 1. L’addition, la soustraction et la multiplication sont des opérations binaires
sur Z, Q, R ou C;
2. La soustraction n’est une loi de composition interne sur N;
3. L’addition et la multiplication des matrices carrées sont des opérations binaires ;
4. L’addition et la soustraction de vecteurs sont des opérations binaires sur les espaces vectoriels ;
5. Le produit vectoriel de deux vecteurs sur R3 est une opération binaire sur R3 ;
6. La loi de composition d’applications est une opération binaire sur l’ensemble RR des applica-
tions numériques ;
7. L’addition est une loi de composition interne sur l’ensemble des nombres paires ;
8. L’addition n’est pas une loi de composition interne sur l’ensemble des nombres impaires.
En primaire, on a appris les tables d’additions et de multiplications sur l’ensemble des entiers
naturels. Ci dessous est une tentative de formaliser cet idée sur un ensemble fini :
Définition 4.0.3. Soit (E, ?) un ensemble fini muni de l’opération binaire ?. Le tableau qui
présente, pour tout élément x et y de E, les résultats qu’on obtient par la loi ? est appelé table
de Cayley de (E, ?).
Exemples 4.0.4. Soit ({−1, 0, 1} , ×) un ensemble où × est la multiplication usuelle sur Z. Son
table de Cayley est le suivant :
× -1 0 1
-1 1 0 -1
0 0 0 0
1 -1 0 1
46
Voici quelques caractéristiques usuelles d’une opération binaire sur un ensemble :
Proposition 4.0.6. Soit (E, ?) une structure algébrique admettant un élément neutre. Alors :
i). L’élément neutre est unique ;
ii). Si de plus, l’opération est associative, l’inverse d’un élément inversible est unique.
L’inverse d’un élément inversible x de E sera noté par x−1 .
Proposition 4.1.3. Soient (M1 , ?1 ) et (M2 , ?2 ) deux monoı̈des d’éléments neutres respectifs e1 et
e2 . Considérons l’opération binaire ? sur l’ensemble produit G:=M1 × M2 définie par :
G×G→G
((a, x), (b, y)) 7→ (a, x) ? (b, y):=(a ?1 b, x ?2 y).
La structure (G, ?) est un monoı̈de d’élément neutre (e1 , e2 ). C’est ainsi qu’on définit une structure
algébrique sur un produit cartésien de deux ensembles.
47
4. Soit n ≥ 3. Les structures (Z/nZ \ 0̇ , ×) et (Mn (R) \ {0} , ×) ne sont pas de groupes en
général mais des monoı̈des ;
5. (Z, +), (Q, +), (R, +) et (C, +) sont des groupes abéliens ;
6. (R2 , +) est un groupe abélien ;
7. Soit n un entier naturel non nul. Les structures (Z/nZ, +) et (Mn (R), +) sont des groupes
abéliens ;
8. Soient n et m deux entiers naturels non nuls. La structure (Z/nZ × Z/mZ, +) est un groupe
abélien ;
9. Si V est un espace vectoriel, la structure (V, +) est un groupe abélien ;
10. L’ensemble des rotations de centre (0, 0) sur R2 définit un groupe abélien avec la loi compo-
sition des transformations ;
11. L’ensemble des applications numériques bijectives définit un groupe non abélien avec la loi
de composition des applications ;
12. L’ensemble GLn (R) des matrices carrées inversibles d’ordre n ≥ 2 à coefficients dans R définit
un groupe non abélien avec la loi multiplication des matrices ;
13. Soit E un ensemble fini. L’ensemble P(E) des applications bijectives de E dans E définit un
groupe avec la loi de composition des applications. On appelera cet groupe, le groupe de
permutation de l’ensemble E. Si E est de cardinal n, on notera cet groupe par Sn .
Dans toute la suite, on ne s’intéressera qu’à des structures de groupes. C’est l’objectif principal
de notre cours d’algèbre 1 même si l’étude des monoı̈des est une branche très riche de l’algèbre
abstraite.
Définition 4.1.5. Soient (G, ?) un groupe et H une partie de G. On dit que H est un sous-groupe
de G si (H, ?) est un groupe. Si H est un sous-groupe de G, on le notera par H < G.
Démonstration. Exercice.
48
4. Le sous-ensemble des matrices d’ordre n à coefficient dans R dont le déterminant est égal
à 1 est un sous-groupe de GLn (R). Ce sous-groupe sera noté par SLn (R) et sera appelé le
groupe linéaire spécial.
5. Soit E = {1, 2, . . . , n} . Le groupe Sn est un sous groupe de Sn+1 . Si k ∈ {1, 2, . . . , n} , le sous
ensemble des éléments qui fixe k dans P(E) est un sous-groupe de Sn ;
6. Si n ≤ 3, les sous groupes triviaux sont les seuls sous groupes de (Z/nZ, +);
7. Le sous ensemble {0, 2} est le seul sou groupe propre de (Z/4Z, +);
8. Les sous ensembles {(0, 0), (0, 1)} et {(0, 0), (1, 0)} sont les seuls sous groupes propres de
(Z/2Z × Z/2Z, +).
Proposition 4.1.8. Soient H et K deux sous groupes d’un groupe G. Alors, le sous-ensemble
H ∩ K est un sous groupe de G. Mais, en général, le sous ensemble H ∪ K de G n’est pas un sous
groupe de G.
Démonstration. Exercice.
Soient (G, ?) un groupe et g un élément de G. Considérons le sous-ensemble < g > de G défini par :
n o
< g > := g k : k ∈ Z
Proposition 4.1.9. Le sous ensemble < g > est un sous groupe de G. Plus précisément, si H < G
contenant l’élément g, alors < g > est un sous groupe de H. On dit dans ce cas que < g > est le
sous groupe cyclique engendré par g.
Exemples 4.1.10. 1. Soit n un entier naturel non nul. Le sous groupe nZ est un sous groupe
cyclique de Z engendré par n;
2. Le sous ensemble {0, 5, 10, 15} est un sous groupe cyclique de (Z/20Z, +) engendré par 5.
Définition 4.1.11. On dit qu’un groupe G est cyclique s’il est engendré par un de ces éléments.
Proposition 4.1.12. Soit n un entier non nul. Les groupes (Z, +) et (Z/nZ, +) sont cycliques.
49
Définition 4.1.13. Soient G un groupe et g un élément de G. Le nombre d’éléments de G qu’on
notera par |G| est appelé ordre du groupe G. On appellera l’ordre du groupe < g >, l’ordre de
l’élément g qu’on notera par |g|. Ainsi, si le groupe G est fini, l’ordre de G n’est autre que le
cardinal de G. Sinon, l’ordre de G est infini.
Exercice 12 (Travaux dirigés). 1. Pour chacune des opérations binaires sur Z suivantes la-
quelle est associative ? laquelle est commutative ? laquelle admet un identité ?
i). (x, y) 7→ x − y;
ii). (x, y) 7→ xy ;
iii). x ? y:=xy − x − y + 2.
2. Considérons le rectangle R défini par (x, y) ∈ R2 : |x| ≤ n; |y| ≤ m où n et m sont des
entiers naturels non nuls distincts. Montrer que les quatre symétries de R suivantes forment
un groupe avec la loi de composition des applications :
a). L’identité e : (x, y) 7→ (x, y);
b). La réflexion r1 : (x, y) 7→ (x, −y);
c). La réflexion r2 : (x, y) 7→ (−x, y);
d). La rotation d’angle π et de centre (0, 0) r3 : (x, y) 7→ (−x, −y).
Ecrire le table de Cayley de ce groupe. Le groupe est-il abélien ?
3. Pour chacune des structures suivantes, déterminer si c’est un groupe ou pas :
i). (Z, −) où l’opération binaire − désigne la soustraction usuelle sur les nombres ;
ii). (R, ?) où l’opération binaire ? est définie par : x ? y:=x + y − 1;
iii). Z/nZ \ 0̇ , × où n est un nombre entier naturel non nul ;
iv). ({z ∈ C : |z| = 1} , ×) où × désigne la multiplication de nombres complexes.
4. Compléter les tables de Cayley des groupes suivants :
? a b c d
? e a b
a d
e a
; b a
a
c b
b
d
5. Montrer que les sous-ensembles suivants ne sont pas de sous-groupes de (Z, +) : L’ensemble
des nombres entiers impairs ; L’ensemble des entiers positifs ; L’ensemble {−2, −1, 0, 1, 2} ;
L’ensemble vide.
6. Déterminer les ordres des groupes suivants : (Z/nZ, +); (Z, +); Sn ; GL2 (R).
7. Déterminer les ordres des éléments suivants :
i). 2 ∈ (Z/10Z, +);
0 −1
ii). ∈ GL2 (R);
1 0
iii). L’identité dans un groupe ;
iv). π ∈ (R, +);
50
8. Démontrer la Proposition 2.12.
9. Démontrer la Proposition 2.14.
10. Soient (G, ?) un groupe fini d’identité e et g ∈ G. Montrer qu’ils existent deux entiers naturels
non nuls distincts i et j tels que ai = aj . En déduire qu’il existe un entier naturel non nul n
tel que an = e.
11. Soit (G, ?) un groupe d’ordre pair. Montrer qu’il existe un élément a de G tel que a2 = e.
12. Déterminer tout les sous-groupes des groupes suivants : (Z/6Z, +) et (Z/12Z, +).
13. Montrer que les sous-groupes de (Z, +) sont de la forme nZ où n est un entier naturel.
14. Soient G un groupe fini et g un élément de G. Montrer que |g| divise |G|.
Maintenant examinons les tables de Cayley des groupes : (Z/2Z, +) et ({1, −1} , ×) . Le table de
Cayley de (Z/2Z, +) est :
+ 0 1
0 0 1
1 1 0
tandis que celui de ({1, −1} , ×) est le suivant :
× 1 -1
1 1 -1 .
-1 -1 1
A première vue, ces groupes sont différents. Les ensembles ne sont pas les mêmes, ni les structures.
Mais les tables de Cayley correspondants sont similaires à celui du groupe ({a, b} , ?) dont le table
de Cayley est le suivant :
? a b
a a b .
b b a
Dans ce cas, on dit que les groupes (Z/2Z, +) et ({1, −1} , ×) sont isomorphes. Ainsi, l’idée est de
comparer deux structures. Mais, pour cela, l’existence d’une application entre les deux ensembles
qui définissent les groupes ne suffira pas. Il nous faut aussi un minimum de ”compatibilité” entre
les deux structures.
La généralisation de manière formelle de ces idées est l’objet de cette section.
51
4.2.1 Introduction et Définitions
Définition 4.2.4. Soient (G1 , ?1 ) et (G2 , ?2 ) deux groupes. Une application f de G1 dans G2
qui est compatible aux structures de deux groupes est appelée homomorphisme de groupes. Plus
précisément, l’application f de G1 dans G2 est un homomorphisme si pour tout x et y éléments de
G1 , on a :
f (x ?1 y) = f (x) ?2 f (y).
Si de plus, l’application f est bijective, on dit que f est un isomorphisme et on note par G1 ' G2 .
Démonstration. i). Par définition, on a f (e1 ) = f (e1 ?1 e1 ) = f (e1 ) ?2 f (e1 ). L’élément f (e1 ) de
G2 est inversible. Donc, en multipliant cet inverse à gauche, on a : e2 = f (e1 );
ii). On a e1 = x ?1 x. Donc, e2 = f (e1 ) = f (x ?1 x) = f (x) ?2 f (x). D’où le résultat.
Corollaire 4.2.8. La relation d’isomorphisme entre groupes est une relation d’équivalence.
52
Proposition 4.2.10. Soient f : (G1 , ?1 ) → (G2 , ?2 ) un homomorphisme de groupes, H1 un sous
groupe de G1 et H2 un sous groupe de G2 . Alors :
i). Im(f ) est un sous groupe de G2 ;
ii). Ker(f ) est un sous groupe de G1 ;
iii). L’image réciproque f −1 (H2 ) est un sous groupe de G1 ;
iv). Mais, l’image directe f (H1 ) n’est pas un sous groupe en général ;
v). Si de plus f est injective, on a Ker(f ) = {e1 } où e1 est l’identité de G1 . L’application f
définit ainsi un isomorphisme de G1 dans Im(f ).
Démonstration. Exercice.
x ? H:= {x ? h : h ∈ H} ; H ? x:= {h ? x : h ∈ H} .
Ainsi, on a :
Lemme 4.2.11. Soient (G, ?) et H un sous groupe de G. Alors :
i). Pour tout x et y dans G, on a : Soit xH = yH (resp. Hx = Hy), soit xH ∩yH = ∅ (resp. Hx∩
Hy = ∅);
ii). Pour tout x ∈ G, l’application H 3 h 7→ xh ∈ xH (resp. H 3 h 7→ hx ∈ Hx) est bijective.
Démonstration. i). Il suffit de montrer que les relations Rg et Rd sont des relations d’équivalences ;
ii). Considérons la relation Rg . On applique le même raisonnement pour la relation Rd .
Injectivité : Soient h1 et h2 deux éléments de H tels que xh1 = xh2 . Comme G est un groupe,
l’élément x est inversible. En multipliant cet égalité à gauche par x−1 , on a h1 = h2 . Donc,
l’application est injective ;
Surjective : Soit y ∈ xH. Par définition, il existe h ∈ H tel que y = xh. Donc, l’application
est surjective.
53
Démonstration. Comme G est un ensemble fini, donc les ensembles G/Rg et G/Rd sont finis. Or,
les relations Rg et Rd sont des relations d’équivalences. Donc, les ensembles G/Rg et G/Rd forment
respectivement une partition de l’ensemble G. De plus, d’après le lemme précédent, pour tout x et
y dans G, on a :
|H| = |xH| = |yH| (resp. |H| = |Hx| = |Hy|).
D’où : |G| = [G : H] |H| où [G : H] :=|G/Rg | = |G/Rd |.
f (τ στ −1 ) = f (τ )f (σ)f (τ −1 )
= f (τ )eG (f (τ ))−1
= f (τ )(f (τ ))−1 = eG
Autrement dit, pour tout x ∈ G et h ∈ Ker(f ), on a : xhx−1 ∈ Ker(f ) ou bien pour tout x ∈ G, on
a xKer(f )x−1 = Ker(f ).
De manière générale ;
Proposition 4.2.14. Soient G un groupe et H un sous groupe de G. Les deux propositions suivantes
sont équivalentes :
i). G/Rg = G/Rd ;
ii). Pour tout x ∈ G, on a xH = Hx (ou bien xHx−1 = H).
Si l’une de deux propositions est vérifiée, les deux ensembles quotients induits par les deux relations
d’équivalences coı̈ncident et on le notera par G/H.
Démonstration. Supposons qu’on a G/Rg = G/Rd . Soit x ∈ G. Par hypothèse, il existe y ∈ G tel
que xH = Hy. Comme H est un sous groupe, l’identité e de G est dans H. Donc, x = xe ∈ Hy,
i.e, il existe h ∈ H tel que x = hy. En multipliant ce dernier égalité à droite par y −1 , on a
xy −1 = h ∈ H. Par définition de la relation Rd , cela veut dire que : Hx = Hy. D’où, xH = Hx ou
bien xHx−1 = H.
La réciproque est relativement facile.
Ainsi, on définit :
Définition 4.2.15. Soit G un groupe. Un sous groupe H de G est appelé un sous groupe normal
de G si l’une des propositions précédentes est vérifiée.
54
Théorème 4.2.16. Soient G un groupe et H un sous groupe normal de G. Alors, l’opération
binaire sur G induit une relation binaire ? sur l’ensemble quotient G/H définie pour tout x et y
dans G par :
(xH) ? (yH):=xyH.
De plus, (G/H, ?) définit une structure de groupe. En particulier, la surjection G → G/H est un
homomorphisme surjective de groupes dont le noyau est H.
Démonstration. A faire en classe. Noter bien que l’élément neutre de G/H est H, la classe de
l’élément neutre.
Remarque 4.2.17. Il est important de noter que tout sous groupe d’un groupe abélien est normal.
(R/Z, +) ' (S 1 , ×)
f :G/H → G/N
xH 7→ xN
est un homomorphisme surjective de groupes. N’oubliez pas de démontrer que l’application est bien
définie d’abord.
Ainsi, on a : Im(f ) = G/N et Ker(f ) = {xH : xN = N } = {xH : x ∈ N } = N/H. D’après le
premier théorème d’isomorphisme, on a le résultat.
55
Exemples 4.2.21. Soit n un entier naturel non nul. Considérons le groupe G = (Z, +). Soit d un
diviseur positif de n. Ainsi, nZ et dZ sont de sous groupes normaux de G tels que nZ ⊂ dZ. D’où,
d’après le troisième théorème d’isomorphisme, on en déduit :
(Z/nZ)/(dZ/nZ) ' Z/dZ.
Le théorème suivant classifie les groupes cycliques à isomorphismes près :
Théorème 4.2.22. Soit G un groupe cyclique. On a G ' Z ou G ' Z/nZ où n est un entier
naturel.
Démonstration. Soit g un élément de G tel que G =< g > . Considérons l’homomorphisme de
groupe f définie par :
f :Z → G
k 7→ g k .
L’homomorphisme f est par définition surjective. Donc, d’après le premier théorème d’isomor-
phisme, on a Z/Kerf ' G. Or, on sait que les sous groupes de Z sont de la forme nZ où n est entier
naturel. D’où le résultat.
Exercice 13 (Travaux dirigés). 1. Pour chacune des applications suivantes, déterminer si
c’est un homomorphisme de groupes ou pas :
i). (R \ {0} , ×) 3 a 7→ log |a| ∈ (R, +);
ii). (C, +) 3 x 7→ |x| ∈ (R, +);
iii). (Z, +) 3 t 7→ 5t ∈ (Z, +);
iv). (R2 , +) 3 (x, y) 7→ xy ∈ (R, +);
v). (R2 , +) 3 (u, v) 7→ u − v ∈ (R, +).
2. Soient (G1 , ?1 ) et (G2 , ?2 ) deux groupes. Montrer que G1 × G2 ' G2 × G1 .
3. Considérons les groupes G1 = (Z/2Z × Z/2Z, +) et G2 = (Z/4Z, +). Montrer que
G1 G2 .
4. Démontrer la Proposition 2.29.
5. Considérons l’homomorphisme de groupes f : (Z/12Z, +) 3 n 7→ in ∈ (C? , ×) où i est un
élément de C tel que i2 = −1. Déterminez Im(f ) et Ker(f ) ainsi que (Z/12Z)/Ker(f ). Puis
écrire les tables de Cayley des groupes (Z/12Z)/Ker(f ) et Im(f ). Vérifier qu’ils sont bien
similaires.
6. Pour chacune des homomorphismes suivantes, déterminer son image et son noyau. Puis écrire
le résultat qu’on obtient du premier théorème d’isomorphisme :
i). (Z, +) 3 m 7→ 2m ∈ (Z, +);
ii). (R, +) 3 x 7→ eix ∈ (C? , ×);
iii). det : (GL2 (R) → (C? , ×));
iv). f : Z → Z/2Z × Z/3Z;
7. Soit G un groupe abélien fini tel que pour tout élément x de G, on a x = e ou x2 = e où e
est l’identité de G. Montrer que |G| = 2n où n est un entier naturel.
8. Soient G un groupe et H un sous groupe d’indice 2 de G. Montrer que H est un sous groupe
normal de G.
56
4.3 Exemples de Groupes
4.3.1 Le groupe de permutations Sn
Dans toute la suite, considérons le groupe de permutations Sn comme étant le groupe des applica-
tions bijectives de l’ensemble {1, 2, 3, . . . , n} dans lui même. Il est clair que l’ordre du groupe Sn
est n!. Et bien évidemment, la loi binaire sur Sn est la loi de composition d’applications. S’il n’y a
pas de confusion, on notera les deux compositions possibles de deux éléments σ et τ de Sn par στ
et τ σ.
Dans la littérature, ils existent deux notations pour les éléments de Sn : La notation en matrices
et la notation en cycles.
La notation en matrices : Soit σ ∈ Sn définipour tout i ∈ {1, 2, 3, . . . , n} par σ(i) = ai ∈
1 2 3 ··· n
{1, 2, 3, . . . , n} . Ainsi, l’élément σ sera noté par : .
a1 a2 a3 · · · an
La notation en cycles : Un élément σ de Sn est appelé un k-cycle s’il existe k éléments
a1 , a2 , . . . , ak de {1, 2, 3, . . . , n} tels que :
— σ(i) = i si i ∈
/ {a1 , a2 , . . . , ak } ;
— σ(ai ) = ai+1 si 1 ≤ i ≤ k − 1;
— σ(ak ) = a1 .
Dans ce cas, on notera σ par :
(a1 a2 · · · ak ).
Deux cycles (a1 a2 · · · ak ) et (b1 b2 · · · bl ) sont dits disjoints si {a1 , a2 , · · · , ak }∩{b1 , b2 , · · · , al } = ∅.
Proposition 4.3.1. Soient σ et τ deux cycles disjoints. On a : στ = τ σ.
Démonstration. A faire en classe.
Remarque 4.3.4. Noter bien que la décomposition d’un cycle en produit de transpositions n’est
pas unique. Par exemple, dans S3 , on a :
Proposition 4.3.5. Toute permutation de Sn est un produit (ou une composition) de cycles deux
à deux disjoints. Par conséquent, elle est aussi un produit de transpositions.
Démonstration. A faire en classe.
Remarque 4.3.6. Bien qu’une permutation soit un produit de transpositions, noter bien que ces
transpositions qui la décomposent ne sont pas deux à deux disjoints. Sinon, toute permutation
serait d’ordre 1 ou 2 qui n’est pas vrai si n ≥ 3.
57
Mais, en général, ce qui est sur est le suivant :
Théorème 4.3.7. Le nombre de transpositions qui décomposent une permutation donnée : soit il
est pair, soit il est impair.
Définition 4.3.8. Une permutation de Sn est dite pair si elle est décomposée par un nombre pair
de transpositions. Dans le cas contraire, on dit qu’elle est impaire.
On peut déterminer facilement la parité d’une permutation comme l’indique la remarque suivante :
Remarque 4.3.9. D’après la Proposition 2.3.3, un k-cycle est une composition de k − 1 transpo-
sition. Donc, si une permutation donnée est une composition de t cycles de longueur k1 , k2 , . . . , kt
respectivement, sa parité est la même que celle du nombre k1 + k2 + · · · + kt + t.
L’application
(fg1 ◦ fg2 )(x) = fg1 (fg2 (x)) = fg1 (g2 ? x) = (g1 ? g2 ) ? x = fg1 g2 (x).
58
4.3.2 Le groupe diédral Dn
Dans cette sous-section, dans le plan euclidien, on désignera par Rn un polygone régulier de n côtés.
Notons son centre par C. On sait qu’ils existent exactement 2n symétries qui laissent le polygone
Rn invariant, à savoir :
2kπ
— Les n rotations de centre C respectivement d’angle n où k = 1, 2, 3, . . . , n;
— Les n réflexions axiales déterminées respectivement par les n axes de symétries de Rn .
Proposition 4.3.11. Les 2n symétries de Rn définies ci-dessus forment un groupe d’ordre 2n avec
la loi de composition de transformations sur le plan euclidien. On notera cet groupe par Dn et sera
appelé le groupe diédral d’ordre 2n. De plus, si r et τ sont respectivement la rotation d’angle
2π
n et une symétrie axiale, on a :
n o n o
Dn = rk : k = 1, 2, . . . , n ∪ rk τ : k = 1, 2, . . . , n
Remarque 4.3.12. Le théorème de Cayley nous garantit que Dn est isomorphe à un sous-groupe
de S2n . Par contre, naturellement, un élément de Dn permute les n sommets du polygone Rn . Ainsi,
tout élément de Dn peut être considérer comme une permutation de l’ensemble de n sommets de
Rn . Ainsi, Dn est un sous-groupe de Sn .
est un homomorphisme surjective. Son noyau est l’ensemble des matrices inversibles noté par SLn (R)
dont le déterminant est 1. En utilisant cet homomorphisme, on montre qu’on a
Ainsi, comprendre le groupe GLn (R) revient à comprendre son sous-groupe normal SLn (R).
Notons par GLn (Z) l’ensemble des matrices inversibles d’ordre n à coefficient dans Z. Alors :
Proposition 4.3.14. GLn (Z) est un groupe des matrices dont le déterminant est ±1. Le noyau de
la restriction de l’homomorphisme det sera noté par SLn (Z).
59
Démonstration. On montre que le sous-ensemble GLn (Z) est un sous-groupe de Gln (R). Le plus
dur est de montrer que si une matrice carrée à coefficients dans Z est inversible, son inverse est
aussi à coefficients dans Z. Mais, c’est faisable.
SoitA ∈ GLn (Z). Donc, par définition, la matrice inverse A−1 est à coefficients dans Z. Ainsi, detA
et detA−1 sont des entiers. Or, AA−1 = In . Donc, detA−1 = detA 1
. Comme detA et detA−1 sont
des entiers, ceci n’est possible que si detA = ±1.
Soit E un espace vectoriel sur R. Rappelons qu’une application f de E vers un R- espace vectoriel
F est une application linéaire si pour tout (x, y) dans E 2 et (λ, µ) dans R2 , on a :
f (λx + µy) = λf (x) + µf (y).
En particulier, f est un homomorphisme de groupes puisque (E, +) et (F, +) sont des groupes
abéliens.
Dans le cas où F = E, on dit que f est un endomorphisme. Si de plus, E est de dimension n,
en utilisant l’identification des éléments de E via l’isomorphisme E ' Rn , il existe une matrice A
d’ordre n telle que pour tout x ∈ E, on a :
f (x) = Ax.
Si (b1 , b2 , . . . , bn ) désigne une base de E, la matrice de f est complètement déterminé de manière
unique dans cette base, et l’on a :
A = (f (b1 ) f (b2 ) · · · f (bn ))
où f (bi ) est le vecteur de la i-ième colonne de A. Désignons respectivement par Kerf et Imf le
noyau et l’image de l’endomorphisme f. On a les propriétés suivants :
— Kerf et Imf sont des sous-espaces vectoriels de E;
— Kerf = N (A) et Imf = C(A).
Ainsi, si on désigne par L(E) l’ensemble des endomorphismes de E, on a l’isomorphisme suivante :
(L(E), +) ' (Mn (R), +).
De plus, si on note par GL(E) l’ensemble des endomorphismes bijectives de E, on a :
(GL(E), ◦) ' (GLn (R), ×).
Maintenant considérons le cas où l’on a n = 2. Désignons par O2 (R) le sous-ensemble de GL2 (R)
défini par :
O2 (R):= A ∈ GLn (R) : AT A = AAT = I2 .
60
Démonstration. A faire en classe.
Exercice 14 (Travaux dirigés). 1. Pour chacune des permutations suivantes, écrire-la comme
composée des cycles :
1 2 3 4
i). ;
2 1 4 3
1 2 3 4 5 6
ii). ;
4 1 5 3 6 2
1 2 3 4 5 6
iii). .
1 6 4 3 2 5
2. Pour chacune des permutations suivantes, écrire-la en matrice-notation :
i). (1 2 3)(4 6 8);
ii). (1 6)(4 2)(5 3);
iii). (1 5 3);
iv). (1 9 3)(2 6)(7 8);
v). )(2 4)(3 5 7).
3. Pour chacune des cas suivants, calculer στ et τ σ :
1 2 3 4
i). Dans S4 , σ = , τ = (1 2)(3 4);
2 3 4 1
1 2 3 4 5 1 2 3 4 5
ii). Dans S5 , ,τ = ;
5 4 3 2 1 1 3 5 4 2
iii). Dans S6 , σ = (1 2)(5 6), τ = (1 3 4 6 2).
Ecrire les résultats en utilisant les deux notations.
4. Pour chacune des permutations suivantes, déterminer si elle est paire ou impaire :
1 2 3 4 5
i). ;
2 5 3 1 4
1 2 3 4 5
ii). ;
2 3 5 1 4
1 2 3 4 5 6
iii). ;
6 5 4 3 2 1
61
1 2 3 4 5 6 7 8 9
iv). .
2 3 1 6 9 8 5 4 7
5. i). Respectivement dans S3 et S4 , combien de transpositions a t-on ? Quand est-il des 3-
cycles ? des 4-cycles (dans S4 ) ?
ii). Soit H l’ensemble des éléments qui ne sont pas des transpositions, ni des 3-cycles, ni
des 4-cycles dans S4 . Le sous-ensemble H est-il un sous groupe ? Si oui, déterminer son
ordre et trouver un groupe usuel (qu’on connait très bien) qui est isomorphe à H.
6. Dans chacun des groupes suivants, déterminer le nombre d’éléments d’ordre 2 et le nombre
d’éléments d’ordre 3 : S3 , A4 , D5 et D6 .
7. Pour tout k ∈ {1, 2, 3, 4, 5, 6} , déterminer le nombre d’éléments d’ordre k dans A5 .
8. Pour chacun des cas suivants, déterminer si le sous-ensemble est un sous-groupe de S4 ou pas.
Dans le cas où le sous-ensemble est un groupe, déterminer si c’est un groupe normal :
i). {id, (1 3 4), (1 4 3)} ;
ii). {id, (1 2)(3 4), (1 3)(2 4), (1 4)(2 3)} ;
iii). {id, , (1 2 3 4), (1 4 3 2), (1 3)(2 4)} ;
iv). {id, , (1 2 3), (1 3 2), (2 3 4), (2 4 3)} .
9. Considérons l’application
f : (Z × Z) 3 (m, n) 7→ σ n τ m ∈ S4
62
— L’addition (+) définit une structure de groupe abélien ;
— La multiplication (×) définit un monoı̈de ;
— Distributivité : Pour tout a, b et c, on a : (a + b) × c = a × c + b × c et c × (a + b) = c × a + c × b.
La formalisation de cette nouvelle structure est le but de ce chapitre. Par abus de notation, s’il
n’y a pas de confusion, la loi binaire qui définit une structure de groupe abélien sur un ensemble
quelconque sera notée par +. Tandis que, si la loi binaire définisse un monoı̈de, elle sera notée
par ×. L’élément neutre par rapport à l’addition sera noté par 0 et l’identité par rapport à la
multiplication sera noté par 1.
Définition 5.1.1. Soit (A, +, ×) une structure algébrique telle que (A, +) est un groupe abélien
et (A, ×) est un monoı̈de. On dit que (A, +, ×) est un anneau si on a la distributivité de deux loi
binaires. Si (A, ×) est un monoı̈de commutatif, on dit que (A, +, ×) est un anneau commutatif.
Un élément de A est dit inversible s’il est inversible par rapport à la loi multiplication. L’ensemble
des éléments inversibles d’un anneau A est noté par A× . Si de plus, on a A× = A \ {0} , on dit que
(A, +, ×) est un corps.
63
5.3 Idéaux premiers et maximaux
5.4 Homomorphismes d’anneaux
5.5 Exemples d’anneaux
Références
64