0% ont trouvé ce document utile (0 vote)
72 vues64 pages

Cours Algebre-1-2

Le document est un cours d'Algèbre 1 de l'Université d'Antananarivo, couvrant des sujets tels que la théorie naïve des ensembles, les équations linéaires, les espaces vectoriels, et la théorie des groupes, des anneaux et des corps. Il est structuré en plusieurs sections avec des définitions, des applications et des exemples pour chaque concept mathématique. Les auteurs, Andry Rabenantoandro et Christalin Razafindramahatsiaro, visent à fournir une base solide en algèbre pour les étudiants.

Transféré par

Miotisoa Justin
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
72 vues64 pages

Cours Algebre-1-2

Le document est un cours d'Algèbre 1 de l'Université d'Antananarivo, couvrant des sujets tels que la théorie naïve des ensembles, les équations linéaires, les espaces vectoriels, et la théorie des groupes, des anneaux et des corps. Il est structuré en plusieurs sections avec des définitions, des applications et des exemples pour chaque concept mathématique. Les auteurs, Andry Rabenantoandro et Christalin Razafindramahatsiaro, visent à fournir une base solide en algèbre pour les étudiants.

Transféré par

Miotisoa Justin
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université d’Antananarivo Faculté de Sciences

Cours d’Algèbre 1
Andry Rabenantoandro et Christalin Razafindramahatsiaro

Table des matières


Hafatra ho an’ny mpianatra 3

1 Théorie Naı̈ve des Ensembles 3


1.1 Introduction et Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Dénombrabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Relations binaires sur un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1 Relations d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 Relations d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Equations Linéaires et Matrices 15


2.1 Vecteurs : Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 Vecteurs dans Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.2 Produit Scalaire, Norme et Distance . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Vecteurs dans Cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1 Règles des Opérations pour les Matrices . . . . . . . . . . . . . . . . . . . . . 23
2.3.2 Inverses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.3 Dépendances et Indépendances . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.4 Transpositions et Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4 Equations Linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3 Espaces Vectoriels et Sous-Espaces Vectoriels 35


3.1 Espaces Vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Sous-Espaces Vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.3 Combinaisons Linéaires et Générateurs . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4 Espace Colonne d’une Matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.5 Espace Ligne d’une Matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.6 Espace Nulle d’une Matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.7 Sommes et Sommes Directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.8 Base et Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.8.1 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.8.2 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.8.3 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.9 Applications Linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

1
4 Introduction à la théorie des Groupes 46
4.1 Introduction et Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 Homomorphismes de Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.1 Introduction et Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.2 Groupes Quotients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.3 Exemples de Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.3.1 Le groupe de permutations Sn . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.3.2 Le groupe diédral Dn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.3 Le groupe linéaire GLn (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

5 Introduction à la théorie des Anneaux 62


5.1 Introduction et Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.2 Idéaux et Anneaux quotients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.3 Idéaux premiers et maximaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.4 Homomorphismes d’anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.5 Exemples d’anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

6 Introduction à la théorie des Corps 64

7 Espaces Vectoriels : Revisités 64

2
1 Théorie Naı̈ve des Ensembles
1.1 Introduction et Définitions
Un objet est dit un objet mathématiques s’il a été formellement défini avec lequel on peut
faire un raisonnement déductif et des preuves mathématiques. Ainsi, de manière naı̈ve, on définit
un ensemble comme une collection d’objets mathématiques rassemblés d’après, au moins, une
propriété commune. Ces propriétés sont suffisants pour affirmer si un objet appartient ou pas à
l’ensemble. Les objets sont appelés aussi les éléments de l’ensemble. Si x est un élément d’un
ensemble E, on le notera tout simplement par : x ∈ E.
On notera aussi un ensemble en écrivant ses éléments séparés par des virgules entre deux acco-
lades ou en indiquant les propriétés de ses éléments entre deux accolades. Ainsi, par exemple,
on pourra noté l’ensemble des nombres entiers naturels pairs, soit par {0, 2, 4, 6, . . .}, ou bien par
{n ∈ N|n est pair} .
Deux éléments d’un ensemble sont égaux s’il définissent le même objet mathématiques. Ainsi,
l’ensemble
{−3, 5, {1, 2, 3} , 2, 4, 2, {2, 3, 1}}
définit le même ensemble que
{−3, 5, 4, 2, {2, 3, 1}} .

Exemples 1.1.1. 1. On désigne respectivement par N, Z, Q, R et C l’ensemble des entiers na-


turels, l’ensemble des entiers, l’ensemble des nombres rationnels, l’ensemble des nombres réels
et l’ensemble des nombres complexes.
2. Considérons l’ensemble E des hommes fidèles et infidèles. Cet ensemble n’a pas d’élément
puisqu’un tel homme n’existe pas. On appellera E l’ensemble vide, et on le notera par ∅, ou
bien par {} .

Soient A et B deux ensembles. On dit que A est inclus dans B (qu’on notera par A ⊂ B) si tout
élément de A est un élément de B. On dit aussi dans ce cas que l’ensemble A est une partie ou
sous-ensemble de B. Ainsi, les deux ensembles sont égaux (qu’on notera par A = B) si A ⊂ B et
B ⊂ A.
Si E est un ensemble, on notera l’ensemble des parties de E par P(E).

Remarque 1.1.2. Soient E un ensemble quelconque et n un entier naturel.


1. L’ensemble vide est une partie de E;
2. Supposons de plus que l’ensemble E admet exactement n éléments : Alors l’ensemble P(E)
admet exactement 2n éléments.

Démonstration. Exercice à faire en cours.

On définit l’ensemble B \ A comme l’ensemble des éléments de B qui n’appartiennent pas à A. Si


de plus, A ⊂ B, on notera l’ensemble B \ A par CA c
B (ou tout simplement par A s’il n’y a pas de
A
confusion). On appellera aussi l’ensemble CB le complémentaire de A dans B.
Maintenant, on va introduire deux notions importants concernant les opérations sur les ensembles,
à savoir : l’Intersection et l’Union.
L’ensemble qui ne contient que des éléments de A et B à la fois sera noté par A ∩ B, tandis que
l’ensemble qui ne contient, soit les éléments de A ou soit les éléments de B sera noté par A ∪ B. Si

3
de plus, les ensembles A et B n’ont pas d’éléments en commun, on dit qu’ils sont disjoints et on
a A ∩ B = ∅.
Ainsi, on a les propriétés suivantes :

Proposition 1.1.3. Soient A, B et C trois ensembles quelconques :


1. A ∩ A = A ∪ A = A (Idempotente) ;
2. A ∩ B = B ∩ A, A ∪ B = B ∪ A (Commutativité) ;
3. A \ B = A ∩ B c ;
4. (A ∪ B)c = Ac ∩ B c , (A ∩ B)c = Ac ∪ B c (Lois de Morgan) ;
5. A ∩ (B ∩ C) = (A ∩ B) ∩ C, A ∪ (B ∪ C) = (A ∪ B) ∪ C (Associativité) ;
6. A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C), A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) (Distributivité) ;
7. B = CA
C ⇔ A ∪ B = C et A ∩ B = ∅.

Démonstration. Exercice.

Soient A et B deux ensembles. L’ensemble produit définie par :

A × B:= {(a, b) : a ∈ A, b ∈ B}
est appelé le produit cartésien de A par B. Bien attendu, en général, on a A × B 6= B × A.
Enfin, si A et B sont deux parties d’un ensemble E, on dit que A et B sont disjoints si A ∩ B = ∅.

Exercice 1 (Travaux dirigés). 1. Considérons les ensembles suivants : A = {1, 13, 25} ; B =
{{1, 13} , 25} ; C = {{1, 13, 25}} ; D = {∅, 1, 13, 25} ; E = {25, 1, 13} ; F = {{1, 13} , {25}} ; G =
{{25} , {1, 13} , 25} ; H = {{1} , {13} , 25} .
a). Quelles sont les relations (d’égalité ou d’inclusion) qui existent entre ces ensembles ?
b). Déterminer A ∩ B; G ∪ H; E \ G; CA
D.

2. Soient A, B et C trois parties d’un ensemble E :


a). Montrer que :

(A ∩ B) ∪ B c = A ∪ B c
(A \ B) \ C = A \ (B ∪ C)
A \ (B ∩ C) = (A \ B) ∪ (A \ C).

b). Simplifier : (A ∪ B)c ∩ (C ∪ Ac )c ; (A ∩ B)c ∪ (C ∩ Ac )c .


3. Démontrer la Proposition 1.3.

1.2 Applications
Dans cet section, considérons deux ensembles E et F.

4
Définition 1.2.1. Une application f de l’ensemble E dans l’ensemble F est une relation de cor-
respondance qui à tout élément x de E, on associe un unique élément y de F. L’application f sera
noté par :

f :E −→ F
x 7−→ y:=f (x).

Ainsi, si y = f (x), on dit que l’élément y est l’image de x par f, tandis que x est l’antécédent
de y par f. Bien attendu, les variables x et y sont muets. On pourra les notés par d’autres lettres.
Par exemple, si e est un élément de E, f (e) est l’image de e par f dans F.

Soit f une application de E dans F. Si A et B sont respectivement des sous-ensembles de E et F,


les ensembles f (A) et f −1 (B) définies par :

f (A):= {f (a) ∈ F : a ∈ A} , f −1 (B):= {a ∈ E : ∃b ∈ B, b = f (a)} = {x ∈ E : f (x) ∈ B}

sont, respectivement, appelés l’image de A par f et l’image réciproque de B par f. En par-


ticulier, le sous-ensemble f (E) de F sera noté par Im(f ). Par définition, les ensembles f (A) et
f −1 (B) sont respectivement des parties de F et E.
Soient f une application de E dans F et g une application de F dans G. On définit l’application
(la composée) g ◦ f par :

g ◦ f :E → G
x 7→ g(f (x)).

Proposition 1.2.2. Soit f une application de E dans F.


1. Soient A et B deux sous-ensembles de E, on a :
i). A ⊂ B =⇒ f (A) ⊂ f (B);
ii). f (A ∪ B) = f (A) ∪ f (B);
iii). f (A ∩ B) ⊂ f (A) ∩ f (B);
2. Soient A et B deux sous-ensembles de F, on a :
i). A ⊂ B =⇒ f −1 (A) ⊂ f −1 (B);
ii). f −1 (A ∪ B) = f −1 (A) ∪ f −1 (B);
iii). f −1 (A ∩ B) = f −1 (A) ∩ f −1 (B);
iv). f −1 (B \ A) = f −1 (B) \ f −1 (A).
3. Soient A ⊂ E et B ⊂ F. On a : A ⊂ f −1 (f (A)) et f (f −1 (B)) = B ∩ Im(f ).
4. Soit g une application de F dans G. Si A et B sont respectivement des parties de E et G, on
a:
i). g ◦ f (A) = g(f (A));
ii). (g ◦ f )−1 (B) = f −1 (g −1 (B)).

Démonstration. Exercice.

5
Définition 1.2.3. Soit f une application de E dans F. On dit que :
1. f est injective ou une injection si tout élément de Im(f ) admet un unique antécédent,
i.e, pour tout e1 et e2 éléments de E tels que f (e1 ) = f (e2 ), on a, forcément e1 = e2 ;
2. f est surjective ou une surjection si Im(f ) = F, i.e, tout élément de F admet au moins
un antécédent ;
3. f est bijective ou une bijection si tout élément de F admet un unique antécédent, i.e, si
elle est à la fois injective et bijective.

Exercice 2. Construisez des applications :


— Injective mais pas surjective ;
— Surjective mais pas injective ;
— Bijective ;
— Ni injective ni surjective.

Solutions. A faire en classe.

Proposition 1.2.4. Soit f une application de E dans F. On a :


1. L’application f est injective si et seulement si pour tout partie A de E, f −1 (f (A)) = A;
2. L’application f est surjective si et seulement si pour tout partie B de F, B = f (f −1 (B)).
3. Considérons une application g de F dans G, on a :
i). Si f et g sont injectives, l’application g ◦ f est injective ;
ii). Si f et g sont surjectives, l’application g ◦ f est surjective ;
iii). Si g ◦ f est injective, l’application f est injective ;
iii). Si g ◦ f est surjective, l’application g est surjective ;
iv). Si l’application g ◦ f est bijective, l’application f est injective et l’application g est sur-
jective.

Démonstration. A faire en classe.

Soit E un ensemble. L’application IdE de E dans E qui à tout élément x de E, on associe IdE (x):=x
est appelée l’application identique de E.

Proposition 1.2.5. Soit f une application de E dans F. L’application f est bijective si et seulement
si il existe une application g de F dans E telle que g ◦ f = IdE et f ◦ g = IdF . De plus, si f est une
bijection, une telle application g est bijective et unique. Elle sera appelée l’application inverse
de f. On la notera (par abus de notation) par f −1 .

Démonstration. A faire en classe.

Question 1.2.6. Soit une application f de E dans F. La condition d’existence d’une application
g telle que g ◦ f = IdE est -elle suffisante pour que f soit bijective ? Si oui, donnez une preuve.
Sinon, trouvez un contre exemple.

6
Exercice 3 (Travaux dirigés). 1. Considérons les parties de R suivantes :

E = [0, 1] ; F = [−1, 1] ; G = [0, 2] .

Soient f et g deux applications définies respectivement par :

f :E → G
x 7→ 2 − x;
g :F → G
x 7→ x2 + 1.

a). Déterminer f ( 21 ); f −1 ({0}); g([−1, 1]); g −1 ([0, 2]).




b). Les applications f et g sont-elles bijectives ? Justifier votre réponse.


2. Démontrer la Proposition 1.5.
3. Question 1.9.

1.3 Dénombrabilité
Soit E un ensemble. On dit que E est un ensemble fini s’il possède un nombre fini d’éléments.
Si ce n’est pas le cas, on dit que E est infini. Dans le cas où l’ensemble E est fini, on note le
nombre d’éléments de E par #E ou par Card(E).

Proposition 1.3.1. Soient E et F deux ensembles finis :


1. Le nombre d’applications de E dans F est #F #E ;
2. Soit f une application de E dans F :
i). Si f est injective, on a #E ≤ #F. Le nombre d’applications injectives de E dans F est
A#E
#F ;
ii). Si f est surjective, on a #F ≤ #E;
iii). Si f est bijective, on a #E = #F. Le nombre d’applications bijectives de E dans F est
(#E)!.
3. Il existe une application bijective de E dans F si et seulement si #E = #F.

Démonstration. Exercice à faire en classe.

Dans toute la suite, on notera par F E l’ensemble des applications de E dans F.

Définition 1.3.2. Soit E un ensemble. On dit que E est dénombrable s’il existe une injection de
E dans N. Cela veut dire qu’on peut numéroter les éléments d’un ensemble dénombrable.

Exemples 1.3.3. L’ensemble des entiers naturels N est dénombrable. En particulier, les ensembles
finis sont dénombrables.

Explications. A faire en cours.

Proposition 1.3.4. Soit E un ensemble dénombrable. L’ensemble E est infini si et seulement si


il existe une bijection entre E et N.

7
Démonstration. A faire en classe.

Exercice 4 (Travaux dirigés). 1. Montrer que Z est dénombrable.


2. Montrer que N × N est dénombrable. En déduire que le produit d’un nombre fini d’ensembles
dénombrables est dénombrable.
3. Montrer que Q est dénombrable.
4. Soit (En )n∈N une famille dénombrable de sous ensembles dénombrables d’un ensemble E.
Montrer que la réunion ∪n∈N En est dénombrable.
5. Montrer que l’ensemble des polynômes à coefficients entiers est dénombrable. En déduire que
l’ensemble des sous-ensembles finis de N est dénombrable.
6. On dit qu’un nombre (réel ou complexe) est algébrique s’il est une racine d’un polynôme à
coefficients entiers. Montrer que l’ensemble des nombres algébriques est dénombrable.
7. Existe-il une bijection entre Q ∩ [0, 1] et Q ∩ ]0, 1[ ?

Théorème 1.3.5 (Cantor). L’ensemble des nombres réels R n’est pas dénombrable. En particulier,
l’ensemble des nombres irrationnels n’est pas dénombrable.

Démonstration. A faire en classe.

Corollaire 1.3.6. Un nombre réel est dit transcendant s’il n’est pas algébrique. L’ensemble des
nombres transcendants n’est pas dénombrable.

Démonstration. A faire en classe.

De manière générale,

Définition 1.3.7. Soient E et F deux ensembles. On dit que E et F sont équipotents s’il existe
une bijection entre E et F.

Exemples 1.3.8. — Deux ensembles finis sont équipotents si et seulement si ils ont le même
nombre d’éléments ;
— Deux ensembles dénombrables infinis sont toujours équipotents ;
— Q n’est pas équipotent à R;

Proposition 1.3.9. Tout intervalle non-réduit à un point est équipotent à R.

Démonstration. A faire en classe.

Le résultat suivant permet la plus part du temps pour montrer que deux ensembles sont équipotents :

Théorème 1.3.10 (Cantor-Bernstein). Soient E et F deux ensembles. Si E est équipotent à un


sous-ensemble de F et F est équipotent à un sous-ensemble de E, les ensembles E et F sont
équipotents.

8
Démonstration. On peut supposer que E ⊂ F et qu’il existe un sous-ensemble A de E tel que A
est équipotent à F.
Comme A est équipotent à F, il existe une bijection f : F → A. Posons C0 :=F \ E. Alors, les
ensembles C1 :=f (C0 ) et C0 sont deux sous-ensembles disjoints de F. En effet, par définitions,
C0 ⊂ F \ E et C1 ⊂ A ⊂ E. De la même manière, on pose C2 :=f (C1 ). On a :

C2 ⊂ f (A) ⊂ f (E) ⊂ A ⊂ E.

Or, par définition, les sous-ensembles C1 et f (E) sont disjoints. En effet, comme f est une bijection,
on a C1 = f (F \ E) = f (F ) \ f (E). Par conséquent, les ensembles C0 , C1 et C2 sont deux à deux
disjoints. Ainsi, on construit une suite des sous-ensembles (Ci )i∈N deux à deux disjoints de F définie
par : Ci+1 = f (Ci ). Posons :
C = ∪i≥0 Ci , D = ∪i≥1 Ci .
La fonction f induit ainsi une bijection de C dans D. De plus, on a :

F \ C = F \ (∪i≥0 Ci )
= F ∩ (∪i≥0 Ci )c
= F ∩ (∩i≥0 Cic )
= (F ∩ C0c ) ∩ (∩i≥1 C1c )
= (F ∩ E) ∩ (∩i≥1 C1c )
= E \ D.

D’où, il existe bien une bijection de F dans E.

Théorème 1.3.11 (Cantor). Soit E un ensemble. Les ensembles E et P(E) ne sont pas équipotents.

Démonstration. Supposons par l’absurde qu’il existe une bijection f : E → P(E). Considérons
l’ensemble :
A:= {u ∈ E : u ∈ / f (u)} .
Par définition, l’ensemble A est une partie de E et qu’il existe alors un élément p ∈ E tel que
A = f (p). Deux cas se présentent :
— Si p ∈ A : Alors, on a p ∈ f (p). Or, par définition de A, c’est une contradiction ;
— Si p ∈
/ A : Alors, on a aussi p ∈
/ f (p). Mais cela est aussi impossible.
D’où le résultat.

Pour conclure cette section, on va énoncer la fameuse hypothèse du continu.


On sait qu’un sous ensemble de N qui n’est pas fini est équipotent à N. Mais, est-ce qu’un sous-
ensemble non dénombrable de R, est-il équipotent à R ? La réponse affirmative à cette question est
appelée l’hypothèse du continu. Cependant, on ne sait pas encore si c’est vraie ou fausse. En
effet, notre théorie des ensembles est fondée principalement sur deux axiomes, à savoir : L’axiome
du choix et l’axiome dit de Zermelo-Frenkel. C’est d’ailleurs la raison pour laquelle on a dit qu’on
étudie plutôt la théorie naı̈ve des ensembles. Avec ces deux axiomes, en 1963, Cohen a démontrer
qu’il n’est pas possible de démontrer l’hypothèse du continu, ni son contraire.

9
Exercice 5 (Travaux dirigés). 1. En s’inspirant de la preuve du théorème 1.19, expliciter une
bijection entre les intervalles [a, b[ et ]a, b[ .
2. Montrer que l’ensemble NN des suites d’entiers est équipotent à R.
3. Montrer que l’ensemble des parties de R n’est ni dénombrable, ni équipotent à R.
4. Montrer que l’ensemble RR n’est ni dénombrable, ni équipotent à R.

1.4 Relations binaires sur un ensemble


Jusqu’à maintenant, on a globalement traité les ensembles par sa ”taille” (sa cardinalité). On a
quelques propriétés pour pouvoir comparer deux ensembles. Dans cette sous-section, on va regarder
”plus à l’intérieur” d’un ensemble.
On sait depuis plusieurs années qu’on peut ”comparer” tout les éléments de l’ensemble des entiers
naturels N. Cela veut dire qu’il existe une ”relation” (≤) entre deux entiers quelconques. Avec cette
relation, on en déduit plus de propriétés de l’ensemble N. Ainsi, notre but ici est de généraliser,
puis formaliser cet idée d’existence possible d’une relation entre les éléments d’un ensemble. C’est
le début de l’étude de ce qu’on appellera ”un structure algébrique” dans un ensemble.
Soient E et F deux ensembles. Soient x et y deux éléments respectifs de E et F. Une correspondance
entre x et y est appelée une relation binaire R entre x et y que l’on note par xRy. Autrement
dit, Une relation binaire R entre E et F est définie par une partie G du produit cartésien E × F
telle que :
G:= {(x, y) ∈ E × F : xRy} .
En particulier, une relation binaire R sur l’ensemble E est une partie G de E × E telle que :

G:= {(x, y) ∈ E × E : xRy} .


Exemples 1.4.1. 1. L’inégalité ≤ est une relation binaire sur N, Z, Q ou R;
2. L’orthogonalité et le parallélisme sont des relations binaires sur l’ensemble des droites de R2
ou R3 ;
3. L’inclusion ⊂ est une relation binaire sur l’ensemble des parties P(E) d’un ensemble E;
4. Le graphe d’une fonction numérique est une relation binaire sur R.
Voici quelques caractéristiques d’une relation binaire sur un ensemble :
Définition 1.4.2. Soient E un ensemble et T une relation binaire sur E. On dit que :
i). T est réflexive si pour tout z élément de E, on a zT z;
ii). T est symétrique si pour tout a et b éléments de E tels que aT b, on a bT a;
iii). T est transitive si pour tout x, y et z élément de E tels que xT y et yT z, on a xT z;
iv). T est antisymétrique si pour tout n et m élément de E tels que nT m et mT n, on a n = m.
Soient R une relation sur un ensemble E et x un élément de E. Le sous-ensemble ClRg (x) (resp. ClRd (x))
de E défini par :

ClRg (x):= {a ∈ E : xRa} (resp. ClRd (x):= {a ∈ E : aRx})

est appelé le sous-ensemble de classe à gauche (resp. le sous-ensemble de classe à droite)


de l’élément x.

10
Remarque 1.4.3. Si la relation R est symétrique, on a ClRg (x) = ClRd (x). Dans ce cas, on le
note tout simplement par ClR (x) ou par ẋ ou par x et sera appelé la classe d’équivalence de
l’élément x.

1.4.1 Relations d’équivalence


Définition 1.4.4. Une relation d’équivalence R sur un ensemble E est dite une relation d’équivalence
si elle est à la fois réflexive, symétrique et transitive.

Exemples 1.4.5. 1. L’égalité sur un ensemble est une relation d’équivalence ;


2. Le parallélisme est une relation d’équivalence sur l’ensemble des droites de R2 ou de R3 ;
3. Soit f une application de E vers F. Le sous ensemble de E 2 défini par :

(a, b) ∈ E 2 : f (a) = f (b)




définit une relation d’équivalence sur E.

Définition 1.4.6. Soit E un ensemble non vide. Une partition de E est une famille de sous-
ensembles non vides de E, deux à deux disjoints, dont la réunion est égal à E.

Proposition 1.4.7. Soit F une relation d’équivalence sur un ensemble E. Si x et y deux éléments
de E, on a :
1. x ∈ ClF (x);
2. ẋ = ẏ si et seulement si y ∈ ẋ;
3. Si y ∈
/ ẋ, on a ẋ ∩ ẏ = ∅.

Démonstration. A faire en classe.

Corollaire 1.4.8. Soit E un ensemble non vide. L’ensemble des classes d’équivalence de E forme
une partition de E. Inversement, toute partition d’un ensemble définit une relation d’équivalence.

Démonstration. A faire en classe.

Définition 1.4.9. Soit R une relation d’équivalence sur un ensemble E. L’ensemble E/R des
classes d’équivalences défini par :
E/R:= {ẏ : y ∈ E}
est appelé ensemble quotient de E par R. Ainsi, on en déduit une application de E vers E/R
qui a x ∈ E, on associe la classe ẋ. Cette application est appelé la projection (ou surjection)
canonique de E dans E/R.

En voici un exemple fondamental concernant les relations d’équivalences : Les congruences.


Soit n un entier naturel non nul. Pour tout entier a et b, on dit que a est congruent à b modulo
n s’il a le même reste que b après division euclidienne par n. Autrement dit, a est congruent à b
modulo n si n divise a − b. Si c’est le cas on écrit :

a ≡ b mod n.

cette relation est dite la relation de congruence modulo n. Elle sera notée par nZ.

11
Proposition 1.4.10. La relation binaire nZ est une relation d’équivalence sur Z.

Démonstration. A faire en classe.

Soit a un entier. Par définition, la classe ȧ est

ȧ:= {b ∈ Z | a ≡ b mod n} = a + nZ.

Ainsi :

a ≡ b mod n si et seulement si ȧ = ḃ.


Finalement, l’ensemble quotient Z/nZ est définie par :

Z/nZ:= {ȧ | a ∈ Z} .

Comme les restes possibles après division euclidienne par n sont : 0, 1, 2, . . . , n − 1, on conclut que :

Z/nZ = 0, 1, 2, . . . , n − 1 .

Maintenant on va munir Z/nZ de deux opérations binaires, à savoir l’addition et la multiplication,


induites par celles de Z. D’après les propriétés ci-dessus, on conclut qu’on a, pour tout ȧ et ḃ dans
Z/nZ :
— a + b = a + b;
— a · b = ab.
S’il n’y a pas de confusion, on pourra omettre la barre sur les entiers. Mais, l’étudiant doit se
souvenir toujours dans quel ensemble il travaille.

Exemples 1.4.11. Pour n = 6, on a les tables suivantes :


Pour l’addition :
+ 0 1 2 3 4 5
0 0 1 2 3 4 5
1 1 2 3 4 5 0
2 2 3 4 5 0 1
3 3 4 5 0 1 2
4 4 5 0 1 2 3
5 5 0 1 2 3 4

Pour la multiplication :

× 0 1 2 3 4 5
0 0 0 0 0 0 0
1 0 1 2 3 4 5
2 0 2 4 0 2 4
3 0 3 0 3 0 3
4 0 4 2 0 4 2
5 0 5 4 3 2 1

12
Soit a un entier. On dit que a est inversible dans Z/nZ s’il existe un entier u tel que

u·a=1

C’est à dire :
au ≡ 1 mod n.
Si c’est le cas, on dit que u est l’inverse de a dans Z/nZ. Noter bien que u est aussi inversible et
que a est son inverse.
L’ensemble des éléments inversibles de Z/nZ est noté par (Z/nZ)× . D’après la table de multipli-
cation ci-dessus, on a par exemple :

(Z/6Z)× = 1, 5 .


L’inverse de 1 est lui-même, de même pour 5.

Théorème 1.4.12. Soit a un entier. L’élément a de Z/nZ est inversible si et seulement si a et n


sont premiers entre eux. C’est à dire :

(Z/nZ)× = {a ∈ Z/nZ | pgcd(a, n) = 1} .

Preuve. Supposons que a est inversible. Donc, il existe un entier u tel que au ≡ 1 mod n. C’est à
dire, il existe un entier v tel que au = 1 + nv. D’après le théorème de Bézout, comme au − nv = 1,
où u et v sont des entiers, alors pgcd(a, n) = 1. Supposons maintenant que pgcd(a, n) = 1. D’après
Bézout encore, ils existent deux entiers u et v tels que au + nv = 1. Dans, Z/nZ, on a au + nv =
au + nv = au = 1 car nv = 0. D’où a est inversible dans Z/nZ.

Ainsi, pour vérifier si un élément a est inversible dans Z/nZ, il suffit de calculer le pgcd de a et n.
S’ils sont premiers entre eux, on conclut que a est inversible. Pour calculer l’inverse, on cherche un
couple d’entier (u, v) tel que
au + nv = 1
en utilisant l’algorithme d’Euclide. Ainsi, l’inverse de a est u.

1.4.2 Relations d’ordre


Définition 1.4.13. Soit R une relation sur un ensemble E. On dit que R est une relation
d’ordre si elle est à la fois réflexive, antisymétrique et transitive. Deux éléments x et y de l’ensemble
E sont dits comparables si xRy ou yRx. Si de plus tout les éléments de E sont deux à deux
comparables, on dit que l’ordre est totale. Sinon, l’ordre est dit partiel.

Exemples 1.4.14. 1. L’ordre usuelle ≤ sur N, Z, Q ou sur R est une relation d’ordre (Ordre
total) ;
2. L’inclusion sur l’ensemble des parties P(E) d’un ensemble E est une relation d’ordre (Ordre
partiel) ;
3. La divisibilité sur l’ensemble des entiers Z est une relation d’ordre (Ordre partiel).

Noter bien que dans la plus part des cas, par abus, on notera une relation d’ordre par ≤ .
Soient (E, ≤) un ensemble ordonné et A une partie de E :

13
— Un élément M de E est appelé un majorant de A si pour tout élément x de A, on a x ≤ M ;
— Un élément m de E est appelé un minorant de A si pour tout élément x de A, on a m ≤ x;
— Un élément de A est appelé le plus grand élément de A s’il majore tous les éléments de
A et est noté par max(A);
— Un élément de A est appelé le plus petit élément de A s’il minore tous les éléments de
A et est noté par min(A);
— Si l’ensemble des majorants de A admet un plus grand élément, cet élément est appelé borne
supérieure et est noté sup(A);
— Si l’ensemble des majorants de A admet un plus grand élément, cet élément est appelé borne
inférieure et est noté inf(A).
— Si A admet une borne supérieure, on dit que la partie A est majorée. Si A admet une borne
inférieure, on dit que la partie A est minorée. Si de plus, elle est minorée et majorée, on dit
que A est bornée.
Remarque 1.4.15. Si la partie A admet un maximum, elle admet une borne supérieure et on a
max(A) = sup(A). De même, si A admet un minimum, elle admet une borne inférieure et on a
min(A) = inf(A).
Exercice 6 (Travaux dirigés). 1. Montrer que les relations suivantes sont des relations d’équivalences :
i). Le parallélisme sur l’ensemble des droites de R2 ou de R3 ;
ii). Sur R2 , (x, y)R(x0 , y 0 ) si et seulement si x + y = x0 + y 0 .
2. Montrer que les relations suivantes sont des relations d’ordres partiels :
i). L’inclusion sur l’ensemble des parties P(E) d’un ensemble E ;
ii). La divisibilité sur l’ensemble des entiers Z;
iii). Sur R2 , (x, y)T (x0 , y 0 ) si et seulement si |x0 − x| ≤ y 0 − y.
3. Soit E = R2 \ {(0, 0)} . Considérons la relation binaire R sur E définie comme suit : Pour tout
a et b dans E, aRb si et seulement si a et b appartiennent à une droite passant par (0, 0).
i). Soient (x, y) et (x0 , y 0 ) deux éléments de E. Montrer que (x, y)R(x0 , y 0 ) si et seulement
si il existe un nombre réel non nul λ tel que (x, y) = λ(x0 , y 0 ).
ii). Montrer que R est une relation d’équivalence.
iii). Notons par [x, y] la classe d’équivalence d’un élément (x, y) de E. Vérifier qu’on a [x, 1] =
[y, 1] si et seulement si x = y.
iv). Montrer qu’on a : E/R = {[x, 1] : x ∈ R} ∪ {[1, 0]}
4. (Important.) Soit f une application d’un ensemble E dans un ensemble F. On sait que la
relation R définie pour tout a et b dans E, par :

aRb ⇔ f (a) = f (b)


est une relation d’équivalence.
i). Montrer que l’application f de E/R dans F définie par f (ȧ) = f (a) est bien définie et
est injective.
ii). En déduire qu’on a f = f ◦ g où l’application g est la projection canonique de E dans
E/R.
iii). Montrer que si f est surjective, alors il existe une bijection entre E/R et F.

14
2 Equations Linéaires et Matrices
2.1 Vecteurs : Introduction
Avant de définir en general ce que c’est qu’un espace vectoriel, nous nous proposons dans cette
section de traiter la notion de vecteur. Ceci nous fournit un exemple concret d’espace vectoriel et
en même temps une motivation pour l’ étude abstraite des espaces vectoriels plus tard.
Dans tout ce qui suivra R et C sont respectivement l’ensemble des nombres réels et l’ensemble des
nombres complexes.

2.1.1 Vecteurs dans Rn


Généralités
L’ensemble de tous les n-tuples ordonnés de nombres réels est noté Rn et est appelé espace à n
dimensions. Tout élément u = (u1 , u2 , · · · , un ) ∈ Rn (écriture en ligne) est appelé vecteur (ou point)
et les ui sont appelés les composantes ou coordonnées de u. Graphiquement, pour n = 2 ou n = 3,
un vecteur u = (u1 , u2 , · · · , un ) est représenté dans le plan Rn par une flêche qui part de l’origine 1
0 = (0, 0, · · · , 0) et qui a pour sommet le point de coordonnées (u1 , u2 , · · · , un ). PRENEZ GARDE
−−→
à ne pas confondre avec la notion de vecteur AB introduit en classe de 3eme , où A et B sont deux
points quelconque, et qui est représenté graphiquement par une flêche qui part de A vers B.
Dans toute la suite, on développera la théorie dans le cas général où n ∈ N est un entier naturel
fixé au préalable. Il est tout de même préférable d’avoir à notre disposition des interprétations
graphiques sur lesquelles nos intuitions puissent se reposer. Ce qui est seulement possible quand
n = 2 ou n = 3. On adoptera donc la convention suivante :

Les interprétations graphiques se feront dans le cas n = 2, i.e. dans le plan R2 .

Définition 2.1.1 (Opérations sur les vecteurs). Etant donnés deux vecteurs u = (u1 , u2 , · · · , un )
et v = (v1 , v2 , · · · , vn ) ∈ Rn , et un élément k ∈ R, on définit les opérations suivantes :
— Addition : u + v = (u1 + v1 , u2 + v2 , · · · , un + vn ).
— Multiplication par un scalaire : ku = (ku1 , ku2 , · · · , kun ).
Dans ce cas, l’élément k ∈ R est appelé un scalaire.

On verra plus tard que (Rn , +, ·) où · représente la multiplication par un scalaire, forme une struc-
ture qu’on appelle espace vectoriel. Plus précisément, (Rn , +, ·) est un espace vectoriel sur R ou un
R-espace vectoriel où le R se réfère au corps des scalaires (on définira plus tard ce qu’est un corps).
On dit que l’addition el la multiplication par un scalaire se font composante par composante.

Définition 2.1.2 (Combinaison linéaire). Etant donnés r vecteurs u1 , u2 , · · · , ur , une combinaison


linéaire de u1 , u2 , · · · , u2 est une somme de la forme k1 u1 + k2 u2 + · · · + kr ur où les ki sont des
scalaires.

Exemples 2.1.3. Considérons le cas n = 2. On a (1, 3) + (0, 2) = (1 + 0, 3 + 2) = (1, 5) et


π(1, 3) = (π, 3π). Le vecteur 21 (1, 3) + (−2)(0, 2) = ( 21 , 32 ) + (0, −4) = 21 , − 25 est une combinaison
linéaire des vecteurs (1, 3) et (0, 2).
1. Indépendamment de n, l’origine sera toujours noté 0.

15
Interprétations graphique
— La somme u + v est représenté par la flêche qui part de l’origine et dont le sommet forme un
parallélogramme avec l’origine et les sommets de u et v.
— L’ensemble des points ku où u est un vecteur et k parcours R est la droite dirigée par le
vecteur u.
— Etant donnés deux vecteurs non nulls u et v de R2 . Quelle est l’ensemble de toutes les
combinaisons linéaires cu + dv de u et v ? Si u et v sont parallèles c’est une droite, sinon c’est
tout le plan R2 . Qu’en est-it de l’ensemble des combinaisons linéaires de trois vecteurs, quatre
vecteurs, etc ? On verra que deux vecteurs suffisent pour ”générer” R2 .

MILA ASIANA SARY.

Le théorème suivant nous fournit les propriétés essentielles des opérations dans Rn . Ce sont les
propriétes que nous allons abstraire quand on étudiera les espaces vectoriels de manière abstraites.

Théorème 2.1.4. Quels que soient les vecteurs u, v, w ∈ Rn et quels que soient les scalaires
k, l ∈ R, on a :
(i) (u + v) + w = u + (v + w) (Associativité de l’addition)
(ii) u + v = v + u (Commutativité de l’addition)
(iii) u + 0 = u (0 est l’ élément neutre de l’addition)
(iv) u + (−u) = 0 (−u est l’inverse additive de u)
(v) k(u+v) = ku+kv (Distributivité de la multiplication par un scalaire par rapport à l’addition)
(vi) (k + l)u = ku + lu (La première addition est l’addition dans R tandis que la seconde est
celle dans Rn )
(vii) (kl)u = k(lu)
(viii) 1u = u.

Démonstration. Exercice facile laissé aux étudiants.

2.1.2 Produit Scalaire, Norme et Distance


Définition 2.1.5 (Produit scalaire). Soient u = (u1 , u2 , · · · , un ) et v = (v1 , v2 , · · · , vn ) deux
vecteurs de Rn . Le produit scalaire de u et v est le scalaire défini par

u · v = u1 v1 + u2 v2 + · · · + un vn .

Définition 2.1.6. Deux vecteurs u et v sont dits orthogonaux ou perpendiculaires si u · v = 0.

En effet, graphiquement, pour n = 2 ou n = 3, deux vecteurs non nulls sont orthogonaux si et seule-
ment si leur produit scalaire est null. La notion d’orthogonalité n’ est donc qu’une généralisation
en dimension supérieure de la notion usuelle de perpendicularité.

Exemples 2.1.7. Les vecteurs i = (1, 0) et j = (0, 1) sont orthogonaux car i · j = 0 + 0 = 0.

Nous donnons ensuite les propriétés remarquables du produit scalaire dans Rn .

16
Théorème 2.1.8. Soient u, v, w ∈ Rn et soit k ∈ R.
(i) (u + v) · w = u · w + v · w
(ii) (ku) · v = k(u · v)
(iii) u · v = v · u
(iv) u · u ≥ 0
(v) u · u = 0 si et seulement si u = 0.

Démonstration. Voir exercices.

On dit que l’espace vectoriel Rn muni du produit scalaire est un espace euclidien de dimension n.
n
Définition 2.1.9. Soient deux vecteursp u = (u1 , · · · , un ) et v = (v1 , · · · , vn ) ∈ R . La distance
2 2
p1 − v1 ) + · · · + (un − vn ) . La norme (ou longueur ) du
entre u et v est définie par d(u, v) = (u

vecteur u est définie par kuk = u · u = u21 + · · · + u2n . Un vecteur w appelé un vecteur unitaire
si kwk = 1.
w
On observe que d(u, v) = ku − vk et que pour tout vecteur w 6= 0, le vecteur kwk est unitaire et
de même direction que w. On rappelle que le cercle centré à l’origine et de rayon de longueur 1 est
appelé le cercle unité.
En dimension √ 2, si nous considérons deux vecteurs p = (a, b) et q = (c, d), on voit facilement
que
p kpk = a2 + b2 représente la longueur de la flêche représentant le vecteur p et d(p, q) =
(a − c) + (b − d)2 représente la distance euclidienne qui sépare les pointes des flêches représentant
2

p et q respectivement. On invite le lecteur a réfléchir sur le cas de la dimension 3.

MILA ASIANA SARY.

Exemples 2.1.10. Les vecteurs i et j sont unitaires. Compte tenu de la relation cos2 θ0 +sin2 θ0 = 1
pour tout θ0 ∈ R, tout vecteur unitaire du plan xy s’écrit sous la forme (cos θ, sin θ) où θ est l’angle
que fait le vecteur par rapport à l’axe des x.
u
Le vecteur u = (2, 2, 1) est de longueur 3 et kuk = ( 23 , 32 , 13 ) est unitaire (à vérifier).
Soit v = ( 12 , 21 , 12 , 12 ). On a v · v = 41 + 14 + 41 + 14 = 1. Soit w = (1, 1, 1, 1), on a kwk = 2 donc v = kwk
w
.

Proposition 2.1.11. Si u et v ∈ Rn son orthogonaux, alors kuk2 + kvk2 = ku − vk2 .

Démonstration. Voir exercices.

Le théorème suivant nous fournit une inégalité fondamentale reliant le produit scalaire et la norme.

Théorème 2.1.12 (Cauchy-Schwarz). Quels que soient les vecteurs u = (u1 , · · · , un ) et v =


(v1 , · · · , vn ) de Rn , on a :
|u · v| ≤ kukkvk.

Démonstration. Si u = 0 ou v = 0, l’inégalité est triviale. On peut donc supposer que u = 6 0 et


v 6= 0. Le lecteur vérifiera que pour tout nombres réels a et b, on a |a + b| ≤ |a| + |b|. Donc, il vient
que
n
X n
X
|u · v| = | ui vi | ≤ |ui vi |. (1)
i=1 i=1

17
D’un autre côté, on invite le lecteur a vérifier que pour tout nombres réels a et b on a l’inégalité
ab ≤ 12 (a2 + b2 ). Donc,
Pn n
i=1 |ui vi | |ui ||vi |
X
=
kukkvk kukkvk
i=1
n
1 |ui |2 |vi |2
X   
≤ +
2 kuk2 kvk2 (2)
i=1
n n
!
1 X |ui |2 X |vi |2
= +
2 kuk2 kvk2
i=1 i=1
=1.

On a le résultat en combinant les inégalités (1) et (2).


u·v
Le Théorème de Cauchy-Schwarz entraine que −1 ≤ kukkvk ≤ 1, donc il existe un unique θ ∈ [0, π]
u·v
tel que cos θ = kukkvk . Ceci nous permet de généraliser la notion d’angle entre deux vecteurs de R2 .

Définition 2.1.13. On définit l’angle θ entre deux vecteurs non null u et v ∈ Rn par :
u·v
cos θ = .
kukkvk

Vérifiez qu’en dimension 2, θ est bien l’angle entre u et v.

MILA ASIANA SARY.

Proposition 2.1.14. Quels que soient les vecteurs u, v ∈ Rn et quel que soit le scalaire k ∈ R, la
norme dans Rn satisfait les propriétés suivantes :
(i) kuk ≥ 0.
(ii) kuk = 0 si et seulement si u = 0.
(iii) kkuk = |k|kuk.
(iv) ku + vk ≤ kuk + kvk (Inégalité triangulaire 2 ).

Démonstration. Voir exercices.

2.2 Vecteurs dans Cn


On rappelle qu’un nombre complexe z ∈ C est un nombre de la forme a + ib où a, b ∈ R (la partie
réelle et la partie imaginaire de z respectivement) et i vérifie i2 = −1. Le√conjugué√ de z est le
nombre complexe z = a − ib. Le module de z est le nombre réel positif |z| = zz = a2 + b2 . Tout
comme les nombres réels qui sont représentés par les points d’une droite, les nombres complexes
peuvent être représentés dans le plan. En particulier, z = a + ib est représenté par le point (a, b)
du plan et le module |z| est la distance du point z à l’origine.

MILA ASIANA SARY.


2. Aussi connue sous le nom Inégalité de Minkowski.

18
Nous rappellons les propriétés élémentaires suivantes.

Proposition 2.2.1. Quels que soient z, ω ∈ C, on a :


(i) z + ω = z + ω.
(ii) zω = z ω.
(iii) z = z.
(iv) |zω| = |z||ω|.
(v) |z + ω| ≤ |z| + |ω|.

Démonstration. Voir exercices.

Nous allons maintenant rapidement refaire ce qu’on a fait dans la section précédente. Dans toute
la suite K = R ou C, l’espace complexe à n dimensions Cn est en effet à la fois un espace vectoriel
sur R et un espace vectoriel sur C. Bien que l’ensemble sous-jacent soit le même, on verra plus tard
qu’il y a des différences entre les structures d’espace vectoriel sur R et sur C.
Comme dans le cas réel, les éléments de Cn sont appelés vecteurs (ou points) et les éléments de
K sont appelés scalaires. L’addition de deux vecteurs et la multiplication par un scalaire se font
composante par composante comme dans le cas réel. Dans le cas complexe, le produit scalaire et la
norme se définissent d’une manière légèrement différente du cas réel.

Définition 2.2.2 (Produit scalaire). Soient z = (z1 , · · · , zn ) et ω = (ω1 , · · · , ωn ) deux vecteurs de


Cn . On définit le produit scalaire de z et ω par :

z · ω = z1 ω1 + · · · + zn ωn .

Il est facile de voir qu’avec cette définition z · z est un nombre réel positif, ce qui permet de définir
la norme.

Définition 2.2.3 (Norme). Soit z = (z1 , · · · , zn ) ∈ Cn , la norme de z est définie par :


√ p
kzk = z · z = |z1 |2 + · · · + |zn |2 .

Les notions d’orthogonalité et de distance se définissent de la même manière que dans le cas réel.

Exercice 7 (Travaux dirigés). 1. a). Déterminez si le vecteur (1, 3, 5) ∈ R3 est une combi-
naison linéaire de (0, 1, 0), (1, 4, 1) et (1, 0, 1).
b). Déterminez si le vecteur (1, 1) ∈ R2 est une combinaison linéaire de (0, 1), (1, 4) et
(1, 0). Dans le cas où la réponse est affirmative, est-ce que la représentation en tant que
combinaison linéaire est unique ?
2. Décrivez le sous-ensemble de R3 formé par toutes les combinaisons linéaires des vecteurs
u = (1, 1, 0) et v = (0, 1, 1). Trouvez un vecteur qui n’est pas combinaison linéaire de u et v.
3. Soient u = (π, 0) et v = (0, 2). Décrivez les sous ensembles de R2 suivants :
a). {cu|c ∈ N}.
b). {cu|c ≥ 0}.
c). {cu + dv|c ∈ N et d ∈ R}.

19
4. Est-ce que le vecteur w = (1, 0) est une combinaison linéaire des vecteurs u = (2, −1) et
v = (−1, 2) ?
5. Si u + v = ( 12 , 4, 1) et u − 2v = (1, 0, 2), calculez u et v.
6. Montrez que pour tout vecteur u, 0u = 0.
7. Démontrez Théorème 2.1.4.
8. Démontrez Proposition 2.1.8.
9. Démontrez Proposition 2.1.11.
10. Pour deux vecteurs u et v ∈ R2 , quand est-ce qu’on a l’égalité |u · v| = kukkvk ? l’égalité
ku + vk = kuk + kvk ?
11. Démontrez Proposition 2.1.14. Pour l’inégalité triangulaire on pourra utiliser le Théorème de
Cauchy-Schwarz.
12. Démontrez Proposition 2.2.1.
13. Montrez que pour z, ω ∈ Cn et k ∈ K on a :
a). z · ω = ω · z.
b). (kz) · ω = z · (kω).
c). z · (kω) = k(z · ω).
(Comparer avel le cas réel).
14. a). Soient u = (a, b) et v = (c, d) deux vecteurs du plan. Trouver une condition nécessaire
et suffisante pour que tout élément de R2 soit une combinaison linéaire de u et v.
c). Trouver quatre vecteurs de R4 tels que tout vecteur de R4 soit une combinaison linéaire
de ces vecteurs.
15. Si kuk = 5 et kvk = 3, quelles sont la plus petite et la plus grande valeurs de ku − vk ? Même
question pour u · v.
16. Est-il possible d’avoir trois vecteurs du plan dont les produits scalaires (deux à deux) sont
tous strictement négatifs ? Quand est-il dans R3 ?
17. Soient x, y et z trois nombres réels tels que x + y + z = 0. Trouver l’angle que les vecteurs
u = (x, y, z) et v = (z, x, y) font entre eux.
18. Reprendre les résultats (théorèmes, propositions, lemmes, corollaires) de la section 2.1.1 et
vérifiez si ils restent vrai ou deviennent faux (dans quel cas, fournir des contre-exemples) dans
le cas complexe.

Résoudre des systèmes d’équations linéaires est l’un des problèmes les plus importants en algèbre.
Dans cette section, on développera une méthode générale en utilisant des objets qui seront au centre
de notre cours : Les Matrices.
Pour commencer, considérons le système d’équations, qu’on va résoudre dans R2 , suivant :
(
2x − y =5
.
3x + 2y = 4
On peut voir ce système de deux manières différentes :
1er point de vue :

20
Ce système représente deux droites dans R2 d’équations respectives :

2x − y − 5 = 0, 3x + 2y − 4 = 0.

Les deux droites ne sont pas parallèles, la solution est donc les coordonnées du point d’intersection
qui est (x = 2, y = −1).
2e point de vue :
résoudre ce système estéquivalent
  à répondre à la question
  suivante : Trouver la combinaison
2 −1 5
linéaire des vecteurs et qui donne le vecteur , i.e, trouver x et y, nombres réels,
3 2 4
tels que :      
2 −1 5
x +y = .
3 2 4
C’est dans ce deuxième point de vue qu’on va voir les choses la plus part du temps.

2.3 Matrices
Considérons les trois vecteurs de R3 suivants :
     
1 0 0
u = −1 , v =
   1 , w = 0 .

0 −1 1
Une combinaison linéaire de ces trois vecteurs est de la forme :
 
x1
x1 u + x2 v + x3 w = x2 − x1 
x3 − x2
où x1 , x2 et x3 sont des scalaires.
Maintenant, on va réecrire cette combinaison en utilisant l’un des plus importants objets en algèbre
linéaire : Les Matrices.
On va mettre les trois vecteurs dans les colonnes de la matrice A comme suit :
 
1 0 0
A:=(u v w) = −1 1 0 .
0 −1 1
 
x1
Posons x = x2  ∈ R3 . Ainsi, on définit le produit A · x (noté par Ax) comme suit :

x3
    
1 0 0 x1 x1
Ax = −1 1 0 x2  =x1 u + x2 v + x3 w = x2 − x1  .
0 −1 1 x3 x3 − x2
Par conséquent,Axest un vecteur de R3 qui est une combinaison linéaire des vecteurs u, v et w.
b1
De plus, si b = b2  est un vecteur de R3 , l’équation linéaire

b3

21
Ax = b
est un système de trois équations linéaires. La solution de ce système est :

x1
 = b1
x2 = b1 + b2 .

x3 = b1 + b2 + b3

Ainsi,      
1 0 0
x = b1 1 + b2 1 + b3 0 = Sb,
    
1 1 1
où  
1 0 0
S = 1 1 0 .
1 1 1
Remarque 2.3.1. Considérons l’équation linéaire dans R :

ax = b
où a et b sont donnés et x est l’inconnu. La solution est :

b
x= = a−1 b
a
si a est non nul.
De la même manière, pour résoudre l’équation Ax = b, on suggère de trouver une méthode pour
trouver A−1 . On verra plus tard les conditions d’existence de la matrice A−1 . Ici,

A−1 = S.

Et, on dit dans ce cas que S est l’inverse de A. Par analogie, A est l’inverse de S.

Notons par u0 , v 0 et w0 les vecteurs colonnes de la matrice S. On a :


     
1 0 0
0 0 0
Au = 0 , Av = 1 , Aw = 0 .
    
0 0 1
Ainsi, on obtient la matrice :
 
1 0 0
I3 = (Au0 Av 0 Aw0 ) = 0 1 0 .
0 0 1
Pour tout vecteur x de R3 , on a :
I3 x = x.

22
On appellera la matrice I3 , la matrice identité de dimension 3. Cela nous donne une idée
assez clair sur comment on va faire la multiplication de deux matrices. Dans notre exemple, on a :

AS = (u v w)(u0 v0 w0 ) = (Au0 Av 0 Aw0 ) = I3

et
SA = (u0 v0 w0 )(u v w) = (Su Sv Sw) = I3 .
Avant de décrire les règles d’opérations sur les matrices, noter bien aussi la remarque suivante :

Remarque 2.3.2. Jusqu’à maintenant, on n’a adopté que le deuxième point de vue : ”Le point
de vue des colonnes”. Bien évidemment, on peut voir aussi les matrices sur les lignes (Le premier
point de vue). Posons :

x = (1, 0, 0), y = (−1, 1, 0), z = (0, −1, 1).


On a :
 
x
A = (u v w) = y  .

z
Ainsi :
     
x1 x · (x1 , x2 , x3 ) x1
A x2  = y · (x1 , x2 , x3 ) = x2 − x1  .
x3 z · (x1 , x2 , x3 ) x3 − x2
 
x1
Cela nous donne une deuxième façon de calculer A x2  , ainsi que le produit de deux matrices.
x3

2.3.1 Règles des Opérations pour les Matrices


Dans toute la suite, sauf mention explicite du contraire, m et n désignent deux entiers naturels non
tous nuls.

Définition 2.3.3. Soient I et J deux ensembles d’indices. Une matrice A est une application :

A :I × J −→ K
(i, j) 7−→ aij

où K est l’ensemble de scalaires. Dans toute la suite, sauf mention explicite du contraire, les en-
sembles I et J sont finis et sont respectivement {1, 2, . . . , m} et {1, 2, . . . , n} . Dans ce cas, on
représentera la matrice A comme un tableau rectangulaire de dimension m×n dont les mn éléments
sont des scalaires. Les nombres des lignes et des colonnes sont respectivement m et n. On note A
par :

A = (aij )1≤i≤m,1≤j≤n

23
où aij sont des scalaires ; ou simplement par

A = (aij )
s’il n’y a pas de confusion. Le scalaire aij se trouve ainsi sur la i-ème ligne et la j-ème colonne de
la matrice A. Les n−tuplets
  (ai1 . . . ain ) sont appelés les vecteurs lignes de A tandis que les
a1j
m  .. 
vecteurs de K ,  .  sont appelés les vecteurs colonnes de A.
amj
Si de plus, n = m, on dit que la matrice A est une matrice carrée de dimension n. On notera par
Mn (K) l’ensemble des matrices carrées de dimension n (à coefficients dans K).

Par définition, on peut considérer comme des matrices, les éléments de Rn ou Cn . Ainsi, les vecteurs
colonnes de Rn ou Cn sont des matrices de dimension n × 1, tandis que les vecteurs lignes sont de
dimension 1 × n. Comme dans le cas de ces vecteurs, on a l’addition et la multiplication par un
scalaire entre les matrices. Par exemple :
         
0 1 2 1 2 2 0 1 0 −2
2 1 + 0 0 = 2 1 ; −2 2 1 = −4 −2 .
1 3 1 1 2 4 1 3 −2 −6
Par conséquent :

Définition 2.3.4 (Addition de deux matrices et Multiplication par un scalaire). L’addi-


tion de deux matrices est bien définie si les deux matrices ont la même dimension. Ainsi, si A = (aij )
et B = (bij ) sont des matrices de dimension m × n, on définit A + B par :

A + B = (aij + bij ).
Si k est un scalaire, on définit kA par :

kA = (kaij ).

Définition 2.3.5 (Multiplication de deux Matrices). Soient A et B deux matrices de dimen-


sions respectives m × n et q × p. La multiplication A × B ou simplement AB est bien définie si le
nombre de colonnes de A est égal au nombre de ligne de B, i.e, n = q. Ainsi, on définit AB par :

AB = (Ab1 ... Abp )


Ou bien :

AB = (ai · bj )1≤i≤m,1≤j≤p
 
a1
 .. 
où A =  .  avec ai (1 ≤ i ≤ m) sont les vecteurs lignes de A.
am

24
On remarque ainsi que chaque vecteur colonne de AB est une combinaison linéaire des colonnes de
A. Mais encore, on a :
 
i-ème ligne de AB = i-ème ligne de A × B
et

j-ème colonne de AB = A × (j-ième colonne de B).

Proposition 2.3.6 (Linéarité de la multiplication par une matrice). Soit A une matrice dans
Mn (K). Considérons trois vecteurs colonnes u, v et w de Kn tels que w = au + bv où a et b sont
des scalaires. Alors on a :

Aw = aAu + bAv.

Preuve. Exercice.

Proposition 2.3.7. Soient A, B et C trois matrices et k un scalaire. On a :

A+B =B+A (Commutativité de l’addition)


k(A + B) = kA + kB (Distributivité de la multiplication par un scalaire)
A + (B + C) = (A + B) + C (Associativité de l’addition)
AB 6= BA (Non commutativité de la multiplication)
C(A + B) = CA + CB (Distributivité à gauche de la multiplication)
(A + B)C = AC + BC (Distributivité à droite de la multiplication)
A(BC) = (AB)C (Associativité de la multiplication)

Preuve. Exercice.

Définition 2.3.8. La matrice de Mn (K), qu’on notera par In (ou par I s’il n’y a pas de confusion),
définie par :

In = (aij )
où (
1 si i = j;
aij =
0 sinon.
est appelée la matrice identité.

Remarque 2.3.9. On remarque que la matrice I commute avec toutes les matrices dans Mn (K),
i.e, pour toute matrice A dans Mn (K), on a :

IA = AI.
Ainsi, si k est un scalaire, la matrice kI commute, elle aussi, avec toute les éléments de Mn (K).

D’où la question suivante :

25
Question 2.3.10. Peut-on trouver d’autres matrices (autres que kI) qui pourraient commuter avec
toute les éléments de Mn (K) ?

Réponse. Exercice.

Une dernière chose (importante) concernant la multiplication des matrices est ce qu’on appelle la
décomposition d’une matrice en blocs. Considérons par exemple une décomposition de la matrice
A en blocs suivante :
 
1 0 0 1 0 0  
0 1 0 0 1 0  1 0 0
   0 1 0 B 
A= 0 0 1 0 0 1  =  0 0 1
  

0 0 0 0 1 0 
O C
0 0 0 0 0 1
où  
1 0 0    
0 0 0 0 1 0
B = 0 1 0  , O= , C= .
0 0 0 0 0 1
0 0 1
Proposition 2.3.11. Soient A et B deux matrices décomposées en blocs des matrices. Si le nombre
des blocs sur une ligne de A est égal au nombre des blocs sur une colonne de B, la multiplication
de A × B peut se faire blocs par blocs (suivant la règle de multiplication de deux matrices).

Preuve. Exercice.

Ainsi, on obtient une troisième manière de multiplier deux matrices qui suit :

Corollaire 2.3.12. Soient A et B deux matrices tels que AB est bien défini. Pour tout i =
1, 2, . . . , n, notons respectivement par ai et bi les vecteurs colonnes de A et les vecteurs lignes de B.
Alors, on a :
AB = a1 b1 + . . . + an bn .

Preuve. Exercice à faire pendant le cours.

Voici un exemple :
            
3 1 −1 1 3 1 −3 3 1 0 −2 3
= (−1 1) + (1 0) = + = .
1 1 1 0 1 1 −1 1 1 0 0 1

2.3.2 Inverses
Soit A une matrice dans Mm×n (K). On dit que la matrice A admet un inverse à gauche (resp. à
droite) s’il existe une matrice G (resp. une matrice D) dans Mn×m (K) tel que :

GA = In (resp. AD = Im ).
Noter qu’en général (dans le cas où m 6= n), on peut vérifier que G 6= D.

26
Proposition 2.3.13. Soit A une matrice inversible dans Mn (K). Notons respectivement par G et
D un inverse à gauche et un inverse à droite de A. Alors :

G = D.
De plus, l’inverse de A est unique qu’on notera par A−1 . Ainsi, A est l’inverse de A−1 .

Preuve. Par définition, on a GA = In . En multipliant cet égalité à droite par D, on a (GA)D = D.


Puisque la multiplication des matrices est associative, on a (GA)D = G(AD) = G(In ) = G. D’où,
G = D.
Maintenant, soient B1 et B2 deux inverses (à droite et à gauche) de A. D’après le résultat précédent,
on peut considérer B1 comme inverse à droite et B2 comme inverse à gauche. D’après ce même
résultat, on conclut que B1 = B2 .

Dans toute la suite, quand on parle des inverses de matrices, on ne s’intéressera qu’au cas où la
matrice est carrée. Ainsi, on notera par GLn (K), le (sous-) ensemble des matrices inversibles de
Mn (K).

Proposition 2.3.14. Soient A et B des matrices dans GLn (K). On a :


— La matrice AB est aussi dans GLn (K) (Stabilité par la multiplication) ;
— L’inverse de AB est B −1 A−1 .

Preuve. Exercice.

Une question s’impose :

Question 2.3.15. Si A et B deux matrices inversibles, est-ce que A + B est aussi inversible ?

Réponse. Exercice.

Proposition 2.3.16. Soit A une matrice dans Mn (K). La matrice A est inversible si et seulement
si pour tout vecteur b de Kn , il existe un unique solution dans Kn de l’équation :

Ax = b.

Preuve. Supposons que A est inversible. Soit b ∈ Kn et considérons l’équation Ax = b. Donc, le


vecteur x = A−1 b est une solution. Si x0 est une solution de l’équation, on a Ax0 = b. En multipliant
cet équation par A−1 , on a x0 = A−1 b = x. Puisque A−1 est unique, d’où l’unicité de la solution.
Inversement, supposons maintenant que pour tout vecteur b de Kn , il existe un unique solution
dans Kn de l’équation :

Ax = b.
Pour tout i = 1, 2, . . . , n, notons par bi le i-ième colonne de la matrice identité In . Par hypothèse,
il existe un unique xi dans Rn , solution de l’équation

Ax = bi

pour tout i = 1, 2, . . . , n. D’où :

27
A−1 = (x1 x2 ··· xn )
est l’inverse de A.

Remarque 2.3.17. On a, dans la preuve de la proposition précédente, une méthode pour calculer
l’inverse d’une matrice.
On verra plus tard dans ce cours, des critères pour qu’une matrice soit inversible, ainsi que d’autres
méthodes pour calculer l’inverse d’une matrice.

2.3.3 Dépendances et Indépendances


On a vu au tout début de ce cours, la définition d’une combinaison linéaire. Soient u1 , u2 , . . . , ur ,
r vecteurs de Kn , on se demandait si un vecteur w dans Kn est une combinaison linéaire de ces r
vecteurs. Maintenant, en particulier, on se demande s’il existe (au moins) un vecteur parmi les ui
qui soit (ou non) une combinaison linéaire des autres.
Définition 2.3.18. Soient u1 , u2 , . . . , ur , r vecteurs de Kn . On dit que ces vecteurs sont linéairement
dépendants s’ils existent x1 , x2 , . . . , xr scalaires non tous nuls tels que :

x1 u1 + x2 u2 + . . . + xr ur = 0.
Ils sont dits linéairement indépendants dans le cas contraire.
Proposition 2.3.19. Soit A une matrice dans Mn (K). La matrice A est inversible si et seulement
si les vecteurs colonnes de A sont linéairement indépendants.
Preuve. Pour tout i = 1, 2, . . . , n, notons par ui le i-ième colonne de A. D’après Proposition 2.3.16,
l’équation Ax = x1 u1 + x2 u2 + . . . + xn un = 0 admet un unique solution. Or, le vecteur nul dans
Kn est une solution de cet équation. D’où le résultat.

Théorème 2.3.20. Soit A une matrice dans Mn (K). Les vecteurs colonnes de A sont linéairement
indépendants si et seulement si les vecteurs lignes de A le sont aussi.
Preuve. Notons par u1 , u2 , . . . , un les vecteurs lignes de A. Supposons que les vecteurs colonnes de
A sont linéairement indépendants. D’après la proposition 2.3.19, la matrice A est inversible. Ainsi,
en multipliant à droite par A−1 , l’équation

xA = x1 u1 + x2 u2 + . . . + xn un = 0

où x = (x1 , x2 , . . . , xn ) admet un unique solution (qui est le vecteur nul). D’où les vecteurs lignes
sont aussi linéairement indépendants. La réciproque se démontre de la même manière.

Proposition 2.3.21. Soit A ∈ Mn (K). L’équation

Ax = 0

admet plusieurs (au moins deux) solutions si et seulement si A n’est pas inversible. Dans ce cas,
on dit que la matrice A est singulière.
Preuve. Exercice.

28
2.3.4 Transpositions et Permutations
Dans ce paragraphe, on va introduire deux opérateurs (importants) opérant sur les matrices à
savoir : la Transposition et la Permutation.
Définition 2.3.22. Soit A une matrice. La matrice dont les colonnes sont respectivement les
vecteurs lignes de A est appelée la transposée de A (qu’on notera par AT ). Plus précisément :

(AT )ij = Aji .

En particulier, si A ∈ Mm×n (K), la matrice AT est dans Mn×m (K).


 
  1 4
1 2 3
Exemples 2.3.23. Si A = , la transposée de A est AT = 2 5 .
4 5 6
3 6
Proposition 2.3.24. Soient A et B deux matrices. Alors :
i). (A + B)T = AT + B T ;
ii). (AB)T = B T AT ;
iii). Si A est inversible, alors AT est aussi inversible avec (AT )−1 = (A−1 )T .
iv). ((A)T )T = A.
Preuve. Exercice.

Remarque 2.3.25. Soient A une matrice dans Mn (K) et x un vecteur colonne de Kn . Le vecteur
Ax est une combinaison linéaire des vecteurs colonnes de A tandis que xT A est celle des vecteurs
lignes de A.
Dans toute la suite, sauf mention explicite du contraire, tout vecteur de Kn sera considérer comme
un vecteur colonne.
Remarque 2.3.26. Soient x et y deux vecteurs de Kn . Alors on a :

x · y = xT y.
Si de plus, A est une matrice dans Mn (K), on a :

(Ax)T y = xT (AT y).


Maintenant on va introduire quelques importantes classes de matrices.
Définition 2.3.27. Soient A une matrice dans Mn (K). On dit que A est une matrice triangulaire
supérieure (resp. inférieure) si aij = 0 pour i > j (resp. pour i < j).
Il est important de souligner que les matrices triangulaires (supérieures ou inférieures) joueront un
très grand rôle dans la résolution des équations linéaires du type :

Ax = b
où A une matrice carrée, b un élément de Kn et x dans Kn est l’inconnu.

29
Remarque 2.3.28. Si A est une matrice triangulaire supérieure, sa transposée AT est une matrice
triangulaire inférieure, et inversement.

La classe des matrices suivante est l’une des plus importantes :

Définition 2.3.29. Soit A = (aij ) une matrice dans Mn (K). La matrice est dite symétrique si
AT = A, i.e, aij = aji .

Il est clair que si A est une matrice symétrique et inversible, alors l’inverse est aussi une matrice
symétrique.

Proposition 2.3.30. Soit A une matrice dans Mm×n (K). La matrice AT A dans Mn (K) est une
matrice symétrique.

Définition 2.3.31. Soit A = (aij ) une matrice dans Mn (K). La matrice est dite antisymétrique
si AT = −A, i.e, aij = −aji .

On verra plus tard (plus loin) l’importance de ces classes de matrices.


Soit A une matrice dans Mn (K). Notons par u1 , u2 , . . . , un les vecteurs ligne de A. Une question
que l’on peut se poser est la suivante : Existe-t-il une matrice P qui permute (ou échange) deux ou
plusieurs vecteurs lignes de A en la multipliant par P ? La réponse est OUI !
Par définition, la matrice identité In ne change rien sur A, i.e, In A = A. Par contre si P21 est la
matrice qu’on obtient en permutant la première et la deuxième ligne de la matrice In , on a :
 
u2
 u1 
 
 u3 
P21 A =  u  .
 
 4
 . 
 .. 
un
De manière générale, la matrice Pij obtenue de la matrice identité après avoir permuté la i-ème
ligne et la j-ème ligne permute la i-ème et la j-ème ligne de la matrice A. Ainsi :

Définition 2.3.32. Une matrice P est dite une matrice de permutation si P est le produit de
matrices de type Pij . L’ensemble des matrices de permutations dans Mn (K) est noté par Pn .

Proposition 2.3.33. Soit P une matrice dans Pn . Alors :


i). La matrice P est inversible avec P −1 = P T . En particulier, P −1 est aussi une matrice de
permutation ;
ii). P n = In ;
iii). Le cardinal de l’ensemble Pn est n!.

Preuve. Exercice.

30
2.4 Equations Linéaires
Avant de passer aux choses sérieuses, illustrons cette section avec l’un des fondations (Si ce n’est
la fondation) de l’algèbre linéaire à savoir : La résolution d’un système d’équations linéaires.
Considérons le système suivant :

2x − y + z = 1

x+y+z =0

x + y − 2z = −1

où (x, y, z) ∈ K3 est l’inconnu. En utilisant la méthode d’élimination, on peut avoir le système
réduit (qui est plus facile à résoudre) qui suit :

2x − y + z = 1

−3y − z =1 .

−6z = −2

D’où :

x
 = 19
y = − 49 .

z = 13

.
Maintenant l’idée est de ”revisiter” cette méthode en utilisant les matrices. La méthode est bien
connue sous le nom : La méthode de pivot de Gauss.
Reprenons l’exemple ci-dessus :
Considérons l’équation linéaire suivante :

Ax = b
où x ∈ K3 est l’inconnu avec :
   
2 −1 1 1
A = 1 1 1 ; b =  0 .
1 1 −2 −1
Définition 2.4.1. Soit A = (aij ) une matrice dans Mn (K). Une matrice Eij vérifiant les deux
propriétés suivantes :
i). La multiplication à gauche de A par Eij ne change que la i-ième ligne de A;
ii). La (i, j) position de la matrice Eij A est zéro ;
est appelée une matrice d’élimination du coefficient aij de A.
Proposition 2.4.2. Soient A = (aij ) une matrice dans Mn (K) et i, j et k trois entiers entre 1 et n
avec k < i. Supposons que akj et aij sont non nuls. Alors, la matrice déduite de la matrice identité
aij
In en remplaçant seulement la (i, k) position par − akj , est une matrice d’élimination du coefficient
aij de A. On notera cette matrice par Eij . De plus, La i-ième ligne de la matrice Eij A est égal à
aij
− akj Lk + Li où Lk et Li sont respectivement la k-ième ligne et la i-ième ligne de la matrice A.

31
Preuve. Exercice.

Proposition 2.4.3. Les matrices d’éliminations sont inversibles. De plus, si E = (ekl ) est une
matrice d’élimination de la (i, j) position d’une matrice donnée, la matrice inverse E −1 se déduit
de la matrice E en remplaçant seulement la (i, j) position par −eij .

Preuve. Exercice.

En revenant à notre exemple, l’équation peut se réduire à :

A0 x = b0
où    
2 −1 1 1
A0 = E32 E31 E21 A = 0 3/2 1/2 ; b0 = E32 E31 E21 b = −1/2
0 0 −3 −1
avec      
1 0 0 1 0 0 1 0 0
E21 = −1/2 1 0 ; E31 = 0 1 0 ; E32 = 0 1 0  .
0 0 1 −1/2 0 1 0 −1 1
Par conséquent, on retrouve le résultat :

x
 = 19
y = − 49 .

z = 13

.
Remarquons ainsi que, A se factorise comme suit :

A = LU
où L et U sont respectivement une matrice triangulaire inférieure et une matrice triangulaire
supérieure, avec :

−1 −1 −1
L = E21 E31 E32
où
     
1 0 0 1 0 0 1 0 0
−1 −1 −1
E21 = 1/2 1 0 ; E31 =  0 1 0 ; E32 = 0 1 0 .
0 0 1 1/2 0 1 0 1 1
Remarque 2.4.4. En général, dans le procédé de la méthode d’élimination de la Proposition 2.4.2,
si le coefficient aij qu’on veut éliminer est déjà zéro, on ne fait rien, on passe au suivant qui est
généralement a(i+1)j ou a(i+1)(j+1) . Mais, plus important encore, on peut pas éliminer si akj = 0.
Si c’est le cas, on permute les lignes de A jusqu’à ce qu’on obtienne un premier coefficient qui est
non nul. On commence souvent par a11 .

D’où le résultat suivant :

32
Théorème 2.4.5 (Factorisation LU). Soit A une matrice carrée. Alors il existe une matrice de
permutation P tel que A se factorise comme suit :

P A = LU
où L et U sont respectivement une matrice triangulaire inférieure et une matrice triangulaire
supérieure.
Preuve. Une explication sera donnée en cours magistral.

Remarque 2.4.6. Maintenant, on sait que toute matrice carré A peut s’écrire de la forme :

P A = LU
comme l’indique le précédent théorème. Si de plus, la matrice A est inversible, il sera facile de
trouver son inverse en utilisant cette factorisation en utilisant le fait qu’il est ”facile” de trouver
les inverses des matrices d’élimination ainsi que les matrices triangulaires.
Exercice 8 (Travaux dirigés). Dans toute la suite, sauf mention explicite du contraire, K
désignera le corps des nombres réels R ou le corps des nombres complexes C.
1. Ecrire les deux problèmes suivants sous la forme Ax = b où A est une matrice 2 × 2, puis
donner une solution à chaque problème :
a). Alice est deux fois plus jeune que Bob et la somme de leur age est 33 ;
b). Les deux points (2, 5) et (3, 7) appartiennent à une droite d’équation y = mx+c. Trouver
m et c.
2. Pour chacune des matrices suivantes, trouver le scalaire a pour que la matrice soit singulière
(non inversible) :
     
1 3 5 1 0 a a a a
1 2 4  ; 1 1 0 ; 2 1 5
1 1 a 0 1 1 3 3 6
3. Soit A une matrice dans M3 (K) telle qu’il existe un vecteur colonne non nul x dans K3
vérifiant Ax = 0.
a). Montrer que les vecteurs colonnes de A forment un plan P dans K3 .
b). Montrer que P et x sont perpendiculaires.
4. Soit un système d’équations linéaires dans K3 .
a). Montrer que ce système ne peut pas avoir exactement deux solutions.
b). Si (x, y, z) et (u, v, w) sont deux solutions du système, pouvez vous trouver un autre ?
5. Trouver les matrices matrices E et L telles que l’on ait :
EP3 = P2 ; LP3 = I4
où    
1 0 0 0 1 0 0 0
1 1 0 0 0 1 0 0
P3 = 
1
; P2 =  .
2 1 0 0 1 1 0
1 3 3 1 0 1 2 1

33
6. Considérons les matrices suivantes :
     
1 0 0 0 1 0 0 0 1 0 0 0
a 1 0 0  0 1 0 0 0 1 0 0
E1 =  b 0 1 0 ; E2 = 0
  ; E3 =  .
d 1 0 0 0 1 0
c 0 0 1 0 e 0 1 0 0 f 1

Montrer que :  
1 0 0 0
a 1 0 0
L = E1 E2 E3 = 
b
.
d 1 0
c e f 1
7. Calculer les inverses de trois matrices suivantes :
2 −1 0
 
    0 0 0
1 −a 0 0 2 −1 0 0 −1 2 −1 0
 0 0
0 1 −b 0  −1 2 −1 0   0 −1 2 −1 0 0
A= ; B=
 0 −1 2 −1 ;
 K=
 .
0 0 1 −c 0 0 −1 2 −1 0 

0 0 0 1 0 0 −1 2 0 0 0 −1 2 −1
0 0 0 0 −1 2

Calculer 4K −1 et 7K −1 .
8. Soit A et B deux matrices carrées de même dimension.
a). Montrer que A(I + BA) = (I + AB)A.
b). En déduire que I + BA est inversible si et seulement si I + AB l’est aussi.
9. Un sous ensemble de Mn (K) est appelé un groupe de matrices si pour toutes A et B deux
matrices de l’ensemble, on a : le produit AB et l’inverse de chaque élément sont dans l’en-
semble.
a). Montrer que si G est un groupe de matrices, la matrice identité In est automatiquement
dans G;
b). Montrer que : l’ensemble des matrices triangulaires inférieures telles que aii = 1; l’en-
sembles des matrices symétriques ; l’ensemble des matrices de permutations sont des
groupes de matrices.
c). Donner plus de groupes de matrices.
10. Ecrire une matrice dans M3 (K) de votre choix.
a). Trouver deux matrices B et C telles que : A = B + C et B et C soient respectivement
symétrique et anti-symétrique.
b). Ré-écrire B et C en fonction de A et AT .
11. Factoriser les matrices suivantes (de la forme A = LU ou P A = LU ) :
 
      1 1 1 1
2 1 0 0 1 2 0 1 1
1 2 1 ; 0 3 8 ; 1 0 1 ; 1 2 3 4  .
 
1 3 6 10
0 1 2 2 1 1 2 3 4
1 4 10 20

34
3 Espaces Vectoriels et Sous-Espaces Vectoriels
Dans ce chapitre, nous allons étudier l’une des structures mathématiques fondamentales, étroitement
liées à l’algèbre linéaire : les espaces vectoriels. Les espaces vectoriels fournissent un cadre général,
et plus abstrait, pour l’étude des équations linéaires, des applications linéaires et des matrices entre
autres. Dans le premier chapitre, on a vu quelques exemples d’espaces vectoriels, notemment Rn
et Cn , ainsi que quelques propriétés de ces derniers. Certaines de ces propriétés vont nous servir
comme point de départ pour définir abstraitement ce qu’est un espace vectoriel (cf. Théorème
2.1.4), et de ce fait formeront les axiomes de base d’un espace vectoriel.
Dans tout ce chapitre, on fixe un ”corps” des scalaires K (pour l’instant, R ou C).

3.1 Espaces Vectoriels


Soit V 6= ∅ un ensemble non vide. Une loi de composition interne sur V est une application
⊕ : V × V → V qui à chaque pair d’éléments (u, v) de V associe un élément ⊕(u, v) de V , que l’on
notera u ⊕ v . La loi ⊕ sera appelée l’addition de V . On dit que V est munie d’une multiplication
par les scalaires de K s’il existe une application : K × V → V qui à tout pair d’éléments (k, v)
de K × V associe un élément (k, v) de V , que l’on notera k v.
Définition 3.1.1. Un espace vectoriel sur K ou K-espace vectoriel est un ensemble non vide
V possédant un élément spécial 0 qu’on apellera naturellement le zéro de V , muni d’une loi de
composition interne, ⊕, et d’une multiplication par les scalaires de K, , satisfaisant les axiomes
suivants : quels que soient u, v, w ∈ V et quels que soient k, l ∈ K, on a
(i) (u ⊕ v) ⊕ w = u ⊕ (v ⊕ w) (Associativité de l’addition)
(ii) u ⊕ v = v ⊕ u (Commutativité de l’addition)
(iii) u ⊕ 0 = 0 ⊕ u = u (0 est l’ élément neutre de l’addition)
(iv) Il existe un élément −u ∈ V tel que u ⊕ (−u) = 0 (−u est l’inverse additive de u)
(v) k (u + v) = k u + k v (Distributivité de la multiplication par un scalaire par rapport
à l’addition)
(vi) (k + l) u = (k u) ⊕ (l u) (La première addition est l’addition dans K tandis que la
seconde est celle dans V )
(vii) (kl) u = k (l u)
(viii) 1 u = u.
Remarque 3.1.2. Il faut prendre garde à ne pas confondre le zéro du corps de base K, qu’on écrira
0K ou simplement 0, avec le zéro de V que l’on écrira 0 (le chiffre 0 en gras).
Remarque 3.1.3. Dans la définition précédente, on a utilisé les notations ⊕ et pour que l’on
comprenne que l’addition dans un espace vectoriel n’est pas toujours l’addition usuelle ans R ou C,
de même pour la multiplication par les scalaires. Cependant, pour la commodité, on convient dans
toute la suite d’écrire u + v au lieu de u ⊕ v et kv au lieu de k v du moment qu’aucune confusion
n’est à craindre.
Les quatres premiers axiomes font de (V, ⊕) ce qu’on appelle un groupe abélien ou groupe commu-
tatif. L’axiome d’associativité de l’addition nous permet d’écrire une somme quelconque d’éléments
de V de la forme
u1 + u2 + · · · + un

35
sans écrire les parenthèses, et la commutativité implique que l’ordre de sommation n’est pas im-
portant.

Proposition 3.1.4. L’élément neutre 0 est unique et pour tout u ∈ K, l’opposé −u de u est unique.

Preuve. Exercice.

On peut donc définir la soustraction dans V par : u − v = u + (−v).

Corollaire 3.1.5 (Régularité de l’addition). Soient u, v, w ∈ K tels que u + v = u + w, donc v = w.

Preuve. Exercice.

On a les propriétés simple suivantes

Théorème 3.1.6. Soit V un K-espace vectoriel.


(i) Pour tout k ∈ K, k0 = 0.
(ii) Pour tout u ∈ V , 0u = 0.
(iii) Si ku = 0 avec k ∈ K et u ∈ V , alors k = 0 ou u = 0.
(iv) Pour tout k ∈ K et pour tout u ∈ V , (−k)u = k(−u) = −(ku).

Preuve. (i) Soit k ∈ K, on a k0 = k(0 − 0) = k0 − k0 = 0.


(ii) Soit u ∈ V , on a 0u = (0 − 0)u = 0u − 0u = 0.
1 1
(iii) Soient k ∈ K et u ∈ V tels que ku = 0. Si k 6= 0, alors k (ku) = k0 = 0. De plus, on a
( k1 k)u = 1u = u. Donc u = 0.
(iv) Il suffit d’appliquer l’axiome (vii) avec l = −1 et utiliser la commutativité de la multiplication
dans K.

Nous allons maintenant voir quelques exemples d’espace vectoriels.

Exemples 3.1.7. Soit K = R ou C (ou un corps quelconque). On vérifie facilement que l’ensemble
Kn des n-tuples d’éléments de K muni de l’addition et de la multiplication par les scalaires fait com-
posantes par composantes est un espace vectoriel. Lélément neutre de l’addition est 0 = (0, 0, · · · , 0)
et bien sur −(a1 , a2 , · · · , an ) = (−a1 , −a2 , · · · , −an ).

Exemples 3.1.8. On vérifie que Mm×n (K) muni de l’addition des matrices et de la multiplication
des matrices par un scalaire est un espace vectoriel. La matrice nulle où toutes les entrées sont 0
est lélément 0 et l’opposé se déduit facilement.

Exemples 3.1.9. Soit V = K[X] := {a0 + a1 X + a2 X 2 + · · · + an X n | n ∈ N, a0 , · · · , an ∈ K}


l’ensemble des polynômes en la variable X et à coefficients dans K. Alors V muni de l’addition
des polynômes (on additionne les coefficients correspondant aux mêmes puissances de X) et de la
multiplication par un scalaire (multiplier les coefficients par le scalaire) est un espace vectoriel.

36
Exemples 3.1.10. Soit E un ensemble non vide et soit F(E, K) l’ensemble de toutes les applica-
tions de E dans K. On munit F(E, K) de l’addition des applications et de la multiplication par un
scalaire comme suit : pour tout f, g ∈ F(E, K) et k ∈ K, on définit f + g par

(f + g)(x) = f (x) + g(x)

et kf par
(kf )(x) = kf (x).
Lélément 0 est l’application nulle qui à chaque x ∈ E associe 0.
La vérification de ces exemples est un exercice facile laissé aux étudiants.

3.2 Sous-Espaces Vectoriels


Définition 3.2.1. Un sous-ensemble non vide W ⊆ V contenant 0 est un sous-espace vectoriel de
V si W lui-même est un espace vectoriel par rapport aux lois d’addition et de multiplication par
un scalaire de V .
Théorème 3.2.2. W ⊆ V est un sous-espace vectoriel de V si et seulement si :
(i) W 6= ∅,
(ii) W est fermé pour l’addition : v, w ∈ W implique v + w ∈ W ,
(iii) W est fermé pour la multiplication par un scalaire : w ∈ W et k ∈ K implique kw ∈ W .
Preuve. Exercice.

Corollaire 3.2.3. W est un sous-espace vectoriel de V si et seulement si


(i) 0 ∈ W (ou bien W 6= ∅) et
(ii) Pour tout v, w ∈ W et pour tout k, l ∈ K, vk + wl ∈ W .
Preuve. Exercice.

En particulier, {0} et V sont des sous-espaces vectoriels de V dites triviaux. On laisse le soin de
vérifier les quelques exemples suivant aux lecteurs :
Exemples 3.2.4. Soit le R-espace vectoriel V = R3 . L’ensemble W des vecteurs dont la dernière
composante est 0 est un sous-espace vectoriel de V .
Exemples 3.2.5. L’ensemble des matrices symt́riques de Mn (K) est un sous-espace vectoriel de
Mn (K).
Exemples 3.2.6. Soit V = K[X] l’ensemble des polynômes à coefficients dans K. Le sous-ensemble
des polynômes de degré inférieur ou égale à n est un sous-espace vectoriel de V .
Théorème 3.2.7. L’intersection de sous-espaces vectoriels d’un espace vectoriel V est un sous-
espace vectoriel de V . En particulier, toute intersection finie.
Preuve. Exercice à faire en classe.

Remarque 3.2.8. La réunion de deux sous-espaces vectoriels n’est pas forcément un espace vec-
toriel.

37
3.3 Combinaisons Linéaires et Générateurs
On a déja vu la notion de combinaison linéaire dans Kn . Il s’avère que cette notion peut se généraliser
au cas d’un espace vectoriel quelconque. Soient V un K-espace vectoriel et v1 , v2 , · · · , vn ∈ V . Un
vecteur de la forme a1 v1 + a2 v2 + · · · + an vn où les ai ∈ K est appelé une combinaison linéaire de
v1 , v2 , · · · , vn .

Définition 3.3.1. Soit S 6= ∅ un sous-ensemble non vide de V . Le plus petit sous-espace vectoriel
de V contenant S, qu’on notera désormais L(S) (une autre notation est Vect(S)), est appelé le
sous-espace de V engendré par S. On dit que S est un système générateur ou une famille
génératrice de L(S), ou encore, que les éléments de S sont des générateurs de L(S).

Lorsque S = {u1 , u2 , · · · , um }, on écrira L(S) = L(u1 , u2 , · · · , um ) s’il n’y a pas risque de confusion.
On convient que L(∅) = {0}.

Définition 3.3.2 (Espace vectoriel de type fini). Un espace vectoriel V est dit de type fini s’il
peut être engendré par un nombre fini d’éléments.

Théorème 3.3.3. Soit S ⊆ V un sous-ensemble. Alors L(S) est l’ensemble de toutes les combi-
naisons linéaires des éléments de S.

Preuve. Soit WS l’ensemble de toutes les combinaisons linéaires des éléments de S. D’une part,il
est clair que 0 = 0 s ∈ WS (s ∈ S). Aussi, on vérifie facilement que l’addition de deux combinaisons
linéaires d’ éléments de WS est un élément de WS . De même, la multiplication par un scalaire
d’une combinaison linéaire d’ éléments de WS est un élément de WS . Donc, WS est un sous-espace
vectoriel de V contenant S. Comme L(S) est le plus petit sous-espace vectoriel de V contenant S,
on a L(S) ⊆ WS . D’autre part, L(S) étant un sous-espace contenant S, donc L(S) contient toute
combinaison linéaire d’éléments de S. Donc, WS ⊆ L(S). Finalement, on a alors L(S) = WS .

Théorème 3.3.4. Soit S ⊆ V un sous-ensemble. Alors, L(S) est l’intersection de tous les sous-
espaces vectoriels de V contenant S.

Preuve. Exercice.
 
0
Exemples 3.3.5. Soit le R-espace vectoriel V = et v ∈R2 R2 \ {
}. On peut se demander quel
0
est le sous-espace engendré par v, ou L({v}). D’après Théorème 3.3.3, L(v) = {λv| λ ∈ R}. C’est
donc la droite passant par l’origine et v. Soit w ∈
/ L(v) un autre élément non null de V . On peut
montrer que L(v, w) = R2 (que l’on fera plus tard).

Exemples 3.3.6. D’une manière similaire à l’exemple


  précédent, en prenant l’espace vectoriel
0
V = R3 , on peut montrer que si v, w ∈ R3 \ {0} tel que w ∈ / L(v) alors L(v, w) est le plan
0
passant par l’origine et contenant v et w.

Exemples 3.3.7. Soit le R-espace vectoriel V = Rn . Les vecteurs ei = (0, · · · , 1, · · · , 0) où la


ieme composante est 1 et les autres 0, pour i = 1, 2, · · · , n, engendrent V . En effet, tout élément
(a1 , a2 , · · · , an ) ∈ Rn s’écrit a1 e1 + a2 e2 + · · · + an en . Le sous-ensemble {e1 , · · · , en } s’appelle la
base canonique de Rn (on y reviendra plus tard).

38
Exemples 3.3.8. Soit le R-espace vectoriel V = C). On sait que tout élément de C s’écrit sous la
forme a + ib où a, b ∈ R. Donc, {1, i} est un système générateur de C en tant que R-espace vectoriel.

Exemples 3.3.9. Soit V = K[X]. Les polynômes 1, t, t2 , t3 · · · engendrent V .

3.4 Espace Colonne d’une Matrice


Dans le chapitre précédent, on s’est intéressé en particulier à la résolution de systèmes de m
équations linéaires à n inconnues. A un tel système on   une matrice A ∈ M
associe m×n (K), et
x1 b1
 x2   b2 
on s’intéresse aux solutions de l’équation Ax = b, où x =  .  est l’inconnu et b =  .  ∈ Kn .
   
 ..   .. 
xn bn
Rapellons que si A admet un inverse à gauche, alors l’ équation admet au moins une solution en
multipliant les membres de l’équation par une inverse de A (si m = n, alors A est inversible (avec
une inverse unique) si et seulement si Ax = b admet une solution unique). Une question importante
s’impose : que se passe-t-il quand A n’est pas inversible ?
En général, le système peut être résolue pour certaines valeurs de b et ne peut pas être résolue
pour les autres. On veut caractériser les valeurs de b pour lesquelles ce systême est résoluble, d’où
l’importance de l’espace colonne de A.

Définition 3.4.1. L’espace colonne de la matrice A ∈ Mm×n (K), qu’on écrira C(A), est le sous-
espace de Km engendré par les vecteurs colonnes de A. C’est donc l’ensemble de toutes les combi-
naisons linéaires possible des vecteurs colonnes de A.

En effet, on sait que s’il existe un x tel que Ax = b alors b est une combinaison linéaire des colonnes
de A. Il s’avère que c’est une condition suffisante selon la proposition suivante

Proposition 3.4.2. Le système Ax = b est résoluble si et seulement si b ∈ C(A).

Preuve. Si x est une solution, donc b ∈ C(A). Inversement, si b ∈ C(A), alors b est une combinaison
linéaire des colonnes de A et les coefficients de cette combinaison linéaire nous fournit une solution
x du système Ax = b.
 
3 0
Exemples 3.4.3. L’espace colonne C(A) de la matrice A = 4 1 est le sous-espace de R3
2 1
   
3 0
engendré par 4 et 1, i.e. le plan contenant ces deux vecteurs. Notez bien que A ∈ M3×2 (R)
2 1
et que C(A) ⊆ R . 3

Il est clair que 0 ∈ C(A), ce qui indique en particulier que l’équation Ax = 0 admet au moins une
solution, à savoir au moins la solution x = 0. Les sous-espaces vectoriels formés par les solutions de
telles equations tiennent une place importante dans la théorie des espaces vectoriels. On y reviendra
un peu plus tard.

39
3.5 Espace Ligne d’une Matrice
D’une manière analogue au cas des espaces colonnes, on a
Définition 3.5.1. L’espace ligne de la matrice A ∈ Mm×n (K), qu’on écrira R(A), est le sous-espace
de Kn engendré par les vecteurs lignes de A. C’est donc l’ensemble de toutes les combinaisons
linéaires possible des vecteurs lignes de A.
Remarque 3.5.2. La notation R(A) vient de l’anglais ”row” qui signifie ”ligne”. Aussi, la notation
L(·) est réservé aux sous-espaces engendrés par des éléments de l’espace vectoriel en question.
Théorème 3.5.3. Soient A = (aij ) ∈ Mn (K), Pn une matrice de permutation et Eij une matrice
d’élimination de la composante aij de A. Alors, R(Pn A) = R(Eij A) = R(A).
Preuve. Exercice.

3.6 Espace Nulle d’une Matrice


Soit A = (aij ) ∈ Mm×n (K) une matrice m × n.
Définition
  3.6.1. L’espace nulle de A, que l’on écrira N(A), est l’ensemble des vecteurs colonnes
x1
 x2 
x =  .  de Kn tels que Ax = 0.
 
 .. 
xn
L’espace nulle N(A) est donc l’ensemble des solutions d’un système homogène (tous les monômes
ont même degré) d’equations linéaires, comme on le voit
    
a11 a12 a13 · · · a1n x1 0
 a21 a22 a23 · · · a2n   x2  0
..   ..  =  .. 
    
 .. .. .. ..
 . . . . .   .  .
am1 am2 am3 · · · amn xn 0
Théorème 3.6.2. L’espace nulle N(A) est un sous-espace vectoriel de Kn .
Preuve. Il est clair que N(A) 6= ∅ car 0 ∈ N(A). Il suffit alors de montrer la stabilité par addition
et par multiplication par un scalaire. Soient x, y ∈ N(A). On a A(x + y) = Ax + Ay = 0 + 0 = 0,
donc x + y ∈ N(A). Soit k ∈ K et x ∈ N(A). On a A(kx) = (kA)x = k(Ax) = k0 = 0, donc
kx ∈ N(A).

Une méthode, entre autres, pour montrer qu’un sous-ensemble de Kn est donc un sous-espace
vectoriel est de montrer que le sous-ensemble en question est l’espace nulle d’une matrice. En
général, tout sous-espace vectoriel de Kn est l’espace nulle d’une matrice. Pour l’instant, on n’a pas
assez de matériels pour prouver cette dernière assertion.
Exemples 3.6.3. Considérons le plan R3 déquation
de    : 2x + y − 3z = 0. On remarque que cette
 x 0
équation est équivalente à 2 1 −3 y  = 0, i.e. que le plan en question est l’espace nulle
z 0

de la matrice A = 2 1 −3 .

40
3.7 Sommes et Sommes Directes
Soit V un K-espace vectoriel. Soient U et W deux sous-espaces de V . On définit un nouveau
sous-ensemble de V .

Définition 3.7.1. La somme de U et W est le sous-ensemble de V défini par

U + W := {u + w| u ∈ U, w ∈ W }.

Théorème 3.7.2. La somme U +W de deux sous-espaces U et W de V est un sous-espace vectoriel.

Preuve. Exercice.

Définition 3.7.3. On dit que la somme U + W est une somme directe si pour tout t ∈ U + W , il
existe un unique couple (u, w) ∈ U × W tel que t = u + w. En d’autre termes, la somme est directe
si la décomposition de tout élément de U + W en somme d’un élément de U et d’un élément de W
est unique. Dans ce cas, on écrit U ⊕ W .

Cette définition s’étend sans aucune difficulté au cas d’un nombre fini de sous-espaces. On peut
même définir la notion de somme directe d’une famille infinie, dénombrable ou non, de sous-espaces,
mais on se limite au cas fini pour l’instant.

Théorème 3.7.4. L’espace vectoriel V est la somme directe des sous-espaces U et W si et seule-
ment si :
(i) V = U + W et
(ii) U ∩ W = {0}.

Preuve. Supposons que V = U ⊕W . Il est clair que V = U +W . Si t ∈ U ∩W avec t 6= 0, alors pour


u ∈ U et w ∈ W , on a s = u + w = (u + t) + (w − t) deux représentations différentes de s ∈ U + W
en tant que somme d’un élément de U et d’un élément de W et la somme ne serait pas directe.
Donc t = 0 et ainsi, U ∩ W = {0}. Inversement, supposons que V = U + W et U ∩ W = {0}. Soit
t = u1 + w1 = u2 + w2 ∈ U + W . Donc, u1 − u2 = w2 − w1 . Ainsi, u1 − u2 ∈ U ∩ V = {0}, ce qui
implique que u1 = u2 . DE la même manière, w1 = w2 . Donc, la représentation de t est unique, et
ainsi la somme est directe.

Exercice 9 (Travaux dirigés). 1. Donnez un exemple montrant que la réunion de deux sous-
espaces vectoriels n’est pas forcément un espace vectoriel.
2. Soit V = KN l’ensemble de toutes les suites (a1 , a2 , a3 , · · · ) déléments de K muni de l’addition
par composante et de la multiplication par un scalaire par composante. Vérifiez que V est un
K-espace vectoriel. Notons K(N) le sous-ensemble des suites à support fini, i.e., les suites dont
tous les termes sont nuls sauf un nombre fini d’entre eux. Montrez que K(N) est un sous-espace
vectoriel de KN .
3. Est-ce que le sous-ensemble de R2 suivant est un espace vectoriel sur R ?

E = {(x, y) ∈ R2 | x ≥ 0}.

Expliquez.

41
4. Décidez, dans chacun des cas suivant, si V = R2 muni des lois d’additions et de multiplications
par un scalaire données sont des espaces vectoriels sur R ou non (justifiez en cas de réponse
négative) :
i). (a, b) + (c, d) = (a + b, c + d) et k(a, b) = (ka, b).
ii). (a, b) + (c, d) = (a + b) et k(a, b) = (ka, kb).
iii). (a, b) + (c, d) = (a + b, c + d) et k(a, b) = (k 2 a, k 2 b).
5. Considérons le système d’equations linéaires en les inconnus x1 , · · · , xn et à coefficients dans
R suivant :

a11 x1 + a12 x2 + · · · + a1n xn = 0


a21 x1 + a22 x2 + · · · + a2n xn = 0
·························
am1 x1 + am2 x2 + · · · + amn xn = 0

Un tel système est dit homogène (toutes les monômes ont le même degré, ici 1). Montrez que
l’ensemble de toutes les solutions de ce système forme un sous-espace vectoriel de Rn . Si le
systéme linéaire n’est pas homogène, est-ce que l’ensemble des solutions forme toujours un
espace vectoriel ? Si oui, démontrez, si non donnez un contre-exemple.
6. Soit V = F(E, K) comme dans Exemples 3.1.10 avec K = R. Montrez que le sous ensemble
W de F(E, K) des fonctions bornées dans V est un sous-espace vectoriel. On rappelle qu’une
fonction f á valeur réelle est bornée s’il existe un nombre réel M ∈ R tel que |f x| ≤ M pour
tout x ∈ E.
7. Donnez un système générateur de C2 en tant que C-espace vectoriel, puis en tant que R-espace
vectoriel.
8. Soit V = R4 en tant que R-espace vectoriel. Déterminez si v = (3, 9, −4, −2) appartient au
sous-espace de V engendré par u1 = (1, −2, 0, 3), u2 = (2, 3, 0, −1) et u3 = (2, −1, 2, 1).
9. Décrivez les espaces colonnes des matrices suivantes :
 
1 0
a). I2 = .
0 1
 
2 3
b). A = .
1 23
 
1 2 3
c). A = .
0 0 4
   
1 0 0 0
10. a). Décrivez un sous-espace de M2 (R) contenant A = mais pas B = .
0 0 0 −1
b). Si un sous-espace de M2 (R) contient A et B, est-ce que ce sous-espace doit contenir I2 ?
c). Décrivez un sous-espace de M2 (R) ne contenant aucune matrice diagonale non-nulle. Une
matrice carée est dite diagonale si tous ses coefficients qui ne sont pas sur la diagonale
sont nuls.
11. Vrai ou faux, justifiez votre réponse :
a). L’ensemble des matrices symétriques de Mn (K) forme un sous-espace vectoriel.

42
b). L’ensemble des matrices antisymétriques de Mn (K) forme un sous-espace vectoriel.
c). L’ensemble des matrices de Mn (K) qui ne sont pas symétriques forme un sous-espace
vectoriel.
12. Vrai ou faux, justifiez votre réponse :
a). Les éléments b qui ne sont pas dans C(A) (pour une matrice A) forme un sous-espace.
b). Si C(A) = 0, alors A est la matrice nulle.
c). Soit A ∈ Mm×n (R), alors C(2A) = C(A).
d). Soit A ∈ Mn (K), alors C(A − In ) = C(A)

3.8 Base et Dimension


Dans cette section, on fixe un corps K. On va aborder les notions fondamentales de base et de
dimension d’un espace vectoriel.

3.8.1 Base
Avant de traiter le cas général, revenons d’abord au cas du R-espace vectoriel C. On sait que tout
nombre complexe z est une combinaison linéaire à coefficients réels de 1 et de i, i.e. z = a + ib
où a, b ∈ R, ou encore que L(1, i) = C (i.e. {1, i} engendre C) en tant que R-espace vectoriel. En
plus, cette écriture est UNIQUE, ce qui revient à dire que si z = a + ib = a0 + ib0 alors a = a0 et
b = b0 (ce qui équivaut à dire que si z = a + ib = 0 alors a = b = 0). On dit que {1, i} est une
base de C en tant que R-espace vectoriel. De la même manière, on voit que tout élément, disons
(a, b), du R-espace vectoriel R2 s’écrit de maniére unique comme (a, b) = ae1 + be2 où e1 = (1, 0)
et e2 = (0, 1). Dans chacun des deux cas ci-dessus, les vecteurs 1 et i pour C et les vecteurs e1 et
e2 pour R2 , ont les ont deux propriétés fondamentales qui incarnent la notion de base : ils suffisent
pour décrire tout él’ement de l’espace ent tant que leurs combinaisons linéaires, et chaque écriture
est unique. On peut faire le même exercice pour Cn , Rn et d’autres espaces vectoriels. Dans ce
paragraphe, nous allons formaliser ces notions.
Définition 3.8.1 (Indépendance linéaire). Soit V un K-espace vectoriel et E ⊆ V un sous-ensemble
(fini ou infini). On dit que les vecteurs de E sont linéairement indépendants (ou, par abus, que
E est linéairement indépendant), ou que E forme une famille libre de vecteurs, si :
n
!
X
∀n ∈ N\{0}, ∀a1 , a2 , · · · , an ∈ K et ∀v1 , v2 , · · · , vn ∈ E : ai vi = 0 ⇒ a1 = a2 = · · · = an = 0 .
i=1

Sinon, on dit que les vecteurs de E sont linéairement dépendants (ou, par abus, que E est
linéairement dépendant), ou encore que E forme une famille liée.
Ainsi, v1 , v2 , · · · , vm ∈ V sont linéairement indépendants si l’égalité

a1 v1 + a2 v2 + · · · + am vm = 0, a1 , a2 , · · · am ∈ K,

implique
a1 = a2 = · · · = am = 0.
Remarquons que si l’un des vi ∈ E est le vecteur null, alors les vecteurs de E sont forcément
linéairement dépendants.

43
Exemples 3.8.2. Considérons le R-espace vectoriel R3 . Soient les vecteurs u = (1, −1, 0), v =
(1, 3, −1) et w = (5, 3, −2). Comme 3u + 2v − w = 0, ces vecteurs sont linéairement dépendants.

Exemples 3.8.3. Soit le R-espace vectoriel V = R[X]. Soient f (X) = 1 + X 2 et g(X) = 3 + 2X 3 +


X 5 . Si a1 , a2 ∈ R tels que a1 f (X) + a2 g(X) = 0, alors a1 + 3a2 + a1 X 2 + 2a2 X 3 + a2 X 5 = 0. Donc
a1 = a2 = 0 et ainsi f (X) et g(X) sont linéairement indépendants.

Proposition 3.8.4. Soit m ≥ 2. Les vecteurs v1 , v2 , · · · , vm sont linéairement dépendants si et


seulement si l’un d’entre eux est la combinaison linéaire des autres.

Démonstration. Exercice.

Définition 3.8.5 (Base). On appelle un sous-ensemble B d’un espace vectoriel V une base de V
si B engendre V et si B forme une famille libre de vecteurs.

Proposition 3.8.6. Une famille B de vecteurs d’un espace vectoriel V est une base si et seulement
si tout vecteur v ∈ V s’écrit de manière unique comme combinaison linéaire d’élements de B :

v = a1 v1 + · · · + an vn .

Démonstration. Exercice.

Exemples 3.8.7. Considérons le K-espace vectoriel Kn . Soit e1 , e2 , · · · , en les vecteurs définis


comme dans l’exemple 3.3.7. On vérifie facilement que {e1 , · · · , en } est une base de V que l’on
appelle base canonique.

Exemples 3.8.8. Soit le K-espace vectoriel V = K[X]. L’ensemble B = {X i | i = 0, 1, 2, · · · } forme


une base de V .

Le théorème suivant caractérise les bases finis, auxquelles on va se réduire la plupart du temps.

Théorème 3.8.9. Soit V un K-espace vectoriel et B = {v1 , v2 , · · · , vn } ⊆ V un sous-ensemble fini.


Les assertions suivantes sont équivalentes :
(i) B est une base de V .
(ii) B est un ensemble minimal de générateurs de V , i.e. : E engendre V mais pout tout v ∈ B,
B \ {v} n’engendre pas V .
(iii) Tout v ∈ V s’ écrit comme v = ni=1 ai vi de manière unique, i.e. avec des uniques a1 , a2 , · · · , an .
P

(iv) B est un ensemble maximal linéairement indépendant, i.e. : les vecteurs de B sont linéairement
indépendant mais pour tout v ∈ / B, les vecteurs de l’ensemble B ∪ {v} sont linéairement
dépendants.

Démonstration. A faire (en classe).

Corollaire 3.8.10. Soit V un K-espace vectoriel et E ⊆ V un sous-ensemble fini qui engendre V .


Alors, V possède une base contenue dans E.

Démonstration. On enlève successivement des éléments de E et on utilise le théorème 3.8.9.

44
3.8.2 Dimension
La ”dimension” est un invariant fondamental des espaces vectoriels qui permet en quelque sorte de
mesurer leurs ”tailles”. C’est un peu plus pertinent que la cardinalité (qui mesure la ”taille” d’un
ensemble) car la dimension prends en compte la structure d’espace vectoriel.
Lemme 3.8.11.
Pn Soient V un K-espace vectoriel de type fini et B = {w1 , w2 , · · · , wn } une base de
0
V . Soit ω = i=1 ai wi ∈ V (ai ∈ K). Si aj 6= 0, alors B = {w1 , w2 , · · · , wj−1 , ω, wj+1 , · · · , wn } est
une base de V . On peut donc changer wj en ω (avec aj 6= 0) et on obtient encore une base.
Démonstration. On montre d’abord que B 0 engendre V . Pour cela, il suffit de montrer que ωj est
une combinaison linéaire d’éléments de B 0 . En effet, on a
n
1 X −ai
ωj = ω+ ωi .
aj aj
i=1,i6=j

Ensuite, il reste à montrer que B 0 est linéairement indépendant. Supposons que


n
X
bω + bi ωi = 0,
i=1,i6=j

alors, on a
n n
!
X X
b a i wi + bi ωi = baj ωj
i=1 i=1,i6=j

3.8.3 Déterminants
Exercice 10 (Travaux dirigés). 1. Considérons R4 en tant que R-espace vectoriel. Montrez
que les vecteurs suivants sont indépendants : (6, 2, 3, 4), (0, 5, −3, 1) et (0, 0, 7, −2).
2. Démontrez la Proposition 3.8.4.
3. Montrez que deux vecteurs sont linéairement dépendants si et seulement si l’un d’entre eux
est un multiple de l’autre.
4. Vérifiez l’exemple 3.8.7.
5. Donnez une base du R-espace vectoriel V = {(a, a, b)|a, b ∈ R}.
6. Soit le Q-espace vectoriel V = Q3 et W ⊆ V le sous-espace engendré par E = {(1, 2, 3), (2, 3, 4), (3, 5, 7)}.
Montrez que E n’est pas une base de V mais que {(1, 2, 3), (2, 3, 4)} en est une.
7. Montrez que l’ensemble suivant est un R-espace vectoriel :

V = {f : N → R| ∃S ⊆ N fini , pour tout n ∈ N \ S, f (n) = 0}.

Trouvez une base de V .


8. Démontrez la proposition 3.8.6.

3.9 Applications Linéaires


Exercice 11 (Travaux dirigés).

45
4 Introduction à la théorie des Groupes
On sait que l’ensemble Z, Q ou R est muni de deux opérations usuelles à savoir : L’addition et la
multiplication. Un espace vectoriel est aussi muni d’une opération de telle sorte : L’addition de deux
vecteurs. Cela donne un nouveau moyen de mieux comprendre ces ensembles et mieux encore : de
les classifier. Ainsi, avec ces opérations, on a ce qu’on appellera des structures algébriques sur
ces ensembles. Ainsi notre but est de formaliser ces idées de manière abstraite.
Définition 4.0.1. Soit E un ensemble. Une opération binaire (ou loi de composition interne)
? sur E est définie par l’application :
E×E →E
(x, y) 7→ x ? y.
Autrement dit, pour tout x et y éléments de E, x ? y est un élément de E et il est défini de manière
unique. Un ensemble E muni d’une opération ? sera noté par (E, ?). S’il n’y a pas de confusion,
l’opération x ? y sera notée tout simplement par xy.
Si T est une partie de E, on dit que l’opération est fermée sur T, si la restriction de l’application
sur T × T a pour image dans T. Autrement dit, pour tout x et y dans T, on a x ? y ∈ T. On dit
aussi que la loi de composition sur T est interne.
Un opération binaire sur un ensemble E définit de ce qu’on appellera une structure algébrique
sur E. Autrement dit, on dit que (E, ?) est une structure algébrique.
Exemples 4.0.2. 1. L’addition, la soustraction et la multiplication sont des opérations binaires
sur Z, Q, R ou C;
2. La soustraction n’est une loi de composition interne sur N;
3. L’addition et la multiplication des matrices carrées sont des opérations binaires ;
4. L’addition et la soustraction de vecteurs sont des opérations binaires sur les espaces vectoriels ;
5. Le produit vectoriel de deux vecteurs sur R3 est une opération binaire sur R3 ;
6. La loi de composition d’applications est une opération binaire sur l’ensemble RR des applica-
tions numériques ;
7. L’addition est une loi de composition interne sur l’ensemble des nombres paires ;
8. L’addition n’est pas une loi de composition interne sur l’ensemble des nombres impaires.
En primaire, on a appris les tables d’additions et de multiplications sur l’ensemble des entiers
naturels. Ci dessous est une tentative de formaliser cet idée sur un ensemble fini :
Définition 4.0.3. Soit (E, ?) un ensemble fini muni de l’opération binaire ?. Le tableau qui
présente, pour tout élément x et y de E, les résultats qu’on obtient par la loi ? est appelé table
de Cayley de (E, ?).
Exemples 4.0.4. Soit ({−1, 0, 1} , ×) un ensemble où × est la multiplication usuelle sur Z. Son
table de Cayley est le suivant :

× -1 0 1
-1 1 0 -1
0 0 0 0
1 -1 0 1

46
Voici quelques caractéristiques usuelles d’une opération binaire sur un ensemble :

Définition 4.0.5. Soit (E, ?) un ensemble. On dit que :


i). La loi ? est associative si pour tout x, y et z dans E, on a x ? (y ? z) = (x ? y) ? z;
ii). La loi ? est commutative si pour tout a et b dans E, on a a ? b = b ? a;
iii). E admet un élément neutre ou un identité e si pour tout x ∈ E, on a e ? x = x ? e = x;
iv). Supposons que E admet un élément neutre e. Un élément t de E admet un inverse s’il existe
un élément u de E tel que t ? u = u ? t = e.

Proposition 4.0.6. Soit (E, ?) une structure algébrique admettant un élément neutre. Alors :
i). L’élément neutre est unique ;
ii). Si de plus, l’opération est associative, l’inverse d’un élément inversible est unique.
L’inverse d’un élément inversible x de E sera noté par x−1 .

Démonstration. i). Supposons qu’on a deux éléments neutres e1 et e2 . Par définition, on a e1 ?


e2 = e1 = e2 ? e1 = e2 . D’où e1 = e2 , i.e, l’élément neutre est unique.
ii). Soit x un élément inversible de E. Désignons par e l’élément neutre. Supposons qu’ils existent
deux inverses de y1 et y2 de x. Par définition, on a : x?y1 = e = x?y2 . Donc, en multipliant cet
égalité par y1 à gauche, on a, par associativité de l’opération binaire, (y1 ?x)?y1 = (y1 ?x)?y2 .
D’où, y1 = y2 .

4.1 Introduction et Définitions


Définition 4.1.1. Une structure algébrique (E, ?) est dite un monoı̈de si elle admet un élément
neutre et la loi de composition interne ? est associative. Si de plus, tout élément de E admet un
inverse, alors la structure (E, ?) est appelé un groupe. Une structure de groupe est dite abélienne
si la loi de composition est aussi commutative. On dit dans ce cas que le groupe est abélien.

Remarque 4.1.2. Si (E, ?) est un monoı̈de, l’ensemble E est non vide.

Proposition 4.1.3. Soient (M1 , ?1 ) et (M2 , ?2 ) deux monoı̈des d’éléments neutres respectifs e1 et
e2 . Considérons l’opération binaire ? sur l’ensemble produit G:=M1 × M2 définie par :

G×G→G
((a, x), (b, y)) 7→ (a, x) ? (b, y):=(a ?1 b, x ?2 y).

La structure (G, ?) est un monoı̈de d’élément neutre (e1 , e2 ). C’est ainsi qu’on définit une structure
algébrique sur un produit cartésien de deux ensembles.

Démonstration. A faire en classe.

Exemples 4.1.4. 1. (R, ×) est un monoı̈de ;


2. (N, +) n’est pas un groupe mais c’est un monoı̈de ;
3. (Z \ {0} , ×) est un monoı̈de, mais pas un groupe ;

47

4. Soit n ≥ 3. Les structures (Z/nZ \ 0̇ , ×) et (Mn (R) \ {0} , ×) ne sont pas de groupes en
général mais des monoı̈des ;
5. (Z, +), (Q, +), (R, +) et (C, +) sont des groupes abéliens ;
6. (R2 , +) est un groupe abélien ;
7. Soit n un entier naturel non nul. Les structures (Z/nZ, +) et (Mn (R), +) sont des groupes
abéliens ;
8. Soient n et m deux entiers naturels non nuls. La structure (Z/nZ × Z/mZ, +) est un groupe
abélien ;
9. Si V est un espace vectoriel, la structure (V, +) est un groupe abélien ;
10. L’ensemble des rotations de centre (0, 0) sur R2 définit un groupe abélien avec la loi compo-
sition des transformations ;
11. L’ensemble des applications numériques bijectives définit un groupe non abélien avec la loi
de composition des applications ;
12. L’ensemble GLn (R) des matrices carrées inversibles d’ordre n ≥ 2 à coefficients dans R définit
un groupe non abélien avec la loi multiplication des matrices ;
13. Soit E un ensemble fini. L’ensemble P(E) des applications bijectives de E dans E définit un
groupe avec la loi de composition des applications. On appelera cet groupe, le groupe de
permutation de l’ensemble E. Si E est de cardinal n, on notera cet groupe par Sn .

Dans toute la suite, on ne s’intéressera qu’à des structures de groupes. C’est l’objectif principal
de notre cours d’algèbre 1 même si l’étude des monoı̈des est une branche très riche de l’algèbre
abstraite.

Définition 4.1.5. Soient (G, ?) un groupe et H une partie de G. On dit que H est un sous-groupe
de G si (H, ?) est un groupe. Si H est un sous-groupe de G, on le notera par H < G.

Proposition 4.1.6. Soit (G, ?) un groupe. Une partie H de G est un sous-groupe de G si et


seulement si les propositions suivantes sont vérifiées :
i). Pour tout x et y dans H, on a x ? y ∈ H;
ii). L’élément neutre de G est dans H;
iii). Si x est un élément de H, l’inverse x−1 de x dans G appartient à H.
Autrement dit, une partie non-vide H de (G, ?) est un sous-groupe de G si et seulement si pour
tout x et y dans H, on a x ? y −1 appartient à H.

Démonstration. Exercice.

Exemples 4.1.7. Soit n un entier naturel non nul.


1. Si (G, ?) est un groupe d’identité e, les parties G et {e} sont des sous-groupes de G. On les
appelle les sous-groupes triviaux de G. Un sous groupe non trivial de G sera appelé un
sous-groupe propre de G;
2. Z, Q et R sont des sous-groupes de (C, +);
3. Le sous-ensemble nZ des multiples de n dans Z est un sous-groupe de (Z, +);

48
4. Le sous-ensemble des matrices d’ordre n à coefficient dans R dont le déterminant est égal
à 1 est un sous-groupe de GLn (R). Ce sous-groupe sera noté par SLn (R) et sera appelé le
groupe linéaire spécial.
5. Soit E = {1, 2, . . . , n} . Le groupe Sn est un sous groupe de Sn+1 . Si k ∈ {1, 2, . . . , n} , le sous
ensemble des éléments qui fixe k dans P(E) est un sous-groupe de Sn ;
6. Si n ≤ 3, les sous groupes triviaux sont les seuls sous groupes de (Z/nZ, +);
7. Le sous ensemble {0, 2} est le seul sou groupe propre de (Z/4Z, +);
8. Les sous ensembles {(0, 0), (0, 1)} et {(0, 0), (1, 0)} sont les seuls sous groupes propres de
(Z/2Z × Z/2Z, +).

Proposition 4.1.8. Soient H et K deux sous groupes d’un groupe G. Alors, le sous-ensemble
H ∩ K est un sous groupe de G. Mais, en général, le sous ensemble H ∪ K de G n’est pas un sous
groupe de G.

Démonstration. Exercice.

Soient (G, ?) un groupe et g un élément de G. Considérons le sous-ensemble < g > de G défini par :
n o
< g > := g k : k ∈ Z

où g k :=g ? g ? · · · ? g, k fois si k ≥ 1, g 0 :=e, l’identité de G et on a g k :=(g −1 )−k si k est strictement


négatif.

Proposition 4.1.9. Le sous ensemble < g > est un sous groupe de G. Plus précisément, si H < G
contenant l’élément g, alors < g > est un sous groupe de H. On dit dans ce cas que < g > est le
sous groupe cyclique engendré par g.

Démonstration. Vérifions les critères de sous-groupes mentionnées dans la Proposition 2.12 :


i). Soient x et y deux éléments de < g > . Par définition, ils existent n et m deux entiers tels
que x = g n et y = g m . Ainsi, xy = g n+m . D’où xy ∈< g > .
ii). Par définition, g 0 = e. Donc, l’élément neutre est dans < g > .
iii). Soit x ∈< g > . Par définition il existe un entier i tel que g i = x. De plus, x ? g −i = g 0 = e.
Donc, g −i est l’inverse de x. Par définition, g −i ∈< g > .

Exemples 4.1.10. 1. Soit n un entier naturel non nul. Le sous groupe nZ est un sous groupe
cyclique de Z engendré par n;
2. Le sous ensemble {0, 5, 10, 15} est un sous groupe cyclique de (Z/20Z, +) engendré par 5.

Définition 4.1.11. On dit qu’un groupe G est cyclique s’il est engendré par un de ces éléments.

Proposition 4.1.12. Soit n un entier non nul. Les groupes (Z, +) et (Z/nZ, +) sont cycliques.

Démonstration. Ces groupes sont engendrés respectivement par 1 et 1̇.

49
Définition 4.1.13. Soient G un groupe et g un élément de G. Le nombre d’éléments de G qu’on
notera par |G| est appelé ordre du groupe G. On appellera l’ordre du groupe < g >, l’ordre de
l’élément g qu’on notera par |g|. Ainsi, si le groupe G est fini, l’ordre de G n’est autre que le
cardinal de G. Sinon, l’ordre de G est infini.

Exercice 12 (Travaux dirigés). 1. Pour chacune des opérations binaires sur Z suivantes la-
quelle est associative ? laquelle est commutative ? laquelle admet un identité ?
i). (x, y) 7→ x − y;
ii). (x, y) 7→ xy ;
iii). x ? y:=xy − x − y + 2.
2. Considérons le rectangle R défini par (x, y) ∈ R2 : |x| ≤ n; |y| ≤ m où n et m sont des


entiers naturels non nuls distincts. Montrer que les quatre symétries de R suivantes forment
un groupe avec la loi de composition des applications :
a). L’identité e : (x, y) 7→ (x, y);
b). La réflexion r1 : (x, y) 7→ (x, −y);
c). La réflexion r2 : (x, y) 7→ (−x, y);
d). La rotation d’angle π et de centre (0, 0) r3 : (x, y) 7→ (−x, −y).
Ecrire le table de Cayley de ce groupe. Le groupe est-il abélien ?
3. Pour chacune des structures suivantes, déterminer si c’est un groupe ou pas :
i). (Z, −) où l’opération binaire − désigne la soustraction usuelle sur les nombres ;
ii). (R, ?) où l’opération binaire ? est définie par : x ? y:=x + y − 1;
 
iii). Z/nZ \ 0̇ , × où n est un nombre entier naturel non nul ;
iv). ({z ∈ C : |z| = 1} , ×) où × désigne la multiplication de nombres complexes.
4. Compléter les tables de Cayley des groupes suivants :

? a b c d
? e a b
a d
e a
; b a
a
c b
b
d

5. Montrer que les sous-ensembles suivants ne sont pas de sous-groupes de (Z, +) : L’ensemble
des nombres entiers impairs ; L’ensemble des entiers positifs ; L’ensemble {−2, −1, 0, 1, 2} ;
L’ensemble vide.
6. Déterminer les ordres des groupes suivants : (Z/nZ, +); (Z, +); Sn ; GL2 (R).
7. Déterminer les ordres des éléments suivants :
i). 2 ∈ (Z/10Z, +);
 
0 −1
ii). ∈ GL2 (R);
1 0
iii). L’identité dans un groupe ;
iv). π ∈ (R, +);

50
8. Démontrer la Proposition 2.12.
9. Démontrer la Proposition 2.14.
10. Soient (G, ?) un groupe fini d’identité e et g ∈ G. Montrer qu’ils existent deux entiers naturels
non nuls distincts i et j tels que ai = aj . En déduire qu’il existe un entier naturel non nul n
tel que an = e.
11. Soit (G, ?) un groupe d’ordre pair. Montrer qu’il existe un élément a de G tel que a2 = e.
12. Déterminer tout les sous-groupes des groupes suivants : (Z/6Z, +) et (Z/12Z, +).
13. Montrer que les sous-groupes de (Z, +) sont de la forme nZ où n est un entier naturel.
14. Soient G un groupe fini et g un élément de G. Montrer que |g| divise |G|.

4.2 Homomorphismes de Groupes


Définition 4.2.1. Un tableau carré à n lignes remplies par n éléments distincts dont chaque ligne
et chaque colonne ne contient qu’un seul de ces éléments est appelé carré latin.
Exemples 4.2.2. 1. Un sudoku est un carré latin ;
2. Le table de Cayley du groupe (Z/6Z, +) est un carré latin ;
3. Le table de Cayley du monoı̈de (Z/6Z, ×) n’est pas un carré latin.
Proposition 4.2.3. Le table de Cayley d’un groupe fini est un carré latin.
Démonstration. A faire en classe.

Maintenant examinons les tables de Cayley des groupes : (Z/2Z, +) et ({1, −1} , ×) . Le table de
Cayley de (Z/2Z, +) est :
+ 0 1
0 0 1
1 1 0
tandis que celui de ({1, −1} , ×) est le suivant :
× 1 -1
1 1 -1 .
-1 -1 1
A première vue, ces groupes sont différents. Les ensembles ne sont pas les mêmes, ni les structures.
Mais les tables de Cayley correspondants sont similaires à celui du groupe ({a, b} , ?) dont le table
de Cayley est le suivant :
? a b
a a b .
b b a
Dans ce cas, on dit que les groupes (Z/2Z, +) et ({1, −1} , ×) sont isomorphes. Ainsi, l’idée est de
comparer deux structures. Mais, pour cela, l’existence d’une application entre les deux ensembles
qui définissent les groupes ne suffira pas. Il nous faut aussi un minimum de ”compatibilité” entre
les deux structures.
La généralisation de manière formelle de ces idées est l’objet de cette section.

51
4.2.1 Introduction et Définitions
Définition 4.2.4. Soient (G1 , ?1 ) et (G2 , ?2 ) deux groupes. Une application f de G1 dans G2
qui est compatible aux structures de deux groupes est appelée homomorphisme de groupes. Plus
précisément, l’application f de G1 dans G2 est un homomorphisme si pour tout x et y éléments de
G1 , on a :
f (x ?1 y) = f (x) ?2 f (y).
Si de plus, l’application f est bijective, on dit que f est un isomorphisme et on note par G1 ' G2 .

Exemples 4.2.5. 1. Soit (G, ?) un groupe. L’identité IdG est un isomorphisme ;


2. L’injection canonique (Z, +) ,→ (R, +) est un homomorphisme ;
3. L’application (Z/2Z, +) 3 x 7→ (−1)x ∈ ({1, −1} , ×) est un isomorphisme ;
4. La surjection canonique (Z, +) → (Z/nZ, +) est un homomorphisme ;
5. L’application (GLn (R), ×) 3 A 7→ det(A) ∈ (R \ {0} , ×) est un homomorphisme ;
6. Une application linéaire entre deux espaces vectoriels est un homomorphisme ;
7. L’application exponentielle induit un isomorphisme de (R, +) dans (R+ \ {0}, ×).

Proposition 4.2.6. Soient (G1 , ?1 ) et (G2 , ?2 ) deux groupes. Si f est un homomorphisme de G1


dans G2 , alors :
i). f (e1 ) = e2 , où e1 et e2 sont respectivement les identités de G1 et G2 ;
ii). Si x est l’inverse d’un élément x de G1 , alors f (x) est l’inverse de f (x) dans G2 .

Démonstration. i). Par définition, on a f (e1 ) = f (e1 ?1 e1 ) = f (e1 ) ?2 f (e1 ). L’élément f (e1 ) de
G2 est inversible. Donc, en multipliant cet inverse à gauche, on a : e2 = f (e1 );
ii). On a e1 = x ?1 x. Donc, e2 = f (e1 ) = f (x ?1 x) = f (x) ?2 f (x). D’où le résultat.

Proposition 4.2.7. Soient (G1 , ?1 ), (G2 , ?2 ) et (G3 , ?3 ) des groupes. Soient f : G1 → G2 et g :


G2 → G3 deux homomorphismes. Alors :
i). g ◦ f : G1 → G3 est un homomorphisme ;
ii). Si de plus f est bijective, l’inverse de f est aussi un isomorphisme.

Démonstration. A faire en classe.

Corollaire 4.2.8. La relation d’isomorphisme entre groupes est une relation d’équivalence.

Démonstration. A faire en classe.

Définition 4.2.9. Soit f : (G1 , ?1 ) → (G2 , ?2 ) un homomorphisme de groupes. Le sous ensemble


Im(f ) de G2 défini par :
Im(f ):= {f (x) : x ∈ G1 }
est appelé l’image de f tandis que le sous ensemble Ker(f ) de G1 défini par :

Ker(f ):= {x ∈ G1 : f (x) = e2 }

est appelé le noyau de f où e2 est l’identité de G2 .

52
Proposition 4.2.10. Soient f : (G1 , ?1 ) → (G2 , ?2 ) un homomorphisme de groupes, H1 un sous
groupe de G1 et H2 un sous groupe de G2 . Alors :
i). Im(f ) est un sous groupe de G2 ;
ii). Ker(f ) est un sous groupe de G1 ;
iii). L’image réciproque f −1 (H2 ) est un sous groupe de G1 ;
iv). Mais, l’image directe f (H1 ) n’est pas un sous groupe en général ;
v). Si de plus f est injective, on a Ker(f ) = {e1 } où e1 est l’identité de G1 . L’application f
définit ainsi un isomorphisme de G1 dans Im(f ).
Démonstration. Exercice.

4.2.2 Groupes Quotients


Soient (G, ?) un groupe et H un sous groupe de G. Pour tout élément x de G, on définit les
ensembles x ? H et H ? x comme suit :

x ? H:= {x ? h : h ∈ H} ; H ? x:= {h ? x : h ∈ H} .

S’il n’y a pas de confusions, on écrit gH et Hg.


La relation binaire Rg (resp. Rd ) définit pour tout a et b par :

aRg b (resp. aRd b) ⇔ aH = bH (resp. Ha = Hb)

est une relation d’équivalence sur G. Autrement dit,

aRg b (resp. aRd b) ⇔ b−1 a ∈ H (resp. ab−1 ∈ H).

Ainsi, on a :
Lemme 4.2.11. Soient (G, ?) et H un sous groupe de G. Alors :
i). Pour tout x et y dans G, on a : Soit xH = yH (resp. Hx = Hy), soit xH ∩yH = ∅ (resp. Hx∩
Hy = ∅);
ii). Pour tout x ∈ G, l’application H 3 h 7→ xh ∈ xH (resp. H 3 h 7→ hx ∈ Hx) est bijective.
Démonstration. i). Il suffit de montrer que les relations Rg et Rd sont des relations d’équivalences ;
ii). Considérons la relation Rg . On applique le même raisonnement pour la relation Rd .
Injectivité : Soient h1 et h2 deux éléments de H tels que xh1 = xh2 . Comme G est un groupe,
l’élément x est inversible. En multipliant cet égalité à gauche par x−1 , on a h1 = h2 . Donc,
l’application est injective ;
Surjective : Soit y ∈ xH. Par définition, il existe h ∈ H tel que y = xh. Donc, l’application
est surjective.

Théorème 4.2.12 (Théorème de Lagrange). Soient G un groupe fini et H un sous groupe de G.


On a :
|G| = [G : H] |H|
où [G : H] :=|G/Rg | = |G/Rd |. L’entier [G : H] est appelé l’indice de H dans G. En particulier,
|H| divise |G|.

53
Démonstration. Comme G est un ensemble fini, donc les ensembles G/Rg et G/Rd sont finis. Or,
les relations Rg et Rd sont des relations d’équivalences. Donc, les ensembles G/Rg et G/Rd forment
respectivement une partition de l’ensemble G. De plus, d’après le lemme précédent, pour tout x et
y dans G, on a :
|H| = |xH| = |yH| (resp. |H| = |Hx| = |Hy|).
D’où : |G| = [G : H] |H| où [G : H] :=|G/Rg | = |G/Rd |.

L’exemple suivant est fondamental :


Considérons le groupe S3 et l’application
 bijective f élément de S3 définie par : σ(1) = 2, σ(2) = 1
et σ(3) = 3. Le sous ensemble H = Id{1,2,3} , σ est un sous groupe de S3 . Considérons l’élément
τ ∈ S3 défini par : τ (1) = 3, τ (2) = 2 et τ (3) = 1. Ainsi, on peut vérifier qu’on a : τ H 6= Hτ.
Supposons de plus qu’il existerait un homomorphisme de groupes f : S3 → G telle que H = Ker(f ).
Par définition, on a f (σ) = eG , l’identité de G. De plus, on a :

f (τ στ −1 ) = f (τ )f (σ)f (τ −1 )
= f (τ )eG (f (τ ))−1
= f (τ )(f (τ ))−1 = eG

, i.e, τ στ −1 ∈ H. Autrement dit, on a τ Hτ −1 = H. Ce qui contredit le fait que τ H 6= Hτ. D’où :


H ne peut pas être le noyau d’un homomorphisme de S3 vers n’importe quel groupe. En effet,
Proposition 4.2.13. Soit f : G1 → G2 un homomorphisme de groupes. Pour tout x ∈ G1 , on a :

xKer(f ) = Ker(f )x.

Autrement dit, pour tout x ∈ G et h ∈ Ker(f ), on a : xhx−1 ∈ Ker(f ) ou bien pour tout x ∈ G, on
a xKer(f )x−1 = Ker(f ).
De manière générale ;
Proposition 4.2.14. Soient G un groupe et H un sous groupe de G. Les deux propositions suivantes
sont équivalentes :
i). G/Rg = G/Rd ;
ii). Pour tout x ∈ G, on a xH = Hx (ou bien xHx−1 = H).
Si l’une de deux propositions est vérifiée, les deux ensembles quotients induits par les deux relations
d’équivalences coı̈ncident et on le notera par G/H.
Démonstration. Supposons qu’on a G/Rg = G/Rd . Soit x ∈ G. Par hypothèse, il existe y ∈ G tel
que xH = Hy. Comme H est un sous groupe, l’identité e de G est dans H. Donc, x = xe ∈ Hy,
i.e, il existe h ∈ H tel que x = hy. En multipliant ce dernier égalité à droite par y −1 , on a
xy −1 = h ∈ H. Par définition de la relation Rd , cela veut dire que : Hx = Hy. D’où, xH = Hx ou
bien xHx−1 = H.
La réciproque est relativement facile.

Ainsi, on définit :
Définition 4.2.15. Soit G un groupe. Un sous groupe H de G est appelé un sous groupe normal
de G si l’une des propositions précédentes est vérifiée.

54
Théorème 4.2.16. Soient G un groupe et H un sous groupe normal de G. Alors, l’opération
binaire sur G induit une relation binaire ? sur l’ensemble quotient G/H définie pour tout x et y
dans G par :
(xH) ? (yH):=xyH.
De plus, (G/H, ?) définit une structure de groupe. En particulier, la surjection G → G/H est un
homomorphisme surjective de groupes dont le noyau est H.

Démonstration. A faire en classe. Noter bien que l’élément neutre de G/H est H, la classe de
l’élément neutre.

Remarque 4.2.17. Il est important de noter que tout sous groupe d’un groupe abélien est normal.

Théorème 4.2.18 (Premier théorème d’isomorphisme). Soit f : (G1 , ?1 ) → (G2 , ?2 ) un homomor-


phisme de groupes. On a :
G1 /Ker(f ) ' Im(f ).

Démonstration. On montre que l’application f définie par :

f :G1 /Ker(f ) → Im(f )


xKer(f ) 7→ f (x)

définit un isomorphisme de groupes.

Exemples 4.2.19. 1. Par l’homomorphisme surjective GLn (R) 3 A 7→ det(A) ∈ R \ {0} , on en


déduit GLn (R)/SLn (R) ' R \ {0} ;
2. Considérons l’homomorphisme de groupes f : (R, +) 3 θ 7→ e2iπθ ∈ (C \ {0} , ×). On montre
qu’on a : Im(f ) = S 1 := {z ∈ C : |z| = 1} et Ker(f ) = Z. Ainsi, on a :

(R/Z, +) ' (S 1 , ×)

où S 1 est le cercle de rayon 1 dans R2 .

Théorème 4.2.20 (Troisième théorème d’isomorphisme). Soient (G, ?) un groupe, H et N deux


sous groupes normaux de G tels que H ⊂ N. Alors, H est un sous groupe normal de N. De plus, le
groupe N/H est un sous groupe normal de G/H et on a :

(G/H)/(N/H) ' G/N.

Démonstration. On montre que l’application f définie par :

f :G/H → G/N
xH 7→ xN

est un homomorphisme surjective de groupes. N’oubliez pas de démontrer que l’application est bien
définie d’abord.
Ainsi, on a : Im(f ) = G/N et Ker(f ) = {xH : xN = N } = {xH : x ∈ N } = N/H. D’après le
premier théorème d’isomorphisme, on a le résultat.

55
Exemples 4.2.21. Soit n un entier naturel non nul. Considérons le groupe G = (Z, +). Soit d un
diviseur positif de n. Ainsi, nZ et dZ sont de sous groupes normaux de G tels que nZ ⊂ dZ. D’où,
d’après le troisième théorème d’isomorphisme, on en déduit :
(Z/nZ)/(dZ/nZ) ' Z/dZ.
Le théorème suivant classifie les groupes cycliques à isomorphismes près :
Théorème 4.2.22. Soit G un groupe cyclique. On a G ' Z ou G ' Z/nZ où n est un entier
naturel.
Démonstration. Soit g un élément de G tel que G =< g > . Considérons l’homomorphisme de
groupe f définie par :
f :Z → G
k 7→ g k .
L’homomorphisme f est par définition surjective. Donc, d’après le premier théorème d’isomor-
phisme, on a Z/Kerf ' G. Or, on sait que les sous groupes de Z sont de la forme nZ où n est entier
naturel. D’où le résultat.
Exercice 13 (Travaux dirigés). 1. Pour chacune des applications suivantes, déterminer si
c’est un homomorphisme de groupes ou pas :
i). (R \ {0} , ×) 3 a 7→ log |a| ∈ (R, +);
ii). (C, +) 3 x 7→ |x| ∈ (R, +);
iii). (Z, +) 3 t 7→ 5t ∈ (Z, +);
iv). (R2 , +) 3 (x, y) 7→ xy ∈ (R, +);
v). (R2 , +) 3 (u, v) 7→ u − v ∈ (R, +).
2. Soient (G1 , ?1 ) et (G2 , ?2 ) deux groupes. Montrer que G1 × G2 ' G2 × G1 .
3. Considérons les groupes G1 = (Z/2Z × Z/2Z, +) et G2 = (Z/4Z, +). Montrer que
G1  G2 .
4. Démontrer la Proposition 2.29.
5. Considérons l’homomorphisme de groupes f : (Z/12Z, +) 3 n 7→ in ∈ (C? , ×) où i est un
élément de C tel que i2 = −1. Déterminez Im(f ) et Ker(f ) ainsi que (Z/12Z)/Ker(f ). Puis
écrire les tables de Cayley des groupes (Z/12Z)/Ker(f ) et Im(f ). Vérifier qu’ils sont bien
similaires.
6. Pour chacune des homomorphismes suivantes, déterminer son image et son noyau. Puis écrire
le résultat qu’on obtient du premier théorème d’isomorphisme :
i). (Z, +) 3 m 7→ 2m ∈ (Z, +);
ii). (R, +) 3 x 7→ eix ∈ (C? , ×);
iii). det : (GL2 (R) → (C? , ×));
iv). f : Z → Z/2Z × Z/3Z;
7. Soit G un groupe abélien fini tel que pour tout élément x de G, on a x = e ou x2 = e où e
est l’identité de G. Montrer que |G| = 2n où n est un entier naturel.
8. Soient G un groupe et H un sous groupe d’indice 2 de G. Montrer que H est un sous groupe
normal de G.

56
4.3 Exemples de Groupes
4.3.1 Le groupe de permutations Sn
Dans toute la suite, considérons le groupe de permutations Sn comme étant le groupe des applica-
tions bijectives de l’ensemble {1, 2, 3, . . . , n} dans lui même. Il est clair que l’ordre du groupe Sn
est n!. Et bien évidemment, la loi binaire sur Sn est la loi de composition d’applications. S’il n’y a
pas de confusion, on notera les deux compositions possibles de deux éléments σ et τ de Sn par στ
et τ σ.
Dans la littérature, ils existent deux notations pour les éléments de Sn : La notation en matrices
et la notation en cycles.
La notation en matrices : Soit σ ∈ Sn définipour tout i ∈ {1, 2,  3, . . . , n} par σ(i) = ai ∈
1 2 3 ··· n
{1, 2, 3, . . . , n} . Ainsi, l’élément σ sera noté par : .
a1 a2 a3 · · · an
La notation en cycles : Un élément σ de Sn est appelé un k-cycle s’il existe k éléments
a1 , a2 , . . . , ak de {1, 2, 3, . . . , n} tels que :
— σ(i) = i si i ∈
/ {a1 , a2 , . . . , ak } ;
— σ(ai ) = ai+1 si 1 ≤ i ≤ k − 1;
— σ(ak ) = a1 .
Dans ce cas, on notera σ par :
(a1 a2 · · · ak ).
Deux cycles (a1 a2 · · · ak ) et (b1 b2 · · · bl ) sont dits disjoints si {a1 , a2 , · · · , ak }∩{b1 , b2 , · · · , al } = ∅.
Proposition 4.3.1. Soient σ et τ deux cycles disjoints. On a : στ = τ σ.
Démonstration. A faire en classe.

Définition 4.3.2. Un 2-cycle est appelé une transposition.


Proposition 4.3.3. Soit σ = (a1 a2 · · · ak ) un cycle de Sn où k ≥ 2. Alors, σ peut être une
composition des transpositions. Plus précisément, on a :

(a1 a2 · · · ak ) = (a1 a2 )(a2 a3 ) · · · (ak−1 ak ).

Démonstration. On montre qu’on a : (a1 a2 · · · ak ) = (a1 a2 )(a2 a3 . . . ak ). Puis, on raisonne par


récurrence.

Remarque 4.3.4. Noter bien que la décomposition d’un cycle en produit de transpositions n’est
pas unique. Par exemple, dans S3 , on a :

(1 2)(2 3)(3 1) = (2 3).

Proposition 4.3.5. Toute permutation de Sn est un produit (ou une composition) de cycles deux
à deux disjoints. Par conséquent, elle est aussi un produit de transpositions.
Démonstration. A faire en classe.

Remarque 4.3.6. Bien qu’une permutation soit un produit de transpositions, noter bien que ces
transpositions qui la décomposent ne sont pas deux à deux disjoints. Sinon, toute permutation
serait d’ordre 1 ou 2 qui n’est pas vrai si n ≥ 3.

57
Mais, en général, ce qui est sur est le suivant :
Théorème 4.3.7. Le nombre de transpositions qui décomposent une permutation donnée : soit il
est pair, soit il est impair.
Définition 4.3.8. Une permutation de Sn est dite pair si elle est décomposée par un nombre pair
de transpositions. Dans le cas contraire, on dit qu’elle est impaire.
On peut déterminer facilement la parité d’une permutation comme l’indique la remarque suivante :
Remarque 4.3.9. D’après la Proposition 2.3.3, un k-cycle est une composition de k − 1 transpo-
sition. Donc, si une permutation donnée est une composition de t cycles de longueur k1 , k2 , . . . , kt
respectivement, sa parité est la même que celle du nombre k1 + k2 + · · · + kt + t.
L’application

 :Sn → ({1, −1} , ×)


(
1 si σ est paire;
σ 7→
−1 sinon

est un homomorphisme surjective de groupes. Ainsi, d’après le premier théorème d’isomorphisme,


on a Sn /Ker = {1, −1} . Par conséquent, l’ensemble de permutations paires forment un sous groupe
normal d’indice 2 dans Sn . On notera cet sous-groupe par An et sera appelé le groupe alterné
de degré n. De plus, d’après la Proposition 2.3.3., un k-cycle est dans An si et seulement si k est
impair.
On termine cet exemple avec un théorème important qui justifie l’importance de Sn dans la théorie
des groupes :
Théorème 4.3.10 (Théorème de Cayley). Soit (G, ?) un groupe fini d’ordre n. Alors, G est iso-
morphe à un sous-groupe de Sn .
Démonstration. Soit g ∈ G. Considérons l’application fg : G ∈ x 7→ g ? x ∈ G. Pour tout g ∈ G,
l’application fg est clairement bijective. Autrement dit, fg est un élément de P (G), le groupe des
applications bijectives de G dans G. Maintenant considérons le sous-ensemble H de P (E) défini
par :
H:= {σ ∈ P (E) : ∃g ∈ G tel que σ = fg } .
Le sous-ensemble H est un sous groupe de P (E). En effet :
— Si on désigne par e l’identité de G, l’application fe est clairement l’identité de P (E). Donc,
IdG ∈ H;
— Soient fg1 et fg2 deux éléments de H. Pour tout x ∈ G, on a :

(fg1 ◦ fg2 )(x) = fg1 (fg2 (x)) = fg1 (g2 ? x) = (g1 ? g2 ) ? x = fg1 g2 (x).

Donc, la composition des applications est stable dans H.


— Soit g ∈ G. On a fg−1 = fg−1 . Ce qui veut dire que fg−1 ∈ H.
Finalement, considérons l’application f : G 3 g 7→ fg ∈ H. Clairement, cette application est
bijective. De plus, on a : f (g1 ? g2 ) = fg1 g2 = fg1 ◦ fg2 . Donc, f est un isomorphisme de groupes.
Autrement dit, G ' H. Or, H est un sous-groupe de P (E) qui est isomorphe à Sn . D’où le
résultat.

58
4.3.2 Le groupe diédral Dn
Dans cette sous-section, dans le plan euclidien, on désignera par Rn un polygone régulier de n côtés.
Notons son centre par C. On sait qu’ils existent exactement 2n symétries qui laissent le polygone
Rn invariant, à savoir :
2kπ
— Les n rotations de centre C respectivement d’angle n où k = 1, 2, 3, . . . , n;
— Les n réflexions axiales déterminées respectivement par les n axes de symétries de Rn .

Proposition 4.3.11. Les 2n symétries de Rn définies ci-dessus forment un groupe d’ordre 2n avec
la loi de composition de transformations sur le plan euclidien. On notera cet groupe par Dn et sera
appelé le groupe diédral d’ordre 2n. De plus, si r et τ sont respectivement la rotation d’angle

n et une symétrie axiale, on a :
n o n o
Dn = rk : k = 1, 2, . . . , n ∪ rk τ : k = 1, 2, . . . , n

et (rk τ ) ◦ (rl τ ) = rk−l .

Démonstration. A faire en classe.

Remarque 4.3.12. Le théorème de Cayley nous garantit que Dn est isomorphe à un sous-groupe
de S2n . Par contre, naturellement, un élément de Dn permute les n sommets du polygone Rn . Ainsi,
tout élément de Dn peut être considérer comme une permutation de l’ensemble de n sommets de
Rn . Ainsi, Dn est un sous-groupe de Sn .

4.3.3 Le groupe linéaire GLn (R)


Rappelons que GLn (R) désigne le groupe des matrices inversibles d’ordre n à coefficients dans R.
Le groupe est un groupe non abélien infini. L’application

det : GLn (R) → R?


A 7→ detA

est un homomorphisme surjective. Son noyau est l’ensemble des matrices inversibles noté par SLn (R)
dont le déterminant est 1. En utilisant cet homomorphisme, on montre qu’on a

GLn (R)/SLn (R) ' R? .

Ainsi, comprendre le groupe GLn (R) revient à comprendre son sous-groupe normal SLn (R).

Proposition 4.3.13. Le groupe de permutations Sn est isomorphe à un sous-groupe de SLn (R).

Démonstration. On montre que Sn est isomorphe au groupe de matrices de permutations Pn .


Puisque pour tout P ∈ Pn , detP = 1, le groupe de matrices de permutations est un sous-groupe
de SLn (R).

Notons par GLn (Z) l’ensemble des matrices inversibles d’ordre n à coefficient dans Z. Alors :

Proposition 4.3.14. GLn (Z) est un groupe des matrices dont le déterminant est ±1. Le noyau de
la restriction de l’homomorphisme det sera noté par SLn (Z).

59
Démonstration. On montre que le sous-ensemble GLn (Z) est un sous-groupe de Gln (R). Le plus
dur est de montrer que si une matrice carrée à coefficients dans Z est inversible, son inverse est
aussi à coefficients dans Z. Mais, c’est faisable.
SoitA ∈ GLn (Z). Donc, par définition, la matrice inverse A−1 est à coefficients dans Z. Ainsi, detA
et detA−1 sont des entiers. Or, AA−1 = In . Donc, detA−1 = detA 1
. Comme detA et detA−1 sont
des entiers, ceci n’est possible que si detA = ±1.

Soit E un espace vectoriel sur R. Rappelons qu’une application f de E vers un R- espace vectoriel
F est une application linéaire si pour tout (x, y) dans E 2 et (λ, µ) dans R2 , on a :
f (λx + µy) = λf (x) + µf (y).
En particulier, f est un homomorphisme de groupes puisque (E, +) et (F, +) sont des groupes
abéliens.
Dans le cas où F = E, on dit que f est un endomorphisme. Si de plus, E est de dimension n,
en utilisant l’identification des éléments de E via l’isomorphisme E ' Rn , il existe une matrice A
d’ordre n telle que pour tout x ∈ E, on a :
f (x) = Ax.
Si (b1 , b2 , . . . , bn ) désigne une base de E, la matrice de f est complètement déterminé de manière
unique dans cette base, et l’on a :
A = (f (b1 ) f (b2 ) · · · f (bn ))
où f (bi ) est le vecteur de la i-ième colonne de A. Désignons respectivement par Kerf et Imf le
noyau et l’image de l’endomorphisme f. On a les propriétés suivants :
— Kerf et Imf sont des sous-espaces vectoriels de E;
— Kerf = N (A) et Imf = C(A).
Ainsi, si on désigne par L(E) l’ensemble des endomorphismes de E, on a l’isomorphisme suivante :
(L(E), +) ' (Mn (R), +).
De plus, si on note par GL(E) l’ensemble des endomorphismes bijectives de E, on a :
(GL(E), ◦) ' (GLn (R), ×).
Maintenant considérons le cas où l’on a n = 2. Désignons par O2 (R) le sous-ensemble de GL2 (R)
défini par :
O2 (R):= A ∈ GLn (R) : AT A = AAT = I2 .


C’est l’ensemble des matrices orthogonaux d’ordre 2. On a :


Proposition 4.3.15. O2 (R) est un sous-groupe de GL2 (R). De plus, pour tout A ∈ O2 (R), on a
detA = ±1
et soit A est une matrice de rotation, soit elle est une matrice de réflexion. Plus précisément,
   
cos θ sin θ cos θ sin θ
A= ou A =
− sin θ cos θ sin θ − cos θ
pour un certain angle θ. Le groupe des rotations sera noté par SO2 (R).

60
Démonstration. A faire en classe.

Corollaire 4.3.16. Le groupe diédral Dn est isomorphe à un sous-groupe de O2 (R).

Démonstration. A faire en classe. la Proposition 2.3.15. permet d’expliciter le groupe diédral Dn


sous forme matricielle.

Pour finir, énonçons le résultat important suivant :

Théorème 4.3.17. Le groupe SL2 (Z) est engendré par :


   
0 −1 1 1
S= , T = .
1 0 0 1

Exercice 14 (Travaux dirigés). 1. Pour chacune des permutations suivantes, écrire-la comme
composée des cycles :
 
1 2 3 4
i). ;
2 1 4 3
 
1 2 3 4 5 6
ii). ;
4 1 5 3 6 2
 
1 2 3 4 5 6
iii). .
1 6 4 3 2 5
2. Pour chacune des permutations suivantes, écrire-la en matrice-notation :
i). (1 2 3)(4 6 8);
ii). (1 6)(4 2)(5 3);
iii). (1 5 3);
iv). (1 9 3)(2 6)(7 8);
v). )(2 4)(3 5 7).
3. Pour chacune des cas suivants, calculer στ et τ σ :
 
1 2 3 4
i). Dans S4 , σ = , τ = (1 2)(3 4);
2 3 4 1
   
1 2 3 4 5 1 2 3 4 5
ii). Dans S5 , ,τ = ;
5 4 3 2 1 1 3 5 4 2
iii). Dans S6 , σ = (1 2)(5 6), τ = (1 3 4 6 2).
Ecrire les résultats en utilisant les deux notations.
4. Pour chacune des permutations suivantes, déterminer si elle est paire ou impaire :
 
1 2 3 4 5
i). ;
2 5 3 1 4
 
1 2 3 4 5
ii). ;
2 3 5 1 4
 
1 2 3 4 5 6
iii). ;
6 5 4 3 2 1

61
 
1 2 3 4 5 6 7 8 9
iv). .
2 3 1 6 9 8 5 4 7
5. i). Respectivement dans S3 et S4 , combien de transpositions a t-on ? Quand est-il des 3-
cycles ? des 4-cycles (dans S4 ) ?
ii). Soit H l’ensemble des éléments qui ne sont pas des transpositions, ni des 3-cycles, ni
des 4-cycles dans S4 . Le sous-ensemble H est-il un sous groupe ? Si oui, déterminer son
ordre et trouver un groupe usuel (qu’on connait très bien) qui est isomorphe à H.
6. Dans chacun des groupes suivants, déterminer le nombre d’éléments d’ordre 2 et le nombre
d’éléments d’ordre 3 : S3 , A4 , D5 et D6 .
7. Pour tout k ∈ {1, 2, 3, 4, 5, 6} , déterminer le nombre d’éléments d’ordre k dans A5 .
8. Pour chacun des cas suivants, déterminer si le sous-ensemble est un sous-groupe de S4 ou pas.
Dans le cas où le sous-ensemble est un groupe, déterminer si c’est un groupe normal :
i). {id, (1 3 4), (1 4 3)} ;
ii). {id, (1 2)(3 4), (1 3)(2 4), (1 4)(2 3)} ;
iii). {id, , (1 2 3 4), (1 4 3 2), (1 3)(2 4)} ;
iv). {id, , (1 2 3), (1 3 2), (2 3 4), (2 4 3)} .
9. Considérons l’application

f : (Z × Z) 3 (m, n) 7→ σ n τ m ∈ S4

où σ = (1 2)(3 4) et τ = (1 3)(2 4). Montrer que f est un homomorphisme de groupes.


Expliciter le résultat du premier théorème d’isomorphisme.
10. Notons respectivement par ρ et τ une rotation et une réflexion dans le groupe diédral Dn .
Montrer que τ −1 = ρτ ρ.
11. Considérons un homomorphisme f : Sn → Z/3Z où n ≥ 3. Montrer que f est trivial,i.e, pour
tout σ ∈ S3 , on a f (σ) = 0.
12. i). Montrer que S3 ' D3 .
ii). Expliciter tout les éléments de D3 en forme de matrices, en utilisant le fait qu’il est
isomorphe à un sous groupe de O2 (R).
13. i). Soit (G, ?) un groupe d’ordre un nombre premier p. Montrer que G ' Z/pZ, i.e, à
isomorphisme près, il n’existe qu’un seul groupe d’ordre p où p un nombre premier.
ii). Pour tout n ∈ {1, 2, 3, 4, 5, 6, 7} , trouver les classes d’isomorphismes des groupes d’ordre
n.

5 Introduction à la théorie des Anneaux


5.1 Introduction et Définitions
Dans le chapitre précédent, on a considéré des ensembles avec une structure définissant des groupes.
Mais, on remarque que dans la plus part de ces ensembles, il y a deux structures différentes. Comme
l’on a dans Z, Q, R, C, Mn (R) et R [x] , l’ensemble des polynômes à une variable. Ils ont en commun
les faits suivants :

62
— L’addition (+) définit une structure de groupe abélien ;
— La multiplication (×) définit un monoı̈de ;
— Distributivité : Pour tout a, b et c, on a : (a + b) × c = a × c + b × c et c × (a + b) = c × a + c × b.
La formalisation de cette nouvelle structure est le but de ce chapitre. Par abus de notation, s’il
n’y a pas de confusion, la loi binaire qui définit une structure de groupe abélien sur un ensemble
quelconque sera notée par +. Tandis que, si la loi binaire définisse un monoı̈de, elle sera notée
par ×. L’élément neutre par rapport à l’addition sera noté par 0 et l’identité par rapport à la
multiplication sera noté par 1.

Définition 5.1.1. Soit (A, +, ×) une structure algébrique telle que (A, +) est un groupe abélien
et (A, ×) est un monoı̈de. On dit que (A, +, ×) est un anneau si on a la distributivité de deux loi
binaires. Si (A, ×) est un monoı̈de commutatif, on dit que (A, +, ×) est un anneau commutatif.
Un élément de A est dit inversible s’il est inversible par rapport à la loi multiplication. L’ensemble
des éléments inversibles d’un anneau A est noté par A× . Si de plus, on a A× = A \ {0} , on dit que
(A, +, ×) est un corps.

Exemples 5.1.2. 1. Les ensembles Z, Q, R, C, Mn (R) et R [x] sont des anneaux ;


2. Z, Q, C et R [x] sont des anneaux commutatifs ;
3. Z et Mn (R) ne sont pas des corps ;
4. Q, R et C sont des corps ;
5. Mn (R) n’est pas un anneau commutatif ;

6. Z [i] := {a + ib ∈ C : a, b ∈ Z} où i = −1 est un anneau commutatif. On a

(Z [i])× = {−1, 1, i, −i} .

Proposition 5.1.3. Soient A1 et A2 deux anneaux. Alors, le produit scalaire A = A1 × A2 définit


une structure d’anneau avec les opérations induites naturellement de celles de A1 et A2 .

Démonstration. A faire en classe.

5.2 Idéaux et Anneaux quotients


Considérons l’anneau des entiers (Z, +, ×). On sait que les sous groupes de (Z, +) sont de la forme
nZ où n est un entier naturel. Comme (Z, +) est un groupe abélien, l’ensemble quotient (Z/nZ, +)
est un groupe abélien. De plus, la multiplication dans Z induit une structure monoı̈de sur Z/nZ
d’identité 1̇. De plus, pour tout ȧ, ḃ et ċ dans Z/nZ, on a :

ċ(ȧ + ḃ) = ċȧ + ċḃ = (ȧ + ḃ)ċ.

Ainsi, (Z/nZ, +, ×) est un anneau et l’on a :

(Z/nZ)× = {ȧ : pgcd(a, n) = 1} .

L’anneau Z/nZ est un corps si et seulement si n est un nombre premier.


La généralisation de cet exemple est l’objet de cette section.

63
5.3 Idéaux premiers et maximaux
5.4 Homomorphismes d’anneaux
5.5 Exemples d’anneaux

6 Introduction à la théorie des Corps

7 Espaces Vectoriels : Revisités

Références

64

Vous aimerez peut-être aussi