Alge Bre
Alge Bre
COURS DE MATHÉMATIQUES
PREMIÈRE ANNÉE
Exo7
À la découverte de l’algèbre
La première année d’études supérieures pose les bases des mathématiques. Pourquoi se lancer dans une telle
expédition ? Déjà parce que les mathématiques vous offriront un langage unique pour accéder à une multitude
de domaines scientifiques. Mais aussi parce qu’il s’agit d’un domaine passionnant ! Nous vous proposons de
partir à la découverte des maths, de leur logique et de leur beauté.
Dans vos bagages, des objets que vous connaissez déjà : les entiers, les fonctions... Ces notions en apparence
simples et intuitives seront abordées ici avec un souci de rigueur, en adoptant un langage précis et en présentant
les preuves. Vous découvrirez ensuite de nouvelles théories (les espaces vectoriels, les équations
différentielles,...).
Ce tome est consacré à l’algèbre et se divise en deux parties. La première partie débute par la logique et les
ensembles, qui sont des fondamentaux en mathématiques. Ensuite vous étudierez des ensembles particuliers :
les nombres complexes, les entiers ainsi que les polynômes. Cette partie se termine par l’étude d’une première
structure algébrique, avec la notion de groupe.
La seconde partie est entièrement consacrée à l’algèbre linéaire. C’est un domaine totalement nouveau pour
vous et très riche, qui recouvre la notion de matrice et d’espace vectoriel. Ces concepts, à la fois profonds et
utiles, demandent du temps et du travail pour être bien compris.
Les efforts que vous devrez fournir sont importants : tout d’abord comprendre le cours, ensuite connaître par
cœur les définitions, les théorèmes, les propositions... sans oublier de travailler les exemples et les
démonstrations, qui permettent de bien assimiler les notions nouvelles et les mécanismes de raisonnement.
Enfin, vous devrez passer autant de temps à pratiquer les mathématiques : il est indispensable de résoudre
activement par vous-même des exercices, sans regarder les solutions. Pour vous aider, vous trouverez sur le site
Exo7 toutes les vidéos correspondant à ce cours, ainsi que des exercices corrigés.
Au bout du chemin, le plaisir de découvrir de nouveaux univers, de chercher à résoudre des problèmes... et d’y
parvenir. Bonne route !
Sommaire
1 Logique et raisonnements 1
1 Logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2 Raisonnements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Ensembles et applications 11
1 Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4 Ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5 Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3 Nombres complexes 31
3 Argument et trigonométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4 Arithmétique 45
2 Théorème de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3 Nombres premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4 Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5 Polynômes 59
1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4 Fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6 Groupes 71
1 Groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2 Sous-groupes ............................................... 76
3 Morphismes de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4 Le groupe Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
7 Systèmes linéaires 87
1 Introduction aux systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . 87
8 Matrices 99
1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
10 Espaces vectoriels137
3 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
13 Déterminants 211
Index
Chapitre
Logique et1
raisonnements
Quelques motivations
• Il est important d’avoir un langage rigoureux. La langue française est souvent ambigüe. Prenons l’exemple
de la conjonction « ou » ; au restaurant « fromage ou dessert » signifie l’un ou l’autre mais pas les deux. Par
contre si dans un jeu de carte on cherche « les as ou les cœurs » alors il ne faut pas exclure l’as de cœur.
Autre exemple : que répondre à la question « As-tu 10 euros en poche ? » si l’on dispose de 15 euros ?
• Il y a des notions difficiles à expliquer avec des mots : par exemple la continuité d’une fonction est souvent
expliquée par « on trace le graphe sans lever le crayon ». Il est clair que c’est une définition peu satisfaisante.
Voici la définition mathématique de la continuité d’une fonction f : I → R en un point x0 ∈ I :
Les mathématiques sont un langage pour s’exprimer rigoureusement, adapté aux phénomènes complexes, qui
rend les calculs exacts et vérifiables. Le raisonnement est le moyen de valider — ou d’infirmer — une hypothèse
et de l’expliquer à autrui.
1. Logique
1.1. Assertions
Une assertion est une phrase soit vraie, soit fausse, pas les deux en même temps.
Exemples :
• « Il pleut. »
• « Je suis plus grand que toi. »
• «2+2=4»
• «2×3=7»
• « Pour tout x ∈ R, on a x2 ⩾ 0. »
Si P est une assertion et Q est une autre assertion, nous allons définir de nouvelles assertions construites à partir
de P et de Q.
L’opérateur logique « et »
L’assertion « P et Q » est vraie si P est vraie et Q est vraie. L’assertion « P et Q » est fausse sinon.
On résume ceci en une table de vérité :
P\Q V F
V V F
F F F
FIGURE 1.1 – Table de vérité de « P et Q »
Par exemple si P est l’assertion « Cette carte est un as » et Q l’assertion « Cette carte est cœur » alors l’assertion
« P et Q » est vraie si la carte est l’as de cœur et est fausse pour toute autre carte.
L’opérateur logique « ou »
L’assertion « P ou Q » est vraie si l’une (au moins) des deux assertions P ou Q est vraie. L’assertion « P ou Q » est
fausse si les deux assertions P et Q sont fausses.
On reprend ceci dans la table de vérité :
P\Q V F
V V V
F V F
FIGURE 1.2 – Table de vérité de « P ou Q »
Si P est l’assertion « Cette carte est un as » et Q l’assertion « Cette carte est cœur » alors l’assertion « P ou Q » est
vraie si la carte est un as ou bien un cœur (en particulier elle est vraie pour l’as de cœur).
Remarque.
Pour définir les opérateurs « ou », « et » on fait appel à une phrase en français utilisant les mots ou, et ! Les
tables de vérités permettent d’éviter ce problème.
La négation « non »
L’implication =⇒
V V F
F V V
FIGURE 1.4 – Table de vérité de « P =⇒ Q »
Elle se lit souvent aussi « si P est vraie alors Q est vraie » ou « si P alors Q ».
Par exemple :
toujours
vraie.
L’équivalence ⇐⇒
«P ⇐⇒ Q » est l’assertion « (P =⇒ Q) et (Q =⇒ P) ».
Exemples :
• Pour x, x′ ∈ R, l’équivalence « x · x′ = 0 ⇐⇒ (x = 0 ou x′ = 0) » est vraie.
• Voici une équivalence toujours fausse (quelle que soit l’assertion P) : « P ⇐⇒ non(P)
».
On s’intéresse davantage aux assertions vraies qu’aux fausses, aussi dans la pratique et en dehors de ce chapitre
on écrira « P ⇐⇒ Q » ou « P =⇒ Q » uniquement lorsque ce sont des assertions vraies. Par exemple si l’on écrit «
P ⇐⇒ Q » cela sous-entend « P ⇐⇒ Q est vraie ». Attention rien ne dit que P et Q soient vraies. Cela signifie que
Proposition 1.
Soient P,Q, R trois assertions. Nous avons les équivalences (vraies) suivantes :
1. P ⇐⇒ non(non(P))
2. (P et Q) ⇐⇒ (Q et P)
3. (P ou Q) ⇐⇒ (Q ou P)
6. P et (Q ou R) ⇐⇒ (P et Q) ou (P et R)
7. P ou (Q et R) ⇐⇒ (P ou Q) et (P ou R)
8. « P =⇒ Q » ⇐⇒ « non(Q) =⇒ non(P) »
6. On fait la même chose mais il y a trois variables : P, Q, R. On compare donc les tables de vérité d’abord dans
le cas où P est vrai (à gauche), puis dans le cas où P est faux (à droite). Dans les deux cas les deux assertions «
Q\R V F Q\R V F
V V V F
VF
F V F F F F
8. Par définition, l’implication « P =⇒ Q » est l’assertion « (non P) ou Q ». Donc l’implication « non(Q) =⇒ non(P)
» est équivalente à « non(non(Q)) ou non(P) » qui équivaut encore à « Q ou non(P) » et donc est équivalente
à « P =⇒ Q ». On aurait aussi pu encore une fois dresser les deux tables de vérité et voir qu’elles sont égales.
LOGIQUE ET RAISONNEMENTS 1. LOGIQUE 5
1.2. Quantificateurs
Le quantificateur ∀ : « pour tout »
Une assertion P peut dépendre d’un paramètre x, par exemple « x2 ⩾ 1 », l’assertion P(x) est vraie ou fausse
selon la valeur de x.
L’assertion
∀x ∈ E P(x)
est une assertion vraie lorsque les assertions P(x) sont vraies pour tous les éléments x de l’ensemble E.
On lit « Pour tout x appartenant à E, P(x) », sous-entendu « Pour tout x appartenant à E, P(x) est vraie ».
Par exemple :
• « ∀x ∈ [1, +∞2 [ (x2 ⩾ 1) » est une assertion vraie.
Le quantificateur ∃ : « il existe »
L’assertion
∃x ∈ E P(x)
est une assertion vraie lorsque l’on peut trouver au moins un x de E pour lequel P(x) est vraie. On lit « il existe x
appartenant à E tel que P(x) (soit vraie) ».
Par exemple :
• « ∃x ∈ R (x2(x − 1)< 0) » est vraie (par exemple x = vérifie bien la propriété).
• « ∃n ∈ N n − n > n » est vraie (il y a plein de choix, par exemple n = 3 convient, mais aussi n = 10 ou même n
• « ∃x ∈ R (x2 = −1) » est fausse (aucun réel au carré ne donnera un nombre négatif).
Par exemple la négation de « ∀x ∈ [12, +∞[ (x2 ⩾ 1) » est l’assertion «2∃x ∈ [1, +∞[ (x2 < 1) ». En effet la
• Ce n’est pas plus difficile d’écrire la négation de phrases complexes. Pour l’assertion :
sa négation est
∃x ∈ R ∀y > 0 (x + y ⩽ 10).
Remarques
L’ordre des quantificateurs est très important. Par exemple les deux phrases logiques
sont différentes. La première est vraie, la seconde est fausse. En effet une phrase logique se lit de gauche à
droite, ainsi la première phrase affirme « Pour tout réel x, il existe un réel y (qui peut donc dépendre de x) tel que
x + y > 0. » (par exemple on peut prendre y = |x|+ 1). C’est donc une phrase vraie. Par contre la deuxième se lit :
« Il existe un réel y, tel que pour tout réel x, x + y > 0. » Cette phrase est fausse, cela ne peut pas être le même y
qui convient pour tous les x !
On retrouve la même différence dans les phrases en français suivantes. Voici une phrase vraie « Pour toute
personne, il existe un numéro de téléphone », bien sûr le numéro dépend de la personne. Par contre cette
LOGIQUE ET RAISONNEMENTS 2. RAISONNEMENTS 7
phrase est fausse : « Il existe un numéro, pour toutes les personnes ». Ce serait le même numéro pour tout le
monde !
• Pour la négation d’une phrase logique, il n’est pas nécessaire de savoir si la phrase est fausse ou vraie. Le
procédé est algorithmique : on change le « pour tout » en « il existe » et inversement, puis on prend la
négation de l’assertion P.
• Pour la négation d’une proposition, il faut être précis : la négation de l’inégalité stricte « < » est l’inégalité
large « ⩾ », et inversement.
• Les quantificateurs ne sont pas des abréviations. Soit vous écrivez une phrase en français : « Pour tout réel x,
si f (x)= 1 alors x ⩾ 0. » , soit vous écrivez la phrase logique :
∀x ∈ R (f (x)= 1 =⇒ x ⩾ 0).
Mais surtout n’écrivez pas « ∀x réel, si f (x)= 1 =⇒ x positif ou nul ». Enfin, pour passer d’une ligne à l’autre
Mini-exercices.
1. Écrire la table de vérité du « ou exclusif ». (C’est le ou dans la phrase « fromage ou dessert », l’un ou
l’autre mais pas les deux.)
2. Écrire la table de vérité de « non (P et Q) ». Que remarquez vous ?
3. Écrire la négation de « P =⇒ Q ».
5. Écrire la négation de « P et (Q ou R) ».
6. Écrire à l’aide des quantificateurs la phrase suivante : « Pour tout nombre réel, son carré est positif ». Puis
écrire la négation.
7. Mêmes questions avec les phrases : « Pour chaque réel, je peux trouver un entier relatif tel que leur
produit soit strictement plus grand que 1 ». Puis « Pour tout entier n, il existe un unique réel x tel que exp(x)
égale n ».
2. Raisonnements
LOGIQUE ET RAISONNEMENTS 2. RAISONNEMENTS 8
Exemple 1.
Montrer que si a, b ∈ Q alors a + b ∈ Q.
Démonstration. Prenons a ∈ Q, b ∈ Q. Rappelons que les rationnels Q sont l’ensemble des réels s’écrivant qp
a p q b p q
Alors = q pour un certain ∈ Z et un certain ∈ N∗. De même = q′′ avec ′ ∈ Z et ′ ∈ N∗. Maintenant p p′
pq′ + qp′
a + b = q + q′ = qq′ .
Or le numérateur pq′ + qp′ est bien un élément de Z ; le dénominateur qq′ est lui un élément de N ∗. Donc a + b
− x + 1 −|x − 1| = x − x + 1 −(x − 1)
=x
=(x − 1) + 1 ⩾ 0.
⩾
Ainsi x2 − x + 1 −|x − 1| ⩾ 0 et donc x2 − x + 1 |x − 1|. 2 2 2
LOGIQUE ET RAISONNEMENTS 2. RAISONNEMENTS 9
Deuxième cas : x < 1. Alors |x−1| = −(x−1). Nous obtenons x −x+1−|x−1| = x −x+1+(x−1)= x ⩾ 0.
⩾
Et donc x2 − x + 1 |x − 1|. 2
2.3. Contraposée
Le raisonnement par contraposition est basé sur l’équivalence suivante (voir la proposition 1) :
Donc si l’on souhaite montrer l’assertion « P =⇒ Q », on montre en fait que si non(Q) est vraie alors non(P) est
vraie.
Exemple 3.
Soit n ∈ N. Montrer que si n2 est pair alors n est pair.
Démonstration. Nous supposons que n n’est pas pair. Nous voulons montrer qu’alors n2 n’est pas pair. Comme n
n’est pas pair, il est impair et donc il existe k ∈ N tel que n = 2k+1. Alors n2 =(2k+1)2 = 4k2+4k+1 = 2ℓ+1 avec ℓ= 2k2
Conclusion : nous avons montré que si n est impair alors n est impair. Par contraposition ceci est équivalent à : si
n2 est pair alors n est pair.
2.4. Absurde
Le raisonnement par l’absurde pour montrer « P =⇒ Q » repose sur le principe suivant : on suppose à la fois que
P est vraie et que Q est fausse et on cherche une contradiction. Ainsi si P est vraie alors Q doit être vraie et donc
« P =⇒ Q » est vraie.
Exemple 4.
Soient a, b ⩾ 0. Montrer que si 1+ab = 1+ba alors a = b.
=
Démonstration. Nous raisonnons par l’absurde en supposant que 1+ab = 1+ba et a ̸ b. Comme 1+ab = 1+ba alors a(1+ a)=
b(1+ b) donc a + a2 = b + b2 d’où a2 − b2 = b − a. Cela conduit à (a − b)(a + b)= −(a − b). Comme a ≠ b alors a − b ≠ 0
et donc en divisant par a − b on obtient a + b = −1. La somme des deux nombres positifs a et b ne peut être
Dans la pratique, on peut choisir indifféremment entre un raisonnement par contraposition ou par l’absurde.
Attention cependant de bien préciser quel type de raisonnement vous choisissez et surtout de ne pas changer en
cours de rédaction !
2.5. Contre-exemple
Si l’on veut montrer qu’une assertion du type « ∀x ∈ E P(x) » est vraie alors pour chaque x de E il faut montrer
que P(x) est vraie. Par contre pour montrer que cette assertion est fausse alors il suffit de trouver x ∈ E tel que
P(x) soit fausse. (Rappelez-vous la négation de « ∀x ∈ E P(x) » est « ∃x ∈ E non P(x) ».) Trouver un tel x
Exemple 5.
Montrer que l’assertion suivante est fausse « Tout entier positif est somme de trois carrés ». (Les
carrés sont les 02, 12, 22, 32,... Par exemple 6 = 22 + 12 + 12.)
Démonstration. Un contre-exemple est 7 : les carrés inférieurs à 7 sont 0, 1, 4 mais avec trois de ces nombres on
ne peut faire 7.
2.6. Récurrence
Le principe de récurrence permet de montrer qu’une assertion P(n), dépendant de n, est vraie pour tout n ∈ N.
La démonstration par récurrence se déroule en trois étapes : lors de l’initialisation on prouve P(0). Pour l’étape
d’hérédité, on suppose n ⩾ 0 donné avec P(n) vraie, et on démontre alors que l’assertion P(n + 1) au rang suivant
est vraie. Enfin dans la conclusion, on rappelle que par le principe de récurrence P(n) est vraie pour tout n ∈ N.
Exemple 6.
Montrer que pour tout n ∈ N, 2n > n.
2n > n.
Nous allons démontrer par récurrence que P(n) est vraie pour tout n ⩾ 0.
Initialisation. Pour n = 0 nous avons 20 = 1 > 0. Donc P(0) est vraie.
Hérédité. Fixons n ⩾ 0. Supposons que P(n) soit vraie. Nous allons montrer que P(n + 1) est vraie.
2n+1 = 2n + 2n > n + 2n car par P(n) nous savons 2n > n, > n + 1 car 2n ⩾
1.
Remarques :
• La rédaction d’une récurrence est assez rigide. Respectez scrupuleusement la rédaction proposée : donnez
un nom à l’assertion que vous souhaitez montrer (ici P(n)), respectez les trois étapes (même si souvent
LOGIQUE ET RAISONNEMENTS 2. RAISONNEMENTS 11
l’étape d’initialisation est très facile). En particulier méditez et conservez la première ligne de l’hérédité «
Fixons n ⩾ 0. Supposons que P(n) soit vraie. Nous allons montrer que P(n + 1) est vraie. »
• Si on doit démontrer qu’une propriété est vraie pour tout n ⩾ n0, alors on commence l’initialisation au rang
n0.
• Le principe de récurrence est basé sur la construction de l’ensemble N. En effet un des axiomes pour définir
N est le suivant : « Soit A une partie de N qui contient 0 et telle que si n ∈ A alors n + 1 ∈ A. Alors A =N ».
Mini-exercices.
⩽
1. (Raisonnement direct) Soient a, b ∈ R+. Montrer que si a ⩽ b alors a ⩽ ⩽ b et a pab ⩽ b.
2. (Cas par cas) Montrer que pour tout n ∈ N, n(n + 1) est divisible par 2 (distinguer les n pairs des n impairs).
3. (pContraposée ou absurde) Soient a, b ∈ Z. Montrer que si b ≠ 0 alors a + bp2 ∈/Q. (On utilisera que
2 ∈/Q.) p
2
4. (Absurde) Soit n ∈ N∗. Montrer que n + 1 n’est pas un entier.
nn
6. (Récurrence) Montrer que pour tout n ⩾ .
7. (Récurrence) Fixons un réel x ⩾ 0. Montrer que pour tout entier n ⩾ 1, (1 + x) ⩾ 1 + nx.
n
LOGIQUE ET RAISONNEMENTS 2. RAISONNEMENTS 12
2 Ensembles et applications
VidØo ■ partie 1. Ensembles
VidØo ■ partie 2. Applications
VidØo ■ partie 3. Injection, surjection, bijection
VidØo ■ partie 4. Ensembles finis
VidØo ■ partie 5. Relation d’Øquivalence
Fiche d’exercices Logique, ensembles, raisonnements
Fiche d’exercices Injection, surjection, bijection
Fiche d’exercices DØnombrement
Fiche d’exercices Relation d’Øquivalence, relation d’ordre
Motivations
Au début du XXe siècle le professeur Frege peaufinait la rédaction du second tome d’un ouvrage qui souhaitait
refonder les mathématiques sur des bases logiques. Il reçut une lettre d’un tout jeune mathématicien : « J’ai bien
lu votre premier livre. Malheureusement vous supposez qu’il existe un ensemble qui contient tous les ensembles.
Un tel ensemble ne peut exister. » S’ensuit une démonstration de deux lignes. Tout le travail de Frege s’écroulait
et il ne s’en remettra jamais. Le jeune Russell deviendra l’un des plus grands logiciens et philosophes de son
temps. Il obtient le prix Nobel de littérature en 1950.
Voici le « paradoxe de Russell » pour montrer que l’ensemble de tous les ensembles ne peut exister. C’est très
bref, mais difficile à appréhender. Par l’absurde, supposons qu’un tel ensemble E contenant tous les ensembles
existe. Considérons
©
¦
E
F = E ∈ E | E ∈/ .
Expliquons l’écriture E ∈/ E : le E de gauche est considéré comme un élément, en effet l’ensemble E est
l’ensemble de tous les ensembles et E est un élément de cet ensemble ; le E de droite est considéré comme un
ensemble, en effet les élément de E sont des ensembles ! On peut donc s’interroger si l’élément E appartient à
La contradiction arrive lorsque l’on se pose la question suivante : a-t-on F ∈ F ou F ∈/ F ? L’une des deux
• Si F ∈ F alors par définition de F, F est l’un des ensembles E tel que F ∈/ F. Ce qui est contradictoire.
Aucun des cas n’est possible. On en déduit qu’il ne peut exister un tel ensemble E contenant tous les
ensembles.
Ce paradoxe a été popularisé par l’énigme suivante : « Dans une ville, le barbier rase tous ceux qui ne se rasent
pas eux-mêmes. Qui rase le barbier ? » La seule réponse valable est qu’une telle situation ne peut exister.
Ne vous inquiétez pas, Russell et d’autres ont fondé la logique et les ensembles sur des bases solides.
Cependant il n’est pas possible dans ce cours de tout redéfinir. Heureusement, vous connaissez déjà quelques
ensembles :
• l’ensemble des entiers naturels N= {0, 1, 2, 3, . . .}.
Nous allons essayer de voir les propriétés des ensembles, sans s’attacher à un exemple particulier. Vous vous
apercevrez assez rapidement que ce qui est au moins aussi important que les ensembles, ce sont les relations
entre ensembles : ce sera la notion d’application (ou fonction) entre deux ensembles.
1. Ensembles
• Un ensemble particulier est l’ensemble vide, noté ∅ qui est l’ensemble ne contenant aucun élément.
• On note x ∈E
• Voici une autre façon de définir des ensembles : une collection d’éléments qui vérifient une propriété.
• Exemples :
• L’égalité. E = F si et seulement si E ⊂ F et F ⊂ E.
ENSEMBLES ET APPLICATIONS 1. ENSEMBLES 16
• Ensemble des parties de E. On note P (E) l’ensemble des parties de E. Par exemple si E = {1, 2, 3} :
P .
• Complémentaire. Si A ⊂ E,
∁E A = x ∈E | x ∈
/A
E A ∁E A
A ∪B = x ∈E | x ∈A ou x ∈B
• Union. Pour A, B ⊂ E,
A A ∪B B
A ∩ B = x ∈E | x ∈A et x ∈B
A A∩ B B
• Intersection.
• A∩∅=∅, A∩ A = A, A ⊂ B ⇐⇒ A∩ B = A
• A∪ B = B ∪ A
• A∪∅= A, A∪ A = A, A ⊂ B ⇐⇒ A∪ B = B
• A et donc A ⊂ B ⇐⇒ ∁B ⊂ ∁A
• ∁(A∩ B)=∁A∪∁B
• ∁(A∪ B)=∁A∩∁B
A B A B
A A∩ B B A A ∪B B
Les preuves sont pour l’essentiel une reformulation des opérateurs logiques, en voici quelques-unes :
• Preuve de A∩(B ∪ C)=(A∩ B)∪(A∩ C) : x ∈ A∩(B ∪ C) ⇐⇒ x ∈ A et x ∈ (B ∪ C) ⇐⇒ x ∈ A et (x ∈
B ou x ∈ C) ⇐⇒ (x ∈ A et x ∈ B) ou (x ∈ A et x ∈ C) ⇐⇒ (x ∈ A ∩ B) ou (x ∈ A ∩ C) ⇐⇒ x ∈
Exemple 1.
1. Vous connaissez R2 =R×R=(x, y) | x, y ∈ R .
x
0 1
ENSEMBLES ET APPLICATIONS 1. ENSEMBLES 18
z
1
1
0 1 x
Mini-exercices.
1. En utilisant les définitions, montrer : A ≠ B si et seulement s’il existe a ∈ A\ B ou b ∈ B \ A. 2.
Énumérer
3. Montrer A.
.
ENSEMBLES ET APPLICATIONS 19
2. APPLICATIONS
2. Applications
2.1. Définitions
• Une application (ou une fonction) f : E → F, c’est la donnée pour chaque élément x ∈ E d’un unique élément
de F noté f (x).
Nous représenterons les applications par deux types d’illustrations : les ensembles « patates », l’ensemble de
départ (et celui d’arrivée) est schématisé par un ovale ses éléments par des points. L’association x 7→ f (x)
est représentée par une flèche.
f
x f (x)
E F
L’autre représentation est celle des fonctions continues de R dans R (ou des sous-ensembles de R).
L’ensemble de départ R est représenté par l’axe des abscisses et celui d’arrivée par l’axe des ordonnées.
L’association x 7→ f (x) est représentée par le point (x, f (x)).
y
f (x)
x
x
• Égalité. Deux applications f , g : E → F sont égales si et seulement si pour tout x ∈ E, f (x)= g(x). On note alors
f = g.
• Le graphe de f : E → F est
¦©
Γf = x, fE × F | x ∈ E
y
Γf
F
E G
ENSEMBLES ET APPLICATIONS 20
g◦f
f A: A −→ F
|
x 7−→ f (x)
2. APPLICATIONS
Exemple 2.
1. L’identité, idE : E → E est simplement définie par x 7→ x et sera très utile dans la suite. 2.
Définissons f , g ainsi
x x
f (A)=f (x) | x ∈A
y
f
E F
A f (A)
f (A)
x
A
Définition 2.
Soit B ⊂ F et f : E → F, l’image réciproque de B par f est l’ensemble
−1
f (B ) = x ∈E | f ( x ) ∈B
f
E F y
B
B
x
−1 −1
f (B ) f (B )
ENSEMBLES ET APPLICATIONS 3. INJECTION, SURJECTION, BIJECTION 21
Remarque.
Ces notions sont plus difficiles à maîtriser qu’il n’y paraît !
• f (A) est un sous-ensemble de F, f −1(B) est un sous-ensemble de E.
1
• La notation « f − (B) » est un tout, rien ne dit que f est un fonction bijective (voir plus loin). L’image
réciproque existe quelque soit la fonction.
• L’image directe d’un singleton f ({x}) = f (x) est un singleton. Par contre l’image réciproque d’un singleton f
1
− {y} dépend de f . Cela peut être un singleton, un ensemble à plusieurs éléments ; mais cela peut-être E tout
entier (si f est une fonction constante) ou même l’ensemble vide (si aucune image par f ne vaut y).
2.3. Antécédents
Fixons y ∈ F. Tout élément x ∈ E tel que f (x)= y est un antécédent de y.
Sur les dessins suivants, l’élément y admet 3 antécédents par f . Ce sont x1, x2, x3.
f
y
E x3 F
x1 x2 y y
x
x1 x2 x3
Mini-exercices.
1. Pour deux applications f , g : E → F, quelle est la négation de f = g ?
N
2. Représenter le graphe de f : → R définie par n 7→ n+41.
4. Pour la fonction f : R → R définie par x 7→ x2 représenter et calculer les ensembles suivants : f ([0, 1[), f (R),
Définition 3.
f est injective si pour tout x, x′ ∈ E avec f (x)= f (x′) alors x
= x′. Autrement dit : x, x′ E f (x)= f (x′) = x = x′
y F x E y = f (x)
ENSEMBLES ET APPLICATIONS 22
∀ ∈ ⇒
Définition 4.
f est surjective si pour tout y ∈ F, il existe x ∈ E tel que y = f (x). Autrement dit :
∀ ∈ ∃ ∈
)
E F F
x
E
ENSEMBLES ET APPLICATIONS 3. INJECTION, SURJECTION, BIJECTION 23
E F F
x
E
Remarque.
Encore une fois ce sont des notions difficiles à appréhender. Une autre façon de formuler l’injectivité et la
surjectivité est d’utiliser les antécédents.
• f est injective si et seulement si tout élément y de F a au plus un antécédent (et éventuellement aucun).
• f est surjective si et seulement si tout élément y de F a au moins un antécédent.
Remarque.
Voici deux fonctions non injectives :
f
y
E F
x x
′
y y
x
x x
′
x
E
Exemple 3.
N
1. Soit f1 : → Q définie par f1(x) = 1+1x . Montrons que f1 est injective : soit x, x′ ∈ N tels que f1(x)= f1(x′). Alors 1+1x =
1
1+ x′ , donc 1 + x = 1 + x′ et donc x = x′. Ainsi f1 est injective.
Par contre f1 n’est pas surjective. Il s’agit de trouver un élément y qui n’a pas d’antécédent par f1. Ici il est
facile de voir que l’on a toujours f1(x)⩽ 1 et donc par exemple y = 2 n’a pas d’antécédent. Ainsi f1 n’est pas
surjective.
2. Soit f2 : Z → N définie par f2(x)= x2. Alors f2 n’est pas injective. En effet on peut trouver deux éléments x, x′ ∈ Z
différents tels que f2(x)= f2(x′). Il suffit de prendre par exemple x = 2, x′ = −2.
f2 n’est pas non plus surjective, en effet il existe des éléments y ∈ N qui n’ont aucun antécédent. Par
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 24
exemple y = 3 : si y = 3 avait un antécédent x par f2, nous aurions f2(x) = y, c’est-à-dire x2 = 3, d’où x = ±p3.
Mais alors x n’est pas un entier de Z. Donc y = 3 n’a pas d’antécédent et f2 n’est pas
surjective.
3.2. Bijection
Définition 5.
f est bijective si elle injective et surjective. Cela équivaut à : pour tout y ∈ F il existe un unique x ∈ E tel
L’existence du x vient de la surjectivité et l’unicité de l’injectivité. Autrement dit, tout élément de F a un unique
antécédent par f .
f y
E F F
x
E
Proposition 1.
Soit E, F des ensembles et f : E → F une application.
1. L’application f est bijective si et seulement si il existe une application g : F → E telle que f ◦ g = idF et g ◦
f = idE.
2. Si f est bijective alors l’application g est unique et elle aussi est bijective. L’application g s’appelle la
bijection réciproque de f et est notée f −1. De plus f −1−1 = f .
Remarque.
• f ◦ g = idF se reformule ainsi
∀y ∈ F f g(y)= y.
• Alors que g ◦ f = idE s’écrit :
∀x ∈ E g f (x)= x.
• Par exemple f : R →]0, +∞[ définie par f (x) = exp(x) est bijective, sa bijection réciproque est g :]0, +∞[→ R
définie par g(y)= ln(y). Nous avons bien exp ln(y)= y, pour tout y ∈]0, +∞[ et ln x, pour tout x ∈ R.
Démonstration.
ENSEMBLES ET APPLICATIONS 3. INJECTION, SURJECTION, BIJECTION 25
1. • Sens ⇒. Supposons f bijective. Nous allons construire une application g : F → E. Comme f est surjective
alors pour chaque y ∈ F, il existe un x ∈ E tel que y = f (x) et on pose g(y) = x. On a f g(y) = f (x) = y, ceci pour
tout y ∈ F et donc f ◦ g = idF. On compose à droite avec f donc f ◦ g ◦ f = idF ◦f . Alors pour tout x ∈ E on a f g ◦
f (x) = f (x) or f est injective et donc g ◦ f (x)= x. Ainsi g ◦ f = idE. Bilan : f ◦ g = idF et g ◦ f = idE.
— f est surjective : en effet soit y ∈ F alors on note x = g(y) ∈ E ; on a bien : f (x)= fg(y)= f ◦ g(y)= idF(y)=
— f est injective : soient x, x′ ∈ E tels que f (x) = f (x′). On compose par g (à gauche) alors g ◦ f (x)= g ◦ f (x′)
2. • Si f est bijective alors g est aussi bijective car g ◦ f = idE et f ◦ g = idF et on applique ce que l’on vient de
• Si f est bijective, g est unique : en effet soit h : F → E une autre application telle que h ◦ f = idE et f ◦ h = idF ;
Proposition 2.
Soient f : E → F et g : F → G des applications bijectives. L’application g ◦ f est bijective et sa bijection
réciproque est
(g ◦ f )−1 = f −1 ◦ g−1
Démonstration. D’après la proposition 1, il existe u : F → E tel que u ◦ f = idE et f ◦ u = idF. Il existe aussi v : G → F
tel que v◦ g = idF et g ◦v = idG. On a alors (g ◦ f )◦(u◦v)= g ◦(f ◦u)◦v = g ◦idF ◦v = g ◦v = idE. Et (u ◦ v)◦(g ◦ f )= u ◦(v ◦ g)◦ f
Mini-exercices.
1. Les fonctions suivantes sont-elles injectives, surjectives, bijectives ?
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 26
• f
• f• f → 7→ | |.
2. Montrer que la fonction f : ]1, +∞[→]0, +∞[ définie par f (x) =est bijective. Calculer sa
bijection réciproque.
4. Ensembles finis
4.1. Cardinal
Définition 6.
Un ensemble E est fini s’il existe un entier n ∈ N et une bijection de E vers {1, 2, . . . , n}. Cet entier n est
Quelques exemples :
1. Si A est un ensemble fini et B ⊂ A alors B est aussi un ensemble fini et Card B ⩽ Card A.
2. Si A, B sont des ensembles finis disjoints (c’est-à-dire A∩ B =∅) alors Card(A∪ B)= Card A+ Card B.
3. Si A est un ensemble fini et B ⊂ A alors Card(A \ B) = Card A − Card B. En particulier si B ⊂ A et Card A = Card
B alors A = B.
Proposition 3.
Soit E, F deux ensembles finis et f : E → F une application.
Démonstration.
1. Supposonsest une bijection. Donc pour chaquef injective. Notons F′ = fy(∈E)F⊂′ F alors la restriction f|
:∈EE→tel queF′ (définie pary = f (x). Doncf|(x)=Efet(xF))′
2. Supposons f surjective. Pour tout élément y ∈ F, il existe au moins un élément x de E tel que y = f (x) et donc
Card E ⩾ Card F.
Proposition 4.
Soit E, F deux ensembles finis et f : E → F une application. Si
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 28
Card E = Card F
Démonstration. Le schéma de la preuve est le suivant : nous allons montrer successivement les implications :
(i) =⇒ (ii) =⇒ (iii) =⇒ (i)
• (ii) =⇒ (iii). Supposons f surjective. Pour montrer que f est bijective, il reste à montrer que f est injective.
Raisonnons par l’absurde et supposons f non injective. Alors Card f (E) < Card E (car au moins 2 éléments ont
la même image). Or f (E)= F car f surjective, donc Card F < Card E. C’est une contradiction, donc f doit être
injective et ainsi f est bijective.
• (iii) =⇒ (i). C’est clair : une fonction bijective est en particulier injective.
Malgré sa formulation amusante, c’est une proposition souvent utile. Exemple : dans un amphi de 400 étudiants,
il y a au moins deux étudiants nés le même jour !
Proposition 6.
Le nombre d’applications différentes de E dans F est :
pn
Démonstration. Fixons F et p = Card F. Nous allons effectuer une récurrence sur n = Card E. Soit (Pn) l’assertion
suivante : le nombre d’applications d’un ensemble à n éléments vers un ensemble à p éléments est pn.
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 29
• Initialisation. Pour n = 1, une application de E dans F est définie par l’image de l’unique élément de E. Il y a p
= Card F choix possibles et donc p1 applications distinctes. Ainsi P1 est vraie.
• Hérédité. Fixons n ⩾ 1 et supposons que Pn est vraie. Soit E un ensemble à n + 1 éléments. On choisit et fixe a
∈ E ; soit alors E′ = E \{a} qui a bien n éléments. Le nombre d’applications de E′ vers F est pn, par l’hypothèse
choisissant l’image de a. On a p choix pour l’image de a et donc pn × p choix pour les applications de E vers F.
Proposition 7.
Le nombre d’injections de E dans F est :
p ×(p − 1)×···×(p −(n − 1)).
Démonstration. Supposons E = {a1, a2, . . . , an} ; pour l’image de a1 nous avons p choix. Une fois ce choix fait, pour
l’image de a2 il reste p − 1 choix (car a2 ne doit pas avoir la même image que a1). Pour l’image de a3 il y a p − 2
possibilités. Ainsi de suite : pour l’image de ak il y a p − (k − 1) choix... Il y a au final p ×(p − 1)×···×(p −(n − 1))
applications injectives.
Proposition 8.
Le nombre de bijections d’un ensemble E de cardinal n dans lui-même est :
n!
Exemple 5.
Parmi les 3125 applications de {1, 2, 3, 4, 5} dans lui-même il y en a 5! = 120 qui sont bijectives.
Démonstration. Nous allons le prouver par récurrence sur n. Soit (Pn) l’assertion suivante : le nombre de
bijections d’un ensemble à n éléments dans un ensemble à n éléments est n!
• P1 est vraie. Il n’y a qu’une bijection d’un ensemble à 1 élément dans un ensemble à 1 élément.
• Fixons n ⩾ 1 et supposons que Pn est vraie. Soit E un ensemble à n + 1 éléments. On fixe a ∈ E.
1 choix de b ∈ E alors nous obtenons n! ×(n + 1) bijections de E dans lui-même. Ainsi Pn+1 est
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 30
vraie.
Card P (E)= 2n
Exemple 6.
Si E = {1, 2, 3, 4, 5} alors P (E) a 25 = 32 parties. C’est un bon exercice de les énumérer :
• l’ensemble vide : ∅,
• 5 singletons : {1}, {2}, . . .,
• Supposons que la proposition soit vraie pour n ⩾ 1 fixé. Soit E un ensemble à n + 1 éléments. On
fixe a ∈ E. Il y a deux sortes de sous-ensembles de E :
— les sous-ensembles A qui ne contiennent pas a : ce sont les sous-ensembles A ⊂ E \{a}. Par l’hypothèse de
récurrence il y en a 2n.
— les sous-ensembles A qui contiennent a : ils sont de la forme A = {a} ∪ A′ avecn A′ ⊂ E \ {a}. Par l’hypothèse
parties A ⊂ E.
• Par le principe de récurrence, nous avons prouvé que si Card E = n alors on a Card P (E)= 2n.
Définition 7.
Exemple 7.
3
Les parties à deux éléments de {1, 2, 3} sont {1, 2}, {1, 3} et {2, 3} et donc 2 = 3. Nous avons déjà classé les
55 (il y a 5 singletons),
• 1=
5 10 (il y a 10 paires),
• 2=
5 10,
• 3 =
5 5,
• 4 =
51 (la seule partie ayant 5 éléments est l’ensemble tout entier).
• 5=
n n
nk= k •
−
nnnn 2n 0 + 1 + + k + + n =
• ··· ···
Démonstration.
n
1. Par exemple : 1 = n car il y a n singletons.
2. Compter le nombre de parties A ⊂ E ayant k éléments revient aussi à compter le nombre de parties de la
Proposition 11.
n n − 1 n − 1
− (0 < k < n)
=+ k k k 1
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 32
éléments :
• celles qui ne contiennent pas a : ce sont donc des parties à k éléments dans E′ qui a n − 1 éléments. Il y a en a
n 1
donc −k ,
• celles qui contiennent a : elles sont de la forme A = {a}∪ A′ avec A′ une partie à k − 1 éléments dans E′
k k−
n 0
Le triangle de Pascal est un algorithme pour calculer ces coefficients k . La ligne du haut correspond à 0, la
1 1 2 2 2
ligne suivante à 0 et , la ligne d’après à
1 0 , 1 et 2 .
1 4 4
La dernière ligne du triangle de gauche aux coefficients 0, 1, . . ., 4.
Comment continuer ce triangle pour obtenir le triangle de droite ? Chaque élément de la nouvelle ligne est
obtenu en ajoutant les deux nombres qui lui sont au-dessus à droite et au-dessus à gauche.
1 1
1 1 1 1
1 2 1 1 2 1
1 3 3 1 1 3 3 1
1 4 6 4 1 1 4 6 4 1
1 5 10 10 5 1
Ce qui fait que cela fonctionne c’est bien sûr la proposition 11 qui se représente ainsi :
nk−11 n−k1 −
nk
Une autre façon de calculer le coefficient du binôme de Newton repose sur la formule suivante :
Proposition 12.
n n!
− = k
k!(n
k)!
Théorème 1.
Soient a, b ∈ R et n un entier positif alors :
ENSEMBLES ET APPLICATIONS 4. ENSEMBLES FINIS 33
Démonstration. Cela se fait par récurrence sur n. C’est clair pour n = 1. Si c’est vrai au rang n − 1 alors
= + =
− 1(n
)!(−n1)!
− k×−−1
1) 1 − (n −−1)! − × n− k ! n k k (k 1)!(n k 1)! k(n k)
n!
(
=
k!(n − k)!
n
n Xn (a +
an−k · bk
b) = k
k=0
Autrement dit :
0 1
Le théorème est aussi vrai si a et b sont des nombres complexes.
Exemple 8.
1. Pour n = 2 on retrouve la formule archi-connue : (a + b)2 = a2 + 2ab + b2.
Pn n
3. Si a = 1 et b = 1 on retrouve la formule : k=0 = 2n.
k
Pn
Démonstration. Nous allons effectuer une récurrence sur n. Soit (Pn) l’assertion : (a + b)n = n
k=0 k an−k · bk.
= ···+nkan−k bk +···
= Xn an−k · bk
k
k=0 Ainsi Pn est vérifiée.
• Conclusion. Par le principe de récurrence Pn est vraie, pour tout n ⩾ 1.
Mini-exercices.
1. Combien y a-t-il d’applications injectives d’un ensemble à n éléments dans un ensemble à n + 1 éléments ?
2. Combien y a-t-il d’applications surjectives d’un ensemble à n + 1 éléments dans un ensemble à n
éléments ?
3. Calculer le nombre de façons de choisir 5 cartes dans un jeux de 32 cartes.
4. Calculer le nombre de listes à k éléments dans un ensemble à n éléments (les listes sont ordonnées : par
exemple (1, 2, 3)=(̸ 1, 3, 2)).
6. Que donne la formule du binôme pour a = −1, b = +1 ? En déduire que dans un ensemble à n éléments il y
5. Relation d’équivalence
5.1. Définition
Une relation sur un ensemble E, c’est la donnée pour tout couple (x, y) ∈ E × E de « Vrai » (s’ils sont en relation),
ou de « Faux » sinon.
Nous schématisons une relation ainsi : les éléments de E sont des points, une flèche de x vers y signifie que x est
en relation avec y, c’est-à-dire que l’on associe « Vrai » au couple (x, y).
Définition 8.
Soit E un ensemble et R une relation, c’est une relation d’équivalence si :
• ∀x ∈ E, xR x, (réflexivité)
x
• ∀x, y ∈ E, xR y =⇒ yR x, (symétrie)
xy
5.2. Exemples
Exemple 9.
Voici des exemples basiques.
1. La relation R « être parallèle » est une relation d’équivalence pour l’ensemble E des droites affines du
plan :
Définition 9.
Soit R une relation d’équivalence sur un ensemble E. Soit x ∈ E, la classe d’équivalence de x est
cl( x ) = y ∈E | y R x
′
x
cl( x )
x ′
cl( x )
cl(x) est donc un sous-ensemble de E, on le note aussi x. Si y ∈ cl(x), on dit que y un représentant de
cl(x).
Proposition 13.
On a les propriétés suivantes :
1. cl(x)= cl(y) ⇐⇒ xR y.
3. Soit C un ensemble de représentants de toutes les classes alors cl(x) | x ∈ C constitue une
partition de
E.
S
Une partition de E est un ensemble {Ei} de parties de E tel que E = i Ei et Ei ∩ Ej =∅ (si i ≠ j).
ENSEMBLES ET APPLICATIONS 5. RELATION D’ÉQUIVALENCE 37
E
...
E2
E1 Ei ...
Ej ...
Exemples :
1. Pour la relation « être du même âge », la classe d’équivalence d’une personne est l’ensemble des personnes
ayant le même âge. Il y a donc une classe d’équivalence formée des personnes de 19 ans, une autre formée
des personnes de 20 ans,... Les trois assertions de la proposition se lisent ainsi :
• On est dans la même classe d’équivalence si et seulement si on est du même âge.
• Deux personnes appartiennent soit à la même classe, soit à des classes disjointes.
• Si on choisit une personne de chaque âge possible, cela forme un ensemble de représentants C.
Maintenant une personne quelconque appartient à une et une seule classe d’un des représentants.
2. Pour la relation « être parallèle », la classe d’équivalence d’une droite est l’ensemble des droites parallèles à
cette droite. À chaque classe d’équivalence correspond une et une seule direction.
Voici un exemple que vous connaissez depuis longtemps :
Exemple 10.
Définissons sur E =Z×N∗ la relation R par
• R est réflexive : pour tout (p, q) on a bien pq = pq et donc (p, q)R(p, q).
• R est symétrique : pour tout (p, q), (p′, q′) tels que (p, q)R(p′, q′) on a donc pq′ = p′q et donc p′q = pq′ d’où (p′, q
′)R(p, q).
• R est transitive : pour tout (p, q), (p′, q′), (p′′, q′′) tels que (p, q)R(p′, q′) et (p′, q′)R(p′′, q′′) on a donc pq′ = p′q et
p′q′′ = p′′q′. Alors (pq′)q′′ =(p′q)q′′ = q(p′q′′)= q(p′′q′). En divisant par q′ ̸= 0 on obtient pq′′ = qp′′ et doncp (p, q)R(p′′,
q′′).
Nous allons noter q = cl(p, q) la classe d’équivalence d’un élément (p, q) ∈ Z×N∗. Par exemple, comme
(2, 3)R(24, 6)4(car 2 × 6 = 3 × 4) alors les classes de (2, 3) et (4, 6) sont égales : avec notre notation cela s’écrit : 3 =
.
6
C’est ainsi que l’on définit les rationnels : l’ensemble Q des rationnels est l’ensemble de classes d’équivalence de
la relation R.
Les nombres 23 = sont bien égaux (ce sont les mêmes classes) mais les écritures sont différentes (les
représentants sont distincts).
ENSEMBLES ET APPLICATIONS 5. RELATION D’ÉQUIVALENCE 38
⇐⇒ −
Exemples pour n = 7 : 10 ≡ 3 (mod 7), 19 ≡ 5 (mod 7), 77 ≡ 0 (mod 7), −1 ≡ 20 (mod 7).
• Pour a, b ∈ Z tels que a ≡ b (alors a − b est un multiple de n, autrement dit il existe k ∈ Z tel
• Si a ≡ b (mod n) et b ≡ c (mod n) alors il existe k, k′ ∈ Z tels que a − b = kn et b − c = k′n. Alors a − c =(a − b)+(b
Z|b .
kn | k .
n = 0, n + 1 = 1, n + 2 = 2, . . .
et donc l’ensemble des classes d’équivalence est l’ensemble
−
Z/nZ=0, 1, 2, . . . , n 1
• ...
• 6 = {. . . , −8, −1, 6, 13, 20, . . .} = 6 + 7Z
Mais ensuite 7 = {. . . − 7, 0, 7, 14, 21, . . .} = 0 = 7Z. Ainsi Z/7Z=0, 1, 2, . . . , 6 possède 7 éléments.
Remarque.
Dans beaucoup de situations de la vie courante, nous raisonnons avec les modulos. Par exemple pour l’heure :
les minutes et les secondes sont modulo 60 (après 59 minutes on repart à zéro), les heures modulo 24 (ou
modulo 12 sur le cadran à aiguilles). Les jours de la semaine sont modulo 7, les mois modulo 12,...
ENSEMBLES ET APPLICATIONS 5. RELATION D’ÉQUIVALENCE 39
Mini-exercices.
1. Montrer que la relation définie sur N par xR y ⇐⇒ 2x3+y ∈ N est une relation d’équivalence. Montrer qu’il y
a 3 classes d’équivalence.
2. Dans R2 montrer que la relation définie par (x, y)R(x′, y′) ⇐⇒ x + y′ = x′ + y est une relation d’équivalence.
Montrer que deux points (x, y) et (x′, y′) sont dans une même classe si et seulement s’ils appartiennent à
3. On définit une addition sur Z/nZ par p+q = p + q. Calculer la table d’addition dans Z/6Z (c’est-à-dire toutes
les sommes p + q pour p, q ∈ Z/6Z). Même chose avec la multiplication p × q = p × q. Mêmes questions avec
3 Nombres complexes
VidØo ■ partie 1. Les nombres complexes, dØfinitions et opØrations
Préambule
L’équation x + 5 = 2 a ses coefficients dans N mais pourtant sa solution x = −3 n’est pas un entier naturel.
De même l’équation 2x = −3 a ses coefficients dans Z mais sa solution x = − est dans l’ensemble plus grandp des
rationnels Q. Continuons ainsi, l’équation x2 = à coefficients dans Q, a ses solutions x1 =+1/ 2 et x2 = −1/p2 dans
p
l’ensemble des réelsp − p R. Ensuite l’équation x2 = −p2 à ses coefficients dans R et ses solutions x1 =+ i 2 et x2 = i
p
2 dans l’ensemble des nombres complexes C. Ce processus est-il sans fin ? Non ! Les nombres complexes sont
de d’Alembert-Gauss suivant : « Pour n’importe quelle équation polynomiale a nxn + an−1xx1n, . . . ,−1 +x···n sont
dans+ a2x2 + a1x + a0 = 0 où les coefficients ai sont des complexes (ou bien des réels), alors les solutions l’ensemble
des nombres complexes ».
Outre la résolution d’équations, les nombres complexes s’appliquent à la trigonométrie, à la géométrie (comme
nous le verrons dans ce chapitre) mais aussi à l’électronique, à la mécanique quantique, etc.
NOMBRES COMPLEXES 1. LES NOMBRES COMPLEXES 41
1.1. Définition
Définition 1.
Un nombre complexe est un couple (a, b) ∈ R2 que l’on notera a + i b
iR
a+ib
b
0 1 a R
Cela revient à identifier 1 avec le vecteur (1, 0) de R2, et i avec le vecteur (0, 1). On note C l’ensemble des
nombres complexes. Si b = 0, alors z = a est situé sur l’axe des abscisses, que l’on identifie à R. Dans ce cas on dira
que z est réel, et R apparaît comme un sous-ensemble de C, appelé axe réel. Si b ≠ 0, z est dit imaginaire et si b ≠
1.2. Opérations
′
z
i
z
0 1 R
• multiplication : (a + i b)×(a′ + i b′)=(aa′ − bb′)+ i(ab′ + ba′). On développe en suivant les règles de la
i2 = −1
Soit z = a + i b un nombre complexe, sa partie réelle est le réel a et on la note Re(z) ; sa partie imaginaire est le
réel b et on la note Im(z).
iR
iIm (z ) z
Im(z ) i
0 1 Re(z ) R
Re(z )
2
Par identification de C à R , l’écriture z = Re(z)+ i Im(z) est unique :
Re(z)= Re(z′)
z=z ′
⇐⇒ et
Im(z)= Im(z′)
En particulier un nombre complexe est réel si et seulement si sa partie imaginaire est nulle. Un nombre complexe
est nul si et et seulement si sa partie réelle et sa partie imaginaire sont nuls.
1.4. Calculs
Quelques définitions et calculs sur les nombres complexes.
λz
z
i
0
1
−z
Pour la preuve et le calcul on écrit z = a + i b puis on cherche z′ = a′ + i b′ tel que zz′ = 1. Autrement dit (a + i b)
(a′ + i b′)= 1. En développant et identifiant les parties réelles et imaginaires on obtient les équations
0 (L2)
NOMBRES COMPLEXES 1. LES NOMBRES COMPLEXES 43
En écrivant aL1+ bL2 (on multiplie la ligne (L1) par a, la ligne (L2) par b et on additionne) et −bL1+aL2 on en
déduit
a
a′ a donc ′ b′ a
b b′
L’inverse de z, noté 1z , est donc
z′ .
: z
• La division z′ est le nombre complexe z × z1′ .
z z n z
• Puissances : z2 = × z, zn = ×···× z (n fois, ∈ N). Par convention z0 = 1 et −
n
= 1z n = z1n .
Proposition 1.
Pour tout z ∈ C différent de 1
1 zn+1
1 + z + z2 +···+ zn = 1− z .
−
La preuve est simple : notons S = 1 + z + z2 + ··· + zn, alors en développant S · (1 − z) presque tous les termes se
Remarque.
Il n’y pas d’ordre naturel sur C, il ne faut donc jamais écrire z ⩾ 0 ou z ⩽ z′.
Le conjugué de z = a + i b est z¯ = a − i b, autrement dit Re(z¯)= Re(z) et Im(z¯)= − Im(z). Le point z¯ est le
Le module de z = a + i b est le réel positifp |z| = pa2 + b2. Comme z × z¯ =(a + i b)(a − i b)= a2 + b2 alors le module
z z = a+ib
i
0 |z |
b
1
z̄ 0 a
Quelques formules :
• z + z′ = z¯ + z′, z¯ = z, zz′ = z¯z′
• z ⇐⇒ z ∈ R
• |z| = z × z¯,|z¯| = |z|, zz′= |z||z′|
• |z| = 0 ⇐⇒ z = 0
z + z′⩽ |z |+z′
z +z′
′
z
|z + z ′ |
|z ′ |
z
|z |
0
+ z′)
NOMBRES COMPLEXES 1. LES NOMBRES COMPLEXES 45
z|+|z′|)2
Exemple 1.
Dans un parallélogramme, la somme des carrés des diagonales égale la somme des carrés des côtés.
Si les longueurs des côtés sont notées L et ℓ et les longueurs des diagonales sont D et d alors il s’agit de montrer
l’égalité
D2 + d2 = 2ℓ2 + 2L2. z +z′
|z − z ′ | |z |
L ′
z
|z + z | ′ |z ′ |
ℓ
d |z ′ |
ℓ D z
|z |
L 0
Démonstration. Cela devient simple si l’on considère que notre parallélogramme a pour sommets 0, z, z′ et le
dernier sommet est donc z + z′. La longueur du grand côté est ici |z|, celle du petit côté est |z′|. La longueur de la
grande diagonale est |z +z′|. Enfin il faut se convaincre que la longueur de la petite diagonale est |z − z′|.
= 2ℓ2 + 2L2
Mini-exercices.
1. Calculer 1 − 2 i +1−i2i. 2 3 4 8
⩽ ⩽ ⩽
5. Montrer que si | Re z| |2Re z′| et | Im z| | Im z′| alors |z| |z′|, mais que la réciproque est fausse.
−
Par exemple si x ∈ R+, on connaît deux racines carrées : x, x. Autre exemple : les racines carrées de 1
sont i et − i.
Proposition 3.
Soit z un nombre complexe, alors z admet deux racines carrées, ω et −ω.
Attention ! Contrairement au cas réel, il n’y a pas de façon privilégiée de choisir une racine plutôt que l’autre,
donc pas de fonction racine. On ne dira donc jamais « soit ω la racine de z ».
Si z ≠ 0 ces deux racines carrées sont distinctes. Si z = 0 alors ω= 0 est une racine double. Pour z = a
ω2 = z ⇐⇒ (x + i y)2 = a + i b
x2 − y2 = a en identifiant parties
⇐⇒ 2x y = b et parties imaginaires.
Petite astuce ici : nous rajoutons l’équationp |ω|2 = |z| (qui se déduit bien sûr de ω2 = z) qui s’écrit aussi
x2 + y2 = a2 + b2. Nous obtenons des systèmes équivalents aux précédents :
p ± p p
x2 − y2 = a ⇐⇒ 2x22 = pa22 + b22 +−a ⇐⇒ x = ±p1122 p pa22 + b22 +−a
x+y=a+b 2x y = b 2x y = b
Discutons suivant le signe du réel b. Si b ⩾ 0, x et y sont de même signe ou nuls (car 2x y = b ⩾ 0) donc
ω= ±p1 qpa2 + b2 + a + i qpa2 + b2 − a ,
2
et si b ⩽ 0
Il n’est pas nécessaire d’apprendre ces formules mais il est indispensable de savoir refaire les calculs.
Exemple 2.
En effet :
ω2 = i ⇐⇒ (x + i y)2 = i
⇐⇒ x2 − y2 = 0
2x y = 1
2
Rajoutons la conditions |ω| = | i | pour obtenir le système équivalent au précédent :
x2 − y2 = 0 2x2 = 1 x = ±
x+
Les réels x et y sont donc de même signe, nous trouvons bien deux solutions :
11 1 1 x + i y =+ i p ou x + i y = −p
−ip p
22 2 2
2. RACINES CARRÉES, ÉQUATION DU SECOND DEGRÉ
Proposition 4.
L’équation du second degré az2 + bz + c = 0, où a, b, c ∈ C et a ̸= 0, possède deux solutions z1, z2 ∈ C
éventuellement confondues.
Et sip∆= 0 alors la solution z = z1 = z2 = −b/2a est unique (elle est dite double). Si on s’autorisait à écrire δ= ∆, on
obtiendrait la même formule que celle que vous connaissez lorsque a, b, c sont réels.
Exemple 3.
1
1 i 3 • z2 + z + − ±
22(1 + i)
p −1 ± p2 (1 + i).
NOMBRES COMPLEXES 49
• z2 + z + 1 = 0, ∆= −3, δ= i p3, les solutions sont z = − ±2 p .
1 i =
− = 0, ∆= i, δ= p22(1 + i), les solutions sont z = 2 2 4
On retrouve aussi le résultat bien connu pour le cas des équations à coefficients réels :
Corollaire 1.
Si les coefficients a, b, c sont réels alors ∆ ∈ R et les solutions sont de trois types :
b
−
• si ∆= 0, la racine double est réelle −
et vaut a , • si ∆> 0, on a deux solutions réelles± , b
p2
∆
2a
b i ∆
= b 2 ∆ b 2 δ2 a z + 2a − 4a2 = a z + 2a − 4a2
b δ b δ
= a z + 2a − 2a z + 2a + 2a = a z − − z − − − = a (z − z1)(z − z2)
b +δ b δ
2a 2a
Donc le binôme s’annule si et seulement si z = z1 ou z = z2.
Théorème 1 (d’Alembert–Gauss).
Soit P(z) = anzn + an−1zn−1 + ··· + a1z + a0 un polynôme à coefficients complexes et de degré n. Alors
l’équation P(z)= 0 admet exactement n solutions complexes comptées avec leur multiplicité.
En d’autres termes il existe des nombres complexes z 1, . . . , zn (dont certains sont éventuellement
confondus) tels que
P(z)= an (z − z1)(z − z2)···(z − zn) .
6. Soit P(z)= anzn + an−1zn−1 +···+ a0 avec ai ∈ R pour tout i. Montrer que si z est racine de P alors z¯ aussi.
3. Argument et trigonométrie
3.1. Argument
Si z = x + i y est de module 1, alors x2 + y2 = |z|2 = 1. Par conséquent le point (x, y) est sur le cercle unité du plan, et
son abscisse x est notée cos θ, son ordonnée y est sin θ, où θ est (une mesure de) l’angle entre l’axe réel et z.
Définition 2.
Pour tout z, un nombre θ ∈ R tel que z = |z|(cos θ + i sin θ) est appelé un argument
de z et noté θ
iR
|z |
i
arg(z )
0 1 R
Cet argument est défini modulo 2π. On peut imposer à cet argument d’être unique si on rajoute la condition θ
∈]−π, +π].
Remarque.
θ ≡ θ′ (mod 2π) ⇐⇒ ∃k ∈
Z, θ =θ′ + 2kπ ⇐⇒
sincosθθ==sincosθ
θ′′
Proposition 5.
L’argument satisfait les propriétés suivantes :
Démonstration.
zz′ || ′
= zz′ ′
= zz′ cos θ +θ′ + i sin θ +θ′
donc arg zz′ ≡ arg(z)+ arg z′ (mod 2π). On en déduit les deux autres propriétés, dont la deuxième par récurrence.
= cos nθ + i sin nθ
z =ρeiθ
Et nous avons aussi : ρeiθ =ρ′eiθ′ (avec ρ, ρ′ > 0) si et seulement si ρ =ρ′ et θ ≡ θ′ (mod 2π).
Définition 3.
Pour z ∈ C et n ∈ N, une racine n-ième est un nombre ω ∈ C tel que ωn = z.
Proposition 6.
Il y a n racines n-ièmes ω0, ω1, . . . , ωn−1 de z =ρeiθ, ce sont :
k = 0, 1, . . . , n 1
ωk =ρ1/ne iθ+2nikπ ,
Démonstration. Écrivons z =ρeiθ et cherchons ω sous la forme ω= rei t tel que z =ωn. Nous obtenons donc ρeiθ =ωn =
rei tn = rneint. Prenons tout d’abord le module : rneint= rn et donc r =ρ1/n (il s’agit ici de nombres réels).
Pour les arguments nous avons eint = eiθ et donc nt ≡ θ (mod 2π) (n’oubliez surtout pas le modulo 2π !). Ainsi on
= 2k π
résout nt θ + 2kπ (pour k ∈ Z) et donc t n . Les solutions de l’équation ωn = z sont donc les ωk =ρ1/ne
+
iθ 2nikπ . Mais en fait il n’y a que n solutions distinctes car ωn =ω0, ωn+1 =ω1, . . .Ainsi les n solutions sont ω0, ω1, . . . ,
ωn−1.
Par exemple pour z = 1, on obtient les n racines n-ièmes de l’unité e2ikπ/n, k = 0, . . . , n − 1 qui forment un groupe
multiplicatif.
2 i π/3 i i
j=e e
i π/3
0 1 = e0 −1 = e i π
0 1
2 4 i π/3 − i π/3
j =e e
i e
2 i π/5
4 i π/5
e
0 1
6 i π/5
e
8 i π/5
e
Méthode : on utilise la formule de Moivre pour écrire cos (nθ)+ i sin (nθ) = (cos θ + i sin θ)n que l’on développe
avec la formule du binôme de Newton.
Exemple 4.
Linéarisation. On exprime cosn θ ou sinn θ en fonction des cos kθ et sin kθ pour k allant de 0 à n.
eiθ n
Méthode : avec la formule d’Euler on écrit sinn θ = e
−2 i−iθ . On développe à l’aide du binôme de Newton puis on
Exemple 5.
3
1 iθ 3 − (eiθ)2e−iθ + 3eiθ(e−iθ)2 −(e−iθ)3
= −8 i (e )
= −8 i e
Mini-exercices.
1. Mettre les nombres suivants sont la forme module-argument (avec la notation exponentielle) : 1, i,
−1, − i, 3 i, 1 + i, p3 − i, p3 − i, p31−i, (p3 − i)20xx où 20x x est l’année en cours.
3. Calculer les racines carrées de p23 + 2i de deux façons différentes. En déduire les valeurs de cos et sin .
+
4. Donner sans calcul la valeur de ω0 +ω1 ···+ωn−1, où les ωi sont les racines n-ième de 1.
Écrivons z = x + i y ∈ C, alors −
z + z¯ z z¯
x=2 , y=2i ,
donc D a aussi pour équation a(z + z¯) − i b(z − z¯) = 2c ou encore (a − i b)z +(a + i b)z¯ = 2c. Posons ω= a + i b ∈
ω¯z +ωz¯ = k
où ω ∈ C∗ et k ∈ R.
C
r
D
ω
i i
0 1 0 1
et en développant nous trouvons que l’équation complexe du cercle centré en un point d’affixe ω et de rayon r
est :
NOMBRES COMPLEXES 57
2 2
zz¯ −ω¯z −ωz¯ = r −|ω |
où ω ∈ C et r ∈ R.
Proposition 7.
Soit A, B deux points du plan et k ∈ R+. L’ensemble des points M tel que MBMA = k est
Exemple 6.
Prenons A le point d’affixe +1,B le point d’affixe −1. Voici les figures pour plusieurs valeurs de k.
B A
1
k=3 k= 3
1
k=2 k= 2
4 3
k= 3 k=1 k= 4
a| = k |z − b
Donc si k = 1, on pose ω = a − k2b et l’équation obtenue zω¯ + z¯ω = |a|2 − k2|b|2 est bien celle d’une droite. Et
= =
bien sûr l’ensemble des points qui vérifienta k2b MA a 2MBk2 best la médiatrice de2 [AB]. Si k ̸ 1 on pose
NOMBRES COMPLEXES 58
ω= 1−−k2 alors l’équation obtenue est2 −|ω|2 = −z|az¯|12−−+kkz22|ωb¯|2−, soitz¯ω=r2−=| |1|(a−+1−−kk2k2|2b)||22. C’est
Ces calculs se refont au cas par cas, il n’est pas nécessaire d’apprendre les formules.
Mini-exercices.
1. Calculer l’équation complexe de la droite passant par 1 et i.
2. Calculer l’équation complexe du cercle de centre 1 + 2 i passant par i.
3. Calculer l’équation complexe des solutions | de|z −−1|| = 1, puis dessiner les solutions. z i 4.
z i
4
Arithmétique
Préambule
Une motivation : l’arithmétique est au cœur du cryptage des communications. Pour crypter un message on
commence par le transformer en un –ou plusieurs– nombres. Le processus de codage et décodage fait appel à
plusieurs notions de ce chapitre :
• On choisit deux nombres premiers p et q que l’on garde secrets et on pose n = p × q. Le principe étant que
même connaissant n il est très difficile de retrouver p et q (qui sont des nombres ayant des centaines de
chiffres).
• La clé secrète et la clé publique se calculent à l’aide de l’algorithme d’Euclide et des coefficients de Bézout.
• Les calculs de cryptage se feront modulo n.
• Le décodage fonctionne grâce à une variante du petit théorème de Fermat.
Définition 1.
Soient a, b ∈ Z. On dit que b divise a et on note b|a s’il existe q ∈ Z tel que
a = bq.
Exemple 1.
• 7|21 ; 6|48 ; a est pair si et seulement si 2|a.
a = bq + r et 0⩽r<b
6789 = 34 × 199 + 23
On a bien 0 ⩽ 23 < 34 (sinon c’est que l’on n’a pas été assez loin dans les calculs).
34 6789
diviseur
dividende
199 quotient
reste
Démonstration.
Existence. On peut supposer a ⩾ 0 pour simplifier. Soit N =n ∈ N | bn ⩽ a . C’est un ensemble non vide
car n = 0 ∈ N . De plus pour n ∈ N , on a n ⩽ a. Il y a donc un nombre fini d’éléments dans N , notons q = max N
qb ⩽ a <(q + 1)b = qb + b.
Unicité. Supposons que q′, r′ soient deux entiers qui vérifient les conditions du théorème. Tout d’abord a = bq + r
= bq′ + r′ et donc b(q − q′)= r′ − r. D’autre part 0 ⩽ r′ < b et 0 ⩽ r < b donc −b < r′ − r < b
ARITHMÉTIQUE 62
(notez au passage la manipulation des inégalités). Mais r − r = b(q−q′) donc on obtient −b < b(q−q′)< b. On peut
′
diviser par b > 0 pour avoir −1 < q − q′ < 1. Comme q − q′ est un entier, la seule possibilité est q − q′ = 0 et donc q =
Définition 2.
Soient a, b ∈ Z deux entiers, non tous les deux nuls. Le plus grand entier qui divise à la fois a et b
Exemple 3.
• pgcd(21, 14)= 7, pgcd(12, 32)= 4, pgcd(21, 26)= 1.
• pgcd(a, ka)= a, pour tout k ∈ Z et a ⩾ 0.
Lemme 1.
Soient a, b ∈ N∗. Écrivons la division euclidienne a = bq + r. Alors
En fait on a même pgcd(a, b)= pgcd(b, a − qb) pour tout q ∈ Z. Mais pour optimiser l’algorithme d’Euclide on
Démonstration. Nous allons montrer que les diviseurs de a et de b sont exactement les mêmes que les diviseurs
de b et r. Cela impliquera le résultat car les plus grands diviseurs seront bien sûr les mêmes.
• Soit d un diviseur de a et de b. Alors d divise b donc aussi bq, en plus d divise a donc d divise a− bq = r.
Algorithme d’Euclide.
On souhaite calculer le pgcd de a, b ∈ N∗. On peut supposer a ⩾ b. On calcule des divisions euclidiennes
• division de a par b, a = bq1+r1. Par le lemme 1, pgcd(a, b)= pgcd(b, r1) et si r1 = 0 alors pgcd(a, b)= b sinon on
continue :
• b = r1q2 + r2, pgcd(a, b)= pgcd(b, r1)= pgcd(r1, r2),
ARITHMÉTIQUE 63
• r1 = r2q3 + r3, pgcd(a, b)= pgcd(r2, r3),
• ...
Comme à chaque étape le reste est plus petit que le quotient on sait que 0 ⩽ ri+1 < ri. Ainsi l’algorithme se termine
car nous sommes sûrs d’obtenir un reste nul, les restes formant une suite décroissante d’entiers positifs ou nuls :
b > r1 > r2 > ··· ⩾ 0.
Exemple 4.
Calculons le pgcd de a = 600 et b = 124.
124 = 104 × 1+ 20
20 = 4 × 5 + 0
104 = 20 × 5 + 4
Ainsi pgcd(600, 124)= 4.
Voici un exemple plus compliqué :
Exemple 5.
Calculons pgcd(9945, 3003).
9945 = 3003 × 3 + 936
3003 = 936 × 3 + 195
936 = 195 × 4 + 156
195 = 156 × 1 + 39
156 = 39 × 4 + 0
Ainsi pgcd(9945, 3003)= 39.
ARITHMÉTIQUE 2. THÉORÈME DE BÉZOUT 64
Définition 3.
Deux entiers a, b sont premiers entre eux si pgcd(a, b)= 1.
Exemple 6.
Pour tout a ∈ Z, a et a + 1 sont premiers entre eux. En effet soit d un diviseur commun à a et à a + 1. Alors d
divise aussi a + 1 − a. Donc d divise 1 mais alors d = −1 ou d =+1. Le plus grand diviseur de a et a + 1 est donc 1. Et
Si deux entiers ne sont pas premiers entre eux, on peut s’y ramener en divisant par leur pgcd :
Exemple 7.
Pour deux entiers quelconques a, b ∈ Z, notons d = pgcd(a, b). La décomposition suivante est souvent utile :
= a′d
ab avec a′, b′ ∈ Z et pgcd(a′, b′)= 1
= b′d
Mini-exercices.
1. Écrire la division euclidienne de 111 111 par 20x x, où 20x x est l’année en cours.
2. Montrer qu’un diviseur positif de 10 008 et de 10 014 appartient nécessairement à {1, 2, 3, 6}.
4. Trouver tous les entiers 1 ⩽ a ⩽ 50 tels que a et 50 soient premiers entre eux. Même question avec 52.
2. Théorème de Bézout
au + bv = pgcd(a, b)
La preuve découle de l’algorithme d’Euclide. Les entiers u, v ne sont pas uniques. Les entiers u, v sont des
coefficients de Bézout. Ils s’obtiennent en « remontant » l’algorithme d’Euclide.
Exemple 8.
Calculons les coefficients de Bézout pour a = 600 et b = 124. Nous reprenons les calculs effectués pour trouver
pgcd(600, 124)= 4. La partie gauche est l’algorithme d’Euclide. La partie droite s’obtient de bas en haut. On
exprime le pgcd à l’aide de la dernière ligne où le reste est non nul. Puis on remplace le reste de la ligne
précédente, et ainsi de suite jusqu’à arriver à la première ligne.
ARITHMÉTIQUE 2. THÉORÈME DE BÉZOUT 65
600 6 124 29
600 = 124 × 4 + 1044 = ×× −+ ×(−− ) × × 124 ( 5)+(600
124 4) 6
124 5 104 6
124 = 104 × 1 + 204 = ×−(− )+− ×× ×
104 = 20 × 5 + 44 = 104 − 20 × 5
20 = 4 ×5+0
Ainsi pour u = 6 et v = −29 alors 600 × 6 + 124 ×(−29)= 4.
Remarque.
• Soignez vos calculs et leur présentation. C’est un algorithme : vous devez aboutir au bon résultat ! Dans la
partie droite, il faut à chaque ligne bien la reformater. Par exemple 104 −(124 − 104 × 1)× 5 se réécrit en 124
• N’oubliez pas de vérifier vos calculs ! C’est rapide et vous serez certains que vos calculs sont exacts. Ici on
vérifie à la fin que 600 × 6 + 124 ×(−29)= 4.
Exemple 9.
Calculons les coefficients de Bézout correspondant à pgcd(9945, 3003)= 39.
9945 = 3003 × 3 + 93639 = 9945 ×(−16)+ 3003 × 53
156 = 39 ×4+0
Corollaire 1.
Si d|a et d|b alors d| pgcd(a, b).
Exemple : 4|16 et 4|24 donc 4 doit diviser pgcd(16, 24) qui effectivement vaut 8.
Démonstration. Comme d|au et d|bv donc d|au + bv. Par le théorème de Bézout d| pgcd(a, b).
Corollaire 2.
Soient a, b deux entiers. a et b sont premiers entre eux si et seulement si il existe u, v ∈ Z tels que
ARITHMÉTIQUE 2. THÉORÈME DE BÉZOUT 66
au + bv = 1
Pour le sens ⇐ on suppose qu’il existe u, v tels que au + bv = 1. Comme pgcd(a, b)|a alors pgcd(a, b)|au. De
Remarque.
Si on trouve deux entiers u′, v′ tels que au′ + bv′ = d, cela n’implique pas que d = pgcd(a, b). On sait seulement
alors que pgcd(a, b)|d. Par exemple a = 12, b = 8 ; 12 × 1 + 8 × 3 = 36 et pgcd(a, b)= 4.
Démonstration. Comme pgcd(a, b)= 1 alors il existe u, v ∈ Z tels que au+ bv = 1. On multiplie cette égalité par c
pour obtenir acu + bcv = c. Mais a|acu et par hypothèse a|bcv donc a divise acu + bcv = c.
ax by
2.3. Équations + =c
Proposition 1.
Considérons l’équation
ax + b y = c (E)
où a, b, c ∈ Z.
2. Si pgcd(a, b)|c alors il existe même une infinité de solutions entières et elles sont exactement les (x, y)= (x0
Le premier point est une conséquence du théorème de Bézout. Nous allons voir sur un exemple comment
prouver le second point et calculer explicitement les solutions. Il est bon de refaire toutes les étapes de la
démonstration à chaque fois.
Exemple 10.
Trouver les solutions entières de
161x + 368y = 115 (E)
• Première étape. Y a-t-il des solutions? L’algorithme d’Euclide. On effectue l’algorithme d’Euclide pour
calculer le pgcd de a = 161 et b = 368.
368 = 161 × 2 + 46
ARITHMÉTIQUE 2. THÉORÈME DE BÉZOUT 67
161 = 46 × 3 + 23
46 = 23 × 2+0
Donc pgcd(368, 161)= 23. Comme 115 = 5 × 23 alors pgcd(368, 161)|115. Par le théorème de Bézout,
• Deuxième étape. Trouver une solution particulière : la remontée de l’algorithme d’Euclide. On effectue la
remontée de l’algorithme d’Euclide pour calculer les coefficients de Bézout.
161 )
368 = 161 × 2 + 463)
161 = 46 × 3 + 23 − ×
46 = 23 × 2+0
On trouve donc 161 × 7 + 368 ×(−3)= 23. Comme 115 = 5 × 23 en multipliant par 5 on obtient :
• Troisième étape. Recherche de toutes les solutions. Soit (x, y) ∈ Z2 une solution de (E). Nous savons que (x0,
(on n’a aucun intérêt à remplacer x0 et y0 par leurs valeurs). La différence de ces deux égalités conduit à
Nous avons simplifié par 23 qui est le pgcd de 161 et 368. (Attention, n’oubliez surtout pas cette
simplification, sinon la suite du raisonnement serait fausse.)
Ainsi 7|16(y − y0), or pgcd(7, 16)= 1 donc par le lemme de Gauss 7|y − y0. Il existe donc k ∈ Z tel que y − y0 = 7
7(x − x0)= −16 × 7 × k. D’où x − x0 = −16k. (C’est le même k pour x et pour y.) Nous avons donc
(x, y) = (x0 − 16k, y0 + 7k). Il n’est pas dur de voir que tout couple de cette forme est solution de l’équation (E).
Il reste donc juste à substituer (x0, y0) par sa valeur et nous obtenons :
Les solutions entières de 161x + 368y = 115 sont les (x, y)=(35 − 16k, −15 + 7k), k parcourant Z.
ARITHMÉTIQUE 2. THÉORÈME DE BÉZOUT 68
Pour se rassurer, prenez une valeur de k au hasard et vérifiez que vous obtenez bien une solution de l’équation.
2.4. ppcm
Définition 4.
Le ppcm(a, b) (plus petit multiple commun) est le plus petit entier ⩾ 0 divisible par a et par b.
Démonstration. Posons d = pgcd(a, b) et m = pgcd|ab(a|,b). Pour simplifier on suppose a > 0 et b > 0. On écrit a = da′
et b = d b′. Alors ab = d2a′b′ et donc m = da′b′. Ainsi m = ab′ = a′b est un multiple de a et de b. Il reste à montrer
que c’est le plus petit multiple. Si n est un autre multiple de a et de b alors n = ka =ℓb donc kda′ =ℓd b′ et ka′ =ℓb′.
Or pgcd(a′, b′)= 1 et a′|ℓb′ donc a′|ℓ. Donc a′b|ℓb et ainsi m = a′b|ℓb = n.
Voici un autre résultat concernant le ppcm qui se démontre en utilisant la décomposition en facteurs premiers :
Proposition 3.
Si a|c et b|c alors ppcm(a, b)|c.
Il serait faux de penser que ab|c. Par exemple 6|36, 9|36 mais 6×9 ne divise pas 36. Par contre ppcm(6, 9)= 18
Mini-exercices.
1. Calculer les coefficients de Bézout correspondant à pgcd(560, 133), pgcd(12 121, 789).
4. Trouver les couples (a, b) vérifiant pgcd(a, b)= 12 et ppcm(a, b)= 360.
ARITHMÉTIQUE 69
3. NOMBRES PREMIERS
3. Nombres premiers
Les nombres premiers sont –en quelque sorte– les briques élémentaires des entiers : tout entier s’écrit comme
produit de nombres premiers.
Définition 5.
Un nombre premier p est un entier ⩾ 2 dont les seuls diviseurs positifs sont 1 et p.
Lemme 2.
Tout entier n ⩾ 2 admet un diviseur qui est un nombre premier.
D =k ⩾ 2 | k|n .
Supposons, par l’absurde, que p ne soit pas un nombre premier alors p admet un diviseur q tel que 1 < q < p mais
alors q est aussi un diviseur de n et donc q ∈ D avec q < p. Ce qui donne une contradiction car p est le minimum.
Proposition 4.
Il existe une infinité de nombres premiers.
Démonstration. Par l’absurde, supposons qu’il n’y ait qu’un nombre fini de nombres premiers que l’on note p1 =
2, p2 = 3, p3,. . ., pn. Considérons l’entier N = p1 × p2 × ··· × pn + 1. Soit p un diviseur premier de N (un tel p existe par
le lemme précédent), alors d’une part p est l’un des entiers pi donc p|p1 ×···× pn, d’autre part p|N donc p divise la
différence N − p1 ×···× pn = 1. Cela implique que p = 1, ce qui contredit que p soit un nombre premier.
Cette contradiction nous permet de conclure qu’il existe une infinité de nombres premiers.
suivants de
diviseurs que 1 et 2 et est donc premier. On entoure 2. Ensuite on raye (ici en grisé) tous les multiples
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
diviseur plus
Le premier nombre restant de la liste est 3 et est nécessairement premier : il n’est pas divisible par un
petit (sinon il serait rayé). On entoure 3 et on raye tous les multiples de 3 (6, 9, 12, . . .).
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
Le premier nombre restant est 5 et est donc premier. On raye les multiples de 5.
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
3. NOMBRES PREMIERS
7 est donc premier, on raye les multiples de 7 (ici pas de nouveaux nombres à barrer). Ainsi de suite :
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 11, 13, 17, 19, 23 sont premiers.
Remarque.
⩽
Si un nombrep n pn’est pas premier alors un de ses facteurs est pn. En effet si n = a × b avec a, b ⩾ 2 alors a
⩽ ⩽
n ou b n (réfléchissez par l’absurde !). Par exemple pour tester si un nombre ⩽ 100 est premier il suffit de
tester les diviseurs ⩽ 10. Et comme il suffit de tester les diviseurs premiers, il suffit en fait de tester la divisibilité
par 2, 3, 5 et 7. Exemple : 89 n’est pas divisible par 2, 3, 5, 7 et est donc un nombre premier.
Démonstration. Si p ne divise pas a alors p et a sont premiers entre eux (en effet les diviseurs de p sont 1 et p,
mais seul 1 divise aussi a, donc pgcd(a, p)= 1). Ainsi par le lemme de Gauss p|b.
Exemple 11.
La preuve se fait par l’absurde : écrivons pp = ab avec a ∈ Z, b ∈ N∗ et pgcd(a, b)= 1. Alors p = ab2 donc pb2 = a2.
Ainsi p|a22 donc par le lemme d’Euclide2 2 p|a2. On peut alors écrire a = pa′ avec a′ un entier. De l’équation pb2 = a
ARITHMÉTIQUE 71
on tire alors b = pa′ . Ainsi p|b et donc p|b. Maintenantp p|a et p|b donc a et b ne sont pas premiers entre eux.
Théorème 3.
Soit n ⩾ 2 un entier. Il existe des nombres premiers p 1 < p2 < ··· < pr et des exposants entiers α1, α2, . . . , αr ⩾
1 tels que :
Remarque.
La principale raison pour laquelle on choisit de dire que 1 n’est pas un nombre premier, c’est que sinon il n’y
aurait plus unicité de la décomposition : 24 = 23 × 3 = 1 × 23 × 3 = 12 × 23 × 3 = ···
Démonstration.
Existence. Nous allons démontrer l’existence de la décomposition par une récurrence sur n.
L’entier n = 2 est déjà décomposé. Soit n ⩾ 3, supposons que tout entier < n admette une décomposition en
facteurs premiers. Notons p1 le plus petit nombre premier divisant n (voir le lemme 2). Si n est un nombre
premier alors n = p1 et c’est fini. Sinon on définit l’entier n′ = pn1 < n et on applique notre hypothèse de récurrence
à n′ qui admet une décomposition en facteurs premiers. Alors n = p1 × n′ admet aussi une décomposition.
Unicité. Nous allons démontrer qu’une telle décomposition est unique en effectuant cette fois une récurrence
Pr
sur la somme des exposants σ= i =1 α i.
Si σ= 1 cela signifie n = p1 qui est bien l’unique écriture possible.
Soit σ⩾ 2. On suppose que les entiers dont la somme des exposants est <σ ont une unique décomposition.
Soit n un entier dont la somme des exposants vaut σ. Écrivons le avec deux décompositions :
Si p1 < q1 alors p1 < qj pour tous les j = 1, . . . , s. Ainsi p1 divise p1α × p2α ×···× pαr = n mais ne divise pas q1β1 × q2β2 ×···×
Si p1 > q1 un même raisonnement conduit aussi à une contradiction. On conclut que p1 = q1. On pose alors
ARITHMÉTIQUE 4. CONGRUENCES 72
n′ = pn1 = p1α1−1 × p2α2 ×···× pαr r = q1β1−1 × q2β2 ×···× qsβs
L’hypothèse de récurrence qui s’applique à n′ implique que ces deux décompositions sont les mêmes. Ainsi r = s
et pi = qi, αi =βi, i = 1, . . . , r.
Exemple 12.
Le pgcd est le nombre obtenu en prenant le plus petit exposant de chaque facteur premier :
Mini-exercices.
1. Montrer que n!+1 n’est divisible par aucun des entiers 2, 3, . . . , n. Est-ce toujours un nombre premier ?
3. Décomposer a = 2 340 et b = 15 288 en facteurs premiers. Calculer leur pgcd et leur ppcm.
ppcm(a, b)= a × b.
4. Congruences
4.1. Définition
Définition 6.
Soit n ⩾ 2 un entier. On dit que a est congru à b modulo n, si n divise b − a. On note alors
a ≡ b (mod n).
a ≡ b (mod n) ⇐⇒ ∃k∈
Z a = b + kn.
ARITHMÉTIQUE 73
Remarquez que n divise a si et seulement si a ≡ 0 (mod n).
ARITHMÉTIQUE 4. CONGRUENCES 74
Proposition 6.
1. La relation « congru modulo n » est une relation d’équivalence :
• (Réflexivité) a ≡ a (mod n),
Exemple 13.
• 15 ≡ 1 (mod 7), 72 ≡ 2 (mod 7), 3 ≡ −11 (mod 7), • 5x + 8 ≡ 3 (mod 5) pour tout x
∈ Z,
Démonstration.
1. Utiliser la définition.
2. Idem.
3. Prouvons la propriété multiplicative : a ≡ b (mod n) donc il existe k ∈ Z tel que a = b + kn et c ≡ d (mod n) donc
il existe ℓ ∈ Z tel que c ≡ d +ℓn. Alors a × c =(b + kn)×(d +ℓn)= bd +(bℓ+ dk + kℓn)n qui est bien de la forme bd
4. C’est une conséquence du point précédent : avec a = c et b = d on obtient a2 ≡ b2 (mod n). On continue par
récurrence.
Exemple 14.
Critère de divisibilité par 9.
Pour prouver cela nous utilisons les congruences. Remarquons d’abord que 9|N équivaut à N ≡ 0 (mod 9) et
notons aussi que 10 ≡ 1 (mod 9), 102 ≡ 1 (mod 9), 103 ≡ 1 (mod 9),...
Nous allons donc calculer N modulo 9. Écrivons N en base 10 : N = ak ··· a2a1a0 (a0 est le chiffre des
+
unités, a1 celui des dizaines,...) alors N = 10kak ···+ 102a2 + 101a1 + a0. Donc
+
N = 10kak ···+ 102a2 + 101a1 + a0
≡ ak +···+ a2 + a1 + a0 (mod 9)
Donc N est congru à la somme de ses chiffres modulo 9. Ainsi N ≡ 0 (mod 9) si et seulement si la somme des
Voyons cela sur un exemple : N = 488 889. Ici a0 = 9 est le chiffre des unités, a1 = 8 celui des dizaines,...
Cette écriture décimale signifie N = 4 · 105 + 8 · 104 + 8 · 103 + 8 · 102 + 8 · 10 + 9.
≡ 4 + 8 + 8 + 8 + 8 + 9 (mod 9)
≡ 9 (mod 9)
≡ 0 (mod 9)
Ainsi nous savons que 488 889 est divisible par 9 sans avoir effectué de division euclidienne.
Remarque.
Pour trouver un « bon » représentant de a (mod n) on peut aussi faire la division euclidienne de a par n : a = bn +
r alors a ≡ r (mod n) et 0 ⩽ r < n.
Exemple 15.
Les calculs bien menés avec les congruences sont souvent très rapides. Par exemple on souhaite calculer 2 21
(mod 37) (plus exactement on souhaite trouver 0 ⩽ r < 37 tel que 221 ≡ r (mod 37)). Plusieurs méthodes :
1. On calcule 221, puis on fait la division euclidienne de 221 par 37, le reste est notre résultat. C’est laborieux !
2. On calcule successivement les 2k modulo 37 : 21 ≡ 2 (mod 37), 22 ≡ 4 (mod 37), 23 ≡ 8 (mod 37),
24 ≡ 16 (mod 37), 25 ≡ 32 (mod 37). Ensuite on n’oublie pas d’utiliser les congruences : 26 ≡ 64 ≡ 27 (mod 37). 27
≡ 2 · 26 ≡ 2 · 27 ≡ 54 ≡ 17 (mod 37) et ainsi de suite en utilisant le calcul précédent à chaque étape. C’est assez
ARITHMÉTIQUE 4. CONGRUENCES 76
efficace et on peut raffiner : par exemple on trouve 28 ≡ 34 (mod 37) mais donc aussi 28 ≡ −3 (mod 37) et donc
3. Il existe une méthode encore plus efficace, on écrit l’exposant 21 en base 2 : 21 = 2 4+22+20 = 16+4+1. Alors 221
calculer successivement
chacun de ces termes car les exposants sont des puissances de 2. Ainsi 3)2 ≡ 9
Proposition 7.
Soit a ∈ Z∗, b ∈ Z fixés et n ⩾ 2. Considérons l’équation ax ≡ b (mod n) d’inconnue x ∈ Z :
2. Les solutions sont de la forme x Z où x0 est une solution particulière. Il existe donc
pgcd(a, n) classes de solutions.
Exemple 16.
Résolvons l’équation 9x ≡ 6 (mod 24). Comme pgcd(9, 24) = 3 divise 6 la proposition ci-dessus nous affirme qu’il
existe des solutions. Nous allons les calculer. (Il est toujours préférable de refaire rapidement les calculs que
d’apprendre la formule). Trouver x tel que 9x ≡ 6 (mod 24) est équivalent à trouver x et k tels que 9x = 6 + 24k.
Mis sous la forme 9x − 24k = 6 il s’agit alors d’une équation que nous avons étudiée en détails (voir section 2.3). Il
y a bien des solutions car pgcd(9, 24)= 3 divise 6. En divisant par le pgcd on obtient l’équation équivalente :
3x − 8k = 2.
Pour le calcul du pgcd et d’une solution particulière nous utilisons normalement l’algorithme d’Euclide et sa
remontée. Ici il est facile de trouver une solution particulière (x0 = 6, k0 = 2) à la main.
On termine comme pour les équations de la section 2.3. Si (x, k) est une solution de 3x − 8k = 2 alors par
soustraction on obtient 3(x − x0)− 8(k − k0)= 0 et on trouve x = x0 + 8ℓ, avec ℓ ∈ Z (le terme k ne nous intéresse
pas). Nous avons donc trouvé les x qui sont solutions de 3x − 8k = 2, ce qui équivaut à 9x − 24k = 6, ce qui
équivaut encore à 9x ≡ 6 (mod 24). Les solutions sont de la forme x = 6 + 8ℓ. On préfère les regrouper en 3
classes modulo 24 :
ARITHMÉTIQUE 4. CONGRUENCES 77
Remarque.
Expliquons le terme de « classe » utilisé ici. Nous avons considéré ici que l’équation 9x ≡ 6 (mod 24) est une
équation d’entiers. On peut aussi considérer que 9, x, 6 sont des classes d’équivalence modulo 24, et l’on
x1 = 6, x2 = 14, x3 = 22.
Démonstration.
1.
⇐⇒ ∃k ∈ Z ax = b + kn
⇐⇒ ∃k ∈ Z ax − kn = b
Nous avons juste transformé notre équation ax ≡ b (mod n) en une équation ax − kn = b étudiée auparavant
2. Supposons qu’il existe des solutions. Nous allons noter d = pgcd(a, n) et écrire a = da′, n = dn′ et b = d b′ (car par
le premier point d|b). L’équation ax−kn = b d’inconnues x, k ∈ Z est alors équivalente à l’équation a′x −kn′ = b′,
notée (⋆). Nous savons résoudre cette équation (voir de nouveau la proposition 1), si (x0, k0) est une solution
particulière de (⋆) alors on connaît tous les (x, k) solutions. En particulier x = x0 +ℓn′ avec ℓ ∈ Z (les k ne nous
ap ≡ a (mod p)
ARITHMÉTIQUE 4. CONGRUENCES 78
Corollaire 4. Si p ne
divise pas a alors
ap−1 ≡ 1 (mod p)
Lemme 3.
Démonstration. kp= k!(pp−p! kdivise l’un des facteurs de)! donc p! = k!(p − k)! kp. Ainsik! mais il sont tousp|k!(p − k)!
• Fixons a ⩾ 0 et supposons que ap ≡ a (mod p). Calculons (a + 1)p à l’aide de la formule du binôme de Newton :
p 1
Réduisons maintenant modulo p :
• Par le principe de récurrence nous avons démontré le petit théorème de Fermat pour tout a ⩾ 0. Il n’est pas
dur d’en déduire le cas des a ⩽ 0.
Exemple 17.
Calculons 143141 (mod 17). Le nombre 17 étant premier on sait par le petit théorème de Fermat que 14 16 ≡ 1 (mod
3141 = 16 × 196 + 5.
Alors
143141 ≡ 1416×196+5 ≡ 1416×196 × 145
ARITHMÉTIQUE 4. CONGRUENCES 79
× ×
≡ 145 (mod 17)
Il ne reste plus qu’à calculer 145 modulo 17. Cela peut se faire rapidement : 14 ≡ −3 (mod 17) donc 142 ≡
Mini-exercices.
1. Calculer les restes modulo 10 de 122+455, 122×455, 122455. Mêmes calculs modulo 11, puis modulo 12.
2. Prouver qu’un entier est divisible par 3 si et seulement si la somme de ses chiffres est divisible par 3.
3. Calculer 310 (mod 23).
5
Polynômes
Motivation
Les polynômes sont des objets très simples mais aux propriétés extrêmement riches. Vous savez déjà résoudre
les équations de degré 2 : aX 2 + bX + c = 0. Savez-vous que la résolution des équations de degré 3, aX 3 + bX 2 + cX
+ d = 0, a fait l’objet de luttes acharnées dans l’Italie du XVIe siècle ? Un concours était organisé avec un prix pour
chacune de trente équations de degré 3 à résoudre. Un jeune italien, Tartaglia, trouve la formule générale des
solutions et résout les trente équations en une seule nuit ! Cette méthode que Tartaglia voulait garder secrète
sera quand même publiée quelques années plus tard comme la « méthode de Cardan ».
Dans ce chapitre, après quelques définitions des concepts de base, nous allons étudier l’arithmétique des
polynômes. Il y a une grande analogie entre l’arithmétique des polynômes et celles des entiers. On continue avec
un théorème fondamental de l’algèbre : « Tout polynôme de degré n admet n racines complexes. » On termine
avec les fractions rationnelles : une fraction rationnelle est le quotient de deux polynômes.
1. Définitions
1.1. Définitions
Définition 1.
Un polynôme à coefficients dans K est une expression de la forme
est 0.
Exemple 1.
• X 3 − 5X + est un polynôme de degré 3.
• Égalité. Soient P = anX n + an−1.X n−1 + ··· + a1X + a0 et Q = bnX n + bn−1X n−1 + ··· + b1X + b0 deux polynômes à
coefficients dans K
P=Q ⇐⇒ ∀i ai = bi
On définit :
P + Q =(an + bn)X n +(an 1 + b −1)X n−1 +···+(a1 + b1)X
+(a0 + b0)
+
• Multiplication. Soient P = anX nbmX m + bm−1X m−1 ···+ b1X + b0.
On définit
P × Q = crX r + cr−X1X r−1 +···+ c1X + c0 avec r = n + m et ck =
i+j=k
• Multiplication par un scalaire. Si λ ∈ K alors λ· P est le polynôme dont le i-ème coefficient est λai.
Exemple 2.
• Soient P = aX 3 + bX 2 + cX + d et Q =αX 2 +βX +γ. Alors P +Q = aX 3 +(b +α)X 2 +(c +β)X +(d +γ), P ×Q =(aα)X 5 +
(aβ+ bα)X 4 +(aγ+ bβ+ cα)X 3 +(bγ+ cβ+ dα)X 2 +(cγ+ dβ)X + dγ. Enfin P = Q si et seulement si a = 0, b =α, c =β
et d =γ.
• 0 + P = P, P + Q = Q + P, (P + Q)+ R = P +(Q + R) ;
• 1 · P = P, P × Q = Q × P, (P × Q)× R = P ×(Q × R) ;
• P ×(Q + R)= P × Q + P × R.
Définition 2.
• Les polynômes comportant un seul terme non nul (du type akX k) sont appelés monômes.
• Soit P = anX n + an−1X n−1 +···+ana1est appelé leX + a0, un polynôme aveccoefficient dominantan ≠ 0. On
Exemple 3.
P(X )=(X − 1)(X n + X n−1 +···+ X + 1). On développe cette expression : P(X )= X n+1 + X n +···+ X 2 + X − X n + X n−1 +···+ X +
1= X n+1 − 1. P(X ) est donc un polynôme de degré n + 1, il est unitaire et est somme de deux monômes : X n+1 et
−1.
Remarque.
Tout polynôme est donc une somme finie de monômes.
Mini-exercices.
1. Soit P(X )= 3X 3 −2, Q(X )= X 2 + X −1, R(X )= aX + b. Calculer P +Q, P ×Q, (P +Q)×R et P ×Q ×R.
4. Montrer que si deg P ̸= degQ alors deg(P + Q)= max(deg P, degQ). Donner un contre-exemple dans le cas où
deg P = degQ.
+
5. Montrer que si P(X )= X n + an−1X n−1 ··· alors le coefficient devant X n−1 de P(X − ann−1 ) est nul.
Définition 3.
Soient A, B ∈ K[X ], on dit que B divise A s’il existe Q ∈ K[X ] tel que A = BQ. On note alors B|A.
Proposition 3.
Soient A, B, C ∈ K[X ].
Q est appelé le quotient et R le reste et cette écriture est la division euclidienne de A par B.
Notez que la condition deg R < deg B signifie R = 0 ou bien 0 ⩽ deg R < deg B.
Si n ⩾ m on écrit A = B · n m
bm X − + A1 avec deg A1 ⩽ n − 1. On applique l’hypothèse de récurrence à
A1 : il existe Q1, R1 ∈ K[X ] tels que A1 = BQ1 + R1 et deg R1 < deg B. Il vient :
a
A=B bmn X n−m + Q1+ R1.
Exemple 4.
On pose une division de polynômes comme on pose une division euclidienne de deux entiers. Par exemple si A =
qu’effectivement A = BQ + R.
2
2X 4 − X 3 − 2X 2 + 3X − 1 X −X +1
− 2X 4 − 2X 3 + 2X 2
3 2 2
X − 4X + 3X − 1 2X + X − 3
− 3 2
X − X + X
−3 X 2 + 2 X − 1
− −3 X 2 + 3 X − 3
−X + 2
Exemple 5.
Pour X 4 − 3X 3 + X + 1 divisé par X 2 + 2 on trouve un quotient égal à X 2 − 3X − 2 et un reste égale à 7X + 5.
POLYNÔMES 2. ARITHMÉTIQUE DES POLYNÔMES 85
4 3 2
X − 3X + X +1 X +2
− X
4
+ 2X 2
−3 X 3 − 2 X 2 + X + 1 2
X − 3X − 2
− −3 X 3 − 6X
−2 X 2 + 7 X + 1
− −2 X 2 −4
7X + 5
2.2. pgcd
Proposition 4.
Soient A, B ∈ K[X ], avec A ≠ 0 ou B ≠ 0. Il existe un unique polynôme unitaire de plus grand degré qui
divise à la fois A et B.
Cet unique polynôme est appelé le pgcd (plus grand commun diviseur) de A et B que l’on note pgcd(A, B).
Remarque.
• pgcd(A, B) est un polynôme unitaire.
• Comme pour les entiers : si A = BQ + R alors pgcd(A, B)= pgcd(B, R). C’est ce qui justifie l’algorithme d’Euclide.
Algorithme d’Euclide.
Soient A et B des polynômes, B ≠ 0.
Rk−1 = RkQk+1
Le degré du reste diminue à chaque division. On arrête l’algorithme lorsque le reste est nul. Le pgcd est le
dernier reste non nul Rk (rendu unitaire).
Exemple 6.
Calculons le pgcd de A = X 4 − 1 et B = X 3 − 1. On applique l’algorithme d’Euclide :
X 4 − 1 = (X 3 − 1)× X + X − 1
X 3 − 1 = (X − 1)×(X 2 + X + 1)+ 0
3X + 2X + 5X − 2 = (X + X + 2)×(3X − 1)+ 0
Pour A, B quelconques on peut se ramener à des polynômes premiers entre eux : si pgcd(A, B)= D alors A et B
s’écrivent : A = DA′, B = DB′ avec pgcd(A′, B′)= 1.
Ce théorème découle de l’algorithme d’Euclide et plus spécialement de sa remontée comme on le voit sur
l’exemple suivant.
Exemple 8.
Nous avons calculé pgcd(X 4 − 1, X 3 − 1)= X − 1. Nous remontons l’algorithme d’Euclide, ici il n’y avait qu’une
ligne : X 4 − 1 =(X 3 − 1)× X + X − 1, pour en déduire X − 1 =(X 4 − 1)× 1 +(X 3 − 1)×(−X ). Donc U = 1 et V = −X
conviennent.
Exemple 9.
Pour A = X 5+X 4+2X 3+X 2+X +2 et B = X 4+2X 3+X 2−4 nous avions trouvé D = pgcd(A, B)= X 2+X +2. En partant de
La ligne au-dessus dans l’algorithme d’Euclide était : A = B ×(X − 1)+ 3X 3 + 2X 2 + 5X − 2. On substitue le reste pour
obtenir :
POLYNÔMES 2. ARITHMÉTIQUE DES POLYNÔMES 87
−− − × −
× 1
3X + 4). D = B A B (X 1) 9(
On en déduit
Corollaire 2.
Soient A, B, C ∈ K[X ] avec A ≠ 0 ou B ̸= 0. Si C|A et C|B alors C| pgcd(A, B).
2.4. ppcm
Proposition 5.
Soient A, B ∈ K[X ] des polynômes non nuls, alors il existe un unique polynôme unitaire M de plus petit
Cet unique polynôme est appelé le ppcm (plus petit commun multiple) de A et B qu’on note ppcm(A, B).
Exemple 10. ppcm X (X − 2)2(X 2 + 1)4, (X + 1)(X − 2)3(X 2 + 1)3= X (X + 1)(X − 2)3(X 2 + 1)4.
C, alors M|C.
Mini-exercices.
5. Montrer que si AU + BV = 1 avec deg U < deg B et deg V < deg A alors les polynômes U, V sont uniques.
Définition 5.
Soit P = anX n + an−1X n−1 +···+ a1X + aP0une∈ K[fonction polynômeX ]. Pour un élément(que l’on note encorex
Définition 6.
Soit P ∈ K[X ] et α ∈ K. On dit que α est une racine (ou un zéro) de P si P(α)= 0.
Proposition 7.
P(α)= 0 ⇐⇒ X −α divise P
Démonstration. Lorsque l’on écrit la division euclidienne de P par X −α on obtient P = Q ·(X −α)+ R où R est une
constante car deg R < deg(X −α)= 1. Donc P(α)= 0 ⇐⇒ R(α)= 0 ⇐⇒ R = 0 ⇐⇒ X −α|P.
POLYNÔMES 3. RACINE D’UN POLYNÔME, FACTORISATION 89
Définition 7.
Soit k ∈ N∗. On dit que α est une racine de multiplicité k de P si (X −α)k divise P alors que (X −α)k+1 ne
divise pas P. Lorsque k = 1 on parle d’une racine simple, lorsque k = 2 d’une racine double, etc.
X+
2a2 ···+ nanX n−1 est le polynôme dérivé de P.
Exemple 12.
P(X )= X n − 1 admet n racines distinctes.
Sachant que P est de degré n alors par le théorème de d’Alembert-Gauss on sait qu’il admet n racines comptées
avec multiplicité. Il s’agit donc maintenant de montrer que ce sont des racines simples. Supposons –par
l’absurde– que α ∈ C soit une racine de multiplicité ⩾ 2. Alors P(α)= 0 et P′(α)= 0. Donc αn − 1 = 0 et nαn−1 = 0. De
la seconde égalité on déduit α= 0, contradictoire avec la première égalité. Donc toutes les racines sont simples.
POLYNÔMES 3. RACINE D’UN POLYNÔME, FACTORISATION 90
Ainsi les n racines sont distinctes. (Remarque : sur cet exemple particulier on aurait aussi pu calculer les racines
qui sont ici les racines n-ième de l’unité.)
Pour les autres corps que les nombres complexes nous avons le résultat plus faible suivant :
Théorème 4.
Soit P ∈ K[X ] de degré n ⩾ 1. Alors P admet au plus n racines dans K.
Exemple 13.
P(X )= 3X 3 − 2X 2 + 6X − 4. Considéré comme un polynôme à coefficients dans Q ou R, P n’a qu’une seule racine
(qui est simple) α= 23 et il se décompose en P(X )= 3(X − 23)(X 2 +p2). Si on considère maintenantp P comme un
polynôme à coefficients dans C alors P(X )= 3(X − )(X − i 2)(X + i 2) et admet 3 racines simples.
Définition 8.
Soit P ∈ K[X ] un polynôme de degré ⩾ 1, on dit que P est irréductible si pour tout Q ∈ K[X ] divisant P,
Remarque.
• Un polynôme irréductible P est donc un polynôme non constant dont les seuls diviseurs de P sont les
constantes ou P lui-même (à une constante multiplicative près).
• La notion de polynôme irréductible pour l’arithmétique de K[X ] correspond à la notion de nombre premier
pour l’arithmétique de Z.
• Dans le cas contraire, on dit que P est réductible ; il existe alors des polynômes A, B de K[X ] tels que P = AB,
avec deg A ⩾ 1 et deg B ⩾ 1.
Exemple 14.
• Tous les polynômes de degré 1 sont irréductibles. Par conséquent il y a une infinité de polynômes
irréductibles.
• X 2 − 1 =(X − 1)(X + 1) ∈ R[X ] est réductible. • X 2 + 1 =(X −pi)(X + i) est réductible dansp C[X ] mais est
• X 2 − 2 =(X − 2)(X + 2) est réductible dans R[X ] mais est irréductible dans Q[X ].
Démonstration. Si P ne divise pas A alors pgcd(P, A)= 1 car P est irréductible. Donc, par le lemme de Gauss, P
divise B.
POLYNÔMES 3. RACINE D’UN POLYNÔME, FACTORISATION 91
Théorème 5.
Tout polynôme non constant A ∈ K[X ] s’écrit comme un produit de polynômes irréductibles unitaires :
,r
où λ ∈ K∗ ∈ N∗, ki ∈ N∗ et les Pi sont des polynômes irréductibles distincts.
De plus cette décomposition est unique à l’ordre près des facteurs.
Théorème 6.
Les polynômes irréductibles de C[X ] sont les polynômes de degré 1.
Donc pour P ∈ C[X ] de degré n ⩾ 1 la factorisation s’écrit P =λ(X −α1)k1(X −α2)k2 ···(X −αr)kr , où α1, ..., αr sont
Théorème 7.
Les polynômes irréductibles de R[X ] sont les polynômes de degré 1 ainsi que les polynômes de degré 2
ayant un discriminant ∆< 0.
Soit P ∈ R[X ] de degré n ⩾ 1. Alors la factorisation s’écrit P =λ(X −α1)k1(X −α2)k2 ···(X −αr)kr Qℓ11 ···Qℓss , où les
αi sont exactement les racines réelles distinctes de multiplicité k i et les Qi sont des polynômes irréductibles
X
de degré 2 : Qi = X 2 +βi +γi avec ∆=βi2 − 4γi < 0.
POLYNÔMES 4. FRACTIONS RATIONNELLES 92
Exemple 15.
sa décomposition dansP(X )= 2X 4(X − 1)3(X 2C+[1X)]2(estX 2P+(XX )=+ 1)2est déjà décomposé en facteurs
R [
irréductibles dansX 4(X − 1)3(X − i)2(X + i)2(X − j)(X − j2) où j = e 2 3iXπ]=alors que−1+2ip3.
Exemple 16.
Soit P(X )= X 4 + 1.
• Sur C. On peut d’abord décomposer P(X ) = (X 2 + i)(X 2 − i). Les racines de P sont donc les racines carrées
• Sur R. Pour un polynôme à coefficient réels, si α est une racine alors α¯ aussi. Dans la décomposition ci-
dessus on regroupe les facteurs ayant des racines conjuguées, cela doit conduire à un polynôme réel :
P(X )= X −pp22(1 + i) X −−pp22(1 − i) X + p22(1 + i) X + p22(1 − i)
=X 2 + 2X + 1X 2 2X + 1,
Mini-exercices.
1. Trouver un polynôme P(X ) ∈ Z[X ] de degré minimal tel que : soit une racine simple, p2 soit une racine
2. Montrer cette partie de la proposition 8 : « P(α)= 0 et P′(α)= 0 ⇐⇒ α est une racine de multiplicité ⩾ 2 ».
3. Montrer que pour P ∈ C[X ] : « P admet une racine de multiplicité ⩾ 2 ⇐⇒ P et P′ ne sont pas
4. Factoriser P(X )=(2X 2 + X − 2)2(X 4 − 1)3 et Q(X )= 3(X 2 − 1)2(X 2 − X + ) dans C[X ]. En déduire leur pgcd et leur
6. Soit P ∈ R[X ] et α ∈ C\R tel que P(α)= 0. Vérifier que P(α¯)= 0. Montrer que (X −α)(X −α¯) est un polynôme
4. Fractions rationnelles
Définition 9.
Une fraction rationnelle à coefficients dans K est une expression de la forme
P
F=Q
Toute fraction rationnelle se décompose comme une somme de fractions rationnelles élémentaires que l’on
appelle des « éléments simples ». Mais les éléments simples sont différents sur C ou sur R.
a2,k2
+
+(X −α2)k2 +···+ (X −α2) ···
Le polynôme E s’appelle la partie polynomiale (ou partie entière). Les termes (X−aα)i sont les éléments simples sur
C.
Exemple 17.
POLYNÔMES 4. FRACTIONS RATIONNELLES 94
1 a b =
•• Vérifier queVérifier que XX2 +18X=+9XX +i 7+=X −Xi +avec1 +a(X −12)2i,+bX= +
i.X−+13.
−
Comment se calcule cette décomposition ? En général on commence par déterminer la partie polynomiale.
Tout d’abord si degQ > deg P alors E(X )= 0. Si deg P ⩽ degQ alors effectuons la division euclidienne de
P par Q : P = QE + R donc QP = E + QR où deg R < degQ. La partie polynomiale est donc le quotient de cette division.
R
Et on s’est ramené au cas d’une fraction Q avec deg R < degQ. Voyons en détails comment continuer sur un
exemple.
Exemple 18.
Q
• Première étape : partie polynomiale. On calcule la division euclidienne de P par Q : P(X )=(X 2 +
QX X2 X EX
1) ( )+ 2 − 5 + 9. Donc la partie polynomiale est2 ( ) = X 2 + 1 et la fraction s’écrit QP((XX)) =
2
éléments simples nous dit qu’il existe une unique décomposition :Nous savons déjà que E(X )= X
a, b, c.
• Quatrième étape : détermination des coefficients. Voici une première façon de déterminer a, b, c. On récrit
la fraction (X−a1)2 + X−b1 + X+c 2 au même dénominateur et on l’identifie avec 2X2Q−(5XX)+9 :
1)2(X + 2)
(
qui doit être égale à
2X 2 − 5X + 9 .
(X − 1)2(X + 2)
POLYNÔMES 4. FRACTIONS RATIONNELLES 95
Donc
P = X 5 − 2X 3 + 4X 2 − 8X + 11 = X 2 + 1 + 2 + −1 + 3 .
Q X 3 − 3X + 2 (X − 1)2 X − 1 X+2
P ( X) c (X 1 )2
F1(X )=(X − 1)2 Q′( X ) = a + b(X − 1)+ X−+ 2 donc F1(1)= a
D’autre part
P′(X )
F1(X )=(X − 1)2 =(X − 1)2 X2X−21−)25(XX ++92) = 2X 2X−+5X2 + 9
Q(X ) (
donc F1(1)= 2. On en déduit a = 2.
On fait le même processus pour déterminer2 c : on multiplie par (X + 2) et on évalue en −2. On calcule
PQ′((00)) = a − b + 2c
Soit P/Q une fraction rationnelle avec P,Q ∈ R[X ], pgcd(P,Q)= 1. Alors P/Q s’écrit de manière unique
comme somme :
POLYNÔMES 4. FRACTIONS RATIONNELLES 96
Où les X −α et X 2 +αX +β sont les facteurs irréductibles de Q(X ) et les exposants i sont inférieurs ou égaux à la
Exemple 19.
Décomposition en éléments simples de QP((XX)) = 3X4(X+25+XX3++111)2X(2X+−51X)+3. Comme deg P < degQ alors E(X )= 0. Le
dénominateur est déjà factorisé sur R car X 2 + X + 1 est irréductible. La décomposition théorique est donc :
+X 1
=
Il faut ensuite mener au mieux les calculs pour déterminer les coefficients afin d’obtenir : P(X ) X
2 + +
2+XX++11)2 X 2 +−X1 + 1 X 3− 1.
Q(X ) (
Mini-exercices.
1. Soit Q(X )=(X −2)2(X 2−1)3(X 2+1)4. Pour P ∈ R[X ] quelle est la forme théorique de la décomposition en
2+1 X
2. Décomposer les fractions suivantes en éléments simples sur R et C : ; .
Auteurs du chapitre
• Rédaction : Arnaud Bodin ; relecture : Stéphanie Bodin
• Basé sur des cours de Guoting Chen et Marc Bourdon
Chapitre
6
Groupes
Motivation
Évariste Galois a tout juste vingt ans lorsqu’il meurt dans un duel. Il restera pourtant comme l’un des plus grands
mathématiciens de son temps pour avoir introduit la notion de groupe, alors qu’il avait à peine dix-sept ans.
Vous savez résoudre les équations de degré 2 du type ax2 + bx + c = 0. Les solutions s’expriment en fonction de a,
b, c et de la fonction racine carrée p . Pour les équations de degré 3, ax3 + bx2 + cx + d = 0, il existe
Ç3
aussi des formules. Par exemple une solution de x3 + 3x + 1 = 0 est x0 = 3 p52−1 − 5 +1
p 2 . De telles
Nous allons introduire dans ce chapitre la notion de groupe, puis celle de sous-groupe. On étudiera ensuite les
applications entre deux groupes : les morphismes de groupes. Finalement nous détaillerons deux groupes
importants : le groupe Z/nZ et le groupe des permutations Sn.
1. Groupe
1.1. Définition
Définition 1.
Un groupe (G, ⋆) est un ensemble G auquel est associé une opération ⋆ (la loi de composition) vérifiant
les quatre propriétés suivantes :
GROUPES 1. GROUPE 98
4. pour tout x ∈ G il existe x′ ∈ G tel que x ⋆ x′ = x′ ⋆ x = e (x′ est l’inverse de x et est noté x−1)
pour tout x, y ∈ G, x ⋆ y = y ⋆ x,
Remarque.
• L’élément neutre e est unique. En effet si e′ vérifie aussi le point (3), alors on a e′ ⋆ e = e (car e est élément
neutre) et e′ ⋆ e = e′ (car e′ aussi). Donc e = e′. Remarquez aussi que l’inverse de l’élément neutre est lui-
même. S’il y a plusieurs groupes, on pourra noter eG pour l’élément neutre du groupe G.
• Un élément x ∈ G ne possède qu’un seul inverse. En effet si x′ et x′′ vérifient tous les deux le point (4) alors on
a x ⋆ x′′ = e donc x′ ⋆(x ⋆ x′′)= x′ ⋆ e. Par l’associativité (2) et la propriété de l’élément neutre
(3) alors (x′ ⋆ x)⋆ x′′ = x′. Mais x′ ⋆ x = e donc e ⋆ x′′ = x′ et ainsi x′′ = x′.
1.2. Exemples
Voici des ensembles bien connus pour lesquels l’opération donnée définit une structure de groupe.
• (R∗, ×) est un groupe commutatif, × est la multiplication habituelle. Vérifions chacune des propriétés :
1. Si x, y ∈ R∗ alors x × y ∈ R∗.
réels.
3. 1 est l’élément neutre pour la multiplication, en effet 1× x = x et x ×1 = x, ceci quelque soit x ∈ R∗.
4. L’inverse d’un élément x ∈ R∗ est x′ = 1x (car x × 1x est bien égal à l’élément neutre 1). L’inverse de x est
donc x . Notons au passage que nous avions exclu 0 de notre groupe, car il n’a pas d’inverse.
Ces propriétés font de (R∗, ×) un groupe.
1. Si x, y ∈ Z alors x + y ∈ Z.
4. L’inverse d’un élément x ∈ Z est x′ = −x car x +(−x)= 0 est bien l’élément neutre 0. Quand la loi de groupe
5. Enfin x + y = y + x, et donc (Z, +) est un groupe commutatif. • (Q, +), (R, +), (C, +) sont des groupes
commutatifs.
Rθ
Alors pour deux rotations Rθ et Rθ′ la composée Rθ ◦ Rθ′ est encore une rotation de centre l’origine et d’angle θ
+θ′. Ici ◦ est la composition. Ainsi (R, ◦) forme un groupe (qui est même commutatif).
Pour cette loi l’élément neutre est la rotation d’angle 0 : c’est l’identité du plan. L’inverse d’une rotation
d’angle θ est la rotation d’angle −θ.
• Si I désigne l’ensemble des isométries du plan (ce sont les translations, rotations, réflexions et leurs
composées) alors (I , ◦) est un groupe. Ce groupe n’est pas un groupe commutatif. En effet, identifions le plan
à R2 et soit par exemple R la rotation de centre O = (0, 0) et d’angle et T la translation de vecteur (1, 0).
Alors les
R ◦ T (A)
A
R(A) A T (A)
T ◦ R(A)
π π
2 2
O O
GROUPES 1. GROUPE 100
isométries T ◦ R et R ◦ T sont des applications distinctes. Par exemple les images du point A =(1, 1) par ces
applications sont distinctes : T ◦ R(1, 1)= T(−1, 1)=(0, 1) alors que R ◦ T(1, 1)= R(2, 1)=(−1, 2).
entier.
• (N, +) n’est pas un groupe. En effet l’inverse de 3 (pour l’addition +) devrait être −3 mais −3 ∈/N.
Nous étudierons dans les sections 4 et 5 deux autres groupes très importants : les groupes cycliques (Z/nZ, +) et
les groupes de permutations (Sn, ◦).
1.3. Puissance
Revenons à un groupe (G, ⋆). Pour x ∈ G nous noterons x ⋆ x par x2 et x ⋆ x ⋆ x par x3. Plus généralement nous
noterons :
• xnx,
}
• x0 = e,
• x .
n
avons :
• xm ⋆ xn = xm+n,
• (xm)n = xmn,
Une matrice 2 × 2 est un tableau de 4 nombres (pour nous des réels) noté ainsi :
a b
.
c d
GROUPES 1. GROUPE 101
Nous allons définir l’opération produit noté × de deux matrices M = a bc d et M′ = ac′′ db′′ :
M M= =
× ′ ac db×ac′′ db′′ aaca′′ ++ dcbc′′ abcb′′ ++ ddbd′′ .
Voici comment présenter les calculs, on place M à gauche, M′ au dessus de ce qui va être le résultat. On calcule
Pour le premier terme on prend la colonne située au dessus et la ligne située à gauche : on effectue les produits
a × a′ et b × c′ qu’on additionne pour obtenir le premier terme du résultat. Même chose avec le second terme :
on prend la colonne située au dessus, la ligne située à gauche, on fait les produit, on additionne : ab′ + bd′. Idem
pour les deux autres termes.
×
×
a′ b′ c′
d′
!
a b aa′ + bc′ ab′ + bd′
c d ca′ + dc′ cb′ + dd′
Par exemple si M = 1 10 1et M′ = 1 02 1 alors voici comment poser les calculs (M × M′ à gauche, M′ × M
à droite) − 1 0 1 1
2 1 0 −1
1 1 3 1
1 0 1 1
0 −1 −2 −1
2 1 2 1
= 3 1 =
alors M × M′ − 2 − 1 et M′ × M = 1 12 1. Remarquez qu’en général M × M′ ̸ M′ × M.
Proposition 1.
L’ensemble des matrices 2×2 ayant un déterminant non nul, muni de la multiplication des matrices ×,
Démonstration.
1. Vérifions la loi de composition interne. Si M, M′ sont des matrices 2 × 2 alors M × M′ aussi. Maintenant si M et
M′ sont de déterminants non nuls alors det(M × M′)= det M · det M′ est aussi non nul. Donc si M, M′ ∈ Gℓ2
alors M × M′ ∈ Gℓ2.
2. Pour vérifier que la loi est associative, c’est un peu fastidieux. Pour trois matrices M, M′, M′′ quelconques il
faut montrer (M × M′)× M′′ = M ×(M′ × M′′). Faites-le pour vérifier que vous maîtrisez le produit de matrices.
1 0
3. Existence de l’élément neutre. La matrice identité I = 0 1 est l’élément neutre pour la multiplication des
matrices : en effet a bc d × 1 00 1= a bc d et 1 00 1× a bc d = a bc d .
4. Existence de l’inverse. Soitest l’inverse de M : vérifiez queM =Ma bc d× M une matrice de déterminant non nul
=
alors−1 = I et que M−1 × M = I. M−1 d
− c −a
b
5. Enfin nous avons déjà vu que cette multiplication n’est pas commutative.
Mini-exercices.
1. Montrer que × est un groupe commutatif.
2. Soit fa,b : R → R la fonction définie par x 7→ ax + b. Montrer que l’ensemble F = {fa,b | a ∈ R∗, b ∈ R} muni
3. (Plus dur) Soit G =][. Pour x, y ∈ G on définit x ⋆ y = 1x++x yy . Montrer que (G, ⋆) forme un groupe en (a)
montrant que est une loi de composition interne : x ⋆ y ∈ G ; (b) montrant que la loi est associative ; (c)
5. Que vaut x ?
n
6. Si x = e, quel est l’inverse de x ?
Matrices :
groupe commutatif.
GROUPES 104
2. SOUS-GROUPES
2. Sous-groupes
Montrer qu’un ensemble est un groupe à partir de la définition peut être assez long. Il existe une autre
technique, c’est de montrer qu’un sous-ensemble d’un groupe est lui-même un groupe : c’est la notion de sous-
groupe.
2.1. Définition
Soit (G, ⋆) un groupe.
Définition 2.
Une partie H ⊂ G est un sous-groupe de G si :
• e ∈ H,
• pour tout x, y ∈ H, on a x ⋆ y ∈ H,
Notez qu’un sous-groupe H est aussi un groupe (H, ⋆) avec la loi induite par celle de G.
Par exemple si x ∈ H alors, pour tout n ∈ Z, nous avons xn ∈ H.
Remarque.
Un critère pratique et plus rapide pour prouver que H est un sous-groupe de G est : • H
contient au moins un élément
• pour tout x, y ∈ H, x ⋆ y−1 ∈ H.
— ,
— si x, y,
— si x .
• (U, ×) est un sous-groupe de (C∗, ×), où U= {z ∈ C | |z| = 1}. • (Z, +) est un sous-groupe de (R, +).
• L’ensemble R des rotations du plan dont le centre est à l’origine est un sous-groupe du groupe des isométries
I. a
0
• L’ensemble des matrices diagonales 0d avec a ≠ 0 et d ≠ 0 est un sous-groupe de (Gℓ2, ×).
2.3. Sous-groupes de Z
Proposition 2.
GROUPES 3. MORPHISMES DE GROUPES 105
Les sous-groupes de (Z, +) sont les nZ, pour n ∈ Z.
Par exemple :
• 2Z= {. . . , −4, −2, 0, +2, +4, +6, . . .} est l’ensemble des entiers pairs,
• 7Z= {. . . , −14, −7, 0, +7, +14, +21, . . .} est l’ensemble des multiples de 7.
• nZ ⊂ Z,
• l’élément neutre 0 appartient à nZ,
• pour x = kn et y = k′n des éléments de nZ alors x + y =(k + k′)n est aussi un élément de nZ,
• enfin si x = kn est un élément de nZ alors −x =(−k)n est aussi un élément de nZ.
Réciproquement soit H un sous-groupe de (Z, +). Si H = {0} alors H = 0Z et c’est fini. Sinon H contient au moins un
élément non-nul et positif (puisque tout élément est accompagné de son opposé) et notons
n = min h > 0 | h ∈ H .
Alors n > 0. Comme n ∈ H alors −n ∈ H, 2n = n+n ∈ H, et plus généralement pour k ∈ Z alors kn ∈ H. Ainsi nZ ⊂
H. Nous allons maintenant montrer l’inclusion inverse. Soit h ∈ H. Écrivons la division euclidienne :
h = kn + r, avec k, r ∈ Z et 0 ⩽ r < n.
plus petit que n. Par la définition de n, nécessairement r = 0. Autrement dit h = kn et donc h ∈ nZ. Conclusion H =
nZ.
groupe de G contenant E.
Par exemple si E = {2} et le groupe est (R∗, ×), le sous-groupe engendré par E est H = {2n | n ∈ Z}. Pour le
prouver : il faut montrer que H est un sous-groupe, que 2 ∈ H, et que si H′ est un autre sous-groupe contenant 2
alors H ⊂ H′.
GROUPES 3. MORPHISMES DE GROUPES 106
Autre exemple avec le groupe (Z, +) : si E1 = {2} alors le sous-groupe engendré par E1 est H1 = 2Z. Si E2 = {8, 12}
Mini-exercices.
2. Montrer que si H et H′ sont deux sous-groupes de (G, ⋆) alors H ∩ H′ est aussi un sous-groupe.
4. Montrer que l’ensemble des matrices 2 × 2 de déterminant 1 ayant leurs coefficients dans Z est un sous-
3. Morphismes de groupes
3.1. Définition
Définition 3.
Soient (G, ⋆) et (G′, ⋄) deux groupes. Une application f : G −→ G′ est un morphisme de groupes si :
L’exemple que vous connaissez déjà est le suivant : soit G le groupe (R, +) et G′ le groupe × . Soit f :
l’application exponentielle définie par f (x)= exp(x). Nous avons bien f (x + x′)= exp(x + x′)= exp(x)×
exp(x′)= f (x)× f (x′).
Proposition 3.
Soit f : G −→ G′ un morphisme de groupes alors :
1
• f (eG)= eG′,∈ f (x)−1.
Il faut faire attention à l’ensemble auquel appartiennent les éléments considérés : eG est l’élément neutre de
G, eG′ celui de1 est l’inverse deG′. Il n’y a pas de raison qu’ils soient égaux (ils ne sont même pas dans le même
ensemble).x dans G, alors que f (x)−1 est l’inverse de f (x) mais dans G′.
Aussi x−
GROUPES 3. MORPHISMES DE GROUPES 107
Reprenons l’exemple de la fonction f : Rdéfinie par f (x)= exp(x). Nous avons bien f (0)= 1 :
l’élément neutre de (R, +) a pour image l’élément neutre de (R ∗+, ×). Pour x ∈ R son inverse dans (R, +) est ici son
Démonstration.
• f (eG) = f (eG ⋆ eG) = f (eG) ⋄ f (eG), en multipliant (à droite par exemple) par f (eG)−1 on obtient eG′ = f (eG).
• Soit x ∈ G alors x ⋆ x−11 = eG donc f (x ⋆ x−1)= f (eG). Cela entraîne f (x)⋄ f (x−1)= eG′, en composant à gauche
par f (x)− , nous obtenons f .
Proposition 4.
• Soient deux morphismes de groupes f : G −→ G′ et g : G′ −→ G′′. Alors g ◦ f : G −→ G′′ est un morphisme de
groupes.
Démonstration. La première partie est facile. Montrons la deuxième : Soit y, y′ ∈ G′. Comme f est bijective, il
existe x, x′ ∈ G tels que f (x)= y et f (x′)= y′. Alors f −1(y ⋄ y′)= f −1 f (x)⋄ f (x′)= f −1 f (x ⋆ x′)= x ⋆ x′ = f −1(y)⋆ f −1(y′). Et
Définition 4.
Un morphisme bijectif est un isomorphisme. Deux groupes G, G′ sont isomorphes s’il existe un
Continuons notre exemple f (x)= exp(x), f : R −→ R∗+ est une application bijective. Sa bijection réciproque f
−→ R est définie par f −1(x) = ln(x). Par la proposition 4 nous savons que f −1 est aussi un morphisme (de
× vers (R, +)) donc f −1(x × x′) = f −1(x)+ f −1(x′). Ce qui s’exprime ici par la formule bien connue : ln(x × x′)=
ln(x)+ ln(x′).
sous-groupes.
Définition 5.
Le noyau de f est
(Attention, la notation f −1 ici désigne l’image réciproque, et ne signifie pas que f est bijective.) Le noyau est donc
l’ensemble des éléments de G qui s’envoient par f sur l’élément neutre de G′.
Définition 6.
L’image de f est
Im f = f ( x ) | x ∈G
C’est donc un sous-ensemble de G′ et en terme d’image directe nous avons Im f = f (G). Ce sont les éléments de G
Proposition 5.
Soit f : G −→ G′ un morphisme de groupes.
Démonstration.
1. Montrons que le noyau est un sous-groupe de G.
(b) Soient x, x′ ∈ Ker f . Alors f (x ⋆ x′)= f (x)⋄ f (x′)= eG′ ⋄ eG′ = eG′ et donc x ⋆ x′ ∈ Ker f .
x f x 1 f x e x
(c) Soit ∈ Ker f . Alors ( − )= ( )−1 = −1
G ′ = eG′. Et donc −
1
∈ Ker f .
(b) Soient y, y′ ∈ Im f . Il existe alors x, x′ ∈ G tels que f (x)= y, f (x′)= y′. Alors y⋄ y′ = f (x)⋄ f (x′)= f (x ⋆ x′) ∈ Im
f.
3. Supposons f injective. Soit x ∈ Ker f , alors f (x) = eG′ donc f (x) = f (eG) et comme f est injective alors x = eG.
Comme Ker f = {eG} alors x ⋆ x′−1 = eG et donc x = x′. Ainsi f est injective.
4. C’est clair !
3.4. Exemples
Exemple 1.
1. Soit f : Z −→ Z définie par f (k)= 3k. (Z, +) est considéré comme ensemble de départ et d’arrivée de
l’application. Alors f est un morphisme du groupe (Z, +) dans lui-même car f (k + k′)= 3(k + k′)= 3k + 3k′ = f (k)+ f
(k′). Calculons le noyau : Ker f = {k ∈ Z | f (k)= 0}. Mais si f (k)= 0 alors 3k = 0 donc k = 0. Ainsi Ker f = {0} est
réduit à l’élément neutre et donc f est injective. Calculons maintenant l’image Im f = {f (k) | k ∈ Z} = {3k | k ∈
(Z, +).
GROUPES 110
4. LE GROUPE Z/nZ
Plus généralement si l’on fixe n ∈ Z, n ≠ 0, et que f est définie par f (k) = k · n alors Ker f = {0} et Im f = nZ.
2. Soient les groupest (R, +) et (U, ×) (où U = {z ∈ C | |z| = 1}) et f l’applicationt t t f :t R −→ U définie par f (t) = ei .
)
Montrons que f est un morphisme : f (t + t′) = ei( + ′) = ei × ei ′ = f (t × f (t′). Calculons le noyau Ker f = {t ∈ R | f
(t)= 1}. Mais si f (t)= 1 alors ei t = 1 donc t = 0 (mod 2π). D’où Ker f = {2kπ | k ∈ Z} = 2πZ. Ainsi f n’est pas
injective. L’image det f est U car tout nombre complexe de module 1 s’écrit sous la forme f (t)= ei .
3. Soient les groupes (Gℓ2, ×) et (R∗, ×) et f : Gℓ2 −→ R∗ définie par f (M)= det M. Alors la formule vue plus haut
(lemme 1) det(M × M′)= det M × det M′ implique que f est un morphisme de groupes. Ce morphisme est
surjectif, car si t ∈ R∗ alors t. Ce morphisme n’est pas injectif car par exemple det 1 00 t = det 0 1t 0.
Attention : ne pas confondre les différentes notations avec des puissances −1 : x−1, f −1, f −1 {eG′} :
• x−1 désigne l’inverse de x dans un groupe (G, ⋆). Cette notation est cohérente avec la notation usuelle si le
E | f (x) ∈ B , c’est une partie de E. Pour un morphisme f , Ker f = f −1 {eG′} est donc l’ensemble des x ∈ G tels
que leur image par f soit eG′. Le noyau est défini même si f n’est pas bijective.
Mini- exercices.
1. Soit f :défini par f (n) = 2n. Montrer que f est un morphisme de groupes.
Déterminer le noyau de est-elle injective ? surjective ?
2. Mêmes questions pour f : (R, +) −→ (R, ◦), qui à un réel θ associe la rotation d’angle θ de centre l’origine.
3. Soit (G, ⋆) un groupe et f : G −→ G l’application définie par f (x)= x2. (Rappel : x2 = x ⋆ x.) Montrer que si (G,
4. Montrer qu’il n’existe pas de morphisme f : (Z, +) → (Z, +) tel que f (2)= 3.
5. Montrer que f , g : (R∗, ×) → (R∗, ×) définis par f (x) = x2, g(x) = x3 sont des morphismes de groupes. Calculer
4. Le groupe Z/nZ
GROUPES 111
4.1. L’ensemble et le groupe Z/nZ
Z/nZ=0, 1, 2, . . . , n − 1
p=q p q (mod n)
ou encore p = q ⇐⇒ ∃k ∈ Z p = q + kn.
p+q=p+q
4. LE GROUPE Z/nZ
Nous devons montrer que cette addition est bien définie : si p′ = p et q′ = q alors p′ ≡ p (mod n), q′ ≡ q
(mod n) et donc p′ + q′ ≡ p + q (mod n). Donc p′ + q′ = p + q. Donc on a aussi p′ + q′ = p + q. Nous avons montré que
Voici un exemple de la vie courante : considérons seulement les minutes d’une montre ; ces minutes varient de 0
à 59. Lorsque l’aiguille passe à 60, elle désigne aussi 0 (on ne s’occupe pas des heures). Ainsi de suite : 61 s’écrit
aussi 1, 62 s’écrit aussi 2,. . .Cela correspond donc à l’ensemble Z/60Z. On peut aussi additionner des minutes : 50
minutes plus 15 minutes font 65 minutes qui s’écrivent aussi 5 minutes. Continuons avec l’écriture dans Z/60Z
par exemple : 135 + 50 = 185 = 5. Remarquez que si l’on écrit d’abord 135 = 15 alors 135 + 50 = 15 + 50 = 65 = 5.
On pourrait même écrire 50 = −10 et donc 135 + 50 = 15 − 10 = 5.
C’est le fait que l’addition soit bien définie qui justifie que l’on trouve toujours le même résultat.
Proposition 6.
(Z/nZ, +) est un groupe commutatif.
Définition 7.
Un groupe (G, ⋆) est un groupe cyclique s’il existe un élément a ∈ G tel que :
Le groupe (Z/nZ, +) est un groupe cyclique. En effet il est engendré par a = 1, car tout élément k s’écrit k = 1 + 1
+··· 1 = k · 1.
| {z }
k fois
Voici un résultat intéressant : il n’existe, à isomorphisme près, qu’un seul groupe cyclique à n éléments, c’est
Z/nZ :
Théorème 1.
Si (G, ⋆) un groupe cyclique de cardinal n, alors (G, ⋆) est isomorphe à (Z/nZ, +).
Démonstration. Comme G est cyclique alors G = . . . , a−2, a−1, e, a, a2, a3, . . . . Dans cette écriture il y a de
nombreuses redondances (car de toute façon G n’a que n éléments). Nous allons montrer qu’en fait
Tout d’abord l’ensemble e, a, a2, . . . , an−1 est inclus dans G. En plus il a exactement n éléments. En effet si ap = aq
avec 0 ⩽ q < p ⩽ n−1 alors ap−q = e (avec p−q > 0) et ainsi ap−q+1 = ap−q ⋆a = a, ap−q+2 = a2 et alors le groupe G serait
égal à e, a, a2, . . . , ap−q−1 et n’aurait pas n éléments. Ainsi e, a, a2, . . . , an G et les deux ensembles ont le
même nombre n d’éléments, donc ils sont égaux.
Montrons maintenant que an = e. Comme an ∈ G et que G =e, a, a2, . . . , an−1 alors il existe 0 ⩽ p ⩽ n−1 tel
que an = ap. Encore une fois si p > 0 cela entraîne an−p = e et donc une contradiction. Ainsi p = 0 donc an = a0 = e.
Nous pouvons maintenant construire l’isomorphisme entre (Z/nZ, +) et (G, ⋆). Soit f : Z/nZ −→ G
(mod n) et donc il existe ℓ ∈ Z tel que k = k′ +ℓn. Ainsi f (k)= ak = ak′+ℓn = ak′ ⋆ aℓn = ak′ ⋆(an)ℓ = ak′ ⋆ eℓ = ak′ = f (k′).
• f est un morphisme de groupes car f (k + k′)= f (k + k′)= ak+k′ = ak ⋆ ak′ = f (k)⋆ f (k′) (pour tout
k, k′).
• Il est clair que f est surjective car tout élément de G s’écrit ak.
• Comme l’ensemble de départ et celui d’arrivée ont le même nombre d’éléments et que f est surjective alors
f est bijective.
Conclusion : f est un isomorphisme entre (Z/nZ, +) et (G, ⋆).
Mini-exercices.
4. Montrer que l’ensemble Un C | zn = 1 est un sous-groupe de (C ∗, ×). Montrer que Un est isomorphe à
Fixons un entier n ⩾ 2.
Proposition 7.
L’ensemble des bijections de {1, 2, . . . , n} dans lui-même, muni de la composition des fonctions est un
Une bijection de {1, 2, . . . , n} (dans lui-même) s’appelle une permutation. Le groupe (Sn, ◦) s’appelle le groupe
Démonstration.
Démonstration. La preuve est simple. Pour l’élément 1, son image appartient à {1, 2, . . . , n} donc nous avons n
choix. Pour l’image de 2, il ne reste plus que n − 1 choix (1 et 2 ne doivent pas avoir la même image car notre
application est une bijection). Ainsi de suite... Pour l’image du dernier élément n il ne reste qu’une possibilité. Au
f
3 7 5 4 6 1 2
est la bijection f : {1, 2, . . . , 7} −→ {1, 2, . . . , 7} définie par f (1)= 3, f (2)= 7, f (3)= 5, f (4)= 4, f (5)= 6, f (6)= 1, f
(7)= 2. C’est bien une bijection car chaque nombre de 1 à 7 apparaît une fois et une seule sur
la deuxième ligne.
34567
4321756 alors g ◦ f s’obtient en superposant la permutation f puis g
1 2 3 4 5 6 71 2 3 4 f 5 6 7 g ◦ f = 3 7 5 4 6 1 2 f ◦ g = 2
g
6715432671543
Il est tout aussi facile de calculer l’inverse d’une permutation : il suffit d’échanger les lignes du haut et du bas et
de réordonner le tableau. Par exemple l’inverse de
f
= 13 27 35 44 56 61 72 f −1
5.3. Le groupe S3
Nous allons étudier en détails le groupe S3 des permutations de {1, 2, 3}. Nous savons que S3 possède 3! = 6
• id =1 2 31 2 3 l’identité,
• τ1 =1 2 31 3 2 une transposition,
• σ=1 2 32 3 1 un cycle,
Calculons τ1 ◦σ et σ ◦τ1 :
Ainsi τ1 ◦σ=τ2 est différent de σ◦τ1 =τ3, ainsi le groupe S3 n’est pas commutatif. Et plus généralement :
Lemme 3.
Pour n ⩾ 3, le groupe Sn n’est pas commutatif.
σ ◦ τ1 = τ3. Comme f ◦ id = f et id ◦f = f il est facile de remplir la première colonne noire ainsi que la première ligne
noire.
On retrouve ainsi que S3 = id, τ1, τ2, τ3, σ, σ−1 est un groupe : en particulier la composition de deux
permutations de la liste reste une permutation de la liste. On lit aussi sur la table l’inverse de chaque élément,
par exemple sur la ligne de τ2 on cherche à quelle colonne on trouve l’identité, c’est la colonne de τ2. Donc
l’inverse de τ2 est lui-même.
{A, B, C}. On trouve les isométries suivantes : l’identité id, les réflexions t1, t2, t3 d’axes D1, D2, D3, la rotation s
D3 D2
2π
+ 3 − 23π
O
B C
D1
Proposition 8.
L’ensemble des isométries d’un triangle équilatéral, muni de la composition, forme un groupe. Ce groupe
est isomorphe à (S3, ◦).
L’isomorphisme est juste l’application qui à ti associe τi, à s associe σ et à s−1 associe σ−1.
5.5. Décomposition en cycles
• Nous allons définir ce qu’est un cycle : c’est une permutation σ qui fixe un certain nombre d’éléments (σ(i)= i)
et dont les éléments non fixés sont obtenus par itération : j, σ(j), σ2(j), . . . C’est plus facile à comprendre sur
un exemple :
1 2 3 4 5
σ=
6 7 8 1 8 3
5 2 6 7 4
GROUPES 5. LE GROUPE DES PERMUTATIONS Sn 117
est un cycle : les éléments 1, 3, 6, 7 sont fixes, les autres s’obtiennent comme itération de 2 : 2 7→ σ(2)= 8
2 8 4 5
Il faut comprendre cette notation ainsi : l’image de 2 est 8, l’image de 8 est 4, l’image de 4 est 5, l’image de 5
est 2. Les éléments qui n’apparaissent pas (ici 1, 3, 6, 7) sont fixes. On aurait pu aussi noter ce même cycle
par : (8 4 5 2), (4 5 2 8) ou (5 2 8 4).
• Pour calculer l’inverse on renverse les nombres : l’inverse de σ=(2 8 4 5) est σ−1 =(5 4 8 2).
• Le support d’un cycle sont les éléments qui ne sont pas fixes : le support de σ est {2, 4, 5, 8}. La longueur (ou
l’ordre) d’un cycle est le nombre d’éléments qui ne sont pas fixes (c’est donc le cardinal du support). Par
• Autres exemples : σ=1 2 32 3 1=(1 2 3) est un cycle de longueur 3 ; τ=1 2 3 41 4 3 2=(2 4) est un cycle de longueur 2,
aussi appelé une transposition.
• Par contre f = 1 2 3 4 5 6 77 2 5 4 6 3 1 n’est pas un cycle ; il s’écrit comme la composition de deux cycles f =
(1 7)◦(3 5 6). Comme les supports de (1 7) et (3 5 6) sont disjoints alors on a aussi f =(3 5 6)◦(1 7).
Ce dernier point fait partie d’un résultat plus général que nous admettons :
Théorème 2.
Toute permutation de Sn se décompose en composition de cycles à supports disjoints. De plus cette
Pour l’unicité il faut comprendre : unique à l’écriture de chaque cycle près (exemple : (3 5 6) et (5 6 3) sont le
même cycle) et à l’ordre près (exemple : (1 7)◦(3 5 6)=(3 5 6)◦(1 7)).
8)◦(6 7). Attention, si les supports ne sont pas disjoints alors cela ne commute plus : par exemple g =(1 2)◦(2 3 4)
n’est pas égale à h = (2 3 4) ◦ (1 2). En effet l’écriture de g en produit de cycle à support disjoint est g =(1 2)◦(2 3
4)=h1 2 3 41 3 4 22 3 4 1i=1 2 3 42 3 4 1=(1 2 3 4) alors que celle de h est h =(2 3 4)◦(1 2)=1 2 3 43 1 4 2= (1 3 4 2).
Mini-exercices.
1. Soient f définie par f (1) = 2, f (2) = 3, f (3) = 4, f (4) = 5, f (5) = 1 et g définie par g(1) = 2, g(2)= 1, g(3)= 4,
2. Énumérer toutes les permutations de S4 qui n’ont pas d’éléments fixes. Les écrire ensuite sous forme de
3. Trouver les isométries directes préservant un carré. Dresser la table des compositions et montrer qu’elles
forment un groupe. Montrer que ce groupe est isomorphe à Z/4Z.
GROUPES 5. LE GROUPE DES PERMUTATIONS Sn 118
4. Montrer qu’il existe un sous-groupe de S3 isomorphe à Z/2Z. Même question avec Z/3Z. Est-ce que S3 et Z/6Z
sont isomorphes ?
7 Systèmes linéaires
VidØo ■ partie 1. Introduction aux systŁmes d’Øquations linØaires
VidØo ■ partie 2. ThØorie des systŁmes linØaires
VidØo ■ partie 3. RØsolution par la mØthode du pivot de Gauss Fiche d’exercices
SystŁmes d’Øquations linØaires
ax + b y = e
où a, b et e sont des paramètres réels, a et b n’étant pas simultanément nuls. Cette équation s’appelle équation
linéaire dans les variables (ou inconnues) x et y.
Par exemple, 2x + 3y = 6 est une équation linéaire, alors que les équations suivantes ne sont pas des équations
linéaires :
2x + y2 = 1 ou y = sin(x) ou x = py.
Considérons maintenant deux droites D1 et D2 et cherchons les points qui sont simultanément sur ces deux
droites. Un point (x, y) est dans l’intersection D1 ∩ D2 s’il est solution du système :
ax + b y = e (S) cx + d y = f
1. Les droites D1 et D2 se coupent en un seul point. Dans ce cas, illustré par la figure de gauche, le système (S) a
une seule solution.
SYSTÈMES LINÉAIRES 1. INTRODUCTION AUX SYSTÈMES D’ÉQUATIONS LINÉAIRES 121
2. Les droites D1 et D2 sont parallèles. Alors le système (S) n’a pas de solution. La figure du centre illustre cette
situation.
3. Les droites D1 et D2 sont confondues et, dans ce cas, le système (S) a une infinité de solutions.
y y y
D1 D1
D2
D2
D1 = D2
x x x
Nous verrons plus loin que ces trois cas de figure (une seule solution, aucune solution, une infinité de solutions)
sont les seuls cas qui peuvent se présenter pour n’importe quel système d’équations linéaires.
3x + 2y = 1 (S)
2x − 7y = −2
Nous réécrivons la première ligne 3x + 2y = 1 sous la forme y = − x. Et nous remplaçons (nous substituons) le y
y= − x
2x − 7( − x) = −2
La seconde équation est maintenant une expression qui ne contient que des x, et on peut la résoudre :
× y = −21 − 32 x ⇐⇒ y = − x
(2 + 7 )x = 2 + 72 x = 25
Il ne reste plus qu’à remplacer dans la première ligne la valeur de x obtenue :
y= x=
Le système (S) admet donc une solution unique ( , ). L’ensemble des solutions est donc
§ 3 8 ª S =
25, 25 .
ax + b y + cz = d
SYSTÈMES LINÉAIRES 1. INTRODUCTION AUX SYSTÈMES D’ÉQUATIONS LINÉAIRES 122
ax + b y + cz = d
a′x + b′ y + c′z = d′
Trois cas se présentent alors :
• les plans sont parallèles (et distincts) et il n’y a alors aucune solution au système, • les plans sont
confondus et il y a une infinité de solutions au système,
• les plans se coupent en une droite et il y a une infinité de solutions.
Exemple 1.
2x + 3y 4z = 7
1. Le système − n’a pas de solution. En effet, en divisant par 2 la seconde équation,
4x + 6y − 8z = −1
2x + 3y 4z = 7
on obtient le système équivalent : − 1 . Les deux lignes sont clairement incompa-
2x + 3y − 4z = −2
2. Pour le système, les deux équations définissent le même plan ! Le système est
2x + 3y + 2z = 1 2x
⇐⇒ z = 72 x + y − 12 ⇐⇒ z⇐⇒
9x + 5y = 2 y
Pour décrire l’ensemble des solutions, on peut choisir x comme paramètre :
§ ª
S= x, |x∈R.
Géométriquement : nous avons trouvé une équation paramétrique de la droite définie par l’intersection de
deux plans.
Du point de vue du nombre de solutions, nous constatons qu’il n’y a que deux possibilités, à savoir aucune
solution ou une infinité de solutions. Mais les deux derniers cas ci-dessus sont néanmoins très différents
géométriquement et il semblerait que dans le second cas (plans confondus), l’infinité de solutions soit plus
SYSTÈMES LINÉAIRES 1. INTRODUCTION AUX SYSTÈMES D’ÉQUATIONS LINÉAIRES 123
grande que dans le troisième cas. Les chapitres suivants nous permettront de rendre rigoureuse cette
impression.
Si on considère trois plans dans l’espace, une autre possibilité apparaît : il se peut que les trois plans
s’intersectent en un seul point.
ax + b y = e cx + d y =
f
Si ad − bc ≠ 0, on trouve une unique solution dont les coordonnées (x, y) sont :
e b a e
f d c f
x y
=a b =a b
c d c d
Notez que le dénominateur égale le déterminant pour les deux coordonnées et est donc non nul. Pour le
numérateur de la première coordonnée x, on remplace la première colonne par le second membre ; pour la
seconde coordonnée y, on remplace la seconde colonne par le second membre.
Exemple 2.
tx 2 y= 1
Résolvons le système 3 x −+ t y = 1 suivant la valeur du paramètre t ∈ R.
Le déterminant associé au système est 3t −t2 = t2 + 6 et ne s’annule jamais. Il existe donc une unique solution (x, y)
et elle vérifie :
1 −2 t 1
62
+2
Pour chaque t, l’ensemble des solutions est S = tt +6, tt2−+36
2 .
Si le déterminant de la matrice A est non nul, c’est-à-dire si ad − bc ≠ 0, alors la matrice A est inversible et
A−1 = ad −1 bc −dc−ab
x+y=x+ 1
Résolvons le système
2
t y= t suivant la valeur du paramètre t ∈ R.
= + =
Premier cas. t ̸ 1 et t ̸ −1. Alors 2 1 ̸ 0. La matrice A = 11 1 t2 est inversible d’inverse A−1
= t21−1 −t21 1−1. Et la solution X = y est
X=
= t2 − 1 −1 1t = t2 − 1 t−1
= t+11 .
Pour chaque t ≠ ±1, l’ensemble des solutions est S = t 1 .
,
x+y t+1 t+1
=1
Deuxième cas. t =+1. Le système s’écrit alors : x+y et les deux équations sont identiques. Il y
=1
x + y = 1
t = −1. Le système s’écrit alors : x + y
= , les deux équations sont clairement
Troisième cas. −
1
incompatibles et donc S =∅.
a une infinité de solutions : S =(x, 1 − x) | .
Mini-exercices.
= 1
x 2y
1. Tracer les droites d’équations − − et résoudre le système linéaire de trois façons
−x + 3y = 3
tx y = 1
3. Discuter et résoudre suivant la valeur du paramètre t ∈ R : x +(t − 2−) y = −1 . Idem avec
(t − 1)x + y = 1 . 2x + t y = −1
2.1. Définitions
Définition 1.
On appelle équation linéaire dans les variables (ou inconnues) x1, . . . , xp toute relation de la forme
Remarque.
• Il importe d’insister ici sur le fait que ces équations linéaires sont implicites, c’est-à-dire qu’elles décrivent des
relations entre les variables, mais ne donnent pas directement les valeurs que peuvent prendre les variables.
• Résoudre une équation signifie donc la rendre explicite, c’est-à-dire rendre plus apparentes les valeurs que les
variables peuvent prendre.
• On peut aussi considérer des équations linéaires de nombres rationnels ou de nombres complexes.
Soit n ⩾ 1 un entier.
Définition 2.
Un système de n équations linéaires à p inconnues est une liste de n équations linéaires.
On écrit usuellement de tels systèmes en n lignes placées les unes sous les autres.
Exemple 4.
Le système suivant a 2 équations et 3 inconnues :
x1 − 3x2 + x3 =1
−2x1 + 4x2 − 3x3 = 9
aij correspond à ce rangement : le premier indice (ici i) est le numéro de ligne et le second indice (ici j) est le
numéro de colonne. Il est extrêmement important de toujours respecter cette convention.
Dans l’exemple 4, on a n = 2 (nombre d’équations = nombre de lignes), p = 3 (nombre d’inconnues = nombre de
colonnes à gauche du signe =) et a11 = 1, a12 = −3, a13 = 1, a21 = −2, a22 = 4, a23 = −3, b1 = 1 et b2 = 9.
Définition 3.
Une solution du système linéaire est une liste de p nombres réels (s1, s2, . . . , sp) (un p-uplet) tels que si l’on
substitue s1 pour x1, s2 pour x2, etc., dans le système linéaire, on obtient une égalité. L’ ensemble des
solutions du système est l’ensemble de tous ces p-uplets.
Exemple 5.
Le système
x1 − 3x2 + x3 =1
−2x1 + 4x2 − 3x3 = 9
x1 = −18 , x2 = −6 , x3 = 1 .
Par contre, (7, 2, 0) ne satisfait que la première équation. Ce n’est donc pas une solution du système.
En règle générale, on s’attache à déterminer l’ensemble des solutions d’un système linéaire. C’est ce que l’on
appelle résoudre le système linéaire. Ceci amène à poser la définition suivante.
Définition 4.
On dit que deux systèmes linéaires sont équivalents s’ils ont le même ensemble de solutions.
À partir de là, le jeu pour résoudre un système linéaire donné consistera à le transformer en un système
équivalent dont la résolution sera plus simple que celle du système de départ. Nous verrons plus loin comment
procéder de façon systématique pour arriver à ce but.
dont le second membre est nul. De tels systèmes sont toujours compatibles car ils admettent toujours la solution
s1 = s2 = ··· = sp = 0. Cette solution est appelée solution triviale. Géométriquement, dans le cas 2 × 2, un système
homogène correspond à deux droites qui passent par l’origine, (0, 0) étant donc toujours solution.
Mini-exercices.
1. Écrire un système linéaire de 4 équations et 3 inconnues qui n’a aucune solution. Idem avec une infinité de
solution. Idem avec une solution unique.
2. Résoudre le système à n équations et n inconnues dont les équations sont (Li) : xi − xi+1 = 1 pour i = 1, . . . , n −
1 et (Ln) : xn = 1.
x1 +2x2 +3x3 +4x4 = 0 x1 +2x2 +3x3 = 1 1 +xx22 +x3 == 12 x2 +2x3 +3x4 = 9 x1 +x2 +x3 = 2 x3 +x4 = 3
4. Montrer que si un système linéaire homogène a une solution (x1, . . . , xp)=(̸ 0, . . . , 0), alors il admet une
infinité de solutions.
Définition 5.
Un système est échelonné si :
• le nombre de coefficients nuls commençant une ligne croît strictement ligne après ligne.
Il est échelonné réduit si en plus :
• le premier coefficient non nul d’une ligne vaut 1 ;
• et c’est le seul élément non nul de sa colonne.
Exemple 6.
2x1 +3x2 +2x3 −x4 = 5
3x4 = 1
SYSTÈMES LINÉAIRES 128
2x1 +3x2 +2x3 −x4 = 5
• −2x3 =4 n’est pas échelonné (la dernière ligne commence avec la même
1. Li ← λLi avec λ≠ 0 : on peut multiplier une équation par un réel non nul.
2. Li ← Li +λLj avec λ ∈ R (et j ̸= i) : on peut ajouter à l’équation Li un multiple d’une autre équation Lj.
Ces trois opérations élémentaires ne changent pas les solutions d’un système linéaire ; autrement dit ces
opérations transforment un système linéaire en un système linéaire équivalent.
Exemple 8.
Utilisons ces opérations élémentaires pour résoudre le système suivant.
x +y +7z = −1 (L1)
2x −y +5z = −5 (L2)
Commençons par l’opération L2 ← L2 − 2L1 : on soustrait à la deuxième équation deux fois la première équation.
On obtient un système équivalent avec une nouvelle deuxième ligne (plus simple) :
x +y +7z = L2←L2−2L1
−13
− 3 − 9 =
y z =
−5 −
−x −3y −9z
x +y +7z = −1
Puis L3 ← L3 + L1 :
−3y −9z = −3
On continue pour faire apparaître un coefficient 1 en tête de la deuxième ligne ; pour cela on divise la ligne L2 par
−3 :
x +y y +7z = L2← − 31 L2
−11
x +y +7z = −1 −2y +3z = x +y +7z =1
−2z =
−6
On continue ainsi
−
y +3z = 1 y +3z =1
4z = −4 L3←L3+2L2 z = −1 L3← 14 L3
= 6 L1←L1−7L3
SYSTÈMES LINÉAIRES x +y +7z = −1 x +y 3. RÉSOLUTION PAR LA MÉTHODE DU PIVOT DE GAUSS 130
=z 4
y = 4 L2←L2−3L3 y
= −1
On obtient
z = −1
ainsi x = 2, y =
On aboutit à un système réduit et échelonné : 4 et z = −1 et
x = 2 L1←L1−L2 l’unique
4 solution du
y = −1 système est (2,
z= 4, −1).
La méthode utilisée pour cet exemple est reprise et généralisée dans le paragraphe suivant.
3.3. Méthode du pivot de Gauss
La méthode du pivot de Gauss permet de trouver les solutions de n’importe quel système linéaire. Nous allons
décrire cet algorithme sur un exemple. Il s’agit d’une description précise d’une suite d’opérations à effectuer, qui
dépendent de la situation et d’un ordre précis. Ce processus aboutit toujours (et en plus assez rapidement) à un
système échelonné puis réduit, qui conduit immédiatement aux solutions du système.
Partie A. Passage à une forme échelonnée.
Soit le système suivant à résoudre :
−x2 +2x3 +13x4 = 5
Pour appliquer la méthode du pivot de Gauss, il faut d’abord que le premier coefficient de la première ligne soit
non nul. Comme ce n’est pas le cas ici, on échange les deux premières lignes par l’opération élémentaire
L1 ↔ L2 :
x1 −2x2 +3x3 +17x4 = 4 L1↔L2
−x2 +2x3 +13x4 = 5
Nous avons déjà un coefficient 1 devant le x1 de la première ligne. On dit que nous avons un pivot en position (1,
1) (première ligne, première colonne). Ce pivot sert de base pour éliminer tous les autres termes sur la même
colonne.
Il n’y a pas de terme x1 sur le deuxième ligne. Faisons disparaître le terme x1 de la troisième ligne ; pour
cela on fait l’opération élémentaire L3 ← L3 + L1 :
x1 −2x2 +3x3 +17x4
−x2 +2x3 +13x4 = 4
= 5
x2 −3x4 = 3 L3←L3+L1
SYSTÈMES LINÉAIRES 3. RÉSOLUTION PAR LA MÉTHODE DU PIVOT DE GAUSS 131
On change le signe de la seconde ligne (L2 ← −L2) pour faire apparaître 1 au coefficient du pivot (2, 2) (deuxième
x1 −2x2 +3x3 +17x4 = 4
x2 −3x4 = 3
On fait disparaître le terme x2 de la troisième ligne, puis on fait apparaître un coefficient 1 pour le pivot de la
position (3, 3) :
x1 −2x2 +3x3 +17x4 == 4
−2x3 −13x4 = − 5
x2 8
2x3 +10x4 L3←L3−L2
x1 −2x2 +3x3 +17x4 = 4
−2x3 −13x4 = − 5
x2 = 4
x3 +5x4
Le système est maintenant sous forme échelonnée. L3← 21 L3
Partie B. Passage à une forme réduite.
Il reste à le mettre sous la forme échelonnée réduite. Pour cela, on ajoute à une ligne des multiples adéquats des
lignes situées au-dessous d’elle, en allant du bas à droite vers le haut à gauche.
On fait apparaître des 0 sur la troisième colonne en utilisant le pivot de la troisième ligne :
x1 −2x2 +3x3 +17x4 = 4
x2 −3x4 =3 L2←L2+2L3
x3 +5x4 =4
x1 −2x2 2x4 = −8 L1←L1−3L3 x2 −3x4 = 3
x3 +5x4 = 4
On fait apparaître des 0 sur la deuxième colonne (en utilisant le pivot de la deuxième ligne) :
x1 −4x4 = − 2 L1←L1+2L2
x2 = 3
−3x4
= 4
x3 +5x4
Le système est sous forme échelonnée réduite.
Partie C. Solutions. Le système est maintenant très simple à résoudre. En choisissant x4 comme variable libre, on
peut exprimer x1, x2, x3 en fonction de x4 :
S .
SYSTÈMES LINÉAIRES 3. RÉSOLUTION PAR LA MÉTHODE DU PIVOT DE GAUSS 132
Exemple 9.
Considérons le système homogène
++ − x5 = x5 = 0
3x1 + 3x2 − 2x3
+ 3x4 + 2x5 = 0
2x4 + 4x5 = 0
−x1 − x2 + x3 0.
8x4 +
2x
1 + 2x2 − x3
x3
2x1 −x2 +x4 = 1
2x3 +x4 = 4
x4 = −2
x1 +x2 +x4 = 0 x2 +x3 = 0 2x3 +x4 =
x1 +2x2 +x4 =0
2x3 −3x4 = 0
3. Si l’on passe d’un système (S) par une des trois opérations élémentaires à un système (S′), alors quelle
2x + y + z = 3x − y +
3z = 8
x + 2y − z = −3
2x4 = 2
4x4 = 2
− 6x4 = 3
x +y −z =a
−x +2z = b
2y +2z = 4
Auteurs du chapitre
• D’après un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara Thomas de l’École Polytechnique Fédérale de
Lausanne,
• et un cours de Sophie Chemla de l’université Pierre et Marie Curie, reprenant des parties d’un cours de H.
Ledret et d’une équipe de l’université de Bordeaux animée par J. Queyrut,
• mixés et révisés par Arnaud Bodin, relu par Vianney Combet.
Chapitre
8
Matrices
Les matrices sont des tableaux de nombres. La résolution d’un certain nombre de problèmes d’algèbre linéaire
se ramène à des manipulations sur les matrices. Ceci est vrai en particulier pour la résolution des systèmes
linéaires.
1. Définition
1.1. Définition
Définition 1.
• Une matrice A est un tableau rectangulaire d’éléments de K.
• Elle est dite de taille n × p si le tableau possède n lignes et p colonnes.
a1,1
a1,n
a2,1
a1,2 a2,n
... ...
a2,2 ...
...
...
...
a
2,1
an,1
• La matrice (de taille n × p) dont tous les coefficients sont des zéros est appelée la matrice nulle et est notée
0n,p ou plus simplement 0. Dans le calcul matriciel, la matrice nulle joue le rôle du nombre 0 pour les réels.
MATRICES 2. MULTIPLICATION DE MATRICES 137
1.3. Addition de matrices
définie par
En d’autres termes, on somme coefficients par coefficients. Remarque : on note indifféremment aij où ai,j pour les
coefficients de la matrice A.
Exemple 2.
Si 3 −2 et 0 5 −1 alors 3 3 A+ B
B=2 =36.
A=
1 7
−2
Par contre si B′ = alors B n’est pas définie.
A+ ′
8
Définition 4 (Produit d’une matrice par un scalaire).
Le produit d’une matrice A = aij de Mn,p(K) par un scalaire α ∈ K est la matrice αaij formée en multipliant
Exemple 3.
1 2 3 2 4 6
Si A=0 1 0 et α= 2 alors αA = 0 2 0 .
La matrice (−1)A est l’opposée de A et est notée −A. La différence A− B est définie par A+(−B).
Exemple 4.
2 −−1 0 −1 −4 2 − −3 −5 −−2
Si A=4 5 2 et B= 7 5 3 alors A B= 3 01 .
L’addition et la multiplication par un scalaire se comportent sans surprises :
Proposition 1.
Soient A, B et C trois matrices appartenant à Mn,p(K). Soient α ∈ K et β ∈ K deux scalaires.
Mini-exercices.
1. Soient A =−017 2−−14, B =1 2 32 3 13 2 1, C =−2103 12−336A+, D2C=et125B0 1 01 1 11 0 1−4D,. TrouverE =−−1 23 08
6
αtel que. Calculer toutes les sommesA−αC soit la matrice possibles de deux de ces matrices. Calculer
nulle.
3. Que vaut 0 · A? et 1 · A? Justifier l’affirmation : α(βA) = (αβ)A. Idem avec nA = A + A + ··· + A (n occurrences de
A).
2. Multiplication de matrices
calculer (ligne représentée par des × dans A) et aussi la colonne de la matrice B située au-dessus du coefficient
que l’on veut calculer (colonne représentée par des × dans B). On calcule le produit du premier coefficient de la
ligne par le premier coefficient de la colonne (ai1 × b1j), que l’on ajoute au produit du deuxième coefficient de la
ligne par le deuxième coefficient de la colonne (ai2 × b2j), que l’on ajoute au produit du troisième. . .
1 2 3 1 2
A=2 3 4 B =−1 1
1 1
MATRICES 2. MULTIPLICATION DE MATRICES 140
On dispose d’abord le produit correctement (à gauche) : la matrice obtenue est de taille 2 × 2. Puis on calcule
1 2 coefficients,
−1 1 1
1 2en
1 1 −1
−1 1commençant
1 2 3 c11 c12
1
2 1 1
2 3 4 3 2 par le
32 7
c21 2 1 1 2
c22 12 3 4 c21 c12 c22 12 3 4 3 11 premier
Un exemple intéressant est le produit d’un vecteur ligne par un vecteur colonne :
b1 b2
bn
Alors u × v est une matrice de taille 1 × 1 dont l’unique coefficient est a1b1 + a2b2 +···+ anbn. Ce nombre s’appelle le
Calculer le coefficient cij dans le produit A× B revient donc à calculer le produit scalaire des vecteurs formés par la
5 12 0 14 3 2 4 05 1 10 2
−2 = 29 .
3 −2 4 3 = −2 −6 mais 3 3 −
2
B ≠ 0 mais AB = 0.
Exemple 7.
MATRICES 2. MULTIPLICATION DE MATRICES 141
0 −1 2 −3 0 0
A=0 5 B=0 0 et AB = 0 0 .
Exemple 8.
0 −1 4 −1 2 5 −54
−
A=0 3 B=5 4 C=5 4 et AB = AC = 15 12 .
3. A· 0 = 0 et 0 · A = 0.
Démonstration. Posons A = (aij) ∈ Mn,p(K), B = (bij) ∈ Mp,q(K) et C = (cij) ∈ Mq,r(K). Prouvons que
A(BC)=(AB)C en montrant que les matrices A(BC) et (AB)C ont les mêmes coefficients.
p
X
Le terme d’indice (i, k) de la matrice AB est xik = aiℓbℓk. Le terme d’indice (i, j) de la matrice (AB)C est
ℓ=1
donc
q q p
X XX
xikckj = aiℓbℓk ckj. k=1 k=1 ℓ=1
q
X
Le terme d’indice (ℓ, j) de la matrice BC est yℓj = bℓkckj. Le terme d’indice (i, j) de la matrice A(BC) est
k=1
donc
p q
XX
aiℓ bℓkckj .
ℓ=1 k=1
Comme dans K la multiplication est distributive et associative, les coefficients de (AB)C et A(BC) coïncident.
Les autres démonstrations se font comme celle de l’associativité.
In · A = A et A· Ip = A.
Démonstration. Nous allons détailler la preuve. Soit A ∈ Mn,p(K) de terme général aij. La matrice unité d’ordre p
est telle que tous les éléments de la diagonale principale sont égaux à 1, les autres étant tous nuls. On peut
formaliser cela en introduisant le symbole de Kronecker. Si i et j sont deux entiers, on appelle symbole de
Kronecker, et on note δi,j, le réel qui vaut 0 si i est différent de j, et 1 si i est égal à j. Donc
(
0 si i ≠ j
δi,j =
1 si i = j.
Alors le terme général de la matrice identité Ip est δi,j avec i et j entiers, compris entre 1 et p.
La matrice produit AIp est une matrice appartenant à Mn,p(K) dont le terme général cij est donné par la
p
X formule cij = aikδkj. Dans cette somme, i et j sont fixés et k prend toutes les valeurs comprises
entre 1
k=1
et p. Si k ≠ j alors δkj = 0, et si k = j alors δkj = 1. Donc dans la somme qui définit cij, tous les termes
1
correspondant à des valeurs de k différentes de j sont nuls et il reste donc cij = aijδjj = aij = aij. Donc les matrices
AIp et A ont le même terme général et sont donc égales. L’égalité InA = A se démontre de la même façon.
Définition 6.
Pour tout A ∈ Mn(K), on définit les puissances successives de A par A0 = In et Ap+1 = Ap × A pour tout p ∈ N.
Autrement dit, Ap .
p facteurs
Exemple 9.
1 0 1
0 0 2
1 0 3 1 0 7 1 0 15
0 0 4 0 0 8 0 0 16
1 0 2p − 1
L’observation de ces premières puissances permet de penser que la formule est : Ap =0 (−1)p 0 .
0 0 2p
Démontrons ce résultat par récurrence.
Il est vrai pour p = 0 (on trouve l’identité). On le suppose vrai pour un entier p et on va le démontrer pour p + 1.
On a, d’après la définition,
1 0 2p − 1 1 0 1 1 0 2p+1 − 1
(−1) p
− 1 (−1)p+1
Ap+1 = Ap × A =0 0=0
0
0 0 ×0 2 0 0 0.
0 p 2p+1
2 0
Donc la propriété est démontrée.
Soient A et B deux éléments de Mn(K) qui commutent, c’est-à-dire tels que AB = BA. Alors, pour tout entier
p ⩾ 0, on a la formule
p
A B X
( + )p = kp Ap−kBk
k=0
p
où k désigne le coefficient du binôme.
MATRICES 2. MULTIPLICATION DE MATRICES 144
0 0 1 0 0
k
existe k ∈ N tel que N = 0) comme le montrent les calculs suivants :
0 0 2 4 0 0 0 6
0 0 0 0 0 0 0 0
Comme on a A = I + N et les matrices N et I commutent (la matrice identité commute avec toutes les matrices),
on peut appliquer la formule du binôme de Newton. On utilise que Ik = I pour tout k et surtout que Nk = 0 si k ⩾ 4.
On obtient
p 3
D’où
1 p p2
p(p2 − p + 1)
1 2p
p 0 A =0
0 1
p(3p − 2) .
0 0
0
3p
1
Mini-exercices.
2 1 −
1. Soient A = 0 26 −4 0−2, B = 20
0
1−2 − 03 ,C= −
82
3 25 5 ,D= − 1
52
, E = x y z. Quels produits sont possibles ? Les
calculer !
2
0 0 1 1 0 0 , B2, AB et BA.
2. Soient A = 0 1 01 1 2 et B = 0 0 21 −1 0 . Calculer A
2 0 0 0 0 0 p
et Bp pour tout p ⩾ 0. Montrer que AB = BA. Calculer
3. Soient A = 0 2 00 0 2 et B = 2 0 03 1 0 . Calculer A (A+ B)p.
3.1. Définition
AB = I et BA = I,
On verra plus tard qu’il suffit en fait de vérifier une seule des conditions AB = I ou bien BA = I.
3.2. Exemples
Exemple 11.
Soit A = 1 20 3. Étudier si A est inversible, c’est étudier l’existence d’une matrice B = dans K, a b à coefficients
telle que AB = I et BA = I. Or AB = I équivaut à : cd
MATRICES 146
0
AB I ⇐⇒ 1 2a b1 0 ⇐⇒ a + 2c b + 2d=10
1
= =
0 3 c d 0 1 3c 3d
Cette égalité équivaut au système :
a + 2c = 1
b + 2d = 0
3c = 0
3d = 1
Sa résolution est immédiate :2 a = 1, b = − , c = 0, d = . Il n’y a donc qu’une seule matrice possible, à
1 savoir B = 0. Pour prouver qu’elle convient, il faut aussi montrer l’égalité BA = I, dont la
vérification
1
2
=
est laissée au lecteur. La matrice A est donc inversible et A−1 0 −3 .
3. INVERSE D’UNE MATRICE : DÉFINITION
Exemple 12.
30
n’est pas inversible. En effet, soit B =a b une matrice quelconque. Alors le produit La matrice
A = 50
c d
a b3 0 3a + 5b 0
3c + 5d 0
BA = c d 5 0=
ne peut jamais être égal à la matrice identité.
Exemple 13.
• Soit In la matrice carrée identité de taille n× n. C’est une matrice inversible, et son inverse est elle-même par
• La matrice nulle 0n de taille n × n n’est pas inversible. En effet on sait que, pour toute matrice B de Mn(K), on a
3.3. Propriétés
Unicité
Proposition 5.
Si A est inversible, alors son inverse est unique.
Démonstration. La méthode classique pour mener à bien une telle démonstration est de supposer l’existence de
deux matrices B1 et B2 satisfaisant aux conditions imposées et de démontrer que B1 = B2.
MATRICES 147
A A
Soient donc B1 telle que AB1 = B1 = In et B2 telle que AB2 = B2 = In. Calculons B2(AB1). D’une part, comme AB1 = In,
on a B2(AB1) = B2. D’autre part, comme le produit des matrices est associatif, on a B2(AB1)=(B2A)B1 = InB1 = B1. Donc
B1 = B2.
Inverse de l’inverse
Proposition 6.
Soit A une matrice inversible. Alors A−1 est aussi inversible et on a :
(A−1)−1 = A
Proposition 7.
Soient A et B deux matrices inversibles de même taille. Alors AB est inversible et
(AB)−1 = B−1A−1
AA−1 = I.
De façon analogue, on montre que si A1, . . . , Am sont inversibles, alors (A1A2 ···
Si C est une matrice quelconque de Mn(K), nous avons vu que la relation AC = BC où A et B sont des éléments de
Mn(K) n’entraîne pas forcément l’égalité A = B. En revanche, si C est une matrice inversible, on a la proposition
suivante :
Proposition 8.
Soient A et B deux matrices de M n(K) et C une matrice inversible de M n(K). Alors l’égalité AC = BC implique
l’égalité A = B.
Démonstration. Ce résultat est immédiat : si on multiplie à droite l’égalité AC = BC par C−1, on obtient l’égalité :
(AC)C−1 =(BC)C−1. En utilisant l’associativité du produit des matrices on a A(CC−1)= B(CC−1), ce qui donne d’après la
définition de l’inverse AI = BI, d’où A = B.
MATRICES 148
Mini-exercices.
3. Soit A =−201 −3 00 12 0 . Calculer 2A− A2. Sans calculs, en déduire A−1.
a b
Considérons la matrice 2 × 2 : A = c d .
Proposition 9.
Si ad − bc ≠ 0, alors A est inversible et
− b
a
d
A−1 =−c
= d b
Démonstration. On vérifie que si B − c −a alors AB = 1 00 1. Idem pour BA.
En pratique, on fait les deux opérations en même temps en adoptant la disposition suivante : à côté de la matrice
A que l’on veut inverser, on rajoute la matrice identité pour former un tableau (A | I). Sur les lignes
4. INVERSE D’UNE MATRICE : CALCUL
de cette matrice augmentée, on effectue des opérations élémentaires jusqu’à obtenir le tableau (I | B). Et alors B
= A−1.
2. Li ← Li +λLj avec λ ∈ K (et j ̸= i) : on peut ajouter à la ligne Li un multiple d’une autre ligne Lj.
N’oubliez pas : tout ce que vous faites sur la partie gauche de la matrice augmentée, vous devez aussi le faire sur
la partie droite.
4.3. Un exemple
1 2 1
−1 2 2
1 2 11 0 0 L1
(A | I)= 4 0 −10 1 0 L2
−1 2 20 0 1 L3
On applique la méthode de Gauss pour faire apparaître des 0 sur la première colonne, d’abord sur la deuxième
ligne par l’opération élémentaire L2 ← L2 − 4L1 qui conduit à la matrice augmentée :
1 2 11 0 0
0 −8 −5−4 1 0 L2←L2−4L1
−1 2 20 0 1
1 2 11 0 0
0 −8 −5−4 1 0
0 4 31 0 1 L3←L3+L1
1 2 11 0 0
0 1 85 12 − 0 L2←− 81 L2
0 4 31 0 1
On continue afin de faire apparaître des 0 partout sous la diagonale, et on multiplie la ligne L3. Ce qui termine la
première partie de la méthode de Gauss :
MATRICES 150
1 2 11 0 0
0 1 58120
0 0 12 −1
1L3←L3−4L2
puis
1 2 11 0 0
0 1 58 12 −
0
0 0 1−2 1 2 L3←2L3
Il ne reste plus qu’à « remonter » pour faire apparaître des zéros au-dessus de la diagonale :
1 2 11 0 0
puis
1 0 0
1 11 L1←L1−2L2−L3
0 1 0 4 −4 −4
0 0 1−2 1 2
Ainsi l’inverse de A est la matrice obtenue à droite et après avoir factorisé tous les coefficients par , on a
obtenu :
− −2 −2 −2
1 1 7 3 5
A =4
−8 4 8 ×−
Pour se rassurer sur ses calculs, on n’oublie pas de vérifier rapidement que A A 1 = I.
Mini-exercices.
31 2 3 02 α 11
1. Si possible calculer l’inverse des matrices : 72 , − 5 4− , ,
3 0 +2 α .
,
3. Calculer l’inverse des matrices : −1 3 02 12 1 1−1, 1 1 23 0 52 −2 1 −1 0 1 00 20 2 1 3 1 2 0 1−2 0, 2 1 1 10 11 0 0 10 1 1 0−1
2, −0 1 2 0 00 0 0 2 10 0 0 5 31 1 1 0 01 1 2 0 0.
| {z } | {z } | {z }
A X B
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 152
a11 ... x1 b1
...
a1p a2p x2
a b
21 ... 2
...
... = ... .
...
bn
an1 anp xp
On appelle A ∈ Mn,p(K) la matrice des coefficients du système. B ∈ Mn,1(K) est le vecteur du second membre.
| {z } | {z } | {z }
A X B
a11 . . . a1n x1 b1
. . . a2n
a ... x2 b2
21 ... ...
...
=
ann ... .
an1 xn
bn
Alors A ∈ Mn(K) est une matrice carrée et B un vecteur de Mn,1(K). Pour tout second membre, nous pouvons
Proposition 10.
Si la matrice A est inversible, alors la solution du système AX = B est unique et est :
X = A−1B.
La preuve est juste de vérifier que si X = A−1B, alors AX = A A−1B= AA−1B = I · B = B. Réciproquement si AX = B, alors
nécessairement X = A−1B. Nous verrons bientôt que si la matrice n’est pas inversible, alors soit il n’y a pas de
1. Li ← λLi avec λ≠ 0 : on peut multiplier une ligne par un réel non nul (ou un élément de K\{0}).
2. Li ← Li +λLj avec λ ∈ K (et j ̸= i) : on peut ajouter à la ligne Li un multiple d’une autre ligne Lj.
Nous allons définir trois matrices élémentaires ELi←λLi , ELi←Li+λLj , ELi↔Lj correspondant à ces opérations. Plus
précisément, le produit E × A correspondra à l’opération élémentaire sur A. Voici les définitions accompagnées
d’exemples.
2. La matrice ELi←Li+λLj est la matrice obtenue en ajoutant λ fois la j-ème ligne de In à la i-ème ligne de
In.
1 0 0 0
← − −3 1 0 0
0 0 0 1
3. La matrice ELi↔Lj est la matrice obtenue en permutant les i-ème et j-ème lignes de In.
1 0 0 0
0 0
0 1
0 1
0
EL2↔L4 = EL4↔L2 =0 1 0
0
0
Les opérations élémentaires sur les lignes sont réversibles, ce qui entraîne l’inversibilité des matrices
élémentaires.
Le résultat de la multiplication d’un matrice élémentaire E par A est la matrice obtenue en effectuant l’opération
élémentaire correspondante sur A. Ainsi :
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 154
2. La matrice ELi←Li+λLj × A est la matrice obtenue en ajoutant λ fois la j-ème ligne de A à la i-ème ligne de A.
3. La matrice ELi↔Lj × A est la matrice obtenue en permutant les i-ème et j-ème lignes de A.
Exemple 14.
1.
1 0 0 x1 x2 x3 x1 x2 x3
EL2← 13 L2 × A =0
0 0 1 z1 z2 z3 z1 z2 z3
2.
1 0 −7 x1 x2 x3 x1 − 7z1 x2 − 7z2 x3 − 7z3
1
EL1←L1−7L3 × A =0 0 y
y2 3 z2 z3
0 ×y1 y2 y3= y1
0
1 z1 z2 z3 z1
3.
1 0 0 x1 x2 x3 x1 x2 x3 z2
z
3 y 2 y 3
EL2↔L3 × A =0 0 1×y1 y2 y3=z1
0 1 0 z1 z2 z3 y1
y
0×y1 y2 y3=31 y1 31 y2 31 3
Définition 8.
Deux matrices A et B sont dites équivalentes par lignes si l’une peut être obtenue à partir de l’autre par
une suite d’opérations élémentaires sur les lignes. On note A ∼ B.
Définition 9.
Une matrice est échelonnée si :
• le nombre de zéros commençant une ligne croît strictement ligne par ligne jusqu’à ce qu’il ne reste plus
que des zéros.
Elle est échelonnée réduite si en plus :
• le premier coefficient non nul d’une ligne (non nulle) vaut 1 ;
• et c’est le seul élément non nul de sa colonne.
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 155
coefficients quelconques, les + des coefficients non nuls : Exemple d’une matrice
+ ∗ ∗ ∗ ∗ ∗ ∗ 0 0 ∗ ∗ 0 échelonnée (à gauche)
0 0 + ∗ ∗ ∗ ∗ 1 0 1 0 ∗ ∗
0 ∗ 0 0
0 0 + ∗ 0 0 1 ∗ ∗ et échelonnée réduite
0 0
0 0 0 0 0 ∗ 0 0 0 0 0 0 1
0∗ 0
0 0 0 0 0 0 0 0 0 0 (à droite) ; les ∗
0 0 0 0 0 0 0 0 0 0
0 0 désignent des Étant
0 +
0 0
Théorème 2. donnée une matrice A
0
0
∈ Mn,p(K), il existe une
unique matrice échelonnée réduite U obtenue à partir de A par des opérations élémentaires sur les lignes.
Ce théorème permet donc de se ramener par des opérations élémentaires à des matrices dont la structure est
beaucoup plus simple : les matrices échelonnées réduites.
Au terme de l’étape A.1, soit la matrice A a sa première colonne nulle (à gauche) ou bien on obtient une matrice
équivalente dont le premier coefficient a11′ est non nul (à droite) :
0 a12 ··· a1j ··· a1p a11′ a12′ ··· a1 ′ j ··· a1′ p
0 a22 ··· a2j ··· a2p a21′ a22′ ··· a2 ′ j ··· a2′ p
... ... ... ... ... ... ... ... ··· ··· = A ou ai′1 ai′2 ··· aij′ ··· aip′ ∼ A.
... ... ... ... ... ... ... ...
0 an2 ··· anj ··· anp an′ 1 an′ 2 ··· anj′ ··· anp′
On ne touche plus à la ligne 1, et on se sert du pivot a11′ pour éliminer tous les termes ai′1 (avec i ⩾ 2) situés sous
le pivot. Pour cela, il suffit de remplacer la ligne i par elle-même moins ai′1 × la ligne 1, ceci pour a11′
i = 2, . . . , n : L2 ← L2 a′ ← L3 − aa
′
a111 a a11p
aip1 ∼
0
A
··· ···
... ai12 aij1
...
... ...
0 ap
...
0 a anp1
dont la première colonne est bien celle d’une matrice échelonnée. On va donc conserver cette première colonne.
=
Si a111 ̸ 0, on conserve aussi la première ligne, et l’on repart avec l’étape A.1 en l’appliquant cette fois à la sous-
matrice (n − 1)×(p − 1) (ci-dessous à gauche : on « oublie » la première ligne et la première colonne de A) ; si a111 =
0, on repart avec l’étape A.1 en l’appliquant à la sous-matrice n ×(p − 1) (à droite, on « oublie » la première
colonne) :
aa1
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 157
a p a 1pp
... ... ... ... ... ...
ai12 ··· aij1 ··· aip1 ai12 ··· aij1 ··· aip1
... ... ... .
a anp1 a.. ... anp1...
Au terme de cette deuxième itération de la boucle, on aura obtenu une matrice de la forme
a111 a a11p
aip2 ∼
0
0 A,
··· ···
... ... aij2
.
. .
...
0 ap
...
anp2
et ainsi de suite.
Comme chaque itération de la boucle travaille sur une matrice qui a une colonne de moins que la précédente,
alors au bout d’au plus p − 1 itérations de la boucle, on aura obtenu une matrice échelonnée.
Exemple 15.
Soit
1 2 3 4
2 4
A = 0 0 1 6 .
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 158
−1 0
A. Passage à une forme échelonnée.
Première itération de la boucle, étape A.1. Le choix du pivot est tout fait, on garde a111 = 1.
Première itération de la boucle, étape A.2. On ne fait rien sur la ligne 2 qui contient déjà un zéro en bonne
position et on remplace la ligne 3 par L3 ← L3 + L1. On obtient
1 2 3 4
Deuxième itération de la boucle, étape A.1. 2 4 Le choix du pivot est tout fait, on garde a222 =
2. A ∼ 0
2 4 6 .
Deuxième itération de la boucle, étape A.2. 0 4 On remplace la ligne 3 avec l’opération L3 ←
L3 − L2. On obtient
1 2 3 4 6
2 4
A ∼ 0 .
0 0
0 Cette matrice est échelonnée. −2
4L3. On obtient
1 2 3 0
A ∼ 0 1 2 0 .
0 0 0 1
Étape B.2, deuxième itération. On ne touche plus à la ligne 2 et on remplace la ligne 1 par L1 ← L1 − 2L2.
On obtient
1 0 − 1 0
1 2
A ∼ 0 0
0 0
1
0
qui est bien échelonnée et réduite.
5.5. Matrices élémentaires et inverse d’une matrice
Théorème 3.
Soit A ∈ Mn(K). La matrice A est inversible si et seulement si sa forme échelonnée réduite est la matrice
identité In.
Démonstration. Notons U la forme échelonnée réduite de A. Et notons E le produit de matrices élémentaires tel
que EA = U.
⇐= Si U = In alors EA = In. Ainsi par définition, A est inversible et A−1 = E.
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 159
— Supposons U ≠ In. Alors la dernière ligne de U est nulle (sinon il y aurait un pivot sur chaque ligne donc
ce serait In).
— Cela entraîne que U n’est pas inversible : en effet, pour tout matrice carrée V, la dernière ligne de UV est
nulle ; on n’aura donc jamais UV = In.
— Alors, A n’est pas inversible non plus : en effet, si A était inversible, on aurait U = EA et U serait inversible
comme produit de matrices inversibles (E est inversible car c’est un produit de matrices élémentaires qui
sont inversibles).
Remarque.
Justifions maintenant notre méthode pour calculer A−1.
Nous partons de (A|I) pour arriver par des opérations élémentaires sur les lignes à (I|B). Montrons que
B = A−1. Faire une opération élémentaire signifie multiplier à gauche par une des matrices élémentaires.
Notons E le produit de ces matrices élémentaires. Dire que l’on arrive à la fin du processus à I signifie EA = I. Donc
A−1 = E. Comme on fait les mêmes opérations sur la partie droite du tableau, alors on obtient EI = B. Donc B = E.
Conséquence : B = A−1.
Corollaire 1.
Les assertions suivantes sont équivalentes :
(i) La matrice A est inversible.
0 0
. .
(ii) Le système linéaire AX = .. a une unique solution X = .. .
0 0
(iii) Pour tout second membre B, le système linéaire AX = B a une unique solution X .
Nous allons seulement montrer (ii) =⇒ (i). Nous raisonnons par contraposée : nous allons montrer la proposition
équivalente non(i) =⇒ non(ii). Si A n’est pas inversible, alors sa forme échelonnée réduite U contient un premier
00 0 01 cℓ0−1 ∗ ······ ∗∗ . On note X = −c1ℓ−1 .
MATRICES 5. INVERSE D’UNE MATRICE : SYSTÈMES LINÉAIRES ET MATRICES ÉLÉMENTAIRES 160
0 0
Alors X n’est pas le vecteur nul, mais UX est le vecteur nul. Comme A = E−1U, alors AX est le vecteur nul.
Nous avons donc trouvé un vecteur non nul X tel que AX = 0.
Mini-exercices.
1. Exprimer les systèmes linéaires suivants sous forme matricielle et les résoudre en inversant la matrice :
x
x+z=1 + t =α
2. Écrire les matrices 4 × 4 correspondant aux opérations élémentaires : L2 ← 13 L2, L3 ← L3 − 14 L2, L1 ↔ L4. Sans
calculs, écrire leurs inverses. Écrire la matrice 4×4 de l’opération L1 ← L1 −2L3 +3L4.
1 2 3 1 0 2
3. Écrire les matrices suivantes sous forme échelonnée, puis échelonnée réduite : 1 4 0 ,
1 −1 12 3 ,
2 0 −2 00 . −2 −2 −3 2−
i < j =⇒ aij = 0.
a22 ...
a21
...
... ...
...
...
...
... ...
··· ··· 0
an2
...
ann
an1
On dit que A est triangulaire supérieure si ses éléments en-dessous de la diagonale sont nuls, autrement
dit :
i > j =⇒ aij = 0.
...
ann
0
Exemple 16.
Deux matrices triangulaires inférieures (à gauche), une matrice triangulaire supérieure (à droite) :
4 0 0 5 0 1 1 −1
0 −1 0 − 0 −1 −−1
1 2
MATRICES 6. MATRICES TRIANGULAIRES, TRANSPOSITION, TRACE, MATRICES SYMÉTRIQUES 162
3 −2 3 0 0 1
Une matrice qui est triangulaire inférieure et triangulaire supérieure est dite diagonale. Autrement dit :
i= ̸ j =⇒ aij = 0.
Exemple 17.
−1 0 0 2 0
0 6 0 et
0 3
0 0 0
α1 0 ... ... 0 α1p 0 ... ... 0
D = ... ... ... ... ... =⇒ Dp = ... ... ... ... ...
p
0 0
0 ∗ ··· ∗ .
0
.
. 0 ··· ···
Il est alors clair que la colonne numéro ℓ de la forme échelonnée réduite ne contiendra pas de 1 comme
pivot. La forme échelonnée réduite de A ne peut donc pas être In et par le théorème 3, A n’est pas inversible.
Dans le cas d’une matrice triangulaire inférieure, on utilise la transposition (qui fait l’objet de la section suivante)
et on obtient une matrice triangulaire supérieure. On applique alors la démonstration ci-dessus.
6.2. La transposition
Soit A la matrice de taille n × p
a11 a12 . . . a1p On appelle matrice transposée de A la
a22 ... matrice AT de taille p × n définie par :
a a2p
21 A ...
= ... . . . ... .
a11 a21 . . . an1
an2
anp
an1
AT = a12... a22... ... an...2
Définition 10.
.
Autrement dit : le coefficient à la place (i, j) de AT est aji. Ou encore la i-ème ligne de A devient la i-ème colonne
de AT (et réciproquement la j-ème colonne de AT est la j-ème ligne de A).
1 2 3 T 1 4 −7
4 5 −6 =2 5 8
−7 8 9 3 −6 9
−1 2 5
2. (αA)T =αAT
3. (AT)T = A
4. (AB)T = BTAT
6.3. La trace
Dans le cas d’une matrice carrée de taille n × n, les éléments a11, a22, . . . , ann sont appelés les éléments
diagonaux.
an1 ann
Définition 11.
La trace de la matrice A est le nombre obtenu en additionnant les éléments diagonaux de A. Autrement
dit,
Exemple 20.
• Si A = 2 10 5, alors tr A = 2 + 5 = 7.
11 2
• Pour B = 11 05 2 −810 , tr B = 1 + 2 − 10 = −7.
Théorème 6.
Soient A et B deux matrices n × n. Alors :
1. tr(A+ B) = tr A + tr B,
3. tr(AT) = tr A,
4. tr(AB) = tr(BA).
Démonstration.
1. Pour tout 1 ⩽ i ⩽ n, le coefficient (i, i) de A+ B est aii + bii. Ainsi, on a bien tr(A+ B) = tr(A) + tr(B).
3. Étant donné que la transposition ne change pas les éléments diagonaux, la trace de A est égale à la trace de
AT.
qui vaut le coefficient (1, 1) de BA. On note dij les coefficients de BA. En faisant de même avec les autres
lignes, on voit finalement que tr(AB)= d11 +···+ dnn = tr(BA).
Définition 12.
Une matrice A de taille n × n est symétrique si elle est égale à sa transposée, c’est-à-dire si
A = AT,
ou encore si aij = aji pour tout i, j = 1, . . . , n. Les coefficients sont donc symétriques par rapport à la
diagonale.
Exemple 21.
Les matrices suivantes sont symétriques :
0 2 −1 0 5
MATRICES 6. MATRICES TRIANGULAIRES, TRANSPOSITION, TRACE, MATRICES SYMÉTRIQUES 166
2 4 0 21
−
5 −10
Exemple 22.
Pour une matrice B quelconque, les matrices B · BT et BT · B sont symétriques.
Définition 13.
Une matrice A de taille n × n est antisymétrique si
AT = −A,
Exemple 23.
0 −1 −0 4 −2
1 0 4 0 5
−2 5 0
Remarquons que les éléments diagonaux d’une matrice antisymétrique sont toujours tous nuls.
Exemple 24.
Toute matrice est la somme d’une matrice symétrique et d’une matrice antisymétrique.
Preuve : Soit A une matrice. Définissons B = (A + AT) et C = (A − AT). Alors d’une part A = B + C ; d’autre part B
est symétrique, car BT = 12(AT +(AT)T)= 12(AT + A)= B ; et enfin C est antisymétrique, car
CT = 21(AT −(AT)T)= −C. 0 1
.1
Exemple : −
2 9
2 0
Pour A=8 10 −3 alors A = 9 −3 +
| {z } | {z }
symétrique antisymétrique
Mini-exercices.
1. Montrer que la somme de deux matrices triangulaires supérieures reste triangulaire supérieure.
Montrer que c’est aussi valable pour le produit.
2. Montrer que si A est triangulaire supérieure, alors AT est triangulaire inférieure. Et si A est
diagonale ?
x
1 ! x2
xn
MATRICES 6. MATRICES TRIANGULAIRES, TRANSPOSITION, TRACE, MATRICES SYMÉTRIQUES 167
5. Soit A une matrice de taille 2 × 2 inversible. Montrer que si A est symétrique, alors A−1 aussi. Et si A
est antisymétrique ?
6. Montrer que la décomposition d’une matrice sous la forme « symétrique + antisymétrique » est
unique.
Auteurs du chapitre
• D’après un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara Thomas de l’École Polytechnique Fédérale de
Lausanne,
• et un cours de Sophie Chemla de l’université Pierre et Marie Curie, reprenant des parties de cours de H.
Ledret et d’une équipe de l’université de Bordeaux animée par J. Queyrut,
• mixés et révisés par Arnaud Bodin, relu par Vianney Combet.
Chapitre
Ce chapitre est consacré à l’ensemble Rn vu comme espace vectoriel. Il peut être vu de plusieurs façons :
• un cours minimal sur les espaces vectoriels pour ceux qui n’auraient besoin que de R n, • une introduction
avant d’attaquer le cours détaillé sur les espaces vectoriels,
• une source d’exemples à lire en parallèle du cours sur les espaces vectoriels.
1. Vecteurs de Rn
• L’ensemble des nombres réels R est souvent représenté par une droite. C’est un espace de
x 1
dimension 1. • Le plan est formé des couples x 2 de nombres réels. Il est noté R2. C’est un espace à
deux dimensions.
x12 R3.
• L’espace de dimension 3 est constitué des triplets de nombres réels xx3 . Il est noté x1
x1 x1
x2 x2
x3 x3
On généralise ces notions en considérant des espaces de dimension n pour tout entier positif n = 1, 2, 3, 4, . . .
x
1 ! x2
L’ESPACE VECTORIEL Rn 170
Les éléments de l’espace de dimension n sont les n-uples ... de nombres réels. L’espace de dimension
xn
x
1 ! x2
n est noté Rn. Comme en dimensions 2 et 3, le n-uple ... dénote aussi bien un point qu’un vecteur de
xn
l’espace de dimension n.
1. VECTEURS DE Rn
u v
1 ! 1 ! u2 v2
Définition 1.
u1 + v 1
... .
un + v n
λu1
.
• Produit d’un vecteur par un scalaire. Soit λ ∈ R (appelé un scalaire) : λ· u = . . .
λun
0
.
• Le vecteur nul de Rn est le vecteur 0 = .. .
0
u u
1 − 1
. .
• L’opposé du vecteur u = .. est le vecteur −u = .. .
un −un
u+v
−u
L’ESPACE VECTORIEL Rn 171
Dans un premier temps, vous pouvez noter u⃗, v⃗ , 0⃗ au lieu de u, v, 0. Mais il faudra s’habituer rapidement à la
notation sans flèche. De même, si λ est un scalaire et u un vecteur, on notera souvent λu au lieu de λ· u.
Théorème 1.
u v w
1 1 1
. . .
Soient u = .. ,v= .. et w = .. des vecteurs de Rn et λ, µ ∈ R. Alors :
un vn wn
1. u + v = v + u
4. u +(−u)= 0
5. 1 · u = u
6. λ·(µ· u)=(λµ)· u
u u+v
u
1
.
Soit u = .. un vecteur de Rn. On l’appelle vecteur colonne et on considère naturellement u comme une
un matrice de taille n × 1. Parfois, on rencontre aussi des vecteurs lignes : on peut voir le vecteur u
comme une matrice 1 × n, de la forme (u1, . . . , un). En fait, le vecteur ligne correspondant à u est le transposé uT
du vecteur colonne u.
L’ESPACE VECTORIEL Rn 172
Les opérations de somme et de produit par un scalaire définies ci-dessus pour les vecteurs coïncident
parfaitement avec les opérations définies sur les matrices :
. .
u1 v1 u1 + v1 u1 λu1 u + v = ... + .. = .. et λu =λ
. .
.. = .. . un vn un + vn un λun
. .
Soient u = .. et v = .. deux vecteurs de Rn. On définit leur produit scalaire par
un vn
C’est un scalaire (un nombre réel). Remarquons que cette définition généralise la notion de produit scalaire dans
le plan R2 et dans l’espace R3.
Une autre écriture :
v1 v
|
〈 u v 〉 = uT × v = u1 u2 ··· un× ...2
vn
Soient A =(aij) une matrice de taille n × p, et B =(bij) une matrice de taille p × q. Nous savons que l’on peut former
le produit matriciel AB. On obtient une matrice de taille n × q. L’élément d’indice i j de la matrice AB est
b2j
ai1 ai2 ··· aip× ... .
bpj
Autrement dit, c’est le produit scalaire du i-ème vecteur ligne de A avec le j-ème vecteur colonne de B. Notons
ℓ1, . . . , ℓn les vecteurs lignes formant la matrice A, et c1, . . . , cq les vecteurs colonnes formant la matrice B. On a
alors
〈ℓ1 | c1〉 〈ℓ1 | c2〉 ··· 〈ℓ1 | cq〉
AB = ... ... ... .
〈ℓn | c1〉 〈ℓn | c2〉 ··· 〈ℓn | cq〉
Mini-exercices.
1. Faire un dessin pour chacune des 8 propriétés qui font de R2 un espace vectoriel.
2. Faire la même chose pour R3. 3. Montrer que le produit scalaire vérifie 〈u | v〉 = 〈v | u〉, 〈u+ v | w〉 = 〈u |
définie par
Définition 2.
Une application f : Rp −→ Rn définie par f (x1, . . . , xp)=(y1, . . . , yn) est dite une application linéaire si
y
y12 == aa1121xx11 ++ aa1222xx22 ++ ······ ++ aa12pp xxpp
anp xp
a ou encore, si on note X = xp y n x1
.
xp
f (X )= AX .
Autrement dit, une application linéaire Rp → Rn peut s’écrire X 7→ AX . La matrice A ∈ Mn,p(R) est appelée la
Remarque.
• On a toujours f (0, . . . , 0)=(0, . . . , 0). Si on note 0 pour le vecteur nul dans R p et aussi dans Rn, alors une
application linéaire vérifie toujours f (0)= 0.
L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 175
• Le nom complet de la matrice A est : la matrice de l’application linéaire f de la base canonique de Rp vers la
base canonique de Rn !
Exemple 1.
La fonction f : R4 −→ R3 définie par
y1 = −2x1 + 5x2 + 2x3 − 7x4
y2 = 4x1 + 2x2 − 3x3 + 3x4 y3 = 7x1 −
3x2 + 9x3
xx
y2= 4 2 −3 3 23 . y3 7 −3 9 0
x4
Exemple 2.
• Pour l’application linéaire identité Rn → Rn, (x1, . . . , xn) 7→ (x1, . . . , xn), sa matrice associée est l’identité
In (car InX = X ).
• Pour l’application linéaire nulle Rp → Rn, (x1, . . . , xp) →7 (0, . . . , 0), sa matrice associée est la matrice
La fonction
f : R2 −→ R2 xy 7→ −yx
est la réflexion par rapport à l’axe des ordonnées (O y), et sa matrice est
− 1 0 −1 0x −x 0
1 car 0 1 y = y .
L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 176
−x x
y y
O x
La réflexion par rapport à l’axe des abscisses (Ox) est donnée par la matrice
1 0
.
0 −1
y
x
y
O x
x
−y
y
( y = x)
x
x
y
O x
Homothéties
x
y
O x
Remarque.
u 0
La translation de vecteur v0 est l’application
u 0= 0
Si c’est une translation de vecteur non nul, c’est-à-dire v0 ̸ 0 , alors ce n’est pas une application linéaire,
Rotations
′
x
y ′
y
x
y
θ
r
α
O x
x x
Si le vecteur y fait un angle α avec l’horizontale et que le point y est à une distance r de l’origine, alors
x = r cos α . y = r sin
Si xy′′ dénote l’image de x
y par la rotation d’angle θ, on obtient :
sin α cos θ
cos θ − sin θ
.
sin θ cos θ
Projections orthogonales
L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 179
x
y
O x x
0
L’application
f : R2 −→ R2, xy 7→ 0x
est la projection orthogonale sur l’axe (Ox). C’est une application linéaire donnée par la matrice
1 0
.
0 0
L’application linéaire
x x
x
y
z
O
y
x
y
0
x
De même, la projection orthogonale sur le plan (Oxz) est donnée par la matrice de gauche ; la projection
1 0 0 0 0 0
0 0 0
0 1 0 .
0 0 1
0 0 1
orthogonale sur le plan (O yz) par la
Réflexions dans l’espace
L’application
f : R3 −→ R3, x x
y 7→ y z
−z matrice de droite : est la réflexion par
rapport au plan (Ox y). C’est une application linéaire et sa matrice est
1 0 0
0 1 0.
0 0 −1
De même, les réflexions par rapport aux plans (Oxz) (à gauche) et (O yz) (à droite) sont données par les
matrices :
1 0 0 −1 0 0
L’ESPACE VECTORIEL Rn 2. EXEMPLES D’APPLICATIONS LINÉAIRES 181
0 0 − 1 0 0 1
0 .
01 0 0
1
Mini-exercices.
1. Soit A = 1 21 3 et soit f l’application linéaire associée. Calculer et dessiner l’image par f de 10, puis 01 et plus
4. Écrire la matrice de la réflexion du plan par rapport à la droite (y = −x). Idem dans l’espace avec la réflexion
associée à g,
On a pour un vecteur X ∈ Rq :
Autrement dit, la matrice associée à la composition de deux applications linéaires est égale au produit de leurs
matrices :
En fait le produit de matrices, qui au premier abord peut sembler bizarre et artificiel, est défini exactement pour
vérifier cette relation.
Exemple 3.
Soit f : R2 −→ R2 la réflexion par rapport à la droite (y = x) et soit g : R2 −→ R2 la rotation d’angle θ =
−p23 . et p
sin θ cos θ
Alors
2 2
Les matrices C = AB et D = BA sont distinctes, ce qui montre que la composition d’applications linéaires, comme
la multiplication des matrices, n’est pas commutative en général.
Théorème 2.
Une application linéaire f : Rn → Rn est bijective si et seulement si sa matrice associée A = Mat(f ) ∈ Mn(R)
est inversible.
L’application f est définie par f (X )= AX . Donc si f est bijective, alors d’une part f (X )= Y ⇐⇒ X = f −1(Y ), mais
Corollaire 1.
Si f est bijective, alors Mat(f −1)= Mat(f )−1.
Exemple 4.
L’ESPACE VECTORIEL Rn 3. PROPRIÉTÉS DES APPLICATIONS LINÉAIRES 184
x
y
O x x
0
10
La matrice de f est 00 ; elle n’est pas inversible.
La preuve du théorème 2 est une conséquence directe du théorème suivant, vu dans le chapitre sur les
matrices :
Théorème 3.
Les assertions suivantes sont équivalentes :
(i) La matrice A est inversible.
0 0
. .
(ii) Le système linéaire AX = .. a une unique solution X = .. .
0 0
(iii) Pour tout second membre Y , le système linéaire AX = Y a une unique solution X .
Démonstration. • Si A est inversible, alors pour tout vecteur Y le système AX = Y a une unique solution X ,
autrement dit pour tout Y , il existe un unique X tel que f (X )= AX = Y . f est donc bijective.
• Si A n’est pas inversible, alors il existe un vecteur X non nul tel que AX = 0. En conséquence on a X ≠ 0
Théorème 4.
L’ESPACE VECTORIEL Rn 3. PROPRIÉTÉS DES APPLICATIONS LINÉAIRES 185
Une application f : Rp −→ Rn est linéaire si et seulement si pour tous les vecteurs u, v de Rp et pour tout scalaire
Dans le cadre général des espaces vectoriels, ce sont ces deux propriétés (i) et (ii) qui définissent une application
linéaire.
Définition 3.
Les vecteurs
0 1
1 0
0 e1 .
matrice de f (dans les bases canoniques de Rp vers Rn) est donnée par
autrement dit les vecteurs colonnes de Mat(f ) sont les images par f des vecteurs de la base canonique
(e1, . . . , ep).
Exemple 6.
Considérons l’application linéaire f : R3 → R4 définie par
y2 = −x1 −4x2
y4 = 3x2 +2x3 .
1 0 0
Calculons les images des vecteurs de la base canonique 0 , 1 , 0 :
0 0 1
f 0= 51 f 1= 14 f 0= 1
0 0 1
0 3 2
2 1 −1
1
Mat(f )= −5 −14 01 .
0 3 2
Exemple 7.
Soit f : R2 → R2 la réflexion par rapport à la droite (y = x) et soit g la rotation du plan d’angle centrée à l’origine.
1 p3 1
1 p3
Mat(f )= p .
Voici la preuve du théorème 4.
Démonstration. Supposons f : Rp −→ Rn linéaire, et soit A sa matrice. On a f (u+ v)= A(u+ v)= Au+Av = f (u)+ f (v) et f
Réciproquement, soit f : Rp −→ Rn une application qui vérifie (i) et (ii). Nous devons construire une matrice A telle
que f (u)= Au. Notons d’abord que (i) implique que f (v1 + v2 +···+ vr)= f (v1)+ f (v2)+···+ f (vr).
(x2e2)+···+ f (xpep)
Mini-exercices.
1. Soit f la réflexion du plan par rapport à l’axe (Ox) et soit g la rotation d’angle centrée à l’origine.
Calculer la matrice de f ◦ g de deux façons différentes (produit de matrices et image de la base canonique).
Cette matrice est-elle inversible ? Si oui, calculer l’inverse. Interprétation géométrique. Même question avec
g◦f.
2. Soit f la projection orthogonale de l’espace sur le plan (Oxz) et soit g la rotation d’angle d’axe (O y).
Calculer la matrice de f ◦ g de deux façons différentes (produit de matrices et image de la base canonique).
Cette matrice est-elle inversible ? Si oui, calculer l’inverse. Interprétation géométrique. Même question
avec g ◦ f .
L’ESPACE VECTORIEL Rn 3. PROPRIÉTÉS DES APPLICATIONS LINÉAIRES 188
Auteurs du chapitre
• D’après un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara Thomas de l’École Polytechnique Fédérale de
Lausanne,
• révisé et reformaté par Arnaud Bodin, relu par Vianney Combet.
Chapitre
10 Espaces
vectoriels
La notion d’espace vectoriel est une structure fondamentale des mathématiques modernes. Il s’agit de dégager
les propriétés communes que partagent des ensembles pourtant très différents. Par exemple, on peut
additionner deux vecteurs du plan, et aussi multiplier un vecteur par un réel (pour l’agrandir ou le rétrécir). Mais
on peut aussi additionner deux fonctions, ou multiplier une fonction par un réel. Même chose avec les
polynômes, les matrices,... Le but est d’obtenir des théorèmes généraux qui s’appliqueront aussi bien aux
vecteurs du plan, de l’espace, aux espaces de fonctions, aux polynômes, aux matrices,... La contrepartie de cette
grande généralité de situations est que la notion d’espace vectoriel est difficile à appréhender et vous
demandera une quantité conséquente de travail ! Il est bon d’avoir d’abord étudié le chapitre « L’espace
vectoriel Rn ».
vecteurs u, v pour en former un troisième u + v (ou u − v) et aussi afin que l’on puisse multiplier chaque vecteur u
Définition 1.
Un K-espace vectoriel est un ensemble non vide E muni :
ESPACES VECTORIELS 190
• d’une loi de composition interne, c’est-à-dire d’une application de E × E dans E :
E×E → E
(u, v) 7→ u+v
1. ESPACE VECTORIEL (DÉBUT)
K× E → E
(λ, u) 7→ λ· u
4. Tout u ∈ E admet un symétrique u′ tel que u + u′ = 0E. Cet élément u′ est noté −u.
5. 1 · u = u (pour tout u ∈ E)
Nous reviendrons en détail sur chacune de ces propriétés juste après des exemples.
R. Ceci s’écrit
R | R, y ∈ R .
• Définition de la loi interne. Si (x, y) et (x′, y′) sont deux éléments de R2, alors :
• Définition de la loi externe. Si λ est un réel et (x, y) est un élément de R2, alors :
−(x, y).
λ·u
u+v
0 v
−u
L’exemple suivant généralise le précédent. C’est aussi le bon moment pour lire ou relire le chapitre « L’espace
vectoriel Rn ».
1. ESPACE VECTORIEL (DÉBUT)
• Définition de la loi externe. Si λ est un réel et (x1, . . . , xn) est un élément de Rn, alors :
L’élément neutre de la loi interne est le vecteur nul (0, 0, . . . , 0). Le symétrique de ( x1, . . . , xn) est (−x1, . . . , −xn),
que l’on note −(x1, . . . , xn).
De manière analogue, on peut définir le C-espace vectoriel Cn, et plus généralement le K-espace vectoriel Kn.
Exemple 3.
Tout plan passant par l’origine dans R 3 est un espace vectoriel (par rapport aux opérations habituelles sur les
vecteurs). Soient K=R et E = P un plan passant par l’origine. Le plan admet une équation de la forme :
ax + b y + cz = 0
x
y
Un élément uE est donc un triplet (noté ici comme un vecteur colonne) z tel que ax + b y + cz = 0.
∈
x x′
Soient y et y′ deux éléments de P . Autrement dit, z
z′ ax + b y + cz = 0, et ax′ + b y′ + cz′ = 0.
x+x′
Alors y+y′ est aussi dans P car on a bien : z+z′ a(x + x′)+ b(y + y′)+ c(z + z
′)= 0.
0 x
Les autres propriétés sont aussi faciles à vérifier : par exemple l’élément neutre est 0 ; et si y appartient
0 z
P x à, alors ax
+ b y + cz = 0, que l’on peut réécrire a(−x)+ b(−y)+ c(−z)= 0 et ainsi − zy appartient à P .
Attention ! Un plan ne contenant pas l’origine n’est pas un espace vectoriel, car justement il ne contient pas
0 le
vecteur nul 0
.
0
• L’ élément neutre 0E s’appelle aussi le vecteur nul. Il ne doit pas être confondu avec l’élément 0 de K.
Lorsqu’il n’y aura pas de risque de confusion, 0E sera aussi noté 0.
ESPACES VECTORIELS 2. ESPACE VECTORIEL (FIN) 193
• La loi de composition interne sur E (notée usuellement +) est appelée couramment l’addition et u + u′ est
• La loi de composition externe sur E est appelée couramment multiplication par un scalaire. La multiplication
du vecteur u par le scalaire λ sera souvent notée simplement λu, au lieu de λ· u.
Somme de n vecteurs. Il est possible de définir, par récurrence, l’addition de n vecteurs, n ⩾ 2. La structure
d’espace vectoriel permet de définir l’addition de deux vecteurs (et initialise le processus). Si maintenant la
somme de n − 1 vecteurs est définie, alors la somme de n vecteurs v1, v2, . . . , vn est définie par
L’associativité de la loi + nous permet de ne pas mettre de parenthèses dans la somme v1 + v2 +···+ vn.
n
X
On notera v1 + v2 +···+ vn = v i.
i=1
Mini-exercices.
1. Vérifier les 8 axiomes qui font de R3 un R-espace vectoriel.
2. Idem pour une droite D de R3 passant par l’origine définie par a′axx ++b′b yy ++ccz′z == 00 . .
3. Justifier que les ensembles suivants ne sont pas des espaces vectoriels : (x, y) ∈ R2 | x y = 0 ;
⩾
| | x ⩾ 0 et y
| − ⩽ x ⩽ 1 et − 1 ⩽ y ⩽ 1 .
4. Montrer par récurrence que si les vi sont des éléments d’un K-espace vectoriel E, alors pour tous λi ∈ K : λ1v1
+λ2v2 +···+λnvn ∈ E.
Loi interne.
La loi de composition interne dans E, c’est une application de E × E dans E :
ESPACES VECTORIELS 2. ESPACE VECTORIEL (FIN) 194
E×E → E
(u, v) →7 u+v
C’est-à-dire qu’à partir de deux vecteurs u et v de E, on nous en fournit un troisième, qui sera noté u + v. La loi de
composition interne dans E et la somme dans K seront toutes les deux notées +, mais le contexte permettra de
déterminer aisément de quelle loi il s’agit.
Loi externe.
La loi de composition externe, c’est une application de K× E dans E :
K× E → E
(λ, u) 7→ λ· u
C’est-à-dire qu’à partir d’un scalaire λ ∈ K et d’un vecteur u ∈ E, on nous fournit un autre vecteur, qui sera noté
λ· u.
1. Commutativité. Pour tous u, v ∈ E, u + v = v + u. On peut donc additionner des vecteurs dans l’ordre que l’on
souhaite.
2. Associativité. Pour tous u, v, w ∈ E, on a u +(v + w)=(u + v)+ w. Conséquence : on peut « oublier » les
3. Il existe un élément neutre, c’est-à-dire qu’il existe un élément de E, noté 0E, vérifiant : pour tout u ∈ E, u + 0E
= u (et on a aussi 0E + u = u par commutativité). Cet élément 0E s’appelle aussi le vecteur nul.
4. Tout élément u de E admet un symétrique (ou opposé), c’est-à-dire qu’il existe un élément u′ de E tel que u +
Proposition 1.
• S’il existe un élément neutre 0E vérifiant l’axiome (3) ci-dessus, alors il est unique.
• Soit u un élément de E. S’il existe un élément symétrique u′ de E vérifiant l’axiome (4), alors il est unique.
Démonstration.
• Soient 0E et 0′E deux éléments vérifiant la définition de l’élément neutre. On a alors, pour tout élément u de E :
u + 0E = 0E + u = u et u + 0′E = 0′E + u = u
u
— Alors, la première propriété utilisée avec = 0′E donne 0′E + 0E = 0E + 0′E = 0′E.
u
— La deuxième propriété utilisée avec = 0E donne 0E + 0′E = 0′E + 0E = 0E. — En
Calculons u′ +(u + u′′) de deux façons différentes, en utilisant l’associativité de la loi + et les relations
précédentes.
— u′ +(u + u′′)= u′ + 0E = u′
— u′ +(u + u′′)=(u′ + u)+ u′′ = 0E + u′′ = u′′ — On en
déduit u′ = u′′.
Remarque.
Les étudiants connaissant la théorie des groupes reconnaîtront, dans les quatre premiers axiomes ci-dessus, les
axiomes caractérisant un groupe commutatif.
7. Distributivité par rapport à l’addition des vecteurs. Pour tout élément λ de K et pour tous
éléments u et v de E, on a
λ·(u + v)=λ· u +λ· v.
8. Distributivité par rapport à l’addition des scalaires. Pour tous λ et µ de K et pour tout élément u de
E, on a :
(λ+µ)· u =λ· u +µ· u.
La loi interne et la loi externe doivent donc satisfaire ces huit axiomes pour que (E, +, ·) soit un espace vectoriel
sur K.
2.2. Exemples
Dans tous les exemples qui suivent, la vérification des axiomes se fait simplement et est laissée au soin des
étudiants. Seules seront indiquées, dans chaque cas, les valeurs de l’élément neutre de la loi interne et du
symétrique d’un élément.
Exemple 4 (L’espace vectoriel des fonctions de R dans R).
L’ensemble des fonctions f : R −→ R est noté F(R, R). Nous le munissons d’une structure de R-espace vectoriel de
la manière suivante.
• Loi interne. Soient f et g deux éléments de F(R, R). La fonction f + g est définie par :
(où le signe + désigne la loi interne de F(R, R) dans le membre de gauche et l’addition dans R dans le membre
de droite).
• Loi externe. Si λ est un nombre réel et f une fonction de F(R, R), la fonction λ· f est définie par l’image de tout
• Élément neutre. L’élément neutre pour l’addition est la fonction nulle, définie par :
∀x ∈ R f (x)= 0.
∀x ∈ R g(x)= −f (x).
On notetions de SN dansl’ensemble des suites réellesR ; autrement dit S = F(u(nN),nR∈N). Cet ensemble peut être
vu comme l’ensemble des applica-.
• Loi interne. Soient u =(un)n∈N et v =(vn)n∈N deux suites appartenant à S . La suite u + v est la suite w =(wn)n∈N
∀ n ∈ N wn = un + v n
dans
(où un + vn désigne la somme de un et de vn R).
• Loi externe. Si λ est un nombre réel et u =(un)n∈N un élément de S , λ· u est la suite v =(vn)n∈N définie par
∀n ∈ N vn =λ× un
• Élément neutre. L’élément neutre de la loi interne est la suite dont tous les termes sont nuls.
• Symétrique. Le symétrique de la suite u =(un)n∈N est la suite u′ =(u′n)n∈N définie par :
∀n ∈ N u′n = −un.
est la matrice (
symétrique de la matrice A =(ai,j) −ai,j). De même, l’ensemble Mn,p(K) des matrices à coefficients dans
K est un K-espace vectoriel.
Autres exemples :
1. L’espace vectoriel R[X ] des polynômes P(X )= anX n +a1X + a0. L’addition est l’addition de
deux polynômes P(X )+ Q(X ), la multiplication par un scalaire R est λ· P(X ). L’élément neutre est le
2. L’ensemble des fonctions continues de R dans R ; l’ensemble des fonctions dérivables de R dans R,...
3. C est un R-espace vectoriel : addition z + z′ de deux nombres complexes, multiplication λz par un scalaire λ ∈
R. L’élément neutre est le nombre complexe 0 et le symétrique du nombre complexe z est −z.
Proposition 2.
Soit E un espace vectoriel sur un corps K. Soient u ∈ E et λ ∈ K. Alors on a :
1. 0 · u = 0E
2. λ· 0E = 0E
λ u = 0E λ= 0 ou u = 0E
4.
3. (−1)· u = −u · ⇐⇒
L’opération qui à (u, v) associe u +(−v) s’appelle la soustraction. Le vecteur u +(−v) est noté u − v. Les propriétés
Démonstration. Les démonstrations des propriétés sont des manipulations sur les axiomes définissant les
espaces vectoriels.
• Donc, en utilisant la distributivité de la loi externe par rapport à la loi interne et la définition de l’élément
neutre, on obtient 0 · u + 0 · u = 0 · u. On peut rajouter l’élément neutre dans le terme de droite, pour
obtenir : 0 · u + 0 · u = 0 · u + 0E.
3. Montrer (−1) · u = −u signifie exactement que (−1) · u est le symétrique de u, c’est-à-dire vérifie u +(−1)· u =
0E. En effet :
4. On sait déjà que si λ= 0 ou u = 0E, alors les propriétés précédentes impliquent λ· u = 0E.
• Comme λ≠ 0, alors λ est inversible pour le produit dans le corps K. Soit λ−1 son inverse.
Mini-exercices.
1. Justifier si les objets suivants sont des espaces vectoriels.
(a) L’ensemble des fonctions réelles sur [0, 1], continues, positives ou nulles, pour l’addition et le
produit par un réel.
ESPACES VECTORIELS 3. SOUS-ESPACE VECTORIEL (DÉBUT) 199
(b) L’ensemble des fonctions réelles sur R vérifiant limx→+∞ f (x)= 0 pour les mêmes opérations.
R
(h) L’ensemble des fonctions continues sur [0, 1] vérifiant x d x = 0.
ab
(i) L’ensemble des matrices cd ∈ M2(R) vérifiant a + d = 0.
2. Prouver les propriétés de la soustraction : λ·(u − v)=λ· u −λ· v et (λ−µ)· u =λ· u −µ· u.
Définition 2.
Soit E un K-espace vectoriel. Une partie F de E est appelée un sous-espace vectoriel si :
• 0 E ∈ F,
Remarque.
Expliquons chaque condition.
• La première condition signifie que le vecteur nul de E doit aussi être dans F. En fait il suffit même de
prouver que F est non vide.
• La deuxième condition, c’est dire que F est stable pour l’addition : la somme u + v de deux vecteurs u, v de
F est bien sûr un vecteur de E (car E est un espace vectoriel), mais ici on exige que u + v soit un élément de
F.
• La troisième condition, c’est dire que F est stable pour la multiplication par un scalaire.
ESPACES VECTORIELS 3. SOUS-ESPACE VECTORIEL (DÉBUT) 200
(a) (0, 0) ∈ F,
(b) si u =(x1, y1) et v =(x2, y2) appartiennent à F, alors x1 + y1 = 0 et x2 + y2 = 0 donc (x1 + x2)+
(y1 + y2)= 0 et ainsi u + v =(x1 + x2, y1 + y2) appartient à F,
0 x
2. L’ensemble des fonctions continues sur R est un sous-espace vectoriel de l’espace vectoriel des fonctions de R
dans R. Preuve : la fonction nulle est continue ; la somme de deux fonctions continues est continue ; une
constante fois une fonction continue est une fonction continue.
3. L’ensemble des suites réelles convergentes est un sous-espace vectoriel de l’espace vectoriel des suites
réelles.
Voici des sous-ensembles qui ne sont pas des sous-espaces vectoriels.
Exemple 8.
1. L’ensemble F n’est pas un sous-espace vectoriel de R 2. En effet le
vecteur nul (0, 0) n’appartient pas à F1.
vecteur u =(1, 1) appartient à F3 mais, pour λ= −1, le vecteur −u =(−1, −1) n’appartient pas à F3.
F2 F3
0
0 0
F1
ESPACES VECTORIELS 3. SOUS-ESPACE VECTORIEL (DÉBUT) 201
Méthodologie. Pour répondre à une question du type « L’ensemble F est-il un espace vectoriel ? », une façon
efficace de procéder est de trouver un espace vectoriel E qui contient F, puis prouver que F est un sous-espace
vectoriel de E. Il y a seulement trois propriétés à vérifier au lieu de huit !
Exemple 9.
1. Est-ce que l’ensemble des fonctions paires (puis des fonctions impaires) forme un espace vectoriel (sur R avec
les lois usuelles sur les fonctions) ?
Notons P l’ensemble des fonctions paires et I l’ensemble des fonctions impaires. Ce sont deux sousensembles
(c) si f ∈ P et si λ ∈ R alors λf ∈ P .
2. Est-ce que l’ensemble Sn des matrices symétriques de taille n est un espace vectoriel (sur R avec les lois
Sn est un sous-ensemble de l’espace vectoriel Mn(R). Et c’est même un sous-espace vectoriel. Il suffit en effet
de vérifier que la matrice nulle est symétrique, que la somme de deux matrices symétriques est encore
symétrique et finalement que le produit d’une matrice symétrique par un scalaire est une matrice
symétrique. Par le théorème 1, Sn est un espace vectoriel.
Preuve du théorème 1. Soit F un sous-espace vectoriel d’un espace vectoriel (E, +, ·). La stabilité de F pour les
deux lois permet de munir cet ensemble d’une loi de composition interne et d’une loi de composition externe, en
restreignant à F les opérations définies dans E. Les propriétés de commutativité et d’associativité de l’addition,
ainsi que les quatre axiomes relatifs à la loi externe sont vérifiés, car ils sont satisfaits dans E donc en particulier
dans F, qui est inclus dans E.
L’existence d’un élément neutre découle de la définition de sous-espace vectoriel. Il reste seulement à justifier
que si u ∈ F, alors son symétrique −u appartient à F.
ESPACES VECTORIELS 3. SOUS-ESPACE VECTORIEL (DÉBUT) 202
Fixons u ∈ F. Comme on a aussi u ∈ E et que E est un espace vectoriel alors il existe un élément de E, noté −u,
tel que u +(−u)= 0E. Comme u est élément de F, alors pour λ= −1, (−1)u ∈ F. Et ainsi −u appartient à F.
Un autre exemple d’espace vectoriel est donné par l’ensemble des solutions d’un système linéaire homogène.
Soit AX = 0 un système de n équations à p inconnues :
a11 . . . a1p x1 0
On a alors
Théorème 2.
Soit A ∈ Mn,p(R). Soit AX = 0 un système d’équations linéaires homogènes à p variables. Alors l’ensemble
Démonstration. Soit F l’ensemble des vecteurs X ∈ Rp solutions de l’équation AX = 0. Vérifions que F est un sous-
AX ′ = 0, et ainsi X + X ′ ∈ F.
ESPACES VECTORIELS 4. SOUS-ESPACE VECTORIEL (MILIEU) 203
• F est stable par multiplication par un scalaire : si X est un vecteur solution, on a aussi A(λX )=λ(AX )= λ0 = 0,
ceci pour tout λ ∈ R. Donc λX ∈ F.
Exemple 10.
Considérons le système
1 −2 3 x 0
y = 0 . z 0
L’ensemble des solutions F ⊂ R3 de ce système est :
F .
3
Par le théorème 2, F est un sous-espace vectoriel de R . Donc par le théorème 1, F est un espace vectoriel.
Une autre façon de voir les choses est d’écrire que les éléments de F sont ceux qui vérifient l’équation
(x = 2y − 3z). Autrement dit, F est d’équation (x − 2y + 3z = 0). L’ensemble des solutions F est donc un plan
passant par l’origine. Nous avons déjà vu que ceci est un espace vectoriel.
Mini-exercices.
Parmi les ensembles suivants, reconnaître ceux qui sont des sous-espaces vectoriels :
1. (x, y, z) ∈ R3 | x + y = 0
2. (x, y, z, t) ∈ R4 | x = t et y = z
3. (x, y, z) ∈ R3 | z = 1
4. x2 + x y ⩾ 0
5. R 2 | x2 + y 2 ⩾ 1
6.
7.
8. f est croissante
Définition 3.
Soit n ⩾ 1 un entier, soient v1, v2, . . . , vn, n vecteurs d’un espace vectoriel E. Tout vecteur de la forme
(où λ1, λ2, . . . , λn sont des éléments de K) est appelé combinaison linéaire des vecteurs v1, v2, . . . , vn. Les
scalaires λ1, λ2, . . . , λn sont appelés coefficients de la combinaison linéaire.
1. Dans le R-espace vectoriel R3, (3, 3, 1) est combinaison linéaire des vecteurs (1, 1, 0) et (1, 1, 1) car on a
l’égalité
(3, 3, 1)= 2(1, 1, 0)+(1, 1, 1).
2
2. Dans le R-espace vectoriel R , le vecteur u = (2, 1) n’est pas colinéaire au vecteur v1 = (1, 1) car s’il l’était, il
existerait un réel λ tel que u =λv1, ce qui équivaudrait à l’égalité (2, 1)=(λ, λ).
3. Soit E = F(R, R) l’espace vectoriel des fonctions réelles. Soient f0, f1, f2 et f3 les fonctions définies par :
∀x ∈ R f (x)= x3 − 2x2 − 7x − 4
est combinaison linéaire des fonctions f0, f1, f2, f3 puisque l’on a l’égalité
1 1 3
4. Dans M2,3(R), on considère A = 0 −1 4 . On peut écrire A naturellement sous la forme
suivante d’une combinaison linéaire de matrices élémentaires (des zéros partout, sauf un 1) :
1 0 00 1 00 0 10 0 00 0 0
9
Soient u =−211 etλ vet=µtels que264 deux vecteurs dew =λu +µvR:3. Montrons que w = 72 est combinaison
linéaire de u et v.
On cherche donc
On a donc
9 = λ+ 6µ 2 = 2λ+
4µ
7 = −λ+ 2µ.
Une solution de ce système est (λ= −3, µ= 2), ce qui implique que w est combinaison linéaire de u et v. On vérifie
9 1 6
2= −3 2 + 2 4 .
7 −1 2
Exemple 13.
1 6 4
=
Soient u = −21 et v = 42 . Montrons que w −81 n’est pas une combinaison linéaire de u et v. L’égalité
4 1 6 4 = λ+ 6µ
Or ce système n’a aucune solution. Donc il n’existe pas λ, µ ∈ R tels que w =λu +µv.
vectoriel de E.
∈ G implique λu ∈ G. Donc λu ∈ F ∩ G.
Exemple 14.
Soit D le sous-ensemble de R3 défini par :
D =(x, y, z) ∈ R3 | x + 3y + z = 0 et x − y + 2z = 0 .
Est-ce que D est sous-espace vectoriel de R3 ? L’ensemble D est l’intersection de F et G, les sous-ensembles de R3
définis par :
F =(x, y, z)
G =(x, y, z) ∈ R | x − y + 2z =
0
ESPACES VECTORIELS 4. SOUS-ESPACE VECTORIEL (MILIEU) 207
Ce sont deux plans passant par l’origine, donc des sous-espaces vectoriels de R 3. Ainsi D = F ∩ G est un sous-
Remarque.
La réunion de deux sous-espaces vectoriels de E n’est pas en général un sous-espace vectoriel de E. Prenons par
n’est pas un sous-espace vectoriel de R2. Par exemple, (0, 1)+(1, 0)=(1, 1) est la somme d’un élément de F et d’un
(1, 1)
(0 , 1 )
G
0 (1, 0)
Mini-exercices.
2
1. Peut-on trouver t ∈ R tel que les vecteurs p−t22 et 4
−2 4ppt2 soient colinéaires ?
1 1 − 1
2. Peut-on trouver t ∈ R tel que le vecteur 3 tt soit une combinaison linéaire de 32 et −11 ?
F |.
ESPACES VECTORIELS 5. SOUS-ESPACE VECTORIEL (FIN) 209
F +G
Proposition 4.
Soient F et G deux sous-espaces vectoriels du K-espace vectoriel E.
Démonstration.
• 0E ∈ F, 0E ∈ G, donc 0E = 0E + 0E ∈ F + G.
• Soient w et w′ des éléments de F + G. Comme w est dans F + G, il existe u dans F et v dans G tels que w =
u + v. Comme w′ est dans F + G, il existe u′ dans F et v′ dans G tels que w′ = u′ + v′. Alors w + w′ =(u + v)+(u′ +
v′)=(u + u′)+(v + v′) ∈ F + G, car u + u′ ∈ F et v + v′ ∈ G.
v)=(λu)+(λv) ∈ F + G, car λu ∈ F et λv ∈ G.
vectoriel, alors u + v ∈ H.
Exemple 15.
Déterminons F + G dans le cas où F et G sont les sous-espaces vectoriels de R3 suivants :
F =(x, y, z) ∈ R3 | y = z = 0 et G =(x, y, z) | .
ESPACES VECTORIELS 5. SOUS-ESPACE VECTORIEL (FIN) 210
F +G
F
G 0
y
existe x ∈ R tel que u = (x, 0, 0), et comme v ∈ G il existe y ∈ R tel que v = (0, y, 0). Donc w =(x, y, 0).
Réciproquement, un tel élément w =(x, y, 0) est la somme de (x, 0, 0) et de (0, y, 0). Donc
Exemple 16.
Soient F et G les deux sous-espaces vectoriels de R3 suivants :
F =(x, y, z) ∈ R3 | x = 0 et G =(x, y, z) |.
z G
0
y
Dans cet exemple, montrons que F + G =R3. Par définition de F + G, tout élément de F + G est dans R3. Mais
réciproquement, si w =(x, y, z) est un élément quelconque de R3 : w =(x, y, z)=(0, y, z)+(x, 0, 0), avec (0, y, z) ∈ F et
(x, 0, 0) ∈ G, donc w appartient à F + G.
Remarquons que, dans cet exemple, un élément de R 3 ne s’écrit pas forcément de façon unique comme la
somme d’un élément de F et d’un élément de G. Par exemple (1, 2, 3)=(0, 2, 3)+(1, 0, 0)=(0, 2, 0)+(1, 0, 3).
• F ∩ G = {0E},
• F + G = E.
On note alors F ⊕ G = E.
Si F et G sont en somme directe, on dit que F et G sont des sous-espaces vectoriels supplémentaires dans E.
Proposition 5.
F et G sont supplémentaires dans E si et seulement si tout élément de E s’écrit d’une manière unique
comme la somme d’un élément de F et d’un élément de G.
Remarque.
• Dire qu’un élément w de E s’écrit d’une manière unique comme la somme d’un élément de F et d’un élément
• On dit aussi que F est un sous-espace supplémentaire de G (ou que G est un sous-espace supplémentaire de
F).
• Il n’y a pas unicité du supplémentaire d’un sous-espace vectoriel donné (voir un exemple ci-dessous).
• L’existence d’un supplémentaire d’un sous-espace vectoriel sera prouvée dans le cadre des espaces
vectoriels de dimension finie.
Démonstration.
• Supposons E = F ⊕ G et montrons que tout élément u ∈ E se décompose de manière unique. Soient donc u =
v+w et u = v′+w′ avec v, v′ ∈ F et w, w′ ∈ G. On a alors v+w = v′+w′, donc v−v′ = w′−w. Comme
F est un sous-espace vectoriel alors v − v′ ∈ F, mais d’autre part G est aussi un sous-espace vectoriel donc w′ −
u = 0E + u et u = u + 0E.
Exemple 17.
1. Soient F | R et G | .
ESPACES VECTORIELS 5. SOUS-ESPACE VECTORIEL (FIN) 212
Montrons que F ⊕ G =R2. La première façon de le voir est que l’on a clairement F ∩ G = {(0, 0)} et que,
comme (x, y)=(x, 0)+(0, y), alors F + G =R2. Une autre façon de le voir est d’utiliser la proposition 5, car la
y
G ′
G
F
0 x
(a) Montrons F ∩ G′ = {(0, 0)}. Si (x, y) ∈ F ∩ G′ alors d’une part (x, y) ∈ F donc y = 0, et aussi (x, y) ∈ G′ donc
)
(b) Montrons F + G′ =R2. Soit u =(x, y) ∈ R2. Cherchons v ∈ F et w ∈ G′ tels que u = v + w. Comme v =(x1, y1 ∈
)
F alors y1 = 0, et comme w =(x2, y2 ∈ G′ alors x2 = y2. Il s’agit donc de trouver x1 et x2 tels que
qui prouve que tout élément de R2 est somme d’un élément de F et d’un élément de G′.
3. De façon plus générale, deux droites distinctes du plan passant par l’origine forment des sous-espaces
supplémentaires.
Exemple 18.
Est-ce que les sous-espaces vectoriels F et G de R3 définis par
0
ESPACES VECTORIELS 5. SOUS-ESPACE VECTORIEL (FIN) 213
1. Il est facile de vérifier que F ∩ G = {0}. En effet si l’élément u =(x, y, z) appartient à l’intersection de F et de G,
alors les coordonnées de u vérifient : x − y − z = 0 (car u appartient à F), et y = z = 0 (car u appartient à G),
Soit donc u =(x, y, z) un élément quelconque de R3 ; il faut déterminer des éléments v de F et w de G tels que
u = v + w. L’élément v doit être de la forme v =(y1 + z1, y1, z1) et l’élément w de la forme w =(x2, 0, 0). On a u =
v + w si et seulement si y1 = y, z1 = z, x2 = x − y − z. On a donc
Conclusion : F ⊕ G =R3.
Exemple 19.
Dans le R-espace vectoriel F(R, R) des fonctions de R dans R, on considère le sous-espace vectoriel des fonctions
paires P et le sous-espace vectoriel des fonctions impaires I . Montrons que P ⊕I = F(R, R).
1. Montrons P ∩I = {0F(R,R)}.
Soit f ∈ P ∩I , c’est-à-dire que f est à la fois une fonction paire et impaire. Il s’agit de montrer que f est la
fonction identiquement nulle. Soit x ∈ R. Comme f(car f est paire) et f (−x)= −f (x) (car f est
impaire), alors f (x)= −f (x), ce qui implique 0. Ceci est vrai quel que soit x ∈ R ; donc f est la fonction nulle.
Ainsi P ∩I = {0F(R,R)}.
Soit f ∈ F(R, R). Il s’agit de montrer que f peut s’écrire comme la somme d’une fonction paire et d’une
fonction impaire.
Analyse. Si f = g + h, avec g ∈ P , h ∈ I , alors pour tout x, d’une part, (a) f (x) = g(x)+ h(x), et d’autre part, (b) f
(−x)= g(−x)+ h(−x)= g(x)− h(x). Par somme et différence de (a) et (b), on tire que get h(x)= −2 −
f (x) f ( x)
Alors d’une part f (x)= g(x)+ h(x) et d’autre part g ∈ P (vérifier g(−x)= g(x)) et h ∈ I (vérifier h(−x)= −h(x)).
En conclusion, P et I sont en somme directe dans F(R, R) : P ⊕ I = F(R, R). Notez que, comme le prouvent nos
• L’ensemble des combinaisons linéaires des vecteurs {v1, . . . , vn} est un sous-espace vectoriel de E.
• C’est le plus petit sous-espace vectoriel de E (au sens de l’inclusion) contenant les vecteurs v 1, . . . , vn.
Notation. Ce sous-espace vectoriel est appelé sous-espace engendré par v1, . . . , vn et est noté Vect(v1, . . . , vn).
On a donc
Remarque.
• Dire que Vect(v1, . . . , vn) est le plus petit sous-espace vectoriel de E contenant les vecteurs v1, . . . , vn signifie
que si F est un sous-espace vectoriel de E contenant aussi les vecteurs v1, . . . , vn alors Vect(v1, . . . , vn) ⊂
F.
• Plus généralement, on peut définir le sous-espace vectoriel engendré par une partie V quelconque (non
nécessairement finie) d’un espace vectoriel : Vect V est le plus petit sous-espace vectoriel contenant V .
Exemple 20.
1. E étant un K-espace vectoriel, et u un élément quelconque de E, l’ensemble Vect(u)= {λu | λ ∈ K} est le sous-
espace vectoriel de E engendré par u. Il est souvent noté Ku. Si u n’est pas le vecteur nul, on parle d’une
K = Vect(u)
v u
u 0
0
Vect(u, v )
droite vectorielle.
2. Si u et v sont deux vecteurs de E, alors Vect(u, v)=λu+µv | λ, µ ∈ K . Si u et v ne sont pas colinéaires, alors
3
1 1 . Déterminons P = Vect(u, v).
3. Soient u = 1 et v = 2 deux vecteurs de R
1 3 x zy =λu +µv pour certains λ, µ ∈ R
x zy ∈ Vect(u, v) ⇐⇒
x 1 1 zy =λ 11 +µ 23
⇐⇒
x = λ+µ
y = λ+ 2µ z = λ+ 3µ
⇐⇒
Nous obtenons bien une équation paramétrique du plan P passant par l’origine et contenant les vecteurs u et
Exemple 21.
Soient E l’espace vectoriel des applications de R dans R et f0, f1, f2 les applications définies par :
Le sous-espace vectoriel de E engendré par {f0, f1, f2} est l’espace vectoriel des fonctions polynômes f de degré
Méthodologie. On peut démontrer qu’une partie F d’un espace vectoriel E est un sous-espace vectoriel de E en
montrant que F est égal à l’ensemble des combinaisons linéaires d’un nombre fini de vecteurs de E.
Exemple 22.
Est-ce que F =(x, y, z) ∈ R3 | x − y − z = 0 est un sous-espace vectoriel de R3 ?
Un triplet de R3 est élément de F si et seulement si x = y + z. Donc u est élément de F si et seulement s’il peut
s’écrire u =(y + z, y, z). Or, on a l’égalité
Donc F est l’ensemble des combinaisons linéaires de (1, 1, 0), (1, 0, 1) . C’est le sous-espace vectoriel
engendré par (1, 1, 0), (1, 0, 1) : F = Vect (1, 1, 0), (1, 0, 1) . C’est bien un plan vectoriel (un plan passant
par l’origine).
ESPACES VECTORIELS PPLICATION LINÉAIRE 216
6. A (DÉBUT)
Preuve du théorème 4.
(b) Si u, v ∈ F alors il existe λ1, . . . , λn ∈ K tels que u = λ1v1 + ··· +λnvn et µ1, . . . , µn ∈ K tels que v =µ1v1
2. Si G est un sous-espace vectoriel contenant {v1, . . . , vn}, alors il est stable par combinaison linéaire ; il contient
donc toute combinaison linéaire des vecteurs {v1, . . . , vn}. Par conséquent F est inclus dans G :
F est le plus petit sous-espace (au sens de l’inclusion) contenant {v1, . . . , vn}.
Mini-exercices.
(b) F + G ≠ R3 et F ∩ G = {0} ;
(a) Montrer que F est un espace vectoriel. Trouver deux vecteurs u, v tels que F = Vect(u, v).
(a) Quel est l’espace vectoriel F engendré par A et B ? Idem avec G engendré par C et D.
6.1. Définition
Nous avons déjà rencontré la notion d’application linéaire dans le cas f : Rp −→ Rn (voir le chapitre « L’espace
Définition 6.
Soient E et F deux K-espaces vectoriels. Une application f de E dans F est une application linéaire si elle
satisfait aux deux conditions suivantes :
1. f (u + v)= f (u)+ f (v), pour tous u, v ∈ E ;
Autrement dit : une application est linéaire si elle « respecte » les deux lois d’un espace vectoriel.
Notation. L’ensemble des applications linéaires de E dans F est noté L(E, F).
6. A (DÉBUT)
est une application linéaire. En effet, soient u =(x, y, z) et v =(x′, y′, z′) deux éléments de R3 et λ un réel.
= f (u)+ f (v)
et
f (λ· u) = f (λx, λy, λz)
= (−2λx, λy + 3λz)
= λ·(−2x, y + 3z)
= λ· f (u)
pas l’égalité f (λx)=λf (x) pour un certain choix de λ, x. Donc f n’est pas linéaire. Notez que l’on n’a pas non plus f
f (X )= AX
est une application linéaire.
Proposition 6.
Soient E et F deux K-espaces vectoriels. Si f est une application linéaire de E dans F, alors :
• f (0E)= 0F,
• f (−u)= −f (u), pour tout u ∈ E.
Pour démontrer qu’une application est linéaire, on peut aussi utiliser une propriété plus « concentrée », donnée
par la caractérisation suivante :
Proposition 7 (Caractérisation d’une application linéaire).
Soient E et F deux K-espaces vectoriels et f une application de E dans F. L’application f est linéaire si et
Plus généralement, une application linéaire f préserve les combinaisons linéaires : pour tous λ1, . . . , λn ∈ K et
tous v1, . . . , vn ∈ E, on a
+ )+
f (λ1v1 ···+λnvn)=λ1 f (v1 ···+λn f (vn).
Démonstration.
• Soit f une application linéaire de E dans F. Soient u, v ∈ E, λ, µ ∈ K. En utilisant les deux axiomes de la
définition, on a
µ ∈ K). Alors, d’une part f (u + v)= f (u)+ f (v) (en considérant le cas particulier où λ=µ= 1), et d’autre part f
Vocabulaire.
Soient E et F deux K-espaces vectoriels.
• Une application linéaire de E dans F est aussi appelée morphisme ou homomorphisme d’espaces vectoriels.
L’ensemble des applications linéaires de E dans F est noté L(E, F).
• Une application linéaire de E dans E est appelée endomorphisme de E. L’ensemble des endomorphismes de E
est noté L(E).
Mini-exercices.
Montrer que les applications suivantes fi : R2 → R2 sont linéaires. Caractériser géométriquement ces
4. f4(x, y)=(−x, y) ;
Symétrie centrale.
Soient E un K-espace vectoriel. On définit l’application f par :
f : E → E u 7→
−u
0
fλ (u) = λ · u
f (u) = −u
u
0
Homothétie.
Soient E un K-espace vectoriel et λ ∈ K. On définit l’application fλ par :
fλ : E → E u 7→
λu
Projection.
Soient E un K-espace vectoriel et F et G deux sous-espaces vectoriels supplémentaires dans E, c’est-à-dire E = F ⊕
w u
F
v = p(u)
∈ G. Par définition p(u)= v. Mais alors p p(u)= p(v)= v. Bilan : p ◦ p(u)= v = p(u). Donc p ◦ p = p.
Exemple 25.
Nous avons vu que les sous-espaces vectoriels F et G de R3 définis par
F =(x, y, z) ∈ R3 | x − y − z = 0 et G =(x, y, z) ∈ R3 | y = z = 0
sont supplémentaires dans R3 : R3 = F ⊕ G (exemple 18). Nous avions vu que la décomposition s’écrivait :
0
p ( x , y, z )
Exemple 26.
Nous avons vu dans l’exemple 19 que l’ensemble des fonctions paires P et l’ensemble des fonctions impaires I
sont des sous-espaces vectoriels supplémentaires dans F(R, R). Notons p la projection sur P parallèlement à I . Si f
C 0(R, R) l’espace vectoriel des fonctions continues. Soit d : C 1(R, R) −→ C 0(R, R) f 7−→ f′
Alors d est une application linéaire, car (λf +µg)′ =λf ′ +µg′ et donc d(λf +µg)=λd(f )+µd(g).
R x
f (x) 7−→ 0 f (t) dt
ESPACES VECTORIELS 7. APPLICATION LINÉAIRE (MILIEU) 222
R x R x R x
L’application I est linéaire car 0 λf (t)+µg(t) dt =λ 0 f (t) dt +µ 0 g(t) dt pour toutes fonctions f et g et pour
tous λ, µ ∈ R.
f: E −→ F
+ +
Autrement dit, si P(X )= anX n ···+ a1X + a0, alors f (P(X ))= anX n+1 ···+ a1X 2 + a0X .
C’est une application linéaire : f (λP(X )+µQ(X ))=λX P(X )+µXQ(X )=λf (P(X ))+µf (Q(X )).
4. La transposition.
Considérons l’application T de Mn(K) dans Mn(K) donnée par la transposition :
T : Mn(K) −→ Mn(K)
A 7−→ AT
T est linéaire, car on sait que pour toutes matrices A, B ∈ Mn(K) et tous scalaires λ, µ ∈ K :
5. La trace.
tr : Mn(K) −→ K
A 7−→ tr A
Mini-exercices.
1. Les applications suivantes sont-elles linéaires ?
(a) R −→ R, x 7−→ 3x − 2
R
(e) C 0([0, 1], R) −→ R, f 7−→ 0
1
|f (t)| dt
2. Soient f , g : Mn(R) −→ Mn(R) définies par A 7−→ et A 7−→ −2 . Montrer que f et g sont des applications
linéaires. Montrer que f (A) est une matrice symétrique, g(A) une matrice antisymétrique et que A = f (A)+
ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 223
g(A). En déduire que les matrices symétriques et les matrices antisymétriques sont en somme directe dans
Mn(R). Caractériser géométriquement f et g.
f | .
Dans toute la suite, E et F désigneront des K-espaces vectoriels et f : E → F sera une application linéaire. f (E)
Remarque.
On a par définition de l’image directe f (E) : f est surjective si et seulement si Im
f = F.
Démonstration. Tout d’abord, comme 0E ∈ E′ alors 0F = f (0E) ∈ f (E′). Ensuite on montre que pour tout couple (y1,
y2) d’éléments de f (E′) et pour tous scalaires λ, µ, l’élément λy1 +µy2 appartient à f (E′). En
ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 224
effet :
y1 ∈ f (E′) ⇐⇒ ∃x1 ∈ E′, f (x1)= y1 y2 ∈ f (E
Or λx1 +µx2 est un élément de E′, car E′ est un sous-espace vectoriel de E, donc λy1 +µy2 est bien un élément de f (E′).
Proposition 9.
Soient E et F deux K-espaces vectoriels et f une application linéaire de E dans F. Le noyau de f est un sous-
espace vectoriel de E.
Démonstration. Ker(f ) est non vide car f (0E)= 0F donc 0E ∈ Ker(f ). Soient x1, x2 ∈ Ker(f ) et λ, µ ∈ K. Montrons
que λx1 +µx2 est un élément de Ker(f ). On a, en utilisant la linéarité de f et le fait que x1 et x2 sont des éléments de
Exemple 27.
Reprenons l’exemple de l’application linéaire f définie par
f : R3 → R2
⇐⇒
⇐⇒
Donc Ker(f ) = (0, −3z, z) | z ∈ R . Autrement dit, Ker(f ) = Vect : c’est une droite
vectorielle.
⇐⇒ −2x = x′ y + 3z = y′
= ) ( ,
On peut prendre par exemple x − x2′ , y′ = y, z = 0. Conclusion : pour n’importe quel (x′, y′ ∈ R2, on a f − x2′ , y′
0 . Donc Im
)=(x′, y′) (f )=R2, et f est surjective.
Exemple 28.
Soit A ∈ Mn,p(R). Soit f : Rp −→ Rn l’application linéaire définie par f (X )= AX . Alors Ker Rp | AX = 0 : c’est
donc l’ensemble des X ∈ Rp solutions du système linéaire homogène AX = 0. On verra plus tard que Im(f ) est
R3 → R l’application définie par f (x, y, z)= ax + b y + cz. Il est facile de vérifier que f est linéaire, de sorte que Ker f
Exemple 30.
Soient E un K-espace vectoriel, F et G deux sous-espaces vectoriels de E, supplémentaires : E = F ⊕ G. Soit p la
w u
F
v = p(u)
• Ker(p)= G : le noyau de p est l’ensemble des vecteurs u de E tels que v = 0, c’est donc G.
• Im(p)= F. Il est immédiat que Im(p) ⊂ F. Réciproquement, si u ∈ F alors p(u)= u, donc F ⊂ Im(p).
Conclusion :
ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 226
Ker(p)= G et Im(p)= F.
Autrement dit, f est injective si et seulement si son noyau ne contient que le vecteur nul. En particulier, pour
montrer que f est injective, il suffit de vérifier que :
si f (x)= 0F alors x = 0E.
Démonstration.
• Supposons que f soit injective et montrons que Ker(f ) = {0E}. Soit x un élément de Ker(f ). On a f (x)= 0F. Or,
comme f est linéaire, on a aussi f (0E)= 0F. De l’égalité f (x)= f (0E), on déduit x = 0E
• Réciproquement, supposons maintenant que Ker(f ) = {0E}. Soient x et y deux éléments de E tels que f (x) = f
(y). On a donc f (x) − f (y) = 0F. Comme f est linéaire, on en déduit f (x − y) = 0F, c’est-à-dire x − y est un élément
Exemple 31.
Considérons, pour n ⩾ 1, l’application linéaire
f : Rn[X ] −→ Rn+1[X ]
Étudions d’abord le noyau de f : soit P(X )= anX n +···+ a1X + a0 ∈ Rn[X ] tel que X · P(X )= 0. Alors
+
anX n+1 ···+ a1X 2 + a0X = 0.
Ainsi, ai = 0 pour tout i ∈ {0, . . . , n} et donc P(X )= 0. Le noyau de f est donc nul : Ker(f )= {0}.
L’espace Im(f ) est l’ensemble des polynômes de Rn+1[X ] sans terme constant : Im(f )= Vect X , X 2, . . . , X n+1 .
Conclusion : f est injective, mais n’est pas surjective.
. L’espace vectoriel
8.3 L(E,F)
Soient E et F deux K-espaces vectoriels. Remarquons tout d’abord que, similairement à l’exemple 4, l’ensemble
des applications de E dans F, noté F(E, F), peut être muni d’une loi de composition interne + et d’une loi de
ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 227
composition externe, définies de la façon suivante : f , g étant deux éléments de F(E, F), et λ étant un élément de
Proposition 10.
L’ensemble des applications linéaires entre deux K-espaces vectoriels E et F, noté L(E, F), muni des deux lois
Démonstration. L’ensemble L(E, F) est inclus dans le K-espace vectoriel F(E, F). Pour montrer que L(E, F) est un K-
espace vectoriel, il suffit donc de montrer que L(E, F) est un sous-espace vectoriel de F(E, F) :
• Soient
scalaires α, β de K, f , g ∈ L(E, F),
(f + g)(αu+βv) = f (αu+βv)+ g(αu+βv) (définition de f + g)
et montrons
= αf (u)+β f (v)+αg(u)+βg(v) (linéarité de f et de g)que f + g est
= α(f (u)+ g(u))+β(f (v)+ g(v)) (propriétés des lois de F) linéaire. Pour
= α(f + g)(u)+β(f + g)(v) (définition de f + g)tous vecteurs
u et v de E et
f + g est donc linéaire et L(E, F) est stable pour l’addition.
pour tous
• Soient f ∈ L(E, F), λ ∈ K, et montrons que λf est linéaire.
λf est donc linéaire et L(E, F) est stable pour la loi externe. L(E, F) est donc un sous-espace vectoriel de F(E,
F).
Soient E, F, G trois K-espaces vectoriels, f une application linéaire de E dans F et g une application linéaire de F
dans G. Alors g ◦ f est une application linéaire de E dans G.
Remarque.
En particulier, le composé de deux endomorphismes de E est un endomorphisme de E. Autrement dit, ◦ est une loi
Vocabulaire.
Soient E et F deux K-espaces vectoriels.
• Une application linéaire bijective de E sur F est appelée isomorphisme d’espaces vectoriels. Les deux espaces
vectoriels E et F sont alors dits isomorphes.
• Un endomorphisme bijectif de E (c’est-à-dire une application linéaire bijective de E dans E) est appelé
automorphisme de E. L’ensemble des automorphismes de E est noté GL(E).
Démonstration. Comme f est une application bijective de E sur F, alors f −1 est une application bijective de F sur E.
Il reste donc à prouver que f −1 est bien linéaire. Soient u′ et v′ deux vecteurs de F et soient α et β deux éléments
f est linéaire, on a
car f −1 ◦ f = idE (où idE désigne l’application identité de E dans E). Ainsi
Exemple 32.
ESPACES VECTORIELS 8. APPLICATION LINÉAIRE (FIN) 229
Soit f : R2 → R2 définie par f (x, y)=(2x+3y, x+ y). Il est facile de prouver que f est linéaire. Pour prouver que f est
bijective, on pourrait calculer son noyau et son image. Mais ici nous allons calculer directement son inverse : on
cherche à résoudre f (x, y)=(x′, y′). Cela correspond à l’équation (2x + 3y, x + y)=(x′, y′) qui est un système linéaire à
)=(
deux équations et deux inconnues. On trouve (x, y)=(−x′ + 3y′, x′ − 2y′). On pose donc f −1(x′, y′ −x′ + 3y′, x′ − 2y′).
On vérifie aisément que f −1 est l’inverse de f , et on remarque que f −1 est une application linéaire.
Exemple 33.
Plus généralement, soit f : Rn → Rn l’application linéaire définie par f (X ) = AX (où A est une matrice de Mn(R)). Si la
matrice A est inversible, alors f −1 est une application linéaire bijective et est définie par
f −1(X )= A−1X .
Dans l’exemple précédent,
1. Soit f : R3 → R3 définie par f (x, y, z)=(−x, y + z, 2z). Montrer que f est une application linéaire. Calculer Ker(f )
2. Soient E un espace vectoriel, et F, G deux sous-espaces tels que E = F ⊕G. Chaque u ∈ E se décompose de
s : E → E définie par s(u)= v − w. Faire un dessin. Montrer que s est une application linéaire. Montrer que s2
3. Soit f : Rn[X ] → Rn[X ] définie par P(X ) →7 P′′(X ) (où P′′ désigne la dérivée seconde). Montrer que f est une
Auteurs du chapitre
• D’après un cours de Sophie Chemla de l’université Pierre et Marie Curie, reprenant des parties d’un cours de
H. Ledret et d’une équipe de l’université de Bordeaux animée par J. Queyrut,
• et un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara Thomas de l’École Polytechnique Fédérale de
Lausanne,
• mixés et révisés par Arnaud Bodin, relu par Vianney Combet.
Chapitre
11 Dimension finie
Les espaces vectoriels qui sont engendrés par un nombre fini de vecteurs sont appelés espaces vectoriels de
dimension finie. Pour ces espaces, nous allons voir comment calculer une base, c’est-à-dire une famille minimale
de vecteurs qui engendrent tout l’espace. Le nombre de vecteurs dans une base s’appelle la dimension et nous
verrons comment calculer la dimension des espaces et des sous-espaces.
1. Famille libre
Définition 1.
Soient v1, v2, . . . , vp, p ⩾ 1 vecteurs d’un espace vectoriel E. Tout vecteur de la forme
(où λ1, λ2, . . . , λp sont des éléments de K) est appelé combinaison linéaire des vecteurs v1, v2, . . . , vp. Les
scalaires λ1, λ2, . . . , λp sont appelés coefficients de la combinaison linéaire.
1.2. Définition
Définition 2.
Une famille {v1, v2, . . . , vp} de E est une famille libre ou linéairement indépendante si toute combinaison
linéaire nulle
Dans le cas contraire, c’est-à-dire s’il existe une combinaison linéaire nulle à coefficients non tous nuls, on dit que
la famille est liée ou linéairement dépendante. Une telle combinaison linéaire s’appelle alors une relation de
dépendance linéaire entre les vj.
1.3. Premiers exemples
Pour des vecteurs de Rn, décider si une famille {v1, . . . , vp} est libre ou liée revient à résoudre un système
linéaire.
Exemple 1.
Dans le R-espace vectoriel R3, considérons la famille
3 6 0
On souhaite déterminer si elle est libre ou liée. On cherche des scalaires (λ1, λ2, λ3) tels que
2 2−5+1=0 .
3 6 0 0
La famille
1 4 2
2 , 5 , 1
3 6 0
est donc une famille liée.
Voici les calculs de la réduction de Gauss sur la matrice associée au système :
1 4 2 1 4 2 1 4 2 1 4 2 1 0 −2
2 5 1 ∼ 0 −3 −3 ∼ 0 −3 −3 ∼ 0 1 1 ∼ 0 1 1
3 6 0 0 −6 −6 0 0 0 0 0 0 0 0 0
DIMENSION FINIE 1. FAMILLE LIBRE 233
Exemple 2.
1 2 2
Soient v1 = 11 , v. Est-ce que la famille {v1, v2, v3} est libre ou liée ? Résolvons le système
λ1 + 2λ2 + 2λ3 = 0 λ1 − λ2 + λ3 = 0
λ1 + λ3 =0
On résout ce système et on trouve comme seule solution λ1 = 0, λ2 = 0, λ3 = 0. La famille {v1, v2, v3} est donc une
famille libre.
Exemple 3.
2 1 7
=
Soient v1 = −01 , v2 2
− 5 et v3 = −51 . Alors {v1, v2, v3} forme une famille liée, car
3 1 8
3v1 + v2 − v3 = 0.
1.4. Autres exemples
Exemple 4.
Les polynômes P1(X )= 1 − X , P2(X )= 5 + 3X − 2X 2 et P3(X )= 1 + 3X − X 2 forment une famille liée dans l’espace
Exemple 5.
Dans le R-espace vectoriel F(R, R) des fonctions de R dans R, on considère la famille {cos, sin}. Montrons que c’est
une famille libre. Supposons que l’on ait λ cos +µ sin = 0. Cela équivaut à
∀x ∈ R λ cos(x)+µ sin(x)= 0.
En particulier, pour x = 0, cette égalité donne λ = 0. Et pour x = , elle donne µ = 0. Donc la famille {cos, sin} est
libre. En revanche la famille {cos2, sin2, 1} est liée car on a la relation de dépendance linéaire cos 2 + sin2 −1 = 0. Les
Proposition 1.
La famille {v1, v2} est liée si et seulement si v1 est un multiple de v2 ou v2 est un multiple de v1.
DIMENSION FINIE 1. FAMILLE LIBRE 234
Ce qui se reformule ainsi par contraposition : « La famille {v1, v2} est libre si et seulement si v1 n’est pas un
Démonstration.
• Supposons la famille {v1, v2} liée, alors il existe λ1, λ2 non tous les deux nuls tels que2 λ1v1 +λ2v2 = 0. Si c’est
=
λ1 qui n’est pas nul, on peut diviser par λ1, ce qui donne v1 −λλ1 v2 et v1 est un multiple de v2. Si c’est λ2 qui
• Réciproquement, si v1 est un multiple de v2, alors il existe un scalaire µ tel que v1 = µv2, soit 1v1 + (−µ)v2 = 0, ce
qui est une relation de dépendance linéaire entre v1 et v2 puisque 1 ≠ 0 : la famille {v1, v2} est alors liée. Même
Généralisons tout de suite cette proposition à une famille d’un nombre quelconque de vecteurs.
Théorème 1.
Soit E un K-espace vectoriel. Une famille F = {v1, v2, . . . , vp} de p ⩾ 2 vecteurs de E est une famille liée si et
seulement si au moins un des vecteurs de F est combinaison linéaire des autres vecteurs de F.
avec λk ≠ 0 pour au moins un indice k. Passons tous les autres termes à droite du signe égal. Il vient
où vk ne figure pas au second membre. Comme λk ≠ 0, on peut diviser cette égalité par λk et l’on obtient
λ1 λ2 λp
vk = −λk v1 − λk v2 −···− λk vp,
c’est-à-dire que vk est combinaison linéaire des autres vecteurs de F, ce qui peut encore s’écrire vk ∈ Vect F \
{vk} (avec la notation ensembliste A\B pour l’ensemble des éléments de A qui n’appartiennent pas à B).
• Réciproquement, supposons que pour un certain k, on ait vk ∈ Vect F \ {vk}. Ceci signifie que l’on peut écrire
ce qui est une relation de dépendance linéaire pour F (puisque −1 ≠ 0) et ainsi la famille F est liée.
0
v1
v2
e3
v3
v2
v1
e2
e1
Proposition 2.
Soit F = {v1, v2, . . . , vp} une famille de vecteurs de Rn. Si F contient plus de n éléments (c’est-à-dire p > n),
v v v
21 22 2p v1 = ... v2 = ... . . . vp =
... .
v
vn1 vn2 np
L’équation
x1v1 + x2v2 +···+ xpvp = 0
...
DIMENSION FINIE 1. FAMILLE LIBRE 236
C’est un système homogène de n équations à p inconnues. Lorsque p > n, ce système a des solutions non triviales
(voir le chapitre « Systèmes linéaires », dernier théorème) ce qui montre que la famille F est une
famille liée.
DIMENSION FINIE 237
2. FAMILLE GÉNÉRATRICE
Mini-exercices.
1 t
1. Pour quelles valeurs de2 t ∈ R, −t , − 2t est une famille libre de R2 ? Même question avec la
famille
n 1t t1 1t o 3.
de R
t2 1 1
2. Montrer que toute famille contenant une famille liée est liée.
3. Montrer que toute famille inclue dans une famille libre est libre.
4. Montrer que si f : E → F est une application linéaire et que {v1, . . . , vp} est une famille liée de E, alors {f (v1),
5. Montrer que si f : E → F est une application linéaire injective et que {v1, . . . , vp} est une famille libre de E,
2. Famille génératrice
Soit E un espace vectoriel sur un corps K.
2.1. Définition
Définition 3.
Soient v1, . . . , vp des vecteurs de E. La famille {v1, . . . , vp} est une famille génératrice de l’espace vectoriel
E si tout vecteur de E est une combinaison linéaire des vecteurs v1, . . . , vp. Ce qui peut s’écrire aussi :
Cette notion est bien sûr liée à la notion de sous-espace vectoriel engendré : les vecteurs {v1, . . . , vp} forment
2.2. Exemples
Exemple 6.
3
1 0 0 . La famille {v1, v2, v3} est
x 3
v= zy peut s’écrire
DIMENSION FINIE 238
de R
x 1 0 0 y = x 0 + y 1 + z 0
. z001
Les coefficients sont ici λ1 = x, λ2 = y, λ3 = z.
Exemple 7. 1 1 3. Les vecteurs {v1, v2} ne forment pas une
E
Soient maintenant les vecteurs v1 = 11 , v 2 = 23 de = R
0
famille génératrice de R3. Par exemple, le vecteur v = 10 n’est pas dans Vect(v1, v2). En effet, si c’était le cas,
0 1 1
alors il existerait λ1, λ2 ∈ R tels que v =λ1v1 +λ2v2. Ce qui s’écrirait aussi 10 =λ1 11 +λ2 23 , d’où le système
linéaire :
λ1 +λ2 = 0 λ1 + 2λ2 = 1
λ1 + 3λ2 = 0
Ce système n’a pas de solution. (La première et la dernière ligne impliquent λ1 = 0, λ2 = 0, ce qui est incompatible
avec la deuxième.)
2. FAMILLE GÉNÉRATRICE
Exemple 8.
Soit E =R2.
1
• Soient v1 = 0 et v2 = 01. La famille {v1, v2} est génératrice de R2 car tout vecteur de R 2 se décompose comme
xy = x 10+ y 01.
2
• Soient maintenant v1′ = 1 et v2′ = 11. Alors {v1′, v2′} est aussi une famille génératrice. En effet, soit v = x
y un
élément quelconque de R2. Montrer que v est combinaison linéaire de v1′ et v2′ revient à démontrer
l’existence de deux réels λ et µ tels que v =λv1′ +µv2′. Il s’agit donc d’étudier l’existence de solutions au
système :
2λ+µ = x λ+µ = y
Ceci prouve qu’il peut exister plusieurs familles finies différentes, non incluses les unes dans les autres,
engendrant le même espace vectoriel.
Exemple 9.
Soit Rn[X ] l’espace vectoriel des polynômes de degré ⩽ n. Alors les polynômes {1, X , . . . , X n} forment une
famille génératrice. Par contre, l’espace vectoriel R[X ] de tous les polynômes ne possède pas de famille finie
génératrice.
¦ ©
Soit F = v1, v2, . . . , vp une famille génératrice de E. Alors F ′ = v1′, v2′, . . . , vq′ est aussi une famille
Nous chercherons bientôt à avoir un nombre minimal de générateurs. Voici une proposition sur la réduction
d’une famille génératrice.
Proposition 4.
Si la famille de vecteurs {v1, . . . , vp} engendre E et si l’un des vecteurs, par exemple v p, est combinaison
=
linéaire des autres, alors la familleE. {v1, . . . , vp}\{vp} {v1, . . . , vp−1} est encore une famille génératrice de
Démonstration. En effet, comme les vecteurs v1, . . . , vp engendrent E, alors pour tout élément v de E, il existe des
scalaires λ1, . . . , λp tels que
+
v =λ1v1 ···+λpvp.
Or l’hypothèseα1, . . . , αp−1 vp est combinaison linéaire des vecteurs v1, . . . , vp−1 se traduit par l’existence de
vp =α1v1 +···+αp−1vp−1.
+
v = λ1 +λpα1 v1 ···+ λp−1 +λpαp−1 vp−1,
ce qui prouve que v est combinaison linéaire des vecteurs v1, . . . , vp−1. Ceci achève la démonstration. Il est clair
que si l’on remplace vp par n’importe lequel des vecteurs vi, la démonstration est la même.
Mini-exercices.
( )
2.1. À quelle condition surMême question avec la famillet ∈ R, la famillen01 1tt−0t112o, −dett t2
3 t .−−1
t
est
2
une famille génératrice de R ?
t t2 1 R
3. Montrer qu’une famille de vecteurs contenant une famille génératrice est encore une famille génératrice
de E.
DIMENSION FINIE 240
4. Montrer que si f : E → F est une application linéaire surjective et que {v1, . . . , vp} est une famille génératrice
3. Base
La notion de base généralise la notion de repère. Dans R2, un repère est donné par un couple de vecteurs non
colinéaires. Dans R3, un repère est donné par un triplet de vecteurs non coplanaires. Dans un repère, un vecteur
se décompose suivant les vecteurs d’une base. Il en sera de même pour une base d’un espace vectoriel.
v = λ1 v1 + λ2 v2
λ2 v2
v2 λ1 v1
v1
3.1. Définition
Théorème 2.
Soit B = (v1, v2, . . . , vn) une base de l’espace vectoriel E. Tout vecteur v ∈ E s’exprime de façon unique
comme combinaison linéaire d’éléments de B. Autrement dit, il existe des scalaires λ1, . . . , λn ∈ K uniques
tels que :
Remarque.
1. (λ1, . . . , λn) s’appellent les coordonnées du vecteur v dans la base B.
2. Il faut observer que pour une base B = (v1, v2, . . . , vn) on introduit un ordre sur les vecteurs. Bien sûr, si on
permutait les vecteurs on obtiendrait toujours une base, mais il faudrait aussi permuter les coordonnées.
3. Notez que l’application
φ : Kn → E
Preuve du théorème 2.
• Par définition, B est une famille génératrice de E, donc pour tout v ∈ E il existe λ1, . . . , λn ∈ K tels que
une famille libre, ceci implique λ1 −µ1 = 0, λ2 −µ2 = 0, . . . , λn −µn = 0 et donc λ1 =µ1, λ2 =µ2, . . . , λn =µn.
3.2. Exemples
Exemple 10.
1. Soient les vecteurs e1 = 10 et e2 = 01. Alors (e1, e2) est une base de R2, appelée base canonique de R2.
2. Soient les vecteurs v1 = 31 et v2 = 12. Alors (v1, v2) forment aussi une base de R2.
y e2 v = λ1 v1 + λ2 v2
e3
λ2 v2
v2
λ1 v1
e2 e2
v1
e1 xe1 e1
DIMENSION FINIE 3. BASE 242
1 0 0
3. De même dans R3, si e1 = 00 , e2 = 01 , e3 = 1 0 , alors (e1, e2, e3) forment la base canonique de R3. Exemple
11.
3
1 2 3 B .
Soient v1 = 21 , v2 = 90 et v3 = 43 . Montrons que la famille =(v1, v2, v3) est une base de R Dans les deux
premiers points, nous ramenons le problème à l’étude d’un système linéaire.
1. Montrons d’abord que B est une famille génératrice de R3. Soit v = aa12 un vecteur quelconque de R3.
∈ a3
1 2 3
9
A =2 0 3 .
1 4
DIMENSION FINIE 3. BASE 243
Pour montrer qu’elle est inversible, on peut calculer son inverse ou seulement son déterminant qui vaut det
A = −1 (le déterminant étant non nul la matrice est inversible).
Les vecteurs de Kn :
0 0 1
Remarque.
L’exemple 11 se généralise de la façon suivante. Pour montrer que n vecteurs de Rn forment une base de
Rn, il suffit de montrer la chose suivante : la matrice A constituée des composantes de ces vecteurs (chaque
vecteur formant une colonne de A) est inversible.
1 1 1
0 2 2
Exemple 13.
1 0 0 1 0 0 0 0
M1 = 0 0 M2 = 0 0 M3 = 1 0 M4 = 0 1 .
a b
En effet, n’importe quelle matrice M = c d de M2(R) se décompose de manière unique en
4. C’est un bon exercice de prouver que les quatre matrices suivantes forment aussi une base de M2(R) :
DIMENSION FINIE 3. BASE 244
1 0 1 0 0 1 1 3
M 1′ = 1 0 M 2′ = 0 1 M 3′ = 1 0 M 4′ = 4 2 .
1. Toute famille libre L peut être complétée en une base. C’est-à-dire qu’il existe une famille F telle que L
2. De toute famille génératrice G on peut extraire une base de E. C’est-à-dire qu’il existe une famille B ⊂ G
3.5. Preuves
Les deux théorèmes précédents sont la conséquence d’un résultat encore plus général :
Théorème 5.
Soit G une famille génératrice finie de E et L une famille libre de E. Alors il existe une famille F de G telle
1. On sait qu’il existe une famille génératrice de E : notons-la G. On applique le théorème 5 avec ce L et ce G.
En particulier, le théorème 3 d’existence d’une base se démontre comme le point (2) ci-dessus avec L =∅ et G
Il nous reste donc à prouver le théorème 5. La démonstration que nous en donnons est un algorithme.
Démonstration.
• Étape 0. Si L est une famille génératrice de E, on pose F =∅ et c’est fini puisque L est une famille génératrice
• Étape 1. Comme L n’est pas une famille génératrice, alors il existe au moins un élément g1 de G qui n’est pas
combinaison linéaire des éléments de L . (En effet, par l’absurde, si tous les éléments de G sont dans Vect L ,
alors L serait aussi une famille génératrice.) On pose L1 = L ∪{g1}. Alors la famille L1 vérifie les propriétés
suivantes :
(ii) 1 est une famille libre. (En effet, si 1 n’était pas une famille libre, alors une combinaison linéaire nulle
impliquerait que g1 ∈ Vect L .)
On recommence le même raisonnement à partir de L1 : si L1 est une famille génératrice de E, alors on pose F =
• Étape 2. Il existe au moins un élément g2 de G qui n’est pas combinaison linéaire des éléments de L1. Alors la
famille L2 = L1 ∪{g2} = L ∪{g1, g2} est strictement plus grande que L1 et est encore une famille libre.
Si L2 est une famille génératrice, on pose F = {g1, g2} et c’est fini. Sinon on passe à l’étape d’après.
• ...
L’algorithme consiste donc à construire une suite, strictement croissante pour l’inclusion, de familles libres,
où, sisorte queLk−L1 n’engendre pask = Lk−1 ∪{gk}Ereste une famille libre., alors Lk est construite partir de Lk−1 en lui
ajoutant un vecteur gk de G, de
• L’algorithme se termine. Comme la famille G est finie, le processus s’arrête en moins d’étapes qu’il y a
d’éléments dans G. Notez que, comme G est une famille génératrice, dans le pire des cas on peut être amené
à prendre F = G.
{g1, . . . , gs}. Par construction, Ls est une famille finie, libre et aussi génératrice (car c’est la condition d’arrêt).
Exemple 14.
Soit R[X ] le R-espace vectoriel des polynômes réels et E le sous-espace de R[X ] engendré par la famille G = {P1,
P2, P3, P4, P5} définie par :
• Étape 0. Comme L n’est pas génératrice (vu que L =∅), on passe à l’étape suivante.
• Étape 1. On pose L1. Comme P1 est non nul, L1 est une famille libre.
=
linéairement indépendants, L2 {P1, P2} est une famille libre.
• Étape 3. Considérons P3 : ce vecteur est combinaison linéaire des vecteurs P1 et P2 car P3(X )= X + 1 = P1(X )+
P2(X ) donc {P1, P2, P3} est une famille liée. Considérons alors P4. Un calcul rapide prouve que les vecteurs P1,
=
P2 et P4 sont linéairement indépendants. Alors L3 {P1, P2, P4} est une famille libre. Il ne reste que le vecteur P5
à considérer. Il s’agit, pour pouvoir conclure, d’étudier l’indépendance linéaire des vecteurs P1, P2, P4, P5. Or
un calcul rapide montre l’égalité
P1 + P2 − P4 − P5 = 0,
DIMENSION FINIE 4. DIMENSION D’UN ESPACE VECTORIEL 247
ce qui prouve que la famille {P1, P2, P4, P5} est liée. Donc avec les notations de l’algorithme, s = 3 et L3 = {P1, P2,
Mini-exercices.
1. Trouver toutes les façons d’obtenir une base de R 2 avec les vecteurs suivants : v1 = −−13, v2 = 33, v3 = 00, v4 = 20,
v5 = 26.
2 2 1 1
2. Montrer que la famille {v1, v2, v3, v4} des vecteurs v1 = −13 , v2 = −31 , v3 = −24 , v4 = −11 est
une famille génératrice du sous-espace vectoriel d’équation 2x − y + z = 0 de R3. En extraire une base.
4. Donner une base de l’espace vectoriel des matrices ∈ 3 × 3 ayant une diagonale nulle. Idem avec l’espace′
4.1. Définition
Définition 5.
Un K-espace vectoriel E admettant une base ayant un nombre fini d’éléments est dit de dimension finie.
Par le théorème 3 d’existence d’une base, c’est équivalent à l’existence d’une famille finie génératrice. On va
pouvoir parler de la dimension d’un espace vectoriel grâce au théorème suivant :
Théorème 6 (Théorème de la dimension).
Toutes les bases d’un espace vectoriel E de dimension finie ont le même nombre d’éléments.
Méthodologie. Pour déterminer la dimension d’un espace vectoriel, il suffit de trouver une base de E (une famille
à la fois libre et génératrice) : le cardinal (nombre d’éléments) de cette famille donne la dimension de E. Le
théorème 6 de la dimension prouve que même si on choisissait une base différente alors ces deux bases auraient
le même nombre d’éléments.
Convention. On convient d’attribuer à l’espace vectoriel {0} la dimension 0.
DIMENSION FINIE 4. DIMENSION D’UN ESPACE VECTORIEL 248
4.2. Exemples
Exemple 15.
2 1
2. Les vecteurs 1 , 1 forment aussi une base de R 2, et illustrent qu’une autre base contient le même
nombre d’éléments.
3. Plus généralement, Kn est de dimension n, car par exemple sa base canonique (e1, e2, . . . , en) contient n
éléments.
4. dim Rn[X ]= n + 1 car une base de Rn[X ] est (1, X , X 2, . . . , X n), qui contient n + 1 éléments.
Exemple 16.
Les espaces vectoriels suivants ne sont pas de dimension finie :
• R[X ] : l’espace vectoriel de tous les polynômes, • F(R, R) : l’espace vectoriel des
fonctions de R dans R,
Exemple 17.
Nous avons vu que l’ensemble des solutions d’un système d’équations linéaires homogène est un espace
vectoriel. On considère par exemple le système
2x1 + 2x2 − x3 + x5 =0
+ x5 =0
−x1 − x2 + 2x3 − 3x4 x1 + x2 − 2x3 − x5 = 0
= 0.
+ x5
x3 + x4
On vérifie que la solution générale de ce système est
x1 = −s − t x2 = s x3 = −t x4 = 0 x5 = t .
+ −0t = s 00 +t −01 .x
x5 t 0 t 0 1
= −01
0 1
engendrent l’espace des solutions du système. D’autre part, on vérifie que v1 et v2 sont linéairement
indépendants. Donc (v1, v2) est une base de l’espace des solutions du système. Ceci montre que cet espace
vectoriel est de dimension 2.
4.3. Compléments
DIMENSION FINIE 4. DIMENSION D’UN ESPACE VECTORIEL 249
Lorsqu’un espace vectoriel est de dimension finie, le fait de connaître sa dimension est une information très riche
; les propriétés suivantes montrent comment exploiter cette information. Le schéma de preuve sera : Lemme 1
=⇒ Proposition 5 =⇒ Théorème 6.
Lemme 1.
Soit E un espace vectoriel. Soit L une famille libre et soit G une famille génératrice finie de E. Alors Card L ⩽
Card G.
1. On applique le lemme 1 à la famille B considérée génératrice ; alors une famille libre L vérifie Card L ⩽ Card B
= n.
2. On applique le lemme 1 à la famille B considérée maintenant comme une famille libre, alors une famille
La preuve du corollaire (et donc du théorème 6 de la dimension) est la suivante : par la proposition 5, si B est une
base quelconque de E, alors B est à la fois une famille libre et génératrice, donc possède à la fois au plus n
Théorème 7.
Soient E un K-espace vectoriel de dimension n, et F = (v1, . . . , vn) une famille de n vecteurs de E. Il y a
équivalence entre :
Démonstration.
• Les implications (i) =⇒ (ii) et (i) =⇒ (iii) découlent de la définition d’une base.
Si F est une famille libre ayant n éléments, alors par le théorème de la base incomplète (théorème 4) il existe
une famille F′ telle que F ∪F′ soit une base de E. D’une part F ∪F′ est une base de E qui est de dimension n,
Card F + Card F′ (par l’algorithme du théorème 4) et par hypothèse Card F = n. Donc Card F′ = 0, ce qui
Par hypothèse, F est cette fois une famille génératrice. Toujours par le théorème 4, on peut extraire de cette
famille une base B ⊂ F. Puis par le théorème 6, Card B = n, donc n = Card B ⩽ Card F = n.
Exemple 18.
Pour quelles valeurs de t ∈ R les vecteurs (v1, v2, v3) suivants forment une base de R3 ?
1 v1 1 v2 1 v3 =1
=1 =3 t
4 t
• Nous avons une famille de 3 vecteurs dans l’espace R 3 de dimension 3. Donc pour montrer que la famille (v1,
v2, v3) est une base, par le théorème 7, il suffit de montrer que la famille est libre ou bien de montrer qu’elle
est génératrice. Dans la pratique, il est souvent plus facile de vérifier qu’une famille est libre.
• À quelle condition la famille {v1, v2, v3} est libre ? Soient λ1, λ2, λ3 ∈ R tels que λ1v1 +λ2v2 +λ3v3 = 0. Cela implique
le système
0.
2λ2 = 0 ⇐⇒ λ2 = 0
(t − 4)λ2 +(t − 4)λ3 = 0 (t − 4)λ3 = 0
• Il est clair que si t ≠ 4, alors la seule solution est (λ1, λ2, λ3) = (0, 0, 0) et donc {v1, v2, v3} est une famille libre. Si
t = 4, alors par exemple (λ1, λ2, λ3) = (1, 0, −1) est une solution non nulle, donc la famille n’est pas libre.
• Conclusion : si t ̸= 4 la famille est libre, donc par le théorème 7 la famille (v1, v2, v3) est en plus génératrice,
donc c’est une base de R3. Si t = 4, la famille n’est pas libre et n’est donc pas une base.
4.4. Preuve
Il nous reste la preuve du lemme 1. La démonstration est délicate et hors-programme.
noté g1, et soit {v1, v2} une famille de E ayant deux éléments. Les vecteurs v1 et v2 peuvent s’écrire comme
combinaisons linéaires du vecteur g1 ; autrement dit, il existe des scalaires α1, α2 tels que v1 =α1g1 et v2 =α2g1, ce
qui donne la relation : α2v1 −α1v2 = 0E. En supposant v2 non nul (sinon il est évident que {v1, v2} est liée), le scalaire
α2 est donc non nul. On a trouvé une combinaison linéaire nulle des vecteurs v1, v2, avec des coefficients non tous
Hérédité. On démontre maintenant que si la propriété est vraie au rang n − 1 (n ⩾ 2), alors elle vraie au rang n.
Soit E un espace vectoriel engendré par n vecteurs notés g1, g2, . . . , gn, et soit {v1, v2, . . . , vn, vn+1} une famille de
E ayant n + 1 éléments. Tout vecteur vj, pour j = 1, 2, . . . , n + 1, est combinaison linéaire de g1, g2, . . . , gn, donc il
Remarque. On est contraint d’utiliser ici deux indices i, j pour les scalaires (attention ! j n’est pas un exposant) car
deux informations sont nécessaires : l’indice j indique qu’il s’agit de la décomposition du vecteur vj, et i indique à
quel vecteur de la famille génératrice est associé ce coefficient.
Si vn+1 est nul, c’est terminé, la famille est liée ; sinon, vn+1 est non nul, et au moins un des coefficients αnj+1 est non
nul. On suppose, pour alléger l’écriture, que αnn+1 est non nul (sinon il suffit de changer l’ordre des vecteurs). On
construit une nouvelle famille de n vecteurs de E de telle sorte que ces vecteurs soient combinaisons linéaires de
g1, g2, . . . , gn−1, c’est-à-dire appartiennent au sous-espace engendré par
k=1
Le coefficient de gn est nul. Donc wj est bien combinaison linéaire de g1, g2, . . . , gn−1. On a n vecteurs qui
appartiennent à un espace vectoriel engendré par n − 1 vecteurs ; on peut appliquer l’hypothèse de récurrence :
la famille {w1, w2, . . . , wn} est liée. Par conséquent, il existe des scalaires non tous nuls λ1, λ2, . . ., λn tels que
En remplaçant les wj par leur expression en fonction des vecteurs vi, on obtient :
Le coefficient αnn+1 a été supposé non nul et au moins un des scalaires λ1, λ2, . . . , λn est non nul ; on a donc une
combinaison linéaire nulle des vecteurs v1, v2, . . . , vn, vn+1 avec des coefficients qui ne sont pas tous nuls, ce qui
prouve que ces vecteurs forment une famille liée.
Mini-exercices.
Dire si les assertions suivantes sont vraies ou fausses. Justifier votre réponse par un résultat du cours ou un
contre-exemple :
2. Une famille de p > n vecteurs dans un espace vectoriel de dimension n est liée.
3. Une famille de p < n vecteurs dans un espace vectoriel de dimension n est libre.
4. Une famille génératrice de p ⩽ n vecteurs dans un espace vectoriel de dimension n est libre.
5. Une famille de p ≠ n vecteurs dans un espace vectoriel de dimension n n’est pas une base.
6. Toute famille libre à p éléments d’un espace vectoriel de dimension n se complète par une famille ayant
exactement n − p éléments en une base de E.
• il contient le sous-espace vectoriel F1 = Rn[X ] des (fonctions) polynômes de degré ⩽ n, qui est de dimension
finie ;
• et aussi le sous-espace vectoriel F2 = R[X ] de l’ensemble des (fonctions) polynômes, qui lui est de dimension
infinie.
2. dim F ⩽ dim E ;
DIMENSION FINIE 5. DIMENSION DES SOUS-ESPACES VECTORIELS 254
3. F = E ⇐⇒ dim F = dim E.
Démonstration.
• Soit E un espace vectoriel de dimension n et soit F un sous-espace vectoriel de E. Si F = {0} il n’y a rien à
montrer. On suppose donc F ≠ {0} et soit v un élément non nul de F. La famille {v} est une famille libre
de F, donc F contient des familles libres. Toute famille libre d’éléments de F étant une famille libre
d’éléments de E (voir la définition des familles libres), alors comme E est de dimension n, toutes les familles
• On considère l’ensemble K des entiers k tels qu’il existe une famille libre de F ayant k éléments :
©
K =¦k ∈ N | ∃{v1, v2, . . . , vk} ⊂ F et {v1, v2, . . . , vk} est une famille libre de F
Cet ensemble K est non vide (car 1 ∈ K) ; K est un sous-ensemble borné de N (puisque tout élément de
K est compris entre 1 et n) donc K admet un maximum. Notons p ce maximum et soit {v1, v2, . . . , vp} une
• Montrons que {v1, v2, . . . , vp} est aussi génératrice de F. Par l’absurde, s’il existe w un élément de F qui n’est
pas dans Vect(v1, . . . , vp), alors la famille {v1, . . . , vp, w} ne peut pas être libre (sinon p ne serait pas le
maximum de K). La famille {v1, . . . , vp, w} est donc liée, mais alors la relation de dépendance linéaire implique
Conclusion : (v1, . . . , vp) est une famille libre et génératrice, donc est une base de F.
• On a ainsi démontré simultanément que :
— F est de dimension finie (puisque (v1, v2, . . . , vp) est une base de F).
— Ainsi dim F = p, donc dim F ⩽ dim E (puisque toute famille libre de F a au plus n éléments).
— De plus, lorsque p = n, le p-uplet (v1, v2, . . . , vp), qui est une base de F, est aussi une base de E (car
{v1, v2, . . . , vp} est alors une famille libre de E ayant exactement n éléments, donc est une base de E). Tout
élément de E s’écrit comme une combinaison linéaire de v1, v2, . . . , vp, d’où E = F.
5.2. Exemples
Exemple 19.
Si E est un K-espace vectoriel de dimension 2, les sous-espaces vectoriels de E sont :
• soit de dimension 0 : c’est alors le sous-espace {0} ;
DIMENSION FINIE 5. DIMENSION DES SOUS-ESPACES VECTORIELS 255
• soit de dimension 1 : ce sont les droites vectorielles, c’est-à-dire les sous-espaces Ku = Vect{u} engendrés par
Vocabulaire. Plus généralement, dans un K-espace vectoriel E de dimension n (n ⩾ 2), tout sous-espace vectoriel
de E de dimension 1 est appelé droite vectorielle de E et tout sous-espace vectoriel de E de dimension 2 est
appelé plan vectoriel de E. Tout sous-espace vectoriel de E de dimension n − 1 est appelé hyperplan de E. Pour n
= 3, un hyperplan est un plan vectoriel ; pour n = 2, un hyperplan est une droite vectorielle.
F = G ⇐⇒ dim F = dim G
Autrement dit, sachant qu’un sous-espace est inclus dans un autre, alors pour montrer qu’ils sont égaux il suffit
de montrer l’égalité des dimensions.
Exemple 20.
Deux droites vectorielles F et G sont soit égales, soit d’intersection réduite au vecteur nul.
Exemple 21.
Soient les sous-espaces vectoriels de R3 suivants :
x y 1
F= z ∈ R3 | 2x − 3y + z = 0 et G = Vect(u, v) où u = 11 et v = − 11
2
.
Est-ce que F = G ?
1. On remarque que les vecteurs u et v ne sont pas colinéaires, donc G est de dimension 2, et de plus ils
appartiennent à F, donc G est contenu dans F.
2. Pour trouver la dimension de F, on pourrait déterminer une base de F et on montrerait alors que la dimension
de F est 2. Mais il est plus judicieux ici de remarquer que F est contenu strictement dans R3
3
1 n’est pas dans F), donc dim F < dim R3 = 3 ; mais puisque F contient
(par exemple le vecteur 0 de R
0
Corollaire 3.
Si E = F ⊕ G, alors dim E = dim F + dim G.
Exemple 22.
Dans un espace vectoriel E de dimension 6, on considère deux sous-espaces F et G avec dim F = 3 et dim G = 4.
Que peut-on dire de F ∩ G ? de F + G ? Peut-on avoir F ⊕ G = E ?
• F ∩ G est un sous-espace vectoriel inclus dans F, donc dim(F ∩ G)⩽ dim F = 3. Donc les dimensions possibles
• F+G est un sous-espace vectoriel contenant G et inclus dans E, donc 4 = dim G ⩽ dim(F+G)⩽ dim E = 6.
Donc les dimensions possibles pour F + G sont 4, 5, 6.
• Le théorème 9 des quatre dimensions nous donne la relation : dim(F ∩G)= dim F +dim G−dim(F +G)=
• Conclusion : les dimensions possibles pour F + G sont 4, 5 ou 6 ; les dimensions correspondantes pour F ∩ G
sont alors 3, 2 ou 1. Dans tous les cas, F ∩ G ̸= {0} et en particulier F et G ne sont jamais en somme directe
dans E.
Preuve du théorème 9.
• Notez l’analogie de la formule avec la formule pour les ensembles finis :
• Nous allons partir d’une baseen une base BF = {u1, . . . , up,BvpF+∩1G, . . . ,= {vuq1}, . . . ,de Fu. On complète
ensuitep} de F ∩ G. On commence par compléterBF∩G en une base BBGF∩=G
est une base de F + G. Il est tout d’abord clair que c’est une famille génératrice de F + G (car BF est une famille
• Montrons que cette famille est libre. Soit une combinaison linéaire nulle :
pqrX X X
α iui + βjvj + γkwk = 0 (1)
i=1 j=p+1 k=p+1
On pose u u, v
i i v, w
j j wk. Alors d’une part u + v ∈ F (car BF est une base de
k
Pq
F ∩ G et aussi bien sûr u ∈ F ∩ G, donc v = j=p+1 βjvj ∈ F ∩ G. Cela implique βj = 0 pour tout j (car les {vj}
Pp
La combinaison linéaire nulle (1) devient i =1 0. Or BG est une base de G, donc αi = 0 et
=
γk = 0 pour tout i, k. Ainsi BF+G {u1, . . . , up, vp+1, . . . , vq, wp+1, . . . , wr} est une base de F + G.
• Il ne reste plus qu’à compter le nombre de vecteurs de chaque base :dim F = Card BF = q, dim G = Card BG = r,
dim(F + G)= Card BF+G =dimq +Fr −∩ pG. Ce qui prouve bien= Card BF∩G = p,
Mini-exercices.
6
1. Soient F = Vect 231 , 3 et G = Vect −707 , 11 5 . Montrer que F = G.
t 1
2. Dans R3, on considère F = Vect − , 11 , G = Vect 1 1 . Calculer les dimensions de F, G, F ∩G, F +G en
fonction de t ∈ R.
3. Dans un espace vectoriel de dimension 7, on considère des sous-espaces F et G vérifiant dim F = 3 et dim G
⩽ 2. Que peut-on dire pour dim(F ∩ G) ? Et pour dim(F + G) ?
4. Dans un espace vectoriel E de dimension finie, montrer l’équivalence entre : (i) F ⊕ G = E ; (ii) F + G = E et dim
5. Soit H un hyperplan dans un espace vectoriel de dimension finie E. Soit v ∈ E \ H. Montrer que H et Vect(v)
Auteurs du chapitre
• D’après un cours de Sophie Chemla de l’université Pierre et Marie Curie, reprenant des parties d’un cours de
H. Ledret et d’une équipe de l’université de Bordeaux animée par J. Queyrut,
• et un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara Thomas de l’École Polytechnique Fédérale de
Lausanne,
• mixé, révisé et complété par Arnaud Bodin. Relu par Vianney Combet.
Chapitre
Matrices et
applications
linéaires
12
VidØo ■ partie 1. Rang d’une famille de vecteurs
VidØo ■ partie 2. Applications linØaires en dimension finie
VidØo ■ partie 3. Matrice d’une application linØaire
VidØo ■ partie 4. Changement de bases
Fiche d’exercices Matrice d’une application linØaire
Ce chapitre est l’aboutissement de toutes les notions d’algèbre linéaire vues jusqu’ici : espaces vectoriels,
dimension, applications linéaires, matrices. Nous allons voir que dans le cas des espaces vectoriels de dimension
finie, l’étude des applications linéaires se ramène à l’étude des matrices, ce qui facilite les calculs.
1.1. Définition
Soient E un K-espace vectoriel et {v1, . . . , vp} une famille finie de vecteurs de E. Le sous-espace vectoriel
Vect(v1, . . . , vp) engendré par {v1, . . . , vp} étant de dimension finie, on peut donc donner la définition suivante :
Vect
{v1, . . . , vp} est la dimension du sous-espace vectoriel (v1, . . . , vp) engendré par les vecteurs v1, . . . , vp.
Autrement dit :
Calculer le rang d’une famille de vecteurs n’est pas toujours évident, cependant il y a des inégalités qui découlent
directement de la définition.
Proposition 1.
Soient E un K-espace vectoriel et {v1, . . . , vp} une famille de p vecteurs de E. Alors :
MATRICES ET APPLICATIONS LINÉAIRES 1. RANG D’UNE FAMILLE DE VECTEURS 261
1. 0 ⩽ rg(v1, . . . , vp)⩽ p : le rang est inférieur ou égal au nombre d’éléments dans la famille.
2. Si E est de dimension finie alors rg(v1, . . . , vp)⩽ dim E : le rang est inférieur ou égal à la dimension de
l’espace ambiant E.
Remarque.
• Le rang d’une famille vaut 0 si et seulement si tous les vecteurs sont nuls.
• Le rang d’une famille {v1, . . . , vp} vaut p si et seulement si la famille {v1, . . . , vp} est libre.
Exemple 1.
Quel est le rang de la famille {v1, v2, v3} suivante dans l’espace vectoriel R4 ?
1 0 −1
0 v1 1 v2
1 v 3 = 0
=1 =1
0 1
1
• Ce sont des vecteurs de R4 donc rg(v1, v2, v3)⩽ 4.
Il reste donc à déterminer si le rang vaut 2 ou 3. On cherche si la famille {v1, v2, v3} est libre ou liée en résolvant le
système linéaire λ1v1 +λ2v2 +λ3v3 = 0. On trouve v1 − v2 + v3 = 0. La famille est donc liée.
Ainsi Vect(v1, v2, v3)= Vect(v1, v2), donc rg(v1, v2, v3)= dim Vect(v1, v2, v3)= 2.
Une matrice peut être vue comme une juxtaposition de vecteurs colonnes.
Définition 2.
On définit le rang d’une matrice comme étant le rang de ses vecteurs colonnes.
Exemple 2.
Le rang de la matrice
1
1 2 0
§ª
MATRICES ET APPLICATIONS LINÉAIRES 1. RANG D’UNE FAMILLE DE VECTEURS 262
. Tous ces vecteurs sont colinéaires à v1, donc le rang de la famille {v1,
Réciproquement, on se donne une famille de p vecteurs {v1, . . . , vp} d’un espace vectoriel E de dimension
=
n. Fixons une base B {e1, . . . , en} de E. Chaque vecteur1j vj se décompose dans la base B : vj = a1je1 +
a
...
···+ aijei +···+ anjen, ce que l’on note vj = aij . En juxtaposant ces vecteurs colonnes, on obtient une ...
anj
. Le rang de la famille
matrice A ∈ Mn,p(K) {v1, . . . ,Bvp} est égal au rang de la matrice A.
Définition 3.
On dit qu’une matrice est échelonnée par rapport aux colonnes si le nombre de zéros commençant une
colonne croît strictement colonne après colonne, jusqu’à ce qu’il ne reste plus que des zéros. Autrement
dit, la matrice transposée est échelonnée par rapport aux lignes.
Voici un exemple d’une matrice échelonnée par colonnes ; les ∗ désignent des coefficients quelconques, les +
des coefficients non nuls :
+ ∗ 0
0 0 0 0
0 0 0 0
0
+ 0 0 0
∗ 0
∗ + 0 0 0
∗
∗ ∗ ∗ 0 0
∗ ∗ ∗ + 0 0
Le rang d’une matrice échelonnée est très simple à calculer.
0
Proposition 2.
Le rang d’une matrice échelonnée par colonnes est égal au nombre de colonnes non nulles.
Par exemple, dans la matrice échelonnée donnée en exemple ci-dessus, 4 colonnes sur 6 sont non nulles, donc le
rang de cette matrice est 4.
La preuve de cette proposition consiste à remarquer que les vecteurs colonnes non nuls sont linéairement
indépendants, ce qui au vu de la forme échelonnée de la matrice est facile.
Proposition 3.
Le rang d’une matrice ayant les colonnes C 1, C2, . . . , Cp n’est pas modifié par les trois opérations
élémentaires suivantes sur les vecteurs :
MATRICES ET APPLICATIONS LINÉAIRES 1. RANG D’UNE FAMILLE DE VECTEURS 263
1. Ci ← λCi avec λ≠ 0 : on peut multiplier une colonne par un scalaire non nul.
2. Ci ← Ci +λCj avec λ ∈ K (et j ̸= i) : on peut ajouter à la colonne Ci un multiple d’une autre colonne Cj.
P
Plus généralement, l’opération Ci ← Ci + i≠ j λjCj conserve le rang de la matrice.
On a même un résultat plus fort, comme vous le verrez dans la preuve : l’espace vectoriel engendré par les
vecteurs colonnes est conservé par ces opérations.
change pas le rang. Notons vi le vecteur correspondant à la colonne Ci d’une matrice A. L’opération sur les
colonnes C1 ← C1 +λC2 change la matrice A en une matrice A′ dont les vecteurs colonnes sont : v1 +λv2, v2, v3, . . . ,
vp.
Il s’agit de montrer que les sous-espaces F = Vect(v1, v2, . . . , vp) et G = Vect(v1 +λv2, v2, v3, . . . , vp) ont la même
dimension. Nous allons montrer qu’ils sont égaux !
• Tout générateur de G est une combinaison linéaire des vi, donc G ⊂ F.
• Pour montrer que F ⊂ G, il suffit de montrer v1 est combinaison linéaire des générateurs de G, ce qui s’écrit :
v1 =(v1 +λv2)−λv2.
1 2 2 5 8
− −
En faisant les opérations C2 ← C2 + C1, C3 ← C3 −3C1 , C4 ← C4 −3C1, C5 ← C5 −3C1, on obtient des zéros
sur la première ligne à droite du premier pivot :
0 −1 0 0
1 −1 3 3 3 1 0
2 5
1 2 2 5 8 1 3
∼
1 0 0 0 0 1 0 0 0 0
En faisant les opérations C3 ← C3 + 3C2, C4 ← C4 + 2C2 et C5 ← C5 + 5C2, on obtient des zéros à droite de ce deuxième
pivot :
1 0 0 0 0 1 0 0 0 0
1 −1 3 2 5 1 −1 0 0 0
− − − − − − −
MATRICES ET APPLICATIONS LINÉAIRES 1. RANG D’UNE FAMILLE DE VECTEURS 265
Enfin, en faisant les opérations C4 ← C4 − C3 et C5 ← C5 − 2C3, on obtient une matrice échelonnée par colonnes :
1 0 0 0 0 1 0 0 0 0
Il y a 3 colonnes non nulles : on en déduit que le rang de la famille de vecteurs {v1, v2, v3, v4, v5} est 3. En fait,
1 0 0
1 − −1 − 0
Vect(v1, v2, v3, v4, v5)= Vect 1 , − 4 , − 11 .
1 6 16
Exemple 4.
Considérons les trois vecteurs suivants dans R5 : v1 =(1, 2, 1, 2, 0), v2 =(1, 0, 1, 4, 4) et v3 =(1, 1, 1, 0, 0).
Montrons que la famille {v1, v2, v3} est libre dans R5. Pour cela, calculons le rang de cette famille de vecteurs ou,
ce qui revient au même, celui de la matrice suivante :
1 1 1
0
2
1 1
1 4 1 .
4
2 0
0
0
Par des opérations élémentaires sur les colonnes, on obtient :
1 1 1 1 0 0 1 0 0 1 0 0
1 1 1 ∼ 1 0 0 ∼ 1 0 0 ∼ 1 0 0
2 4 0
0 4 0
Comme la dernière matrice est échelonnée par colonnes et que ses 3 colonnes sont non nulles, on en déduit que
la famille {v1, v2, v3} constituée de 3 vecteurs est de rang 3, et donc qu’elle est libre dans R 5.
Exemple 5.
Considérons les quatre vecteurs suivants dans R3 : v1 = (1, 2, 3) , v2 = (2, 0, 6), v3 = (3, 2, 1) et v4 =
MATRICES ET APPLICATIONS LINÉAIRES 1. RANG D’UNE FAMILLE DE VECTEURS 266
(−1, 2, 2). Montrons que la famille {v1, v2, v3, v4} engendre R3. Pour cela, calculons le rang de cette famille de
2 0 2 2.
3 6 1 2
Par des opérations élémentaires sur les colonnes, on obtient :
2 0 2 2 − − − 0 0 1 0 0 0
1 2 3 −1 1 0 0 0 1 0
3 6 1 2 3 0 −8 5 3 0 −8 5 −
La famille {v1, v2, v3, v4} est donc de rang 3. Cela signifie que Vect(v1, v2, v3, v4) est un sous-espace vectoriel de
dimension 3 de R3. On a donc Vect(v1, v2, v3, v4)=R3. Autrement dit, la famille {v1, v2, v3, v4} engendre R3.
La preuve repose sur plusieurs résultats qui seront vus au fil de ce chapitre.
Démonstration. Soit A une matrice carrée d’ordre n. Soit f l’endomorphisme de Kn dont la matrice dans la base
canonique est A. On a les équivalences suivantes :
A de rang n ⇐⇒ f de rang n
⇐⇒ f surjective
⇐⇒ f bijective
⇐⇒ A inversible.
Nous avons utilisé le fait qu’un endomorphisme d’un espace vectoriel de dimension finie est bijectif si et
seulement s’il est surjectif et le théorème sur la caractérisation de la matrice d’un isomorphisme.
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 267
défini rg A = dim Vect(v1, . . . , vp). Considérons maintenant que A est aussi une superposition de vecteurs lignes
(w1, . . . , wn).
Proposition 4. rg A =
dim Vect(w1, . . . , wn)
Nous admettrons ce résultat. Autrement dit : l’espace vectoriel engendré par les vecteurs colonnes et l’espace
vectoriel engendré par les vecteurs lignes sont de même dimension.
Une formulation plus théorique est que le rang d’une matrice égale le rang de sa transposée :
rg A = rg AT
Attention ! Les dimensions dim Vect(v1, . . . , vp) et dim Vect(w1, . . . , wn) sont égales, mais les espaces vectoriels
Vect(v1, . . . , vp) et Vect(w1, . . . , wn) ne sont pas les mêmes.
Mini-exercices.
1 3 0 2 1.
Quel est le rang de la famille de vecteurs 2 , 4 , −−2 , 2 ?
1 2 1 1
1 t 1
Même question pour 1t , 1t , 1t en fonction du paramètre t ∈ R.
1 2 −4 −2 −1
2. Mettre sous forme échelonnée par rapport aux colonnes la matrice . Calculer
1 7 2 5
2 1 1 5
son rang. Idem avec − .
−1 2 1 4
1 4 1 2
2 4 −5 −7
1 a −2 b
5. Soit f : E → F une application linéaire. Quelle inégalité relie rg(f (v1), . . . , f (vp)) et rg(v1, . . . , vp) ?
f (ei)= vi.
n
i
X f (x1, . . . , xn)= f (x1e1 +···+ xnen)= x1 f (e1)+···+ xn f
(en)= xi(X + 1) .
i=1
Démonstration.
• Unicité. Supposons qu’il existe une application linéaire f : E → F telle que f (ei) = vi, pour tout i = 1, . . . , n.
Pn
Pour x ∈ E, il existe des scalaires x1, x2, . . . , xn uniques tels que x = i=1 xiei. Comme f est linéaire, on a
n n n
X X X
(x1, . . . , xn) (resp. y =(y1, . . . , yn)) sont les coordonnées de x (resp. y) dans la base (e1, . . . , en), alors
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 269
n n
X X
(λx +µy) = f (λxi +µyi)ei = (λxi +µyi)f (ei)
i=1 i=1 n nX X
=λ xi f (ei)+µ yi f (ei)=λf (x)+µf (y).
i=1 i=1
Enfin les coordonnées de ei sont (0, . . . , 0, 1, 0, . . . , 0) (avec un 1 en i-ème position), donc f (ei)= 1·vi = vi.
Proposition 5.
Si E est de dimension finie, alors :
• Im f = f (E) est un espace vectoriel de dimension finie.
• Si (e1, . . . , en) est une base de E, alors Im f = Vect f (e1), . . . , f (en).
La dimension de cet espace vectoriel Im f est appelée rang de f :
rg(f )= dim Im f = dim Vect f (e1), . . . , f (en)
Démonstration. Il suffit de démontrer que tout élément de Im f est combinaison linéaire des vecteurs f (e1), . . . , f
(en).
Soit y un élément quelconque de Im f . Il existe donc un élément x de E tel que y = f (x). Comme (e1, . . . , en)
n
X est une base de E, il existe des scalaires
(x1, . . . , xn) tels que x = xiei. En utilisant la linéarité de f , on
i=1
n
X en déduit que y = f (x)= xi f (ei), ce qui achève la démonstration.
i=1
Le rang est plus petit que la dimension de E et aussi plus petit que la dimension de F, si F est de dimension
finie :
Proposition 6.
Soient E et F deux K-espaces vectoriels de dimension finie et f : E → F une application linéaire. On a
Exemple 7.
Soit f : R3 → R2 l’application linéaire définie par f (x, y, z)=(3x − 4y + 2z, 2x − 3y − z). Quel est le rang de f ?
3
1 0 0 .
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 270
=
Si on note e1 = 00 , e2 01 et e3 = 10 , alors (e1, e2, e3) est la base canonique de R Il s’agit de
A=2 −3 −1 .
• Mais en fait les vecteurs v1, v2, v3 vivent dans un espace de dimension 2 donc rg f ⩽ 2.
• f n’est pas l’application linéaire nulle (autrement dit v1, v2, v3 ne sont pas tous nuls) donc rg f ⩾ 1. Donc le
rang de f vaut 1 ou 2. Il est facile de voir que v1 et v2 sont linéairement indépendants, donc le rang est 2 :
rg f = rg f (e1), f (e2), f (e3)= dim Vect(v1, v2, v3)= 2
Remarque : il est encore plus facile de voir que le rang de la matrice A est 2 en remarquant que ses deux seules
lignes ne sont pas colinéaires.
dimension finie,
• l’image de f est Im f = f (E)=f (x) | x ∈ E ; c’est un sous-espace vectoriel de F et est de dimension finie.
Le théorème du rang donne une relation entre la dimension du noyau et la dimension de l’image de f .
Théorème 3 (Théorème du rang).
Soit f : E → F une application linéaire entre deux K-espaces vectoriels, E étant de dimension finie. Alors
(x1, x2, x3, x4) 7−→ (x1 − x2 + x3, 2x1 + 2x2 + 6x3 + 4x4, −x1 − 2x3 − x4)
−x1 − 2x3
x1 − x2 + x3 = 0 x2 + x3 + x4
2 1 ª
=0
| x3, x4 ∈ R
= Vect
Les deux vecteurs définissant le noyau sont linéairement indépendants, donc dim Ker f = 2.
On applique maintenant le théorème du rang pour en déduire sans calculs la dimension de l’image : dim Im f
= dim R4 − dim Ker f = 4 − 2 = 2. Donc le rang de f est 2.
• Deuxième méthode. On calcule d’abord l’image. On note (e1, e2, e3, e4) la base canonique de R4.
Calculons vi = f (ei) :
v 1 1 01 −21
v2 = f (e2)= f 00 = 0
Exemple 9.
Soit l’application linéaire
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 272
P′′(X )
où P′′(X ) est la dérivée seconde de P(X ). Quel est le rang et la dimension du noyau de f ?
• Première méthode. On calcule d’abord le noyau :
⇐⇒ P′′(X )= 0
⇐⇒ P′(X )= a ⇐⇒ P(X
)= aX + b
où a, b ∈ R sont des constantes. Cela prouve que Ker f est engendré par les deux polynômes : 1 (le polynôme
constant) et X . Ainsi Ker f = Vect(1, X ). Donc dim Ker f = 2. Par le théorème du rang, rg f = dim Im f = dim
• Deuxième méthode. On calcule d’abord l’image : (1, X , X 2, . . . , X n) est une base de l’espace de départ
Rn[X ], donc
clair que f (X 2), f (X 3), . . . , f (X n) =2, 6X , 12X 2, . . . , n(n − 1)X n−2 engendre un espace de dimension n −
1, donc rg f = n − 1. Par le théorème du rang, dim Ker f = dim Rn[X ]− rg f = (n + 1)−(n − 1)= 2.
de Ker f . D’après le théorème de la base incomplète, il existe n − p vecteurs εp+1, . . . , εn de E tels que (ε1, ε2, . .
Alors Im f est engendrée par les vecteurs f (ε1), f (ε2), . . . , f (εn). Mais, comme pour tout i vérifiant 1 ⩽ i ⩽ p
on a f (εi)= 0, Im f est engendrée par les vecteurs f (εp+1), . . . , f (εn).
Montrons que ces vecteurs forment une famille libre. Soient αp+1, . . . , αn des scalaires tels que
)+
αp+1 f (εp+1 ···+αn f (εn)= 0.
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 273
+
Puisque f est une application linéaire, cette égalité équivaut à l’égalité f αp+1εp+1 ···+αnεn= 0, qui prouve que le
+
vecteur αp+1εp+1 ···+αnεn appartient au noyau de f . Il existe donc des scalaires λ1, . . . , λp tels que
Comme (ε1, ε2, . . . , εn) est une base de E, les vecteurs ε1, ε2, . . . , εn sont linéairement indépendants et par
conséquent pour tout i = 1, . . . , p, λi = 0, et pour tout i = p + 1, . . . , n, αi = 0. Les vecteurs f (εp+1), . . . , f (εn)
définissent donc bien une base de Im f . Ainsi le sous-espace vectoriel Im f est de
dimension n − p, ce qui achève la démonstration.
On remarquera le rôle essentiel joué par le théorème de la base incomplète dans cette démonstration.
Démonstration. Si E est de dimension finie, alors comme f est surjective, F = Im f , donc F est engendré par
l’image d’une base de E. On a donc F de dimension finie et dim F ⩽ dim E. De même f −1 : F → E est un
Si c’est F qui est de dimension finie, on fait le même raisonnement avec f −1.
Nous allons démontrer une sorte de réciproque, qui est extrêmement utile.
Théorème 4.
Soit f : E → F une application linéaire avec E et F de dimension finie.
Autrement dit, dans le cas d’une application linéaire entre deux espaces de même dimension, pour démontrer
qu’elle est bijective, il suffit de démontrer l’une des deux propriétés : injectivité ou surjectivité.
Démonstration. C’est immédiat à partir du théorème du rang. En effet, la propriété f injective équivaut à Ker f =
{0}, donc d’après le théorème du rang, f est injective si et seulement si dim Im f = dim E. D’après l’hypothèse sur
MATRICES ET APPLICATIONS LINÉAIRES 2. APPLICATIONS LINÉAIRES EN DIMENSION FINIE 274
l’égalité des dimensions de E et de F, ceci équivaut à dim Im f = dim F. Cela équivaut donc à Im f = F, c’est-à-dire f
est surjective.
Exemple 10.
Soit f : R2 → R2 définie par f (x, y)=(x − y, x + y). Une façon simple de montrer que l’application linéaire f est
bijective est de remarquer que l’espace de départ et l’espace d’arrivée ont même dimension. Ensuite on calcule
le noyau :
x + y = 0
⇐⇒ x − y = 0 ⇐⇒ (x, y)=(0, 0)
Ainsi Ker f =(0, 0) est réduit au vecteur nul, ce qui prouve que f est injective et donc, par le théorème 4,
que f est un isomorphisme.
Exemple 11.
On termine par la justification que si une matrice admet un inverse à droite, alors c’est aussi un inverse à gauche.
La preuve se fait en deux temps : (1) l’existence d’un inverse à gauche ; (2) l’égalité des inverses.
Soit A ∈ Mn(K) une matrice admettant un inverse à droite, c’est-à-dire il existe B ∈ Mn(K) tel que AB = I.
(a) f est une application linéaire, car f (λM +µN)=(λM +µN)A =λf (M)+µf (N).
(b) f est injective : en effet supposons f (M)= O (où O est la matrice nulle), cela donne MA = O. On multiplie
cette égalité par B à droite, ainsi MAB = OB, donc M I = O, donc M = O.
(CA)B = IB = B et C(AB)= C I = C
donc B = C.
Mini-exercices.
1. Soit (e1, e2, e3) la base canonique de R 3. Donner l’expression de f (x, y, z) où f : R3 → R3 est l’application
linéaire qui envoie e1 sur son opposé, qui envoie e2 sur le vecteur nul et qui envoie e3 sur la somme des trois
2. Soit f : R3 → R2 définie par f (x, y, z)=(x − 2y − 3z, 2y + 3z). Calculer une base du noyau de f , une base de
]
4. Même question avec l’application linéaire f : Rn[X → Rn[X ] qui à X k associe X k−1 pour 1 ⩽ k ⩽ n et qui à 1
associe 0.
5. Lorsque c’est possible, calculer la dimension du noyau, le rang et dire si f peut être injective, surjective,
bijective :
• Une application linéaire surjective f : R7 → R4.
de E. Soient n la dimension de F et B′ = (f1, . . . , fn) une base de F. Soit enfin f : E → F une application linéaire.
Les propriétés des applications linéaires entre deux espaces de dimension finie permettent d’affirmer que :
MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 276
• l’application linéaire f est déterminée de façon unique par l’image d’une base de E, donc par les vecteurs f
(e1), f (e2), . . . , f (ep).
• Pour j ∈ {1, . . . , p}, f (ej) est un vecteur de F et s’écrit de manière unique comme combinaison linéaire des
Il existe donc n scalaires uniques a1,j, a2,j, . . . , an,j (parfois aussi notés a1j, a2j, . . . , anj) tels que
a1,j
a
2,j
+
f (ej)= a1,j f1 + a2,j f2 ···+ an,j fn = ... .
a
n,j B′
Ainsi, l’application linéairedonc naturel d’introduire la définition suivante :f est entièrement déterminée par
les coefficients (ai,j)(i,j)∈{1,...,n}×{1,...,p}. Il est Définition 4.
)
La matrice de l’application linéaire f par rapport aux bases B et B′ est la matrice (ai,j ∈ Mn,p(K) dont la j-
ème colonne est constituée par les coordonnées du vecteur f (ej) dans la base B′ =(f1, f2, . . . , fn) :
a
f1 a11 a1j ... a1p f2 21
a
a2j ... 2p
... ... ... ... ...
a
fn n1 anj ... anp
En termes plus simples : c’est la matrice dont les vecteurs colonnes sont l’image par f des vecteurs de la base de
départ B, exprimée dans la base d’arrivée B′. On note cette matrice MatB,B′(f ).
Remarque. •• La taille de la matrice MatPar contre, les coefficients de la matrice dépendent du choix de la
Exemple 12.
Soit f l’application linéaire de R3 dans R2 définie par f
: R3 −→ R2
Il est utile d’identifier vecteurs lignes et vecteurs colonnes ; ainsi f peut être vue comme l’application
MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 277
3
f: xx21
3
→7 1x1+x22−+ x3x3 .
Soientx B =(xe1−,2ex2, e3) la base canonique de R3 et B′ =(f1, f2) la base canonique de R2. C’est-à-dire :
0 0 1
• On a f (e1)= f (1, 0, 0)=(1, 1)= f1 + f2. La première colonne de la matrice MatB,B′(f ) est donc
11 .
• De même1 f (e2)= f (0, 1, 0)=(1, −2)= f1 − 2f2. La deuxième colonne de la matrice MatB,B′(f ) est
doncEnfindonc f−−3(21e3..)= f (0, 0, 1)=(−1, 3)= −f1 + 3f2. La troisième colonne de la matrice MatB,B′(f ) est
•
Ainsi :
1 1 −1
MatB,B′(f )= 1 −2 3
2. On va maintenant changer la base de l’espace de départ et celle de l’espace d’arrivée. Soient les vecteurs
0 1 1
On montre facilement que B0 =(ε1, ε2, ε3) est une base de R3 et B0′ =(φ1, φ2) est une base de R2.
f (ε1)= f (1, 1, 0)=(2, −1)= 3φ1 −φ2, f (ε2)= f (1, 0, 1)=(0, 4)= −4φ1 + 4φ2, f (ε3)= f (0, 1, 1)= (0, 1)= −φ1 +φ2, donc
00 3 −4 −1 Mat ,B′ (f )= −1 4 1 .
Cet exemple illustre bien le fait que la matrice dépend du choix des bases.
3.2. Opérations sur les applications linéaires et les matrices
Proposition 8.
Soient f , g : E → F deux applications linéaires et soient B une base de E et B′ une base de F. Alors :
Mat ,B′(
Alors :
C = A+ B D =λA
Autrement dit : la matrice associée à la somme de deux applications linéaires est la somme des matrices (à
condition de considérer la même base sur l’espace de départ pour les deux applications et la même base sur
l’espace d’arrivée). Idem avec le produit par un scalaire.
base de G. Alors :
Alors
C=B×A
Autrement dit, à condition de bien choisir les bases, la matrice associée à la composition de deux applications
linéaires est le produit des matrices associées à chacune d’elles, dans le même ordre.
En fait, le produit de matrices, qui semble compliqué au premier abord, est défini afin de correspondre à la
composition des applications linéaires.
Démonstration. Posons p = dim(E) et B =(e1, . . . , ep) une base de E ; n = dim F et B′ =(f1, . . . , fn) une base de F ; q =
dim G et B′′ =(g1, . . . ,∈gq) une base de G. Écrivons A = MatB,Bg′(◦ff)=()=(acijij))∈∈ MMnq,,pp((KK)) lala matrice
On a
(g ◦ f )(e1) = g f (e1)
= g(a11 f1 +···+ an1 fn)
= a11g(f1)+···+ an1g(fn)
MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 279
+
a11b21 ···+ an1b2n
.. .
Mais ceci est aussi la première colonne de la matrice BA. En faisant la même chose avec les autres colonnes, on
remarque que C = MatB,B′′(g ◦ f ) et BA sont deux matrices ayant leurs colonnes égales. On a donc bien l’égalité
cherchée.
Exemple 13.
On considère deux applications linéaires : f : R2 → R3 et g : R3 → R2. On pose E =R2, F =R3, G =R2 avec f : E → F, g : F
→ G. On se donne des bases : B =(e1, e2) une base de E, B′ =(f1, f2, f3) une base de F, et B′′ =(g1, g2) une base de G.
l’image des vecteurs de la base de départ B dans la base d’arrivée B′′. C’est-à-dire qu’il faut exprimer g ◦ f (ej)
• Calcul des f (ej). On sait par définition de la matrice A que f (e1) correspond au premier vecteur 1
colonne : plus précisément,0 f (e1)= 10 B′ = 1f1 + 1f2 + 0f3 = f1 + f2.
• Calcul desDe même, f (e2)= 12 B′ = 0f1 +g(1ffj2)+correspond à la2f3 = f2 + 2f3.j-ème colonne de la matrice B :
−1B′′ −
MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 280
— g(f2)= 1 = g1 + g2
0 B′′
— g(f3)= 2 = 2g2
• Calcul des g ◦ fB(e′′j). Pour cela on combine les deux séries de calculs précédents :
g ◦ f (e1)= g(f1 + f2)= g(f1)+ g(f2)=(2g1 + 3g2)+(−g1 + g2)= g1 + 4g2 g ◦ f (e2)= g(f2 + 2f3)=
• Calcul de la matrice C = MatB,B′′(g ◦ f ) : cette matrice est composée des vecteurs g ◦ f (ej) exprimés dans la
alors
1 −1
C=4 5
On trouve bien une matrice de taille 2 × 2 (car l’espace de départ et d’arrivée de g ◦ f est R2).
◦ ×2 −1 0×1 0 1 −1
Cet exemple met bien en évidence le gain, en termes de quantité de calculs, réalisé en passant par
l’intermédiaire des matrices.
3.3. Matrice d’un endomorphisme
Dans cette section, on étudie le cas où l’espace de départ et l’espace d’arrivée sont identiques : f : E → E est un
endomorphisme. Si dim E = n, alors chaque matrice associée à f est une matrice carrée de taille n × n.
Deux situations :
• Si on choisit la même base B au départ et à l’arrivée, alors on note simplement Mat B(f ) la matrice associée à
f.
• Mais on peut aussi choisir deux bases distinctes pour le même espace vectoriel E ; on note alors comme
précédemment MatB,B′(f ).
MATRICES ET APPLICATIONS LINÉAIRES 3. MATRICE D’UNE APPLICATION LINÉAIRE 281
Exemple 14.
• Cas de l’identité : id : E → E est définie par id(x)= x. Alors quelle que soit la base B de E, la matrice associée est
la matrice identité : MatB(id)= In. (Attention ! Ce n’est plus vrai si la base d’arrivée est différente de la base de
départ.)
• Cas d’une homothétie hλ : E → E, hλ(x)=λ· x (où λ ∈ K est le rapport de l’homothétie) : MatB(hλ)= λIn.
•• Cas deCas d’une symétrie centraler: R2 −→ R2 la rotation d’angles : E → E, s(x)=θ, centrée à l’origine, dans
l’espace vectoriel−x : MatB(s)= −In. R2 muni de la
θ
base canonique B. Alors rθ(x, y)=(x cos θ − y sin θ, x sin θ + y cos θ). On a
MatB(rθ)=.
Autrement dit, si A est la matrice associée à f , alors la matrice associée à f p = f ◦ f ◦···◦ f est Ap =
| {z } p occurrences
× AA×···× A. La démonstration est une récurrence sur p en utilisant la proposition 9.
|{z } p facteurs
Exemple 15.
Soit rθ la matrice de la rotation d’angle θ dans R2. La matrice de rθp est :
p p cos θ − sin θp
Mat (rθ)= MatB(rθ) = sin θ cos θ B
ce qui est bien la matrice de la rotation d’angle pθ : composer p fois la rotation d’angle θ revient à effectuer une
rotation d’angle pθ.
Passons maintenant aux isomorphismes. Rappelons qu’un isomorphisme f : E → F est une application linéaire
1
2. De plus, si f : E → F est bijective, alors la matrice de l’application linéaire f − : F → E est la matrice A−1.
Voici le cas particulier très important d’un endomorphisme f : E → E où E est muni de la même base B au départ
et à l’arrivée et A = MatB(f ).
Corollaire 2.
• f est bijective si et seulement si A est inversible.
• Si f est bijective, alors la matrice associée à f −1 dans la base B est A−1.
Exemple 16.
Soient r : R2 → R2 la rotation d’angle (centrée à l’origine) et s la réflexion par rapport à l’axe (y = x).
Quelle est la matrice associée à• Pour θ =, on trouve la matrice(s ◦ r)A−=1 dans la base
canoniqueMatB(r)=cossin θθ −cossinBθθ?= p23 −21 .
0 1
• La matrice associée à la réflexion est B = MatB(s)= 1 .
0
1 p3
• La matrice de s ◦ r est B × A = p2 2
.
1
1 p3 − 1 p3
= =
• La matrice de (s ◦ r)−1 est (BA)−1 p p. On aurait aussi pu calculer ainsi :
• On note que (BA)−1 = BA ce qui, en termes d’applications linéaires, signifie que (s◦r)−1 = s◦r. Autrement dit, s ◦
Preuve du théorème• Si f est bijective, notons5. On noteB =AMat= MatB′,BB,(Bf′−(1f)). Alors par la proposition. 9 on
sait que
• Réciproquement, si A = MatBB,B=′(Matf ) Best une matrice inversible, notons ′,B(g). Alors, toujours par la
Donc la matrice de g ◦ f est l’identité, ce qui implique g ◦ f = idE. De même f ◦ g = idF. Ainsi f est bijective (et sa
Mini-exercices.
1. Calculer la matrice associée aux applications linéaires fi : R2 → R2 dans la base canonique :
(b) f2 la symétrie par rapport à l’axe (y = x), (c) f3 la projection orthogonale sur l’axe (O y), (d) f4 la rotation
d’angle .
Calculer quelques matrices associées à fi ◦ fj et, lorsque c’est possible, à fi−1.
MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 284
4. Changement de bases
+
x = x1e1 + x2e2 ···+ xpep.
xx21 !
xx12 ! B
Dans Rp, si B est la base canonique, alors on note simplement .. . en omettant de mentionner la base.
xp
Soient E et F deux K-espaces vectoriels de dimension finie et f : E → F une application linéaire. Le but de ce
paragraphe est de traduire l’égalité vectorielle y = f (x) par une égalité matricielle.
Proposition 10.
• Soit A = MatB,B′(f ). x1
x2 !
∈
• Pour x E, notons X = MatB(x)= ... .
xp
y1 !B y2
∈
• Pour y F, notons Y = MatB′(y)= ... .
yn B′
Alors, si y = f (x), on a
Mat ′ f (x)= Mat , ′ (f ) Mat (x)
MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 285
Y = AX
Autrement dit :
B BB × B
Démonstration.
xx12 !
• On pose B =(e1, . . . , ep), B′ =(f1, f2, . . . , fn), A =(ai,j)= MatB,B′(f ) et X = MatB(x)= ... .
xp
• On a
p !p p n
X X XX
f (x)= f x jej = x j f (ej)= xj ai,j fi .
j=1 j=1 j=1 i=1
En utilisant la commutativité de K, on a
p ! p !
X X
f (x)= a1,j x j f1 +···+ an,j x j fn.
j=1 j=1
• La matrice colonne des coordonnées de y = f (x) dans la base (f1, f2, . . . , fn) est ... .
Pp
an,j x j=1 j
Pppj=1 a1,j x j x1
Pj 1 a2,j x j x2 !
P an,j x
j=1 j
Exemple 17.
Soient E un K-espace vectoriel de dimension 3 et B =(e1, e2, e3) une base de E. Soit f l’endomorphisme
de E dont la matrice dans la base B est égale à
1
1 2
Les éléments x de E sont des combinaisons linéaires de e1, e2 et e3 : x = x1e1 + x2e2 + x3e3. On a
0
x ∈ Ker f
⇐⇒ f (x)= 0E ⇐⇒ MatB f (x)=00
0 x1 0
AX =0 ⇐⇒ Ax2=0
⇐⇒ 0 x3 0
x1 + 2x2 + x3 = 0
2x1 + 3x2 + x3 = 0
⇐⇒ x1 + x2 =0
On résout ce système par la méthode du pivot de Gauss. On trouve
Ker f E | x1 + 2x2 + x3 = 0 et x2 + x3 = 0 ¦ t © 1
= −tt | t ∈ K = Vect B
Le noyau est donc de dimension 1. Par le théorème du rang, l’image Im f est de dimension 2. Les deux premiers
vecteurs de la matrice A étant linéairement indépendants, ils engendrent Im f : Im f =
1 2
Vect 2 ,
3 . 1 B
1B
On appelle× matrice de passage de la base B vers la base , et on note P , ′, la matrice carrée de tailleB′ n n
dont la j-ème colonne est formée des coordonnées du j-ème vecteur de la base , par rapport à la base B.
On résume en :
B
La matrice de passagela nouvelle baseP,B′ contient - en colonnes - les coordonnées des
vecteurs deB′ exprimés dans l’ancienne base B.
(
C’est pourquoi on note parfois aussi PB,B′ par MatB B′).
Exemple 18.
MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 287
1 1 1 5 e1 = 0 e2 = 1 ε1 = 2 ε2 = 4 .
−1 1
On va interpréter une matrice de passage comme la matrice associée à l’application identité de E par rapport à
des bases bien choisies.
Proposition 11.
(La matrice de passageB PB,B′ de la base B vers la baseB′, etB′Eest la matrice associée à l’identitéest aussi
l’espace d’arrivée, mais muni de la baseidE : (E, B′) →
Cette interprétation est un outil fondamental pour ce qui suit. Elle permet d’obtenir les résultats de façon très
élégante et avec un minimum de calculs.
x 7−→ idE(x)= x
Pn (
On a idE(e′j) = e′j = i=1 ai,jei et MatB′,aB1,j idE) est la matrice dont la j-ème colonne est formée des
a2,j
coordonnées de e′j par rapport à B, soit ... . Cette colonne est la j-ème colonne de PB,B′.
an,j
Proposition 12.
P ′, =P , ′ −1
P , ′′ =P , ′ P ′, ′′
MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 288
1. La matrice de passage d’une base B vers une base B ′ est inversible et son inverse est égale à la matrice de
Démonstration.
1. On aP− P=B,B′ =BMatB′,B id−E1=. Donc, d’après le théorèmeMatB,B′ id−E1 . Or id−E1 =5idcaractérisant la
Autrement dit, on écrit idE = idE ◦ idE. Cette factorisation permet d’écrire l’égalité suivante :
MatB′′,B idE = MatB′,B idE × MatB′′,B′ idE , soit PB,B′′ = PB,B′ × PB′,B′′.
Exemple 19.
1 0 3 1 0 0
1 =1
, −1 , 2 Bet2 =−1 , 1 , 0 .
B− −
0
Quelle est la matrice de passage de0B1 vers B2 ? 10 0 1
On a d’abord
1 0 3 P ,B1 =10 et 1 P 0 00
1
−
,B2 = 01 0 .
−01 −21
−1
B
B
La proposition 12
implique que PB1,B−201,=B1P, on trouve alors :B3,B 1− ×1PB1,B12. Donc on a0 0 PB1,B2 = PB−1,B1 × PB,B2. En appliquant
1 0 31 0 0 1 0 −3
Nous allons maintenant étudier l’effet d’un changement de bases sur les coordonnées d’un vecteur. •
Soient B =(e1, e2, . . . , en) et B′ =(e1′ , e2′ , . . . , en′ ) deux bases d’un même K-espace vectoriel E.
x2
Pn )=
• Pour x ∈ E, il se décompose en x = i=1 xiei dans la base B et on note X = MatB(x ...n
x .
Bx1′
Pn
∈ xi′ei′ dans la base B′ et on note X ′ = MatB′(x)= x...2′ . • Ce même x E se décompose en x = i=1
xn ′ B ′
Proposition 13.
X = PB ,B ′ ×X ′
Démonstration. PB,B′ est la matrice de idE : (E, B′) → (E, B). On utilise que x = idE(x) et la proposition
10. On a :
X = MatB(x)= MatB idE(x)= MatB′,B(idE)× MatB′(x)= PB,B′ ×X ′
• Soient BE, BE′ deux bases de E. • Soient BF, BF′ deux bases de F.
Soit Q = B ,B′
• Soit B = MatBE′ ,BF′ (f ) la matrice de l’application linéaire f de la base BE′ vers la base BF′ .
B = Q−1AP
(E, BE′ ) −id→E (E, BE) −→f (F, BF) −id→F (F, BF′ ),
Q−
Dans le cas particulier d’un endomorphisme, nous obtenons une formule plus simple :
• Soit f : E → E une application linéaire.
•• SoitSoit AP ==MatPB,B′(la matrice de passage def ) la matrice de l’application linéaireB à B′. f dans la base
B.
B = P−1AP
Exemple 20.
Reprenons les deux bases de R3 de l’exemple 19 :
MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 291
1 0 3 1 0 0
0 0 −1 0 0 −1
1 0 −6
1 0 −3
− −
P = PB1,B2 =20 01 11 .
1 0 3
0 0 1
3. On applique la formule du changement de base du corollaire 3 :
1 0 3 1 0 −6 1 0 −3 1 0 0
− 1 2 − − 1− 2
0
B = P−1AP =2 0 5×−2 0 0 1=0 0
7×2 3
0 1 0 1 0
3 0
C’est souvent l’intérêt des changements de base, se ramener à une matrice plus simple. Par exemple ici, il est
facile de calculer les puissances Bk, pour en déduire les Ak.
Définition 6.
Soient A et B deux matrices de Mn(K). On dit que la matrice B est semblable à la matrice A s’il existe une
matrice inversible P ∈ Mn(K) telle que B = P−1AP.
C’est un bon exercice de montrer que la relation « être semblable » est une relation d’équivalence dans
l’ensemble Mn(K) :
Proposition 14.
• La relation est réflexive : une matrice A est semblable à elle-même.
MATRICES ET APPLICATIONS LINÉAIRES 4. CHANGEMENT DE BASES 292
Vocabulaire :
Compte tenu de ces propriétés, on peut dire indifféremment que la matrice A est semblable à la matrice B ou
que les matrices A et B sont semblables. Le corollaire 3 se reformule ainsi :
Corollaire 4.
Deux matrices semblables représentent le même endomorphisme, mais exprimé dans des bases différentes.
Mini-exercices.
→
Soitla base canoniquef : R2 R2 définie parB0 de R2. Soitf (x, yB)=(1 =2x23+ ,y, 32x − 2y), Soit v
−
R2. avec ses coordonnées dans une autre base de
4. En déduire les coordonnées de v dans la base B1, et de f (v) dans la base B1.
13
Déterminants
Le déterminant est un nombre que l’on associe à n vecteurs (v1, . . . , vn) de Rn. Il correspond au volume du
parallélépipède engendré par ces n vecteurs. On peut aussi définir le déterminant d’une matrice A. Le
déterminant permet de savoir si une matrice est inversible ou pas, et de façon plus générale, joue un rôle
important dans le calcul matriciel et la résolution de systèmes linéaires.
Dans tout ce qui suit, nous considérons des matrices à coefficients dans un corps commutatif K, les principaux
exemples étant K=R ou K=C. Nous commençons par donner l’expression du déterminant d’une matrice en petites
dimensions.
1. Déterminant en dimension 2 et 3
d
C’est donc le produit des éléments sur la diagonale principale (en bleu) moins le produit des éléments sur l’autre
diagonale (en orange).
−
a b
c d
Il existe un moyen facile de retenir cette formule, c’est la règle de Sarrus : on recopie les deux premières
colonnes à droite de la matrice (colonnes grisées), puis on additionne les produits de trois termes en les
regroupant selon la direction de la diagonale descendante (à gauche), et on soustrait ensuite les produits de trois
termes regroupés selon la direction de la diagonale montante (à droite).
a11 a12 a13 a11 a12 a11 a12 a13 a11 a12
a21 a22 a23 a21 a22 a21 a22 a23 a21 a22
a31 a32 a33 a31 a32 a31 a32 a33 a31 a32
Exemple 1.
2
1 0
− 1
Calculons le déterminant de la matrice A =1 3 2 3.
1
Par la règle de Sarrus : det A = 2 ×(−1)× 1 + 1 × 3 × 3 + 0 × 1 × 2
− 3 ×(−1)× 0 − 2 × 3 × 2 − 1 × 1 × 1 = −6.
2 1 0 2 1
1 −1 3 1 −1
3 2 1 3 2
Attention : cette méthode ne s’applique pas pour les matrices de taille supérieure à 3. Nous verrons d’autres
méthodes qui s’appliquent aux matrices carrées de toute taille et donc aussi aux matrices 3 × 3.
v2
⃗
j
v1
O ⃗
i x
Proposition 1.
L’aire du parallélogramme est donnée par la valeur absolue du déterminant :
a b
DÉTERMINANTS 1. DÉTERMINANT EN DIMENSION 2 ET 3 295
v3
v2 v1
À partir de ces trois vecteurs on définit, en juxtaposant les colonnes, une matrice et un déterminant :
a11 a12 a13
a22 a23 .
det(v1, v2, v3)= det a21 a32 a33
a31
Proposition 2.
Le volume du parallélépipède est donné par la valeur absolue du déterminant :
On prendra comme unité d’aire dans R 2 l’aire du carré unité dont les côtés sont les vecteurs de la base canonique
1
0 , 01, et comme unité de volume dans R3, le volume du cube unité.
Démonstration. Traitons le cas de la dimension 2. Le résultat est vrai si v1 =( 0a ) et v2 = d0 . En effet, dans ce cas on a
affaire à un rectangle de côtés |a| et |d|, donc d’aire |ad|, alors que le déterminant de la matrice
a 0 vaut
ad.
0 d
v2
d
⃗
j
v1
O ⃗
i a
Si les vecteurs v1 et v2 sont colinéaires alors le parallélogramme est aplati, donc d’aire nulle ; on calcule
facilement que lorsque deux vecteurs sont colinéaires, leur déterminant est nul.
DÉTERMINANTS 1. DÉTERMINANT EN DIMENSION 2 ET 3 296
=
Dans la suite on suppose que les vecteurs ne sont pas colinéaires. Notons v1 =( ac ) et v2 = db . Si a ̸ 0, alors v2′ = v2 −
b 0
a v1 est un vecteur vertical :′ v2′ = d− ab c .
L’opération de remplacer v2 par v2 ne change pas l’aire du parallélogramme (c’est comme si on avait coupé le
triangle vert et on l’avait collé à la place le triangle bleu).
′
v2
v2
⃗
j
v1
O ⃗
i
On pose alors v1′ =( 0a ) : c’est un vecteur horizontal. Encore une fois l’opération de remplacer v1 par v1′ ne change
ni l’aire des parallélogrammes ni le déterminant car
a 0
′
v2
⃗
j
v1
′
O ⃗
i v1
On s’est donc ramené au premier cas d’un rectangle aux côtés parallèles aux axes, pour lequel le résultat est déjà
acquis.
Mini-exercices.
1 2 7 8 1
1. Pour A = 5 3 −− × − , λA, AT.
a b a′ 0
2 0 1 1 2 3
3 1 0 0 0 3
7 1
4. Calculer l’aire du parallélogramme défini par les vecteurs 3 et .
4
2 1 1
5. Calculer le volume du parallélépipède défini par les vecteurs 1 , 1 , 3 .
1 4 1
DÉTERMINANTS 2. DÉFINITION DU DÉTERMINANT 298
2. Définition du déterminant
Cette partie est consacrée à la définition du déterminant. La définition du déterminant est assez abstraite et il
faudra attendre encore un peu pour pouvoir vraiment calculer des déterminants.
det : Mn(K) −→ K
...
···
ai1 ··· λaij +µaij′
anna1n
···
...
... ...
···
ain
··· ...
an1 ··· λanj +µanj′ ann
a11 ··· a1 j
... ...
a11
...
a1 ′ j
... ... +µai1 a1n
...
··· ··· ...
...
aij′ ain .
an1 ··· anj ··· ···
...
...
a
Exemple 2. n1 ··· anj′ ··· ann
6 6 1 4
5
4
−3= 5 × 7 −2 −3
DÉTERMINANTS 2. DÉFINITION DU DÉTERMINANT 299
7 −1 12 5 −1
−10
12 25
Car la seconde colonne est un multiple de 5.
(ii) si une matrice A a deux colonnes identiques, alors son déterminant est nul ; (iii) le
déterminant de la matrice identité In vaut 1.
Une preuve de l’existence du déterminant sera donnée plus bas en section 2.4.
On note le déterminant d’une matrice A =(aij) par :
a11 a12 ··· a1n
a22 ···
a2n
...
a ... .
21 ···
... an2
ann
det A ou
a
Si on note Ci la i-ème colonne de A, alors n1
Avec cette notation, la propriété (i) de linéarité par rapport à la colonne j s’écrit : pour tout λ, µ ∈ K, det(C1, . . . ,
λCj +µCj′, . . . , Cn)=λ det(C1, . . . , Cj, . . . , Cn)+µ det(C1, . . . , Cj′, . . . , Cn), soit
3 2 4−3 3 2 4 3 2 3
− 5 3 −7 − 52
2 2
7 −5 3 − 2 =7 4
10 9
9 2 10 − 4 9
Remarque.
• Une application de Mn(K) dans K qui satisfait la propriété (i) est appelée forme multilinéaire.
• Si elle satisfait (ii), on dit qu’elle est alternée.
Le déterminant est donc la seule forme multilinéaire alternée qui prend comme valeur 1 sur la matrice In. Les
autres formes multilinéaires alternées sont les multiples scalaires du déterminant. On verra plus loin comment
on peut calculer en pratique les déterminants.
1. Ci ← λCi avec λ≠ 0 : A′ est obtenue en multipliant une colonne de A par un scalaire non nul. Alors det A′
=λ det A.
2. Ci ← Ci +λCj avec λ ∈ K (et j ̸= i) : A′ est obtenue en ajoutant à une colonne de A un multiple d’une
Pn
Plus généralement pour (2) : l’opération Ci ← Ci + j=1 λjCj d’ajouter une combinaison linéaire des autres j̸=i
Démonstration.
2. Soit A = C1 ··· Ci ··· Cj ··· Cn une matrice représentée par ses vecteurs colonnes Ck. L’opération Ci ← Ci +λCj
transforme la matrice A en la matrice A′ = C1 ··· Ci +λCj ··· Cj ··· Cn.
Par linéarité par rapport à la colonne i, on sait que
Or les colonnes i et j de la matrice C1 ··· Cj ··· Cj ··· Cn sont identiques, donc son déterminant est nul.
troisième matrice B = C1 ··· Ci + Cj ··· Cj + Ci ··· Cn. Cette matrice a deux colonnes distinctes égales, donc d’après
(ii), det B = 0.
D’un autre côté, nous pouvons développer ce déterminant en utilisant la propriété (i) de multilinéarité, c’est-
à-dire linéarité par rapport à chaque colonne. Ceci donne
A′,
Corollaire 1.
Si une colonne Ci de la matrice A est combinaison linéaire des autres colonnes, alors det A = 0.
Proposition 4.
Le déterminant d’une matrice triangulaire supérieure (ou inférieure) est égal au produit des termes
diagonaux.
det . . . . . . . . . 0 ann
A = ...
...
0
Comme cas particulièrement important on obtient :
Corollaire 2.
Le déterminant d’une matrice diagonale est égal au produit des termes diagonaux.
DÉTERMINANTS 2. DÉFINITION DU DÉTERMINANT 302
Démonstration. On traite le cas des matrices triangulaires supérieures (le cas des matrices triangulaires
inférieures est identique). Soit donc
a11 a12 a13 ··· a1n
1 0 0 ··· 0
0 a2n
0 0 0 ···
élémentaire Cj ← Cj − a1jC1. Ceci ne
Par linéarité par rapport à la deuxième colonne, on en déduit
1 0 0 ···
0
0 1 a23 ··· a2n
modifie pas le déterminant d’après
det A = a11 · a22 0.. 0... a3n ,
a33... ...
···... . ann
0 0 0 ···
la section précédente. Il vient donc
et l’on continue ainsi jusqu’à avoir parcouru toutes les colonnes de la matrice. Au bout de n étapes, on a obtenu
1 0 0 ··· 0
1 0 ···
0
DÉTERMINANTS 0 1 2. DÉFINITION DU DÉTERMINANT 303
0 0= a11 · a22 · a33 ··· ann · det In,
... ... ···...
..
0 0 0 ···
det A = a11 · a22 · a33 ··· ann ... .
0
d’où le résultat, car det I 1, par (iii).
n=
colonne dans A, la matrice obtenue a n − 1 lignes et n − 1 colonnes. On note Ai,j ou Aij la matrice obtenue en
supprimant la i-ème ligne et la j-ème colonne de A. Le théorème d’existence peut s’énoncer de la façon
suivante :
det A =(−1)i+1ai,1 det Ai,1 +(−1)i+2ai,2 det Ai,2 +···+(−1)i+nai,n det Ai,n.
Initialisation. Dans le cas n = 1, il est évident que toutes les propriétés souhaitées sont satisfaites.
Hérédité. Supposons maintenant que l’application det : Mn−1(K) → K soit définie et satisfasse les propriétés
(i), (ii) et (iii). Pour faciliter l’exposition, la preuve va être faite pour i = n. Soit A = (ai,j) notée aussi
a1,j a1,j
. .
A =(C1 ··· Cn) où Cj = .. est la j-ème colonne de A. On notera aussi C¯j = .. la colonne à (n − 1)
an,j a
n
−1,j
éléments, égale à Cj privée de son dernier coefficient.
• Propriété (i).
Il s’agit de vérifier que l’application
DÉTERMINANTS 2. DÉFINITION DU DÉTERMINANT 304
A 7→ det A =(−1)n+1an,1 det An,1 +(−1)n+2an,2 det An,2 +···+(−1)n+nan,n det An,n
est linéaire par rapport à chaque colonne. Nous allons le prouver pour la dernière colonne, c’est-à-dire que :
det(C1, . . . , Cn−1, λCn′ +µCn′′)=λ det(C1, . . . , Cn−1, Cn′)+µ det(C1, . . . , Cn−1, Cn′′) .
Notons A, A′, A′′ les matrices (C1 ··· Cn−1 ···λCn′ +µCn′′), (C1 ··· Cn−1 ··· Cn′) et (C1 ··· Cn−1 ··· Cn′′), et An,j,
A′n,j, A′′n,j les sous-matrices extraites en enlevant n-ème ligne et la j-ème colonne. En comparant les différentes
matrices, on constate que an′ ,j = an′′,j = an,j si j < n tandis que an,n = λan′ ,n + µan′′,n. Similairement,′ A′n′′,n = A′′n,n =
An,n−=(C¯1 ··· C¯n−1) puisque la n-ème colonne est enlevée. Par contre, pour j < n, An,j, An,j, An,j ont leurs (n 2)
premières colonnes identiques, et diffèrent par la dernière. Comme ce sont des déterminants de taille n − 1,
j=1
j=1
n n
j=1 j=1
= λdetA′ +µdetA′′
La démonstration est similaire pour les autres colonnes (on peut aussi utiliser la propriété (ii) ci-dessous).
• Propriété (ii).
Supposons que Cr = Cs pour r < s. Si k est différent de r et de s, la matrice An,k possède encore deux colonnes
identiques C¯r et C¯s. Par hypothèse de récurrence, det An,k = 0. Par conséquent,
Or An,r et An,s possèdent toutes les deux les mêmes colonnes : An,r = (C¯1 ··· C¯r−1C¯r+1 ··· C¯s ··· C¯n) et An,s =(C¯1 ···
C¯r ··· C¯s−1C¯s+1 ··· C¯n), car C¯r = C¯s. Pour passer de An,s à An,r, il faut faire s − r − 1 échanges
DÉTERMINANTS 3. PROPRIÉTÉS DU DÉTERMINANT 306
(
de colonnes C¯j ↔ C¯j+1 successifs, qui par hypothèse de récurrence changent le signe par −1)s−r−1 : det An,s
=( 1
− )s−r−1 det An,r. On conclut immédiatement que
• Propriété (iii). Si l’on considère pour A la matrice identité In, ses coefficients ai,j sont tels que :
i = j =⇒ ai,j = 1 i ≠ j
=⇒ ai,j = 0.
=(
Donc det In −1)n+n det An,n. Or, la matrice An,n obtenue à partir de la matrice identité en supprimant la
dernière ligne et la dernière colonne est la matrice identité de taille (n − 1)×(n − 1). Par hypothèse de
Remarque.
La définition donnée ci-dessus suppose le choix d’un indice i de ligne (i = n dans la démonstration) et peut
paraître arbitraire. Alors se pose naturellement la question : que se passe-t-il si l’on prend une autre valeur de i ?
L’unicité du déterminant d’une matrice permet de répondre : quelle que soit la ligne choisie, le résultat est le
même.
Mini-exercices.
P
3. Montrer que le déterminant reste invariant par l’opération Ci ← Ci + j=1..n λjCj (on ajoute à une colonne de A
3. Propriétés du déterminant
Nous allons voir trois propriétés importantes du déterminant : le déterminant d’un produit de matrices, le
déterminant de l’inverse d’une matrice, le déterminant de la transposée d’une matrice. Pour prouver ces
propriétés, nous aurons besoin des matrices élémentaires.
=
1. des 1, sauf en positionCi ← λCi avec λ ̸ 0 : E(iC,i←i)λ;Ci = diag(1, . . . , 1, λ, 1, . . . , 1) est la matrice diagonale ne
comportant que
=
2. son coefficient vautCi ← Ci +λCj avec λλ∈; K (et j ̸ i) : ECi←Ci+λCj est comme la matrice identité, sauf en
position (j, i) où
3. Ci ↔ Cj : EC C est comme la matrice identité, sauf que ses coefficients (i, i) et (j, j) s’annulent, tandis
i↔ j que les coefficients (i, j) et (j, i) valent 1
1. ...
1 1
... 0 1
1 λ 1
Proposition 5.
1. det ECi←λCi =λ
3. det ECi↔Cj = −1
4. Si E est une des matrices élémentaires ci-dessus, det (A× E)= det A× det E
1. La matrice ECi←λCi est une matrice diagonale, tous les éléments diagonaux valent 1, sauf un qui vaut λ. Donc son
déterminant vaut λ.
2. La matrice ECi←Ci+λCj est triangulaire inférieure ou supérieure avec des 1 sur la diagonale. Donc son déterminant
vaut 1.
DÉTERMINANTS 3. PROPRIÉTÉS DU DÉTERMINANT 308
3. La matrice ECi↔Cj est aussi obtenue en échangeant les colonnes i et j de la matrice In. Donc son déterminant
vaut −1.
Cette proposition nous permet de calculer le déterminant d’une matrice A de façon relativement simple, en
utilisant l’algorithme de Gauss. En effet, si en multipliant successivement A par des matrices élémentaires E1, . . . ,
Er on obtient une matrice T échelonnée, donc triangulaire
T = A· E1 ··· Er
Exemple 3.
0 3 2
− 6
Calculer det A, où A =1 5 6
9
1
0 3 2 det A =
det 1 −6 6
5 9 1
(opération C1 ↔ C2 pour avoir un pivot en haut à gauche)
3 0 2
1 0 2
3 5 1
1 0 0
1 0 0
−55
= 165
Démonstration. La preuve utilise les matrices élémentaires ; en effet, par la proposition 5, pour A une matrice
quelconque et E une matrice d’une opération élémentaire alors :
Passons maintenant à la démonstration du théorème. On a vu dans le chapitre « Matrices » qu’une matrice B est
inversible si et seulement si sa forme échelonnée réduite par le pivot de Gauss est égale à In, c’est-à-dire qu’il
existe des matrices élémentaires Ei telles que
BE1 ··· Er = In .
det(B · E1E2 ··· Er)= det B · det E1 · det E2 ··· det Er = det In = 1
On en déduit
1
Donc :
1
DÉTERMINANTS 3. PROPRIÉTÉS DU DÉTERMINANT 310
Si B n’est pas inversible, rg B < n, il existe donc une relation de dépendance linéaire entre les colonnes de B, ce
qui revient à dire qu’il existe un vecteur colonne X tel que BX = 0. Donc det B = 0, d’après le corollaire 1. Or BX =
0 implique (AB)X = 0. Ainsi AB n’est pas inversible non plus, d’où det(AB)= 0 = det Adet B dans ce cas également.
Démonstration.
• Si A est inversible, il existe une matrice A−1 telle que AA−1 = In, donc det(A) det(A−1)= det In = 1. On en déduit
• Si A n’est pas inversible, alors elle est de rang strictement inférieur à n. Il existe donc une relation de
dépendance linéaire entre ses colonnes, c’est-à-dire qu’au moins l’une de ses colonnes est combinaison
linéaire des autres. On en déduit det A = 0.
Exemple 4.
Deux matrices semblables ont même déterminant.
En effet : soit B = P−1AP avec P ∈ GLn(K) une matrice inversible. Par multiplicativité du déterminant, on en déduit
Corollaire 4.
Démonstration. Commençons par remarquer que la matrice E d’une opération élémentaire est soit triangulaire
(substitution), soit symétrique c’est-à-dire égale à sa transposée (échange de lignes et homothétie). On vérifie
facilement que det ET = det E.
DÉTERMINANTS 3. PROPRIÉTÉS DU DÉTERMINANT 311
Supposons d’abord que A soit inversible. On peut alors l’écrire comme produit de matrices élémentaires, A = E1
··· Er. On a alors
D’autre part, si A n’est pas inversible, alors AT n’est pas inversible non plus, et det A = 0 = det AT.
Remarque.
Une conséquence du dernier résultat, est que par transposition, tout ce que l’on a dit des déterminants à propos
des colonnes est vrai pour les lignes. Ainsi, le déterminant est multilinéaire par rapport aux lignes, si une matrice
a deux lignes égales, son déterminant est nul, on ne modifie pas un déterminant en ajoutant à une ligne une
combinaison linéaire des autres lignes, etc.
Mini-exercices.
a 1 3 1 0 2
2. Calculer le déterminant de chacune des matrices suivantes en se ramenant par des opérations
élémentaires à une matrice triangulaire.
1 2 4 8
a b 1 0 6 1 12 1j2 avec j = e 23iπ 11 34 169 2764
3 4 15 1 j j
c d
5 6 21 1 j
1 5 25 125
4. Calculs de déterminants
DÉTERMINANTS 4. CALCULS DE DÉTERMINANTS 313
Une des techniques les plus utiles pour calculer un déterminant est le « développement par rapport à une ligne
(ou une colonne) ».
4.1. Cofacteur
Définition 1.
1 2 3
1 3
A32 = 4 2 1 =
4 1
0 1 1
=
Pour déterminer si Cij = + det Aij ou Cij − det Aij, on peut se souvenir que l’on associe des signes en suivant le
schéma d’un échiquier :
+ − + − +
−+ . . .
−
. . .
A =+ − +
−...
. . .
... ... ...
Donc C11 =+ det A11, C12 = − det A12, C21 = − det A21...
4.2. Développement suivant une ligne ou une colonne
j=1 j=1
i=1 i=1
Démonstration. Nous avons déjà démontré la formule de développement suivant une ligne lors de la
démonstration du théorème 1 d’existence et d’unicité du déterminant. Comme det A = det AT, on en déduit la
formule de développement par rapport à une colonne.
Exemple 6.
DÉTERMINANTS 4. CALCULS DE DÉTERMINANTS 315
Retrouvons la formule des déterminants 3 × 3, déjà présentée par la règle de Sarrus, en développement par
rapport à la première ligne. On choisit de
a11 développer par
rapport à la
seconde colonne
a (car c’est là qu’il y a
21 a12
a13a23 le plus de zéros) :
a22
a31 a32 a33 = a11C11 + a12C12 + a13C13
a22 a23 a21 a23 a21 a22
= a a a
a11 − a12 + a13 a31 a32 32 33 31
a
33
= )
a11(a22a33 − a32a23 − a12(a21a33 − a31a23)
4 0 3 1
4 2 1 0
A =0 3 1 −1
4.3. Exemple Exemple
7. 1 0 2 3
4 3 1 4 3
1= +2 0 1 −1− 3 4 1
0
1 2 3 1 2 3
on n’oublie pas les signes des cofacteurs et on recommence
1 −1− 3 13 −1
= +2 +4 2 3 02 3+ 1 1 1
3 14 14 3
−3 −4 2 3+ 1 1 3− 0 1 2
= +2 + 4 × 5 − 0 + 1 ×(−4)− 3 − 4 × 7 + 1 × 11 − 0
= 83
Remarque.
Le développement par rapport à une ligne permet de ramener le calcul d’un déterminant n × n à celui de n
ce qui devient vite fastidieux. C’est pourquoi le développement par rapport à une ligne ou une colonne n’est
utile pour calculer explicitement un déterminant que si la matrice de départ a beaucoup de zéros. On commence
donc souvent par faire apparaître un maximum de zéros par des opérations élémentaires sur les lignes et/ou les
colonnes qui ne modifient pas le déterminant, avant de développer le déterminant suivant la ligne ou la colonne
Nous lui associons la matrice C des cofacteurs, appelée comatrice, et notée Com(A) :
1 −1 1 −1 1 1
P
Démonstration. Le terme de position (i, j) dans ACT est k aikCjk, et donc si i = j, le résultat découle de la formule de
développement par rapport à la ligne i.
Pour le cas i ≠ j, imaginons que l’on remplace A par une matrice A′ =(aij′ ) identique, si ce n’est que la ligne
Lj est remplacée par la ligne Li, autrement dit a′jk = aik pour tout k. De plus, comme A′ possède deux lignes
identiques, son déterminant est nul. On appelle C′ la comatrice de A′, et la formule de développement pour la
ligne j de A′ donne
Or, Cjk′ se calcule à partir de la matrice extraite A′jk, qui ne contient que les éléments de A′ sur les lignes
différentes de j et colonnes différents de k. Mais sur les lignes différentes de j, A′ est identique à A, donc Cjk′ = Cjk.
P
On conclut que k aikCjk = 0.
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 318
Finalement,
det A 0 . . . 0
T
0 det A ... AC = ... ... 0 = det A· I
0 ... 0 det A
Mini-exercices.
2 0 −2 t 0 t
1. Soient A =0 1 −1 et B = 0 t 0. Calculer les matrices extraites, les mineurs d’ordre
2
2 0 0 −t 0 t
1 0 1 2 t 0 1 0
0 0 0 1 1 t 0 0
1 1 1 0 0 1 t 0
0 0 0 −1 0 0 0 t
3. En utilisant la formule de développement par rapport à une ligne, recalculer le déterminant d’une
matrice triangulaire.
Le théorème suivant, appelé règle de Cramer, donne une formule explicite pour la solution de certains systèmes
d’équations linéaires ayant autant d’équations que d’inconnues. Considérons le système d’équations linéaires à
n équations et n inconnues suivant :
a11x1 + a12x2 +···+ a1nxn = b1
...
b2
a21 a22 ··· a2n ∈ K x2
B = ... .
=
A ... ... ... Mn( ), X = ...
bn
an1 an2 ··· ann xn
Définissons la matrice Aj ∈ Mn(K) par
a11 . . . a1,j−1 b1 b2 ... a1n
a
... ...
1,j+1 ...
a a
a2n
21 Aj . . . a2,j−1 2,j+1
bn .
= ... ... ... ... . .
an,j−1 an,j+1 ann
an1
Autrement dit, Aj est la matrice obtenue en remplaçant la j-ème colonne de A par le second membre B. La règle
de Cramer va nous permettre de calculer la solution du système dans le cas où det A ≠ 0 en fonction des
Démonstration. Nous avons supposé que det A ≠ 0. Donc− A est inversible. Alors X = A−1B est l’unique solution du
système. D’autre part, nous avons vu que A 1 = det1 ACT où C est la comatrice. Donc X = det1 ACT B.
En développant,
x1 C11 . . . Cn1 b1 C11b1 + C21b2 +···+ Cn1bn
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 320
. . .
... = det1 A .. .. .. = det1 A ...
C’est-à-dire
+
Mais b1C1i ···+ bnCni est le développement en cofacteurs de det Ai par rapport à sa i-ème colonne. Donc
det A
xi =
det Ai ·
Exemple 9.
Résolvons le système
suivant :
+
−3x1 + 4x2 +
On a
2x3 = 6
4
6x3 = 30
3x3 = 8.
−2
6 6
2 1
B = 30
A1 = 30 8
6 A2 = −3 30 2
8 −2
0
3 −1 8 6 A3 = −3
4
et 3 −2
det A = 44 det A1 = − 6
det A2 = 72 det A3 = 152.
30
La solution est alors 8
x1 = det A1 = −4440 = −1011 x2 =
detdetAA2 = 4472 = 1811 x3 =
detdetAA3 = 15244 = 3811 · det A
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 321
La méthode de Cramer n’est pas la méthode la plus efficace pour résoudre un système, mais est utile si le
système contient des paramètres.
forment aussi une base de E. Pour cela, on écrit la matrice A ∈ Mn(K) dont la j-ème colonne est formée des
coordonnées du vecteur vj par rapport à la base B (comme pour la matrice de passage). Le calcul de déterminant
a11 a12
a a a1n
21 22
obtenue en juxtaposant les coordonnées des vecteurs par rapport à une base B de E. Les vecteurs (v1, v2, . . . , vn)
0 a b
a b 0= −a3 − b3 .
b 0 a
= =
Conclusion : si a3 ̸ −b3 alors les trois vecteurs forment une base de R 3. Si a3 −b3 alors les trois vecteurs sont liés.
Démonstration. La preuve fait appel à des résultats du chapitre « Matrices et applications linéaires » (section «
Rang d’une famille de vecteurs ») :
Définition 2.
Soit A = (aij) ∈ Mn,p(K) une matrice à n lignes et p colonnes à coefficients dans K. Soit k un entier inférieur
Exemple 11.
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 323
Soit la matrice
1 2 3 4
A =1 0 1 7
0 1 6 5
2 4
que la ligne 1 et 3 et la colonne 2 et 4, on obtient la matrice extraite . Donc un des mineurs
1 5
2 4
d’ordre 2
de A est 1 5= 6.
• Un mineur d’ordre 3 est le déterminant d’une matrice 3 × 3 extraite de A. Par exemple, en ne retenant
que les colonnes 1, 3 et 4 on obtient le mineur
• Il n’y a pas de mineur d’ordre 4 (car la matrice
1 3 n’a que 3 lignes).
4
1 17= −28 5.4. Calcul du rang d’une matrice
Théorème 8.
Le rang d’une matrice A ∈ M n,p(K) est le plus grand entier r tel qu’il existe un mineur d’ordre r extrait de A
non nul.
Exemple 12.
Soit α un paramètre réel. Calculons le rang de la matrice A ∈ M3,4(R) :
1 1 2 1
2 3
1
A =1 1 α
1 1
• Clairement, le rang ne peut pas être égal à 4, puisque 4 vecteurs de R 3 ne sauraient être indépendants.
• On obtient les mineurs d’ordre 3 de A en supprimant une colonne. Calculons le mineur d’ordre 3 obtenu en
supprimant la première colonne, en le développant par rapport à sa première colonne :
1α1
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 324
Par conséquent, si α≠ 2, le mineur précédent est non nul et le rang de la matrice A est 3.
• Si α= 2, on vérifie que les 4 mineurs d’ordre 3 de A sont nuls :
1 2 11 2 11 1 11 1 2
1 2 11 2 11 1 11 1 2
1 1
Donc dans ce cas, A est de rang inférieur ou égal à 2. Or 1 2= 1 (lignes 1, 2, colonnes 1, 2 de A) est
Proposition 6.
Le rang de A est égal au rang de sa transposée AT.
Démonstration. Les mineurs de AT sont obtenus à partir des mineurs de A par transposition. Comme les
déterminants d’une matrice et de sa transposée sont égaux, la proposition découle de la caractérisation du rang
d’une matrice à l’aide des mineurs (théorème 8).
Pn
de E avec p ⩽ n. Posons vj = i=1 ai,jei pour 1 ⩽ j ⩽ n. Alors les vecteurs {v1, . . . , vp} forment une famille∈ K
libre si et seulement s’il existe un mineur d’ordre p non nul extrait de la matrice A = ai,j Mn,p( ).
vecteurs de B, on peut supposer ... ... ... que B′ =(v1, . . . , vp, ep+1, . . . , en)
ap,p 0 ...
B ... 1 . . .
est une base de E. (Note : cette ap+1,p renumérotation change l’ordre de
P = ap,1
... ... ...
... 0 lignes de la matrice A, ce qui n’a
ei, autrement dit échange les ... ...
0
a an,p 0 appellera encore′ B la base
pas d’impact sur ses mineurs ; on p+1,1 ...
...
an,1 1
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 325
renumérotée.) La matrice P de passage de B vers B contient les composantes des vecteurs (v1, . . . , vp,
Le déterminant det P est non nul puisque les vecteurs (v1, . . . , vp, ep+1, . . . , en) forment une base de E. Or ce
déterminant se calcule en développant par rapport aux dernières colonnes autant de fois que nécessaire (soit
n − p fois). Et l’on trouve que
a a
1,1 . .. 1,pdet P
= .. ... ... .
a a
p,1 ... p,p
a a
1,1 ... 1,p
. . .
Le mineur .. .. .. est donc non nul.
a a
p,1 ... p,p
Montrons maintenant la réciproque. Supposons que le mineur correspondant aux lignes i1, i2, . . . , ip soit
non nul. Autrement dit, la matrice
. . . ai1,p ..
ai1,1 . ...
.
B = .. aip,p
...
aip,1
satisfait det B ≠ 0. Supposons aussi
+
λ1v1 ···+λpvp = 0
En exprimant chaque vi dans la base (e1, . . . , en), on voit aisément que cette relation équivaut au système
suivant à n lignes et p inconnues :
= 0
a12,,11λλ11 ++ . . .. . . ++ = 0
aa12,,ppλλpp a
... ...
= 0
... ... ... ... ...
DÉTERMINANTS 5. APPLICATIONS DES DÉTERMINANTS 326
an,1λ1 + . . . + an,pλp
Ce qui implique, en ne retenant que les lignes i1, . . . , ip :
1 λ1 + . . . + ai1,pλp a = 0
aii2,1,1λ1 + . . . + ai2,pλp = 0
... ...
= 0
aip,1... λ1 +... . . .... +... aip,...pλp
Mini-exercices.
ty+z=1
∈
1. Résoudre ce système linéaire, en fonction du paramètre tR : 2x + t y = 2
−y + tz = 3
a 2a 3a
1 , 1 , 1 b b −2b
1 2 b
0 a 1
1 0
2 1
2
1
Auteurs du chapitre
• D’après un cours de Sophie Chemla de l’université Pierre et Marie Curie, reprenant des parties d’un cours de
H. Ledret et d’une équipe de l’université de Bordeaux animée par J. Queyrut,
• et un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara Thomas de l’École Polytechnique Fédérale de
Lausanne,
• réécrit et complété par Arnaud Bodin, Niels Borne. Relu par Laura Desideri et Pascal Romon.
Les auteurs
Ce livre, orchestré par l’équipe Exo7, est issu d’un large travail collectif. Les auteurs sont :
Arnaud Bodin Sophie Chemla Eva Bayer-Fluckiger
Marc Bourdon Guoting Chen Philippe Chabloz
Benjamin Boutin Pascal Romon Lara Thomas
Vous retrouverez les auteurs correspondant à chaque partie en fin de chapitre. Soulignons que pour l’algèbre
linéaire ce cours est en grande partie basé d’une part, sur un cours de Eva Bayer-Fluckiger, Philippe Chabloz, Lara
Thomas et d’autre part sur un cours de Sophie Chemla, reprenant des parties de cours de H. Ledret et d’une
équipe animée par J. Queyrut.
L’équipe Exo7 est composée d’Arnaud Bodin, Léa Blanc-Centi, Niels Borne, Benjamin Boutin, Laura Desideri et
Pascal Romon. Nous remercions toutes les personnes qui ont permis l’aboutissement de ce livre. En particulier,
Vianney Combet a été un relecteur attentif, ainsi que Stéphanie Bodin. Kroum Tzanev a réalisé la très belle
composition de ce livre, Yannick Bonnaz en a créé la couverture.
Le cours et les vidéos ont été financés par l’université de Lille 1 et Unisciel. Ce livre est diffusé sous la licence
Creative Commons – BY-NC-SA – 3.0 FR. Sur le site Exo7 vous pouvez le télécharger gratuitement et aussi
récupérer les fichiers sources.
Exo7
Cnk, 24 classe d’équivalence, 28
E \ A, 12 coefficients de Bézout, 48
cofacteur, 224 comatrice, 227
⇐⇒ , 3
combinaison linéaire, 147, 167
=⇒ , 3
commutatif, 72 complémentaire,
nk, 24 12 composition, 15 congruence,
∩, 13 54 conjugué, 34
∁, 12 contraposition, 7
∪
2
,
1
contre-exemple, 8
coordonnées, 173
∃!, 6
∃, 5 , crible d’Eratosthène, 52
∀ 4
∈ , cycle, 85
12
degré, 59 déterminant, 74, 89,
P (E), 12
211, 215
∈/, 12
développement, 41
⊕
52
,
1 diagonale, 100, 119
⊂, 12 dimension, 178
∅, 12 disjonction, 7
n!, 23
divisibilité, 45, 61
absurde, 8 affixe, 42 algorithme
d’Euclide, 47, 63 division euclidienne, 46, 62
antécédent, 17 application, 15
droite vectorielle, 155, 183
application linéaire, 126, 132, 156
image, 161 noyau, élément neutre, 72, 138
162
élément simple, 69
argument, 38 assertion,
endomorphisme, 158
2 associativité, 71
ensemble, 12
automorphisme, 165
ensemble vide, 12
base, 173 base canonique, 134, équation linéaire, 87, 91
174, 175 équivalence, 3
bijection, 19 bijection espace vectoriel, 125, 137
réciproque, 19 dimension, 178
cardinal, 20 « et » logique, 2
exponentielle complexe,
Index 39
factorielle, 23
famille
génératrice, 171 carrée, 100 d’une application linéaire, 127, 199
libre, 167 liée, 167 de passage, 205
linéairement indépendante, diagonale, 117
167 rang, 187 échelonnée, 112, 188
fonction, 15 élémentaire, 111 identité, 104
formule inverse, 106, 108
d’Euler, 40 de changement produit, 101
de base, 208 puissance, 104
de Moivre, 39 réduite, 112
du binôme de Newton, 25, semblable, 209
105 symétrique, 120 trace,
fraction rationnelle, 68 119 transposée, 118
triangulaire, 117
graphe, 15
mineur, 224, 230
groupe, 71
cyclique, 81 module, 34
hérédité, 8 modulo, 54
homothétie, 129,
159 hyperplan, monôme, 61
183 morphisme, 77