0% ont trouvé ce document utile (0 vote)
59 vues76 pages

Alge Bre

Ce document est un cours sur l'analyse matricielle et l'algèbre linéaire appliquée, destiné aux étudiants en informatique à l'Université Claude Bernard Lyon 1. Il couvre des sujets tels que les préliminaires algébriques, les espaces vectoriels, les matrices et les déterminants, avec des rappels de vocabulaire, des définitions et des exercices. La structure du document est organisée en chapitres et sections, fournissant des bases essentielles pour la compréhension de l'algèbre linéaire.

Transféré par

adamkasenda99
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
59 vues76 pages

Alge Bre

Ce document est un cours sur l'analyse matricielle et l'algèbre linéaire appliquée, destiné aux étudiants en informatique à l'Université Claude Bernard Lyon 1. Il couvre des sujets tels que les préliminaires algébriques, les espaces vectoriels, les matrices et les déterminants, avec des rappels de vocabulaire, des définitions et des exercices. La structure du document est organisée en chapitres et sections, fournissant des bases essentielles pour la compréhension de l'algèbre linéaire.

Transféré par

adamkasenda99
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Licence Sciences, Technologies, Santé

Parcours Informatique
Université Claude Bernard Lyon 1

Analyse matricielle
et algèbre linéaire appliquée I

Première partie
Rappels d'algèbre linéaire

- Notes de cours et de travaux dirigés -


 2011 - 2012 

Philippe Malbos
[email protected]

(version 3.0)
ii
Table des matières

I Préliminaires algébriques 3
1 Vocabulaire et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Les corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3 Les anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4 Les polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
5 Les fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

II Espaces vectoriels 13
1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 Bases et dimension d'un espace vectoriel . . . . . . . . . . . . . . . . . . . 17
3 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . 18
4 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

III Les matrices 29


1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3 Matrice d'une application linéaire . . . . . . . . . . . . . . . . . . . . . . . 38
4 Trace d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5 Noyau et image d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 43
6 Rang d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
7 Opérations matricielles par blocs . . . . . . . . . . . . . . . . . . . . . . . 46
8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

IVDéterminants 53
1 Dénition récursive du déterminant . . . . . . . . . . . . . . . . . . . . . . 53
2 Premières propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . 55
3 Les formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4 Formulation explicite du déterminant . . . . . . . . . . . . . . . . . . . . . 62
5 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6 Calcul de l'inverse d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . 67

iii
TABLE DES MATIÈRES 1

7 Déterminant d'un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . 69


8 Annexe : rappels sur les groupes symétriques . . . . . . . . . . . . . . . . . 70
9 Annexe : déterminants et formes multilinéaires alternées . . . . . . . . . . 71
2 TABLE DES MATIÈRES
CHAPITRE
I

Préliminaires algébriques

Sommaire
1 Vocabulaire et notations . . . . . . . . . . . . . . . . . . . . . . 3
2 Les corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3 Les anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4 Les polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
5 Les fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . 10
6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

Ce chapitre ne contient aucune démonstration, son rôle est de xer les notations et
de rappeler les structures algébriques fondamentales ainsi que les principaux résultats
algébriques que nous utiliserons dans ce cours.

Ÿ 1 Vocabulaire et notations
I.1.1.Ensembles de nombres. Dans tout ce cours, nous supposons connus les ensem-
bles de nombres suivants et les opérations d'addition, de soustraction, de multiplication
et de division sur ces ensembles :
- l'ensemble des entiers naturels, 0, 1, 2, . . ., noté N,
- l'ensemble des entiers relatifs, noté Z, formé des entiers naturels et de leurs opposés,
- l'ensemble des rationnels, noté Q, formé des quotients pq , où p et q sont des entiers
relatifs, avec q non nul,
- l'ensemble des réels, noté R, qui contient les nombres rationnels et les irrationnels,
3
4 CHAPITRE I. PRÉLIMINAIRES ALGÉBRIQUES

- l'ensemble des complexes, noté C, formé des nombres a ib, où a et b sont des réels et
i un complexe vériant i  1.
2

Si p et q sont deux entiers relatifs, on notera


Jp, qK  ta P Z | p ¤ a ¤ q u.

Ÿ 2 Les corps
Un corps est un objet algébrique constitué d'un ensemble et de deux opérations sur
cet ensemble, une addition et une multiplication, qui satisfont certaines relations. Intu-
itivement, cette structure est proche de notre intuition de nombres et des opérations que
l'on peut leurs appliquer. Avant d'énoncer les relations des deux opérations de la structure
de corps, rappelons la structure de groupe.

I.2.1.Denition. Un groupe est un ensemble G muni d'une opération, associant à


deux éléments a et b de G un troisième élément de G, noté a  b, satisfaisant les assertions
suivantes
i) l'opération est associative
a  pb  cq  pa  bq  c,
pour tous éléments a, b et c de G,
ii) il existe un élément dit neutre e dans G, tel que pour tout élément a de G
a  e  e  a  a,
iii) pour tout élément a de G, il existe un élément inverse, que nous noterons a , tel 1

que
a  a 1  e  a1  a.
Un groupe possède un unique élément neutre. Chaque élément d'un groupe possède
un unique inverse.
Exercice 1. Montrer ces deux propriétés.
I.2.2.Exemples. Quelques exemples bien connus de groupes.
1) L'ensemble des entier Z forme un groupe pour l'addition. Il ne forme pas un groupe
pour la multiplication.
2) L'ensemble des nombres rationnels Q forme un groupe pour l'addition. Les nombres
rationnels non nul Q  t0u est un groupe pour la multiplication.
3) L'ensemble R des n-uplets ordonnées
n

px1, . . . , xnq
de nombres réels, muni de l'opération
px1, . . . , xnq py1, . . . , ynq  px1 y1 , . . . , xn yn q,
forme un groupe.
CHAPITRE I. PRÉLIMINAIRES ALGÉBRIQUES 5

Exercice 2. Justifier toutes les propriétés précédentes. Dans le cas de R , déterminer l’élément
n

p q
neutre du groupe et l’inverse d’un n-uplet x1 , . . . , xn .

I.2.3.Denition. Un groupe est dit abélien , ou commutatif , si tous éléments a et b


satisfont
a  b  b  a.
Les groupes de l'exemple précédent sont abéliens. L'ensemble des permutations d'un
ensemble X , i.e. des bijections de X dans lui-même, forment un groupe ; ce groupe n'est
pas commutatif lorsque X possède au moins trois éléments.

I.2.4.Denition. Un corps (commutatif) est un ensemble K sur lequel une opération


d'addition pa, bq Ñ a b et une opération de multiplication pa, bq Ñ ab sont dénies et
satisfont les assertions suivantes :
i) K est un groupe abélien pour l'addition,
ii) K  t0u est un groupe abélien pour la multiplication,
iii) la multiplication est distributive par rapport à l'addition, i.e., pour tous éléments a,
b et c, on a
apb cq  ab ac.
L'élément neutre pour l'addition est appelé zero et noté 0, l'inverse de a est noté a,
l'élement neutre pour la multiplication est appelé unité et noté 1, l'inverse de a pour la
multiplication est noté a1 .

I.2.5.Exemples. L'ensemble des nombres rationnels Q, l'ensemble des nombres réels


R et l'ensemble des nombres complexes C, munis des opérations d'addition et de multi-
plication sont des corps. L'ensemble Z des entiers relatifs n'est pas un corps.
Un exemple de corps ni est donné avec l'ensemble Z{pZ des entiers modulo un entier
premier p.

I.2.6.Faits. Dans un corps K, l'élément neutre de l'addition joue le rôle d'annulateur ,


i.e., pour tout élément a, on a :
a0  0.

Exercice 3. Montrer que l’élément neutre de l’addition dans un corps est annulateur.
Par dénition, un groupe ne peut être vide, il contient au moins un élément. Un corps
contient donc au moins deux éléments 0 et 1 qui sont nécessairement distincts.
Exercice 4. Justifier l’assertion précédente.
Il n'existe qu'un seul corps à deux éléments.
Un corps ne contient pas de diviseur de zero, c'est-à-dire que si a et b sont deux
éléments non nul d'un corps K, alors leur produit ab est non nul.
Exercice 5. Établir les tables d’addition et de multiplication du corps à deux éléments.
6 CHAPITRE I. PRÉLIMINAIRES ALGÉBRIQUES

I.2.7.Dénition. La caractéristique d'un corps K est le plus petit entier q tel que
l'addition de q fois l'unité soit égale à zero :

1 1 ... 1  0.

Si un tel entier n'existe pas, le corps est dit de caractéristique nulle.

Exercice 6. Construire un corps de caractéristique 3.


I.2.8.Extension de corps. Un sous-ensemble L d'un corps K est un sous-corps de
K si les opérations du corps K munissent L d'une structure de corps. On dit alors que K
est une extension du corps L.
Par exemple, le corps des réels R est une extension du corps des rationnels Q et le
corps des complexes C est une extension du corps R.

Ÿ 3 Les anneaux
La structure d'anneau généralise celle de corps. Un ensemble muni d'une opération
d'addition et d'une opération de multiplication qui satisfont tous les axiomes de corps,
excepté l'existence d'un élément inverse a1 , pour tout élément a non nul, est appelé un
anneau commutatif. Pour que notre dénition soit complète, on convient, qu'il existe un
anneau qui possède un seul élément.

Par exemple, l'ensemble des entiers relatifs Z est un anneau commutatif. L'ensemble
des polynômes ArX s à coecients dans un anneau ou un corps A est un anneau. Les
principales constructions sur les anneaux de polynômes sont rappelées dans la section
suivante.

Plus généralement, un anneau est un ensemble A muni d'une opération d'addition


pa, bq Ñ a b et de multiplication pa, bq Ñ ab qui satisfont
i) A est un groupe abélien pour l'addition,
ii) la multiplication est associative,
iii) la multiplication possède un élément neutre dans A,
iv) la multiplication est distributive par rapport à l'addition, i.e., pour tous éléments
a, b, c de A, on a :

apb cq  ab ac, pb cqa  ba ca.

Un anneau est dit commutatif si sa multiplication est commutative.

I.3.1.Exemples. L'ensemble des endomorphismes d'un groupe abélien G, muni de


l'addition et de la composition, est un anneau non commutatif en général.
CHAPITRE I. PRÉLIMINAIRES ALGÉBRIQUES 7

Dans un anneau, si deux éléments a et b commutent, i.e., ab  ba, alors on a la formule


dite du binôme de Newton, pour tout entier naturel n,
n 
¸
pa bq  ap bnp .
n n

p 0
p

Exercice 7. Démontrer la formule du binôme de Newton.


Ÿ 4 Les polynômes
I.4.1.L'algèbre des polynômes. On notera KrX s l'ensemble des polynômes à une
indéterminée à coecients dans un corps K. Rappelons que cet anneau est construit de
la façon suivante. Un monôme est une expression de la forme βX m , où β P K et m est
un entier naturel. Par convention, on pose X 0  1. Un polynôme est une somme d'un
nombre ni de monômes. L'addition et la multiplication des polynômes sont dénies de
¸
m ¸
n
la façon suivante. Pour P  αi X i et Q  βj X j , alors

i 0  j 0

max¸
tm,nu
P Q pαk βk qX k

k 0

avec αk  0, pour k ¡ m et βk  0 pour k ¡ n. Par ailleurs, pour la multiplication, on a



¸¸
 pαiβj q X k
m n
PQ 

k 0
i j k
¥
i,j 0

Muni de l'addition et de la multiplication, l'ensemble KrX s forme un anneau commu-
tatif. L'addition et la multiplication par un scalaire munissent KrX s d'une structure de
K-espace vectoriel.

I.4.2.Divisibilité. Soient A et B deux polynômes de KrX s. On dit que B divise A


s'il existe un polynôme C de KrX s tel que A  BC .

I.1 Théorème (division euclidienne). Soient A, B P KrX s avec B  0. Il existe


p q
un couple unique de polynômes Q, R dans K X tel que : r s
A  BQ R,

avec deg R deg B .

Le polynôme Q est appelé le quotient et le polynôme R est appelé le reste de la division


de A par B . Si le reste de la division euclidienne de A par B est nul, alors B divise A.
8 CHAPITRE I. PRÉLIMINAIRES ALGÉBRIQUES

I.4.3.Polynômes premiers entre eux. Deux polynômes sont dits premiers entre
eux si leurs seuls diviseurs communs sont les polynômes de degré nul. Plus généralement,
des polynômes P1 , . . . , Pq P KrX s sont dits
- premiers entre eux dans leur ensemble si les seuls polynômes qui divisent simultanément
les polynômes P1 , . . . , Pq sont de degré nul,
- premiers entre eux deux à deux si, pour tout i diérent de j , les polynômes Pi et Pj
sont premiers entre eux.
Si Pi et Pj sont premiers entre eux, alors les polynômes P1 , . . ., Pi , . . ., Pj , . . ., Pn
sont premier entre eux dans leur ensemble. Attention, les polynômes P1  pX  1q,
P2  pX  1qpX  2q et P3  pX  3q sont premiers entre eux dans leur ensemble, alors
que les polynômes P1 et P2 ne sont pas premiers entre eux.

I.2 Théorème (Identité de Bézout). Les polynômes P , . . . , P 1 q P KrX s sont pre-


miers entre eux dans leur ensemble si, et seulement si, il existe U1 , . . . , Uq P KrX s tels que :

U1 P1    Up Pp  1.

L'égalité U1 P1  Up Pp  1 s'appelle une identité de Bézout .


I.4.4.Exemple. Un polynôme est dit unitaire si le coecient de son monôme de plus
haut degré est égal à 1.

Figure I.1  Étienne Bézout (1730 - 1783)


Étienne Bézout est un mathématicien français, auteur d'une Théorie générale
des équations algébriques sur la théorie de l'élimination et des fonctions symétriques
sur les racines d'une équation. Examinateur des élèves du corps de l'artillerie,
il rédige un cours de mathématiques à l'usage de la marine et de l'artillerie,
qui deviendra un ouvrage de référence pour les candidats au concours d'entrée
à l'École polytechnique.
CHAPITRE I. PRÉLIMINAIRES ALGÉBRIQUES 9

I.4.5.Racine d'un polynôme. Soit P un polynôme de KrX s. Un scalaire λ P K est


dit racine de P si P pλq  0. Autrement dit, λ est racine de P si, et seulement si, pX  λq
divise P .
±p
Si λ1 , . . . , λp sont p racines distinctes de P , alors P est divisible par pX  λi q. Un
i1
polynôme non nul de degré n admet au plus n racines distinctes.
Si un polynôme P de degré n admettant n racines distinctes λ1 , . . . , λn , alors
¹
n
P  β pX  λiq,

i 1

où β est le coecient dominant de P .

I.4.6.Racines multiples. Soient P un polynôme et λ une racine de P . On appelle


ordre de multiplicité de la racine λ l'exposant de la plus grande puissance de pX  λq qui
divise P . Autrement dit, c'est l'entier h tel que pX  λqh divise P et pX  λqh 1 ne divise
pas P .
Soit P un polynôme tel que
P  pX  λqhQ.
Alors λ est racine d'ordre de multiplicité h si, et seulement si, λ n'est pas racine du
polynôme Q.

I.4.7.Polynômes scindés. Soit P P KrX s un polynôme. On dit que P est scindé


sur K s'il admet des racines λ1 , . . . , λp dans K d'ordre de multiplicité respectifs h1 , . . . , hp
telles que h1 . . . hp  degP . On a alors
¹
p
P  β pX  λi qh , i


i 1

avec β P K, λi  λj si i  j et h1    hp  deg P . Un polynôme est dit unitaire si le


coecient de son terme de plus haut degré vaut 1.

I.3 Théorème (de D'Alembert-Gauss). Tout polynôme non constant de CrX s pos-
sède au moins une racine dans C.

Ce théorème est appelé aussi théorème de D'Alembert-Gauss ou encore théorème fon-


damental de l'algèbre.
I.4 Corollaire. Tout polynôme non nul de CrX s est scindé sur C.
Plus généralement, on peut montrer que, pour tout corps K, il existe une extension
L telle que tout polynôme P de KrX s soit scindé sur L. Le corps L est appelé la clôture
algèbrique de K. Par exemple C est la clôture algébrique de R.
10 CHAPITRE I. PRÉLIMINAIRES ALGÉBRIQUES

Figure I.2  Jean Le Rond D'Alembert (1717 - 1783)


Jean Le Rond D'Alembert est un mathématicien, philosophe et encyclopédiste
français. Il énonce le théorème de D'Alembert-Gauss dans le Traité de dy-
namique, qui ne sera démontré qu'un siècle après par Carl Friedrich Gauss.
D'Alembert est célèbre pour ses nombreux travaux mathématiques, notamment
sur les équations diérentielles et les équations aux dérivées partielles. Il aborda
des problèmes diciles en physique avec le Traité de dynamique des systèmes,
en astronomie avec le problème des trois corps, ou encore en musique avec la
vibration des cordes.

Ÿ 5 Les fractions rationnelles


Nous connaissons la construction du corps Q des nombres rationnels à partir de l'an-
neau des entiers relatifs Z. Le corps des fractions rationnelles KpX q se construit de façon
similaire à partir de l'anneau des polynômes KrX s.

I.5.1.Le corps des fractions rationnelles. Soit E l'ensemble KrX s  pKrX szt0uq.
On dénit sur E une relation  dénie par, pour tous pP, Qq, pP , Q q P E ,
1 1

pP, Qq  pP 1, Q1q si, et seulement si, P Q1  P 1Q.


La relation  forme une relation d'équivalence sur E . L'ensemble E {  des classes d'équiv-
alence est noté KpX q. Un élément de KpX q représenté par pP, Qq P E est noté . et appelé
P
Q
fraction rationnelle .
On dénit sur KpX q une addition et une multiplication dénies de la façon suivante,
P P1
pour toutes fractions rationnelles et 1 ,
Q Q
P1 1 1 P P1 1
P
Q Q1
 P QQQP1 Q , .
Q Q1
 QQ
PP
1.
CHAPITRE I. PRÉLIMINAIRES ALGÉBRIQUES 11

I.5 Proposition. Ces opérations sont bien définies et munissent l’ensemble KpX q des frac-
tions rationnelles d’une structure de corps.

Le corps KpX q est appelé corps des fractions rationnelles .


Exercice 8. Montrer que la relation  est une relation d’équivalence.
Exercice 9. Montrer la proposition I.5.
On appelle représentant irréductibe d'une fraction rationnelle F , tout représentant
pP, Qq de F où les polynômes P et Q sont premiers entre eux.
On appelle degré d'une fraction rationnelle F , la quantité deg P  deg Q P Z Y t8u,
où pP, Qq est un représentant de F . Cette quantité ne dépend pas du représentant et est
notée deg F . On a deg 0  8.
P
Soit F une fraction rationnelle de forme irréductible . On appelle racine de F toute
Q
racine de P . On appelle pôle de F toute racine de Q. L'ordre de multiplicité d'une racine
ou d'un pôle est l'ordre de multiplicité de la racine dans le polynôme correspondant.

I.5.2.Décomposition en éléments simples.


I.6 Proposition. Toute fraction rationnelle F s’écrit de façon unique comme la somme d’un
polynôme, appelé partie entière de F , et d’une fraction rationnelle de degré strictement négatif.

P
On considère la fraction rationnelle . En notant E le quotient et R le reste de la
Q
division euclidienne de P par Q, alors
P
Q
E R
Q
, avec deg R deg Q.

Par exemple, on a
X5 4X 2  3X 1
X pX
1
 1q2  X2 2X 3
X pX  1q2
.

X5 1
Le polynôme X 2 3 est la partie entière de la fraction rationnelle
2X
X pX  1q2 .
I.7 Proposition. Soit F un fraction rationnelle admettant un pôle λ d’ordre k. Il existe un
p q
unique k -uplet de scalaires β1 , . . . , βk et une unique fraction F0 n’admettant pas λ pour pôle, tels
que :
¸
k
F  F0 p X 
βi
λqi
.
i1
12 CHAPITRE I. PRÉLIMINAIRES ALGÉBRIQUES

I.5.3.Exemple. La fraction XXpX  11q 5

2
admet pour pôle 0 et 1 d'ordre 1 et 2 respec-
tivement. On a une décomposition en éléments simples :
X5
X pX
1
 1q2  X2 2X 3
1
X
2
pX  1q 2 X
3
 1.

I.8 Proposition (Décomposition en éléments simples dans CpX q). Soit F


p q
une fraction rationnelle de C X de pôles λ1 , . . . , λp distincts deux à deux et d’ordre de multi-
r s
plicité respectifs k1 , . . . , kp . Il existe un polynôme E de C X et une unique famille de scalaires
p q
βi,j tels que :
¸p ¸
k i

F E p X
βi,j
 λ q j
.
i1 j 1 i

La décomposition précédente est appelée la décomposition en éléments simples dans


CpX q de la fraction rationnelle F .

Ÿ 6 Exercices

Exercice 10. Déterminer une identité de Bézout entre les polynômes suivants
1. X  1 et X 2,
2. X 1 et X  2X 1,
3. X  1 et X 2.
2
4 3

Exercice 11. Décomposer en éléments simples dans CpX q les fractions suivantes.
1. pX 10X1qpX  4q
2
3
, 2

2. pX  1qpXX 21qpX  3q ,
3

3. pX XX 1q ,
2
2

4. pX pX1qpX4q 2q .
2
2

2
2

2
CHAPITRE
II

Espaces vectoriels

Sommaire
1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 Bases et dimension d'un espace vectoriel . . . . . . . . . . . . 17
3 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . 18
4 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . 21
5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Nous rappelons dans ce chapitre les notions d'algèbre linéaire abordées en première
année. Pour une bonne compréhension des prochains chapitres, il est important que ces
notions soient bien assimilées. Ce chapitre constitue un recueil de résultats sans démon-
stration. Le lecteur est renvoyé à son cours de première année, ou aux ouvrages suivants
pour tout approfondissement

- François Liret, Dominique Martinais, Algèbre 1 année, deuxième édition, Dunod, (2003).
re

- Joseph Grifone, Algèbre linéaire, deuxième édition, Cépaduès Editions (2002).


Ces deux références proposent un cours complété d'exercices avec solutions, la seconde
couvre une partie des notions abordées dans ce cours.

Ÿ 1 Espaces vectoriels
II.1.1.Un prototype. L'espace vectorie réel Rn est le prototype d'espace vecto-
riel réel de dimension nie. Ses éléments sont les n-uplets ordonnées de nombres réels

13
14 CHAPITRE II. ESPACES VECTORIELS

px1, x2, . . . , xnq, que nous écrirons sous la forme de vecteur colonne :
 
x1

 x2 

x   ..  .
 . 
xn

Les opérations d'addition et de multiplication de nombre réels permettent de dénir deux


opérations sur Rn , l'addition de vecteurs :
     
x1 y1 x1 y1

 x2 
 
 y2 
 
 x2 y2 


 .. 
 
 ..  
   .. 

. . .
xn yn xn yn

et la multiplication d'un vecteur par un nombre réel, pour tout réel λ,


   
x1 λx1

 x2 
 
 λx2 

λ
 ..  
   .. 
.
. .
xn λxn

Ces deux opérations ont des propriétés héritées de celles satisfaites par les opérations
d'addition et de multiplication sur les nombres réels. On peut vérier ainsi que, l'addition
de n-uplets satisfait les relations suivantes :
i) pour tous x, y, z P Rn , on a px yq z  x py zq,
ii) pour tous x, y P Rn , on a x y  y x,
iii) si 0 désigne le n-uplet p0, 0, . . . , 0q, on a x 0  x,
iv) en notant px1 , x2 , . . . , xn q, le n-uplet px1 , x2 , . . . , xn q, on a x pxq  0.
D'autre part, la mupliplication par un nombre réel satisfait les relations suivantes :
v) pour tous λ, µ P R et tout x P Rn , on a λpµxq  pλµqx,
vi) pour tout x P Rn , on a 1x  x.
Enn, les opérations d'addition et de multiplication par un réel vérient des relations de
compatibilités entre elles :
vii) pour tout λ P R et tous x, y P Rn , on a λpx yq  λx λy,
viii) pour tous λ, µ P R et tout x P Rn , on a pλ µqx  λx µx.

II.1.2.D'autres exemples. Il existe d'autres ensembles qui munis d'une opération


d'addition et de multiplication par un réel satisfont les mêmes relations.
Par exemple, considérons l'ensemble C pr0, 1s, Rq des fonctions continues sur l'intervale
réel r0, 1s et à valeurs réelles. Si f et g sont deux telles fonctions, on dénit leur addition
en posant, pour tout réel x P r0, 1s,
pf g qpxq  f pxq g pxq,
CHAPITRE II. ESPACES VECTORIELS 15

et la multiplication d'une fonction f par un réel λ, en posant

pλf qpxq  λf pxq.


Ces opérations ainsi dénies statisfont les propriétés - i) viii)
ci-dessus, en prenant pour
zéro dans iii)
la fonction nulle et en notant dans iv)
f , la fonction dénie par pf qpxq 
f pxq.
Un autre exemple, on vériera que les mêmes opérations sur l'ensemble des fonctions
deux fois diérentiables qui satisfont
d2 f
dt2
λ
df
dt
µf 0
satisfont les propriétés - i) viii).
En remplaçant le corps des réels par un corps quelconque K, on obtient la struture
d'espace vectoriel sur un corps K, tel que K lui-même ou bien Kn .

II.1.3.Dénition. Un espace vectoriel sur un corps K, ou K-espace vectoriel, est un


ensemble E muni d'une addition :EE ÝÑ E et d'une application
. : K  E ÝÑ E
pλ, xq ÞÝÑ λ.x
appelée loi externe, on notera aussi λx pour λ.x, qui vérient les propriétés suivantes,
i) l'ensemble E muni de l'addition est un groupe abélien,
ii) pour tout x P E, 1x  x,
iii) pour tous λ, µ P K et tous x, y P E :
λpµxq  pλµqx,
pλ µqx  λx µx,
λpx yq  λx λy.

Les éléments d'un espace vectoriel E sont appelés vecteurs et les éléments du corps K
sont appelés scalaires.

Exercice 1. Soit E un K-espace vectoriel. Montrer que, pour tout vecteur x et scalaire λ, on a
les relations :
a) 0 x  x,
b) λ0  0,
c) 0x  0,
d) λx  0 si, et seulement si, λ  0 ou x  0,
e) pλxq  λpxq  pλqx.
16 CHAPITRE II. ESPACES VECTORIELS

II.1.4.Combinaisons linéaires. Soit E un K-espace vectoriel. Soient x , x , . . . , x 1 2 p


des vecteurs de E . On appelle combinaison linéaire des vecteurs x1 , x2 , . . . , xp tout vecteur
de la forme
λ1 x1 λ2 x2 ... λp xp ,

où λ1 , . . . , λp P K.
Plus généralement, si pxi qiPI est une famille de vecteurs de E , on appele combinaison
linéaire des pxi qiPI toute somme
¸
λi xi ,
P i I

dans laquelle, pour tout i P I , λi P K et où les λi sont tous nuls sauf un nombre ni.

II.1.5.Sous-espaces vectoriels. Soit E un K-espace vectoriel. Un sous-espace vec-


toriel de E est un sous ensemble F de E tel que les opérations de E induisent sur F une
structure de K-espace vectoriel.
Un sous-ensemble F de E est donc un sous-espace vectoriel si les assertions suivantes
sont vériées :
i) 0 P F ,
ii) pour tous x, y P F , x y P F ,
iii) pour tout x P F et tout λ P K, λx P F .
II.1.6.Exemples.
a) Le sous-ensemble t0u réduit au vecteur nul et E sont des sous-espaces vectoriel de
E.
b) Soit KrX s l'ensemble des polynômes à coecients dans K. Le sous-ensemble K rX s n
de KrX s formé des polynômes de degré au plus n est un sous-espace vectoriel de
KrX s.

Exercice 2. Montrer qu’une intersection de sous-espaces vectoriels de E est un sous-espace vec-
toriel de E .

II.1.7.Faits. Un sous-ensemble F de E est un sous-espace vectoriel si, et seulement


si, toute combinaison linéaire de vecteurs de F est un vecteur de F . Pour montrer qu'un
sous-ensemble F de E est un sous-espace vectoriel, il sut alors de montrer que 0 P F et
que λx µy, pour tous vecteurs x, y P F et scalaires λ, µ P K.

Exercice 3. Soit α un réel. On considère le sous-ensemble suivant de R : 3

Fα  tpx1, x2, x3q P R3 | x1 x2 x3  αu


Montrer que Fα est un sous-espace vectoriel de R3 , si et seulement si, α  0.
CHAPITRE II. ESPACES VECTORIELS 17

Ÿ 2 Bases et dimension d'un espace vectoriel


II.2.1.Sous-espace vectoriel engendré par une partie. Une intersection de sous-
espaces vectoriels de E est un sous-espace vectoriel de E .
Soient E un K-espace vectoriel et A une partie de E . L'intersection de tous les sous-
espaces vectoriels de E qui contiennent A est le plus petit sous-espace vectoriel de E , au
sens de l'inclusion, contenant A. On l'appelle sous-espace vectoriel engendré par A et on
le note VectpAq.
Le sous-espace vectoriel VectpAq est formé de toutes les combinaisons linéaires de
vecteurs de A.

II.2.2.Exemples. Le sous-espace vectoriel engendré par l'ensemble vide est t0u. ; on


a Vectpt0uq  t0u.
Pour tous vecteurs x, y P E ,

Vectpx, yq  Vectpx y, x  yq.

Exercice 4. 1. Montrer que l’ensemble A  tp1, 0q, p0, 1qu engendre R .
2. Montrer que l’ensemble A  tpx, x , x q | x P Ru n’engendre pas R .
2
2 3 3

II.2.3.Famille génératrice. Une famille px q P de vecteurs d'un K-espace vectoriel


i i I
E est dite génératrice si E  VectppxiqiPI q.
II.2.4.Famille libre. Une famille pxi qiPI de vecteurs d'un K-espace vectoriel E est
dite libre , ou linéairement indépendante , si pour toute combinaison linéaire vériant
¸
λi xi  0,
P i I

alors, pour tout i P I , λi  0. Autrement dit, aucun des vecteurs de la famille pxi qiPI n'est
combinaison linéaire des autres. Un famille qui n'est pas libre est dite liée .
Les éléments d'une famille libre sont non nuls et tous distincts. Toute sous-famille
d'une famille libre est libre
Exercice 5. Montrer cette propriété.
II.2.5.Base d'un espace vectoriel. Une famille libre et génératrice d'un K-espace
vectoriel E est appelée un base de E . Si pei qiPI une base de E , tout vecteur x de E s'écrit
de façon unique ¸
x λi e i .
P i I

Les scalaires λi s'appellent les coordonnées de x dans la base pei qiPI .

Tout élément non nul de K forme une base du K-espace vectoriel K. Le couple p1, iq
forme une base du R-espace vectoriel C.
18 CHAPITRE II. ESPACES VECTORIELS

II.2.6.Base canonique. Lorsqu'un espace est muni naturellement d'une base parti-
culière, elle est dite canonique . Par exemple, la famille pX n qnPN est la base canonique de
KrX s. La famille p0, . . . , 1, . . . , 0q, 1 ¤ i ¤ n, est la base canonique de Kn .

II.2.7.Le concept de dimension. Un espace vectoriel est dit de dimension nie ,


s'il admet une famille génératrice nie. Dans le cas contraire, on dit qu'il est de dimension
innie .
On a le théorème fondamental d'existence de base dans les espaces vectoriels de di-
mension nie.

II.1 Théorème. Soit E un K-espace vectoriel non nul de dimension finie. Soient G une
famille génératrice de E et L € G une famille libre. Alors, il existe une base B de E vérifiant
€ €
L B G.

De ce résultat on déduit que, pour tout espace vectoriel de dimension nie E


i) de toute famille génératrice de E , on peut extraire une base de E ,
ii) (théorème de la base incomplète) toute famille libre peut être complétée en une base.
Enn, le théorème de la dimension d'un espace vectoriel de dimension nie.

II.2 Théorème. Dans un K-espace vectoriel E de dimension finie, toutes les bases ont le
même nombre d’éléments.

Ce nombre est appelé la dimension de E et est noté dimK E , ou dim E , s'il n'y a pas
de confusion.

II.3 Proposition. Soit E un K-espace vectoriel de dimension finie et F un sous-espace


vectoriel de E . Alors F est de dimension finie et dim F ¤ dim E . De plus, F est égal à E si, et
seulement si, dim F  dim E .

Par exemple, l'espace Kn est de dimension n. L'espace Kn rX s des polynômes à coe-


cients dans K et de degré inférieur ou égal à n admet comme base canonique p1, X, . . . , X n q
et est donc de dimension n 1. L'espace vectoriel KrX s est de dimension innie.

Ÿ 3 Somme de sous-espaces vectoriels


II.3.1.Somme de sous-espaces. Soit E un K-espace vectoriel et soient F et G deux
sous-espaces vectoriels de E . La réunion de F et G n'est pas en général un sous-espace
vectoriel de E
CHAPITRE II. ESPACES VECTORIELS 19

Exercice 6. Donner des contre-exemples.


Le plus petit sous-espace vectoriel contenant F et G est le sous-espace vectoriel
VectpF Y Gq. Ce sous-espace vectoriel est décrit par
VectpF Y Gq  tx y | px, yq P F  Gu.
Ce sous-espace vectoriel est appelé la somme de F et G, on le note F G. °
Plus généralement, si pEi qiPI une famille de sous-espaces vectoriel de E , on note Ei
P
i I
le sous-espace vectoriel de E formé des combinaisons linéaires
¸
xi ,
P
i I

P Ei, i P I , sont tous nuls sauf une nombre ni. L'espace °Ei est appelé la
où les xi
iPI
somme des sous-espaces vectoriels Ei , i P I .
Exercice 7. Soient E un espace vectoriel et F , G deux sous-espaces vectoriels de E.
1. Montrer que F X G  F G si, et seulement si, F  G.
2. Montrer que la réunion F Y G est un sous-espace vectoriel de E si, et seulement si, F € G ou
G € F.

II.3.2.Somme de sous-espaces supplémentaires. Soient E un K-espace vectoriel


et F et G deux sous-espaces vectoriels de E . Les deux assertions suivantes sont équiva-
lentes :
i) pour tout vecteur x P E , il existe un unique couple py, zq P F  G tel que
xy z.

ii) E est égal à la somme F G des sous-espaces F et G et F X G  t0u.


On dit que F et G sont deux sous-espaces vectoriels supplémentaires de E lorsqu'ils
satisfont ces propriétés. On dit aussi que E est la somme directe des sous-espaces F et G
et on écrit :
E  F ` G.
Exercice 8. Montrer l’équivalence des assertions i) et ii).
En résumé :

II.4 Proposition. Soient F et G deux sous-espaces vectoriels de E. Alors E  F ` G si,


et seulement si, les deux propriétés suivantes sont vérifiées :
i) E  F G,
ii) F X G  t0u.
20 CHAPITRE II. ESPACES VECTORIELS

II.5 Proposition. Tout sous-espace vectoriel d’un espace vectoriel de dimension finie ad-
met au moins un supplémentaire.

Exercice 9. On considère les trois sous-espaces vectoriels suivants de R : 2

 R  t0u, G  t0u  R, H  tpx, xq | x P Ru.


F

Montrer que F X G  F X H  G X H  t0u et que la somme F G H n’est pas directe.

II.3.3.Somme directe d'une famille de sous-espaces. Plus généralement, soient


E1 , . . . , Ep des sous-espaces vectoriel de E . On dit que E est somme directe des sous-
espaces vectoriels E1 , . . . , Ep , si tout vecteur x de E s'écrit de façon unique sous la forme

x  x1 ... xp ,

où, pour tout i P J1, pK, xi P Ei . On note alors E  E1 ` . . . ` Ep .


Pour montrer que E se décompose en la somme directe de p espaces vectoriels :

E  E1 ` . . . ` Ep,
il sut de montrer que E  E1 ... Ep et que pour tout i P J2, pK, on a

Ei X pE1 ... Ei1 q  t0u.

En pratique, on peut aussi utiliser la caractérisation suivante. Les sous-espaces E1 , . . . , Ep


sont en somme directe si, et seulement si, l'égalité

x1 ... xp  0, où xi P Ei ,

implique que xi  0, pour tout i P J1, pK.

II.6 Proposition. Soit E un K-espace vectoriel de dimension finie et E , . . . , E des sous-


1 p
espaces de E de bases respectives B1 , . . . , Bp . Alors E  E1 ` . . . ` Ep si, et seulement si, la
Y Y
réunion B1 . . . Bp est une base de E .

Considérons le R-espace vectoriel C des nombres complexes. L'ensemble R des nombres


réels et l'ensemble iR des nombres imaginaires purs, auquel on ajoute 0, sont deux sous-
espaces vectoriel de C. On a C  R ` iR.
Exercice 10. Montrer que l’ensemble F pR, Rq des fonctions réelles à valeurs réelles se décom-
pose en la somme directe de l’ensemble des fonctions paires et de l’ensemble des fonctions impaires.
CHAPITRE II. ESPACES VECTORIELS 21

II.7 Proposition (une formule de Grassmann). Soient F et G deux sous-espaces


vectoriels de E . On a

dimpF Gq  dim F dim G  dimpF X Gq.

On en déduit que si E1 , . . . , Ep sont des sous-espaces vectoriels de E , alors

dimpE1 ` . . . ` Ep q  dim E1 ... dim Ep .

Ÿ 4 Applications linéaires
II.4.1.Dénition. Soient E et E 1 deux K-espaces vectoriels. Une application u :
E ÝÑ E est dite linéaire si, pour tous x, y P E et λ, µ P K,
1

upλx µyq  λupxq µupyq.

Il découle de cette dénition que up0q  0.

II.4.2.Espace vectoriel des applications


1
linéaires. On notera LpE, E 1 q l'ensemble
des applications linéaires de E dans E . Si u et v sont deux applications linéaires de E
dans E 1 et λ P K un scalaire, alors les applications u v et λu dénies, pour tout x P E ,
par

pu v qpxq  upxq v pxq,


pλuqpxq  λupxq,
sont aussi des applications linéaires de E dans E 1 . L'addition et la multplication par un
scalaire sur l'espace vectoriel E 1 induisent ainsi une structure de K-espace vectoriel sur
LpE, E 1 q.

Une application linéaire de E dans E est appelée un endomorphisme de E . On notera


LpE q l'espace vectoriel des endomorphismes de E .
Une application linéaire de E dans K est appelée une forme linéaire .
Une application linéaire et bijective est appelée un isomorphisme . Les endomorphismes
bijectifs de E sont encore appelés les automorphismes de E . Les automorphismes de E ,
muni de la composition, forment un groupe, noté GL pE q et appelé le groupe linéaire de
E.

II.4.3.Exemples.
a) L'homothétie h : E ÝÑ E, de rapport λ, dénie par hpxq  λx est un endomor-
phisme de E .
22 CHAPITRE II. ESPACES VECTORIELS

b) Soit E  Cpra, bs, Rq l'espace vectoriel réel formé des fonctions continues de l'inter-
valle réel ra, bs à valeurs réelles. L'application ϕ : E ÝÑ R dénie par
»b
ϕpf q  f ptqdt
a

est une forme linéaire.


c) Soit p l'application de R3 dans R3 qui envoie un vecteur sur sa projection or-
thognonale sur le plan xy :    
x x
 y  ÞÝÑ  y 
z 0
est une application linéaire.

II.4.4.Image d'une application linéaire. Soient u : E ÝÑ E 1 une application


linéaire et F un sous-espace vectoriel de E . Alors l'image directe par u du sous-espace F ,
donnée par
upF q  ty P E 1 | Dx P F, y  upxqu
est un sous-espace vectoriel de E 1
Exercice 11. Montrer que upF q est un sous-espace vectoriel.
On appelle image de u, et on note Im u, le sous-espace vectoriel upE q.
L'application u est surjective si, et seulement si, Im u  E 1 .

II.4.5.Sous-espace vectoriel stable. Soient u un endomorphisme de E et F un


sous-espace vectoriel de E . On dit que u laisse stable F si upF q est un sous-espace vectoriel
de F .
Par exemple, étant donné x P E , un endomorphisme u de E laisse stable la droite
vectorielle Vectpxq si, et seulement si, les vecteurs upxq et x sont colinéaires. Autrement
dit, si u est une homothétie.

II.4.6.Noyau1 d'une application linéaire. Soient u : E ÝÑ E 1 une application


linéaire et F un sous-espace vectoriel de E . Alors, l'image réciproque par u de F 1
1

u1 pF 1 q  tx P E | upxq P F 1 u
est un sous-espace vectoriel de E .
Exercice 12. Montrer que u1 pF 1 q est un sous-espace vectoriel de E .

On appelle noyau de u, et on note Ker u, le sous-espace vectoriel u1 p0q.

II.8 Proposition. Une application linéaire u est injective si, et seulement si, Ker u  t0u.
Exercice 13. Montrer la proposition II.8.
CHAPITRE II. ESPACES VECTORIELS 23

II.4.7.Rang d'une application linéaire. Soit E un K-espace vectoriel. Le rang


d'une famille nie V de vecteurs de E est la dimension du sous-espace vectoriel VectpV q
engendré par les vecteurs de V , on le note rang V .
Par exemple, si $     ,
& 1 1 0 .
V      0 
% 10 , 1 ,
1 1
-
on a rang V  2.
Soit u : E ÝÑ E 1 une application linéaire. L'application u est dite de rang ni si le
sous-espace vectoriel Im u est de dimension nie. L'entier dimpIm uq est alors appelé le
rang de u et est noté rang u.

II.4.8.Le théorème du rang. Étant donnée une application linéaire u : E ÝÑ E1, on


considère les ensembles Ker u et Im u qui sont respectivement sous-espaces vectoriels de E
et E 1 . Soit B  pe1 , . . . , ek q une base de Ker u. D'après le théorème de la base incomplète,
on peut compléter cette base en une base pe1 , . . . , ek , ek 1 , . . . , en q de E . Alors la famille
pupek 1q, . . . , upenqq est une base du sous-espace Im u, cf. exercice 14. On en déduit une
formule très utile reliant les dimensions des sous-espaces Ker u, Im u avec celle de E :

II.9 Théorème (La formule du rang). Soient E un espace vectoriel1 de dimension


finie et u : E 1 ÝÑ E une application linéaire à valeurs dans un espace vectoriel E . Alors

dim E  dimpKer uq rang u.

Exercice 14. Soient E et E1 des espaces vectoriels et u : E ÝÑ E1 une application linéaire. On


suppose que E est de dimension finie. D’après la proposition II.5, il existe alors un supplémentaire F
du sous-espace Ker u dans E .
Montrer que la restriction de l’application u à F

u|F : F ÝÑ Im u
x ÞÝÑ upxq

est un isomorphisme de F sur Im u.

On déduit du théorème II.9, le résultat suivant :

II.10 Proposition. Soit u : E ÝÑ E1 une application linéaire entre deux K-espaces


vectoriel de même dimension finie. Les assertions suivantes sont équivalentes :
i) u est injective,
ii) u est surjective,
iii) u est bijective
24 CHAPITRE II. ESPACES VECTORIELS

iv) Ker u  t0u,


v) Im u  E1,
vi) rang u  dim E.

II.4.9.Remarque. Attention, ce résultat est faux en dimension innie. En eet, l'ap-


plication
u : RrX s ÝÑ RrX s
P pX q ÞÝÑ P 1 pX q

est un endomorphisme de RrX s. Son noyau est le sous-espace vectoriel de RrX s formé des
polynômes constants. L'endomorphisme u n'est donc pas injectif, alors qu'il est surjective.
En eet ³Im u  RrX s, car, pour tout polynôme P de RrX s, il existe un polynôme
QpX q  0 P ptqdt tel que upQq  P . Par exemple, si
X

¸
n
P pX q  ai X i ,

i 0

on pose
¸
n
QpX q 
ai
X i 1.
 i
i 0
1
On a alors upQq  P .
Exercice 15. Montrer que l’application
u : RrX s ÝÑ RrX s
P pX q ÞÝÑ XP pX q

r s
est un endomorphisme injectif de R X , mais pas surjectif.

II.4.10.Les projecteurs. Soit E un K-espace vectoriel. Un endomorphisme p de E


tel que p2  p est appelé projecteur de E .
Soient F et G deux sous-espaces vectoriels de E tels que E  F ` G. Alors tout
vecteur x de E s'écrit de façon unique en x  y z, avec y P F et z P G. On considère
l'endomorphisme pF de E déni par pF pxq  y. On dit que pF est la projection sur F
parallèlement à G. On dénit de la même façon, la projection sur G parallèlement à F ,
comme l'endomorphisme pG de E déni par pG pxq  z. Pour tout vecteur x de E , on a
x  pF pxq pG pxq.

Ainsi dénis, les endomorphismes pF et pG vérient les assertions suivantes


i)pF et pG sont des projecteurs, i.e., p2F  pF et p2G  pG ,
ii)Im pF  F et Im pG  F ,
CHAPITRE II. ESPACES VECTORIELS 25

iii) Ker p  G et Ker p  F .


iv) p p  id ,
F G

v) p p  p p  0.
F G E

L'assertion i) découle de la dénition de p et p . Si x P E , alors p pxq est un vecteur


F G G F

F G F
de F d'où p pp pxqq  p pxq 0. On montre de la même façon que p  p . L'assertion
ii) est une conséquence immédiate de la dénition de p et p .
2
F F F G G

Pour montrer iii), considérons x P Ker p , alors x  p pxq donc x P G. Inversement,


F G
F G
si x P G, on a p pxq  0. On montre de la même façon que Ker p  F .
L'assertion iv) correspond à la décomposition x  p pxq p pxq. L'assertion v) est
F G
F G
obtenue en composant la relation idE  pF pG par pF et pG .

Inversement, supposons qu'il existe deux applications linéaires

p:E ÝÑ F, q:E ÝÑ G,
telles que idE p q et pq  qp  0. On montre alors que E  F ` G. Plus généralement,
on a :

II.11 Proposition. Soit E un K-espace vectoriel et soient E , . . . , E


1 k des sous-espaces
vectoriel de E . Une condition nécessaire et suffisante pour que E 
E1 . . . Ek est qu’il existe ` `
des applications linéaires pi : E ÝÑ P
Ei , i J1, kK vérifiant les deux assertions suivantes :
i) id  p . . . p ,
ii) p p  0, pour tout i  j.
E 1 k

i j

Pour tout i P J1, kK, pi est appelé la projection sur Ei parallèlement au sous-espace
` Ej .
k

j 1

j i

Les projection pi sont des projecteurs, p2i  pi , et satisfont

à
k
Ker pi  Ej , Im pi  Ei.

j 1

j i

Exercice 16. Établir les deux propriétés précédentes.


Exercice 17. Soit E un K-espace vectoriel et soient p et q deux projecteurs de E. On suppose
que le corps K n’est pas de caractéristique 2.
1. Montrer que p q est un projecteur si, et seulement si, p  q  q  p  0.
2. Supposons que p q est un projecteur de E. Montrer l’égalité :
Im pp q q  Im ppq Im pq q.
26 CHAPITRE II. ESPACES VECTORIELS

3. Supposons que p q est un projecteur de E . Montrer l’égalité :

Ker pp q q  Ker ppq X Ker pq q.

Exercice 18. Soit E un K-espace vectoriel de dimension finie n et soient p et q deux endomor-
phismes de E vérifiant

p q  idE , et rang ppq rang pq q ¤ n.

1. Montrer que Im p et Im q sont supplémentaires dans E.


2. Montrer que rang ppq rang pqq  n.
3. Montrer que p et q sont des projecteurs.
Exercice 19. Soit p un projecteur d’un K-espace vectoriel E.
1. Montrer que E  Ker p ` Im p.
2. La réciproque est-elle vraie ?
Exercice 20. Soit E un K-espace vectoriel de dimension finie. Montrer que si p est un projecteur
de E , alors
rangppq  traceppq.

Ÿ 5 Exercices

Exercice 21. Soient E un K-espace vectoriel et u un endomorphisme de E. Montrer que u est


p
une homothétie si, et seulement si, pour tout vecteur x de E , la famille x, u x p qq est liée.
Exercice 22. Soit E un K-espace vectoriel, pas nécessairement de dimension finie et soit u un
endomorphisme de E .
1. Montrer que Ker u „ Ker u et Im u „ Im u.
2. Montrer que Ker u  Ker u si, et seulement si, Ker u X Im u  t0u.
2 2

3. Montrer que Im u  Im u si, et seulement si, E  Ker u Im u.


2
2

Exercice 23. Soit E un K-espace vectoriel de dimension finie et soit u un endomorphisme de E.


D’après le théorème du rang, on a l’égalité

dim E  dimpKer uq dimpIm puqq.


Ce qui n’entraîne pas en général que E  Ker u ` Im u.
CHAPITRE II. ESPACES VECTORIELS 27

1. Soit u l’endomorphisme de R dont la matrice dans la base canonique est


3

 
0 1 0
ruscan   0 0 1 
0 0 0

2.
Déterminer Ker u, Ker u2 , Im u, Im u2 .
Montrer que les assertions suivantes sont équivalentes
a) E  Ker u ` Im u,
b) E  Ker u Im u
c) Im u  Im u , 2

d) rang u  rang u 2

e) Ker u  Ker u , 2

f) Ker u X Im u  t0u
Exercice 24. Soit u un endomorphisme d’un espace vectoriel E de dimension finie n. Montrer
que les deux assertions suivantes sont équivalentes
a) Ker u  Im u,
b) u  0 et n  2.rang puq.
2

Exercice 25. Soient E, F et G trois K-espaces vectoriels et u : E ÝÑ F , v : F ÝÑ G deux


applications linéaires.
1. Montrer que upKer pv  uqq  Ker v X Im u.
2. Montrer que v pIm pv  uqq  Ker v Im u.
1
28 CHAPITRE II. ESPACES VECTORIELS
CHAPITRE
III

Les matrices

Sommaire
1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 33
3 Matrice d'une application linéaire . . . . . . . . . . . . . . . . 38
4 Trace d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 43
5 Noyau et image d'une matrice . . . . . . . . . . . . . . . . . . . 43
6 Rang d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 45
7 Opérations matricielles par blocs . . . . . . . . . . . . . . . . . 46
8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

Ÿ 1 Dénitions
III.1.1.Dénitions. Soient m et n deux entiers naturels non nuls. Une famille pa q ¤¤ ¤¤ , i 1 i n
j 1 j m
où, pour tous entiers i et j , aij est un scalaire dans K, est appelée une matrice de type
pm, nq à coecients dans K.
S'il n'y a pas de confusion, une telle matrice sera notée raij s et représentée par un
tableau de scalaires à n colonnes et m lignes :
 
a11 a21  an1

 a12 a22  an2 


 .. .. .. 

. . .
a1m a2m  anm
On note Mm,n pKq l'ensemble des matrices carrées de type pm, nq à coecients dans
K. Si A P Mm,n pKq, on notera Aij , le coecient de A de la j -ième ligne de la i-ième

29
30 CHAPITRE III. LES MATRICES

colonne :
 i
..

 . 
A Aij  j

Une matrice de type pn, nq est dite carrée . On note Mn pKq l'ensemble des matrices
carrées de type pn, nq. Une matrice de type pm, 1q est dite colonne et une matrice de type
p1, nq est dite ligne .
La diagonale d'une matrice carrée A  raij s de type pn, nq est formée des coecients
aii , pour i P J1, nK ; on note
diag pAq  pa11 , a22 , . . . , ann q.

Une matrice est dite diagonale , si tous ses coecients non diagonaux sont nuls, i.e.,
aji  0, pour tout i  j . On notera
a 0 ... 0

1

 0 ... ..
. 

Diag pa1 , . . . , an q   . 
a2
 .. ... ...
0 .
0 ... 0 an

La matrice identité de Mn pKq est la matrice diagonale 1n , où tous les éléments de la


diagonale sont égaux à 1 :
1n  Diag p1, . . . , 1q.
III.1.2.Matrices triangulaires. Une matrice est dite triangulaire supérieure (resp.
triangulaire inférieure ), si tous ses coecients en dessous (resp. au dessus) de la diagonale
sont nuls, i.e., aij  0, pour tout j ¡ i (resp. i j ). Une matrice triangulaire supérieure
(resp. inférieure) sera notée
  ...   0 ... 0


 0 ..
. ... .. 
.  
 ... . . . .. 
. 

 ... . . .  presp.  . q.
...
  .. ... ...
0 
0 ... 0   ...  
III.1.3.Matrices élémentaires. Les matrices élémentaires de M m,n pKq sont les ma-
trices Epi,j q , où pEpi,j q q égale 1 si k  j et l  i et 0 sinon :
l
k
 
0   0 
i


 ..
0
.. .. 
 . . . 
Epi,j q  
 0     0  j

 ...
1
.. .. 
. .
0  0  0
CHAPITRE III. LES MATRICES 31

Figure III.1  James Joseph Sylvester (1814 - 1897)


Joseph Sylvester est un mathématicien anglais. Il introduit en 1951 le terme
de matrice dans ses travaux géométriques. Il publie plusieurs mémoires dans
lesquels il traduit des propriétés géométriques en terme de calcul de détermi-
nant. Sylvester entretiendra une collaboration mathématique fructueuse avec
le mathématicien Arthur Cayley. Ils travaillent notamment sur les invariants
des formes quadratiques et les déterminants.

III.1.4.Espace vectoriel des matrices. Soient m et n deux entiers naturels non


nuls. On dénit sur l'ensemble M pKq les opération
i) d'addition, pour toutes matrices A  ra s et B  rb s de M pKq,
m,n
i i
j j m,n

A B  raij bij s.

ii) la multiplication par un scalaire, pour toute matrice A  ra s de Mj


i m,n pKq et tout
scalaire α de K,
αA  rαaij s.

III.1 Proposition. Muni de l’addition et de la multiplication par un scalaire l’ensemble


Mm,n pKq des matrices de type pm, nq forme un K-espace vectoriel de dimension mn.

La famille des mn matrices élémentaires


tEpi,jq | i P J1, nK, j P J1, mKu
de Mm,n pKq forme une base canonique du K-espace vectoriel Mm,n pKq.
32 CHAPITRE III. LES MATRICES

III.1.5.Sous-espaces vectoriels remarquables de M pKq.


L'ensemble des ma-
m,n
trices diagonales de Mn pKq forme un sous-espace vectoriel de dimension n.
L'ensemble des matrices triangulaires supérieures (resp. inférieures) de Mn pKq forme
un sous-espace vectoriel de dimension npn 1q{2.

III.1.6.Transposition. La matrice transposée d'une matrice A de Mm,n pKq est la


matrice de Mn,m pKq, notée AJ dénie par
pAJqi  Aj , j i

pour tous i P J1, nK et j P J1, mK. Pour toute matrice A, on a


pAJqJ  A.
La transposition est une application linéaire
J : M pKq ÝÑ M pKq
m,n m,n

A ÞÝÑ A J
On vérie que pour toutes matrices A, B et scalaire λ, on a
i)pA BqJ  AJ BJ,
ii)pλAqJ  λAJ.
Exercice 1. Établir ces relations.
III.1.7.Matrices symétriques et antisymétrique. Une matrice carrée S est dite
symétrique si S  S. Une matrice carrée A est dite antisymétrique si A  A.
J J
On note Sn pKq (resp. An pKq) le sous-ensemble de Mn pKq formé des matrices symétriques
(resp. antisymétriques).

III.2 Proposition. Les sous-ensembles S pKq et A pKq forment des sous-espaces vecto-
n n
p q
riels de Mn K , avec

n2  n n2
dim An pKq  dim Sn pKq 
n
, .
2 2
De plus, on a
Mn pKq  An pKq ` Sn pKq

Exercice 2. Soit u : M pRq ÝÑ M pRq l’application définie par


n n

upAq  A AJ ,
P MnpRq.
1. Montrer que l’application u est un endomorphisme de M pRq.
pour tout A

2. Déterminer le noyau de u. n

3. Déterminer l’image de u.
4. Montrer que M pRq  Ker u ` Im u.
n
CHAPITRE III. LES MATRICES 33

Ÿ 2 Produit de matrices
III.2.1.Produit de matrices. On dénit le produit (ou multiplication ) d'une matrice
A de type pm, nq par une matrice B de type pn, pq, comme la matrice

¸
n
AB  rcji s, avec cji  aki bjk .

k 1

Le produit de matrices vérie les propriétés suivantes :

i) (associativité) pour toute matrices compatibles, A, B et C,


ApBCq  pABqC.

ii) (matrices unitées) pour toute matrice A de M m,n pKq,

1m A  A  A1n .

iii) (distributivité), pour toutes matrices compatibles A, B, C et D, on a


Ap B Cq  AB AC, pB CqD  BD CD.

On en déduit que

III.3 Proposition. L’ensemble M pKq des matrices carrées de type pn, nq, muni de l’ad-
n
ddition et de la multiplication, forme un anneau non commutatif.

L'unité de l'anneau est la matrice identité 1n .

Exercice 3. Montrer que, pour toutes matrices compatibles A et B, on a


pABqJ  BJAJ.
34 CHAPITRE III. LES MATRICES

Figure III.2  Arthur Cayley (1821 - 1895)


Arthur Cayley est un mathématicien anglais auteur de nombreux travaux.
Dans un article de 1855 publié dans le Journal de Crelle, il utilise la notion
de matrice pour représenter des systèmes d'équations linéaires et des formes
quadratiques. Les problèmes géométriques, comme les types d'intersection de
coniques ou quadriques, exprimés en terme de déterminant, sont à l'origine de
l'intérêt de Cayley pour la notion de matrice. Ses travaux sur les matrices con-
duisent à un mémoire intitulé  A memoir on the Theory of Matrices , publié
en 1858 dans Philosophical Transactions of the Royal Society of London dans
lequel la notion de matrice fait l'objet d'une étude théorique indépendamment
du contexte géométrique dans lequels elles apparaissent jusqu'alors.
Ce mémoire conporte des résultats importants, en particulier, il formule le
théorème dit de Cayley-Hamilton pour les matrices carrées d'ordre 3 sans
toutefois en publier de preuve
Exercice 4. Soient 
1 0 0


B 0 1 0 
5 0 1
p q
et A des matrices de M3 R . Décrire les lignes de la matrice BA en terme des lignes de A et les
colonnes de la matrice AB en terme des colonnes de A.

Exercice 5. Soit e le vecteur colonne de M


i n,1 pKq contenant 1 à la i-ième ligne et 0 sur les
p q
autres lignes. Étant donnée une matrice A de Mn K , décrire les produits suivants :

Aei , eJ
i A, eJ
i Aej .

Exercice 6. Soient A et B deux matrices de M n,m pKq. Montrer que si Ax  Bx, pour tout
vecteur colonne x, alors A  B.
CHAPITRE III. LES MATRICES 35

Exercice 7. Soit 


1{2 a

A
0 1{2
une matrice à coefficients réels.
1. Calculer A , A et A .
2. Donner l’expression de A , pour tout entier naturel k.
2 3 4
k

Exercice 8. Soient T et T1 deux matrices triangulaires supérieures.


1. Montrer que le produit TT1 est une matrice1 triangulaire supérieure.
2. Déterminer la diagonale de la matrice TT .
Exercice 9. Soient A et B deux matrices symétriques de M pKq qui commutent, i.e., AB  BA.
n
Montrer que le produit AB est une matrice symétrique.

III.2.2.Matrices inversibles. Une matrice carrée A de M pKq est dite inversible ,


n
s'il existe une matrice B de Mn pKq telle que

AB  1n et BA  1n .

La matrice B est alors appelée la matrice inverse de A, on note alors B  A1 . On déduit
immédiatement de cette dénition que l'inverse d'une matrice est unique.
L'opération d'inversion vérie les propriétés suivantes :
i) pA1q1  A,
ii) si A et B sont inversibles, alors AB est inversible et

pABq1  B1A1,
iii) si A est inversible, alors sa transposée est inversible et
pAJq1  pA1qJ.
Exercice 10. Montrer ces trois propriétés.
On désigne par GLn pKq l'ensemble des matrices inversibles de Mn pKq :

GLn pKq  tA P Mn pKq | A est inversibleu.

III.4 Proposition. La multiplication des matrices munit l’ensemble GL pKq des matrices
n
p q
inversibles de Mn K d’une structure de groupe.

Le groupe GLn pKq, est appelé le groupe linéaire des matrices d'ordre n.
36 CHAPITRE III. LES MATRICES

III.2.3.Calcul de l'inverse. Déterminer si une matrice est inversible et le calcul des


inverses sont des problèmes importants d'algèbre linéaire. Par exemple, considérons la
matrice suivante de M3 pRq  
1 1 3
A 2 0 1 .
1 1 2
La matrice A est-elle inversible ? L'équation matricielle suivante dans R3 :
   
x1 b1
Ax  b avec x  x2 
 et b  b2 

x3 b3

peut s'écrire sous la forme du système d'équations suivant


$
& x1 x2 3x3  b1
% x2x1 1 x3  b2
x2 2x3  b3

Pour résoudre ce systèmes, i.e., exprimer les coecients du vecteur x en terme de ceux
du vecteur b on procède en appliquant des opérations sur les lignes. Retranchons 3 fois
la seconde équation à la première et 2 fois à la dernière, le système devient :
$
& 5x1 x2  b1  3b2
%2x1 x3  b2
3x1 x2  2b2 b3
Retranchons la dernière équation à la première, on obtient :
$
& 2x1  b1  b2  b3
%2x1 x3  b2
3x1 x2  2b2 b3
On additionne la première équation à la seconde et on retranche 3
2
de la première à la
troisième, il reste : $
& 2x1  b1  b2  b3
 b1  b3
% xx23   32 b1  21 b2 5
b
2 3

On obtient ainsi le système


$
& x1   21 b1 12 b2 1
b
2 3
x2   32 b1  12 b2 5
% x 3  b1  b3 b
2 3

L'équation Ax  b admet une unique solution x donnée par le système précédent, ce qui
s'écrit matriciellement sous la forme

x  A1 b,
CHAPITRE III. LES MATRICES 37

avec

 1 1 
2 2 1
 
A   32  12
1
2
5 .
1
2
1 0

On vérie que AA1  A1 A  1n , la matrice A est donc inversible. Cet exemple illustre
le calcul de l'inverse d'une matrice en eectuant la résolution d'un système linéaire à
seconds membres. On notera cependant, que les matrices carrées ne sont pas toujours
inversibles. Nous verrons plus loin d'autres méthodes permettant de déterminer si une
matrice est inversible et de calculer l'inverse d'une matrice.

Exercice 11. Montrer que les matrices suivantes ne sont pas inversibles

     
1 2 3
A
1 0
, B
1 1
, 
C 2 5 7 .
1 0 1 1
1 1 2

Exercice 12. Soit A un matrice de M pKq telle que A est inversible. Montrer que A est in-
n
2

versible.
38 CHAPITRE III. LES MATRICES

Figure III.3  A Memoir on the Theory of Matrices

Ÿ 3 Matrice d'une application linéaire


Soient E et E 1 deux K-espaces vectoriel de dimensions n et m respectivement. Con-
sidérons une base B  pe1 , . . . , en q de E et une base B1  pf1 , . . . , fm q de E 1 .
Soit u : E ÝÑ E 1 une application linéaire. On peut exprimer l'image par u de chaque
CHAPITRE III. LES MATRICES 39

vecteur de la base B dans la base B1 , on a :


upe1 q  a11 f1 a12 f2  a1m fm ,
upe2 q  a21 f1 a22 f2  a2m fm ,

upen q  an1 f1 an2 f2  anm fm ,

avec aij P K. La matrice raij s11¤ i¤n


¤j ¤m est appelée la matrice de l'application linéaire u ex-
1
primée dans les bases B et B , on la notera
rusBB1 .
On a
 up1e1q up2e2q    upennq 
a1 a1    a1 f 1

 a 1
a 2
   an2  f2

 ...
2
..
2
..  .
.  ..
.
.
a1m a2m    anm fm
Si u : E ÝÑ E est un endomorphisme de E et B une base de E , nous noterons rusB
la matrice rusBB .

III.3.1.Exemple. Soit p l'application linéaire de R3 dans R3 qui envoie un vecteur


x, sur sa projection orthogonale ppxq sur le plan (Oxy) :
ÝÑ
p : R3
   
R3
x x
 y  ÞÝÑ  y  .
z 0

On considère la base de R3 donnée par


$      ,
& 1 1 1 .
B  e1  1  ,
 e2  1  ,
 e3  2 

% 1 0 3
-
On a
     
1 1 1
ppe1 q  1   e2 ,
 ppe2 q  1   e2 ,
 ppe3 q  2   3e1
 3e2 e3 .
0 0 0

Ainsi, la matrice de p exprimée dans la base B de R3 est


 
0 0 3

rp sB  1 1 3 .
0 0 1
40 CHAPITRE III. LES MATRICES

III.5 Proposition. Soient 1E et E1 deux K-espaces vectoriels de dimension finie respectives


n et m. L’application Φ : LpE, E q ÝÑ Mm,n pKq définie par
1
Φpuq  rusBB

est un isomorphisme de K-espaces vectoriels. En particulier, les espaces vectoriels L E, E 1 et p q


p q
Mm,n K ont la même dimension, égale à mn.

Soient u : E ÝÑ E 1 et v : E 1 ÝÑ E 2 deux applications linéaires et B, B1 , B2 des bases


des K-espaces vectoriels E , E 1 et E 2 respectivement. Alors

rvusBB2  rvsBB21 rusBB1 .


Soit x un vecteur de E de coordonnées x1 , . . . , xn dans la base B, on note rxsB le
vecteur colonne correspondant :
 
x1
 
rxsB   
x2
.. 
.
.
xn

Avec les notations précédentes, on a :

rupxqsB1  rusBB1 rxsB .


III.3.2.Matrices de passage. Soient E un K-espace vectoriel de dimension n. Con-
sidérons B  pe1 , . . . , en q et B  pf1 , . . . , fn q deux bases de E . Tout vecteur fi , pour
1
i P J1, nK, se décompose de façon unique dans la base B :

fi  pi1e1 ... pin en , où pij P K.


1
La matrice de passage de la base B à la base B1 , est la matrice, notée PBB , dont les colonnes
sont les composantes des vecteurs fi exprimés dans la base B :
 
p11 . . . pn1
1 
 p12 pn2 

PBB   .. .. 
 . . 
p1n . . . pnn
1
La matrice de passage PBB vérie les propriétés suivantes :
i) P 1 1 rid s 1 ,
B B

ii) P est inversible et pP 1 q  P 1 .


B E B
B B 1 B
B B B
CHAPITRE III. LES MATRICES 41

Soit x un vecteur de E de coordonnées x1 , . . . , xn dans la base B et de coordonnées


x1 , . . . , x1n dans la base B 1 . En notant
1
   
x1 x11
   x12 
rxsB    rxsB1   
x2
.. 
 et .. 
,
. .
xn x1n

on a :
rxsB  PBB1 rxsB1 ,
ou de façon équivalente :
rxsB1  pPBB1 q1rxsB  PBB1 rxsB .

III.6 Proposition. Soient E et E 1 deux K-espaces vectoriels de dimension finie et


u : E ÝÑ E une application linéaire. Soient B, B deux bases de E , C, C deux bases de E
1 1 1 1
1 C1
et PB
B , PC les matrices de changements de bases associées. Alors,

rusCB11  pPCC1 q1rusCB PBB1 .

En particulier, si u est un endomorphisme de E :


rusB1  pPBB1 q1rusB PBB1 .
III.3.3.Exemple. Soit u : R ÝÑ R 3 3
l'endomorphisme déni par
   
x xz
u y    y  z .
z 0

La matrice de u dans la base canonique can  pc1 , c2 , c3 q de R3 est


 
1 0 1

rus  0
can 1 1 
0 0 0

On considère une nouvelle base de R3 :


$  ,
& 1 .
B  e1  c1 ,  c2 , e3   1  .
% e2
1
-
La matrice de passage de la base canonique à la base B est
 
1 0 1
PB
can

 0 1 1 .
0 0 1
42 CHAPITRE III. LES MATRICES

On calcule l'inverse de la matrice de PB :


 
can

1 
1 0 1
PB
can
 0 1 1  .
0 0 1
L'expression de la matrice de u exprimée dans la base B est
B 1
rusB  P
 can
rus P 
B
can can
 
1 0 1 1 0 1 1 0 1
 0 1 1   0 1 1   0 1 1 .
0 0 1 0 0 0 0 0 1
D'où  
1 0 0

rusB  0 1 0 
0 0 0
On constate que cette nouvelle base permet d'exprimer plus simplement l'endomorphisme
u. Nous retrouverons cet exemple en . ??
Exercice 13. Écrire la matrice de passage de la base B de l’espace R 3
donnée dans l’exemple
III.3.1 à la base canonique de R3 . Soit p la projection donnée en III.3.1. À l’aide de cette matrice
de passage et de la matrice de l’endomorphisme p exprimée dans la base B , calculer la matrice de p
exprimée dans la base canonique de R3 .

III.3.4.Matrices semblables. Deux matrices A et B de Mn pKq sont dites sem-


blables, s'il existe une matrice inversible P de Mn pKq telle que
B  P1 AP.
La relation  être semblable à , dite relation de similitude, est une relation d'équivalence
sur l'ensemble Mn pKq.
Exercice 14. Montrer cette propriété.
Deux matrices semblables représentent le même endomorphisme dans des bases dif-
férentes.

III.7 Proposition. Deux matrices semblables ont même trace, même déterminant, même
rang.

III.3.5.Matrices équivalentes. Deux matrices A et B de M pKq sont dites équiv- n


alentes, s'il existe deux matrice inversibles P et Q de Mn pKq telles que
B  PAQ.
La relation d'équivalence est une relation d'équivalence sur Mn pKq. Deux matrices sem-
blables sont équivalentes.
CHAPITRE III. LES MATRICES 43

Ÿ 4 Trace d'une matrice


III.4.1.Dénition. La trace d'une matrice carrée A  ra s de M pKq est la somme
i
j n
des coecients de sa diagonale :
¸
n
trace pAq  aii .

i 1

III.8 Proposition. L’application trace : M pKq ÝÑ K est une forme linéaire vérifiant,
n
p q
pour toutes matrices A et B de Mn K ,

trace AB  trace BA.

Exercice 15. Étant donné deux matrices A et B de M pKq, déterminer toutes les matrices X
n
p q
de Mn K telles que
X trpXqA  B.

Exercice 16. Montrer qu’il n’existe pas de matrices A et B de M pKq telles que
n

AB  BA  1n .

III.4.2.Trace d'un endomorphisme. De la proposition III.8, on déduit que


III.9 Proposition. Deux matrices semblables ont la même trace.
Exercice 17. Soient A et B deux matrices carrées.
1. Montrer la relation trace AB  trace BA.
2. En déduire que deux matrices semblables ont la même trace.
Ÿ 5 Noyau et image d'une matrice
Nous avons vu dans le chapitre précédent les notions de noyau et d'image d'une ap-
plication linéaire. On peut dénir de la même façon, le noyau et l'image d'une matrice.

III.5.1.Image d'une matrice. Si u : K n


ÝÑ Km est une application linéaire, l'image
de u est le sous-espace vectoriel de K déni par
m

Im u  tupxq | x P Kn u.
44 CHAPITRE III. LES MATRICES

De la même façon, si A est une matrice de Mm,n pKq, on dénit l'image de A comme le
sous-espace vectoriel de Km engendré par les vecteurs Ax, où x P Kn . Soit

Im A  tAx | x P Kn u.

III.10 Proposition. L’image d’une matrice A de M


m
m,n pKq est le sous-espace vectoriel de
K engendré par les vecteurs colonnes de A.

Preuve . Écrivons A selon ses vecteurs colonnes :


 
A a1 a2 . . . an .

Pour tout vecteur  


x1

 x2 

x .. 
 . 
xn

de Kn , on a
 
x1
 
 x2 

Ax  a1 a2 . . . an  ..   x1 a1 x2 a2 xn an .
 .  ...

xn

Ainsi, Ax est une combinaison linéaire des vecteurs colonnes de A, autrement dit Im A
est le sous-espace vectoriel de Km engendré par les vecteurs colonnes de A. 

Exercice 18. Soit A une matrice de M pKq telle que Im pAq soit égal à K . Justifier que la
n
n

matrice A est inversible.

Exercice 19. Soit A une matrice de M p q


n,m K . Soit E un sous-ensemble de vecteurs colonnes
p q
de Mm,1 K , identifié à Km . L’image de E par A est l’ensemble, noté A E , formé de tous les p q
produits de A par un vecteur de E , i.e.,

ApE q  tAx | x P E u.

1. Montrer que si E est un sous-espace vectoriel de K , alors ApE q est un sous-espace vectoriel de
m

2. Montrer que si E  Vectpx , . . . , x q, alors ApE q  VectpAx , . . . , Ax q.


n
K .
1 p 1 p

Exercice 20. Soient A et B deux matrices compatibles. Montrer que Im pABq est un sous-
p q
espace vectoriel de Im A .
CHAPITRE III. LES MATRICES 45

III.5.2.Noyau d'une matrice. Si u : Kn ÝÑ Km est une application linéaire, le


noyau de u est le sous-espace vectoriel de Kn déni par
Ker u  tx P Kn | upxq  0u.
De la même façon, si A est une matrice de Mm,n pKq, on dénit le noyau de A comme le
sous-espace vectoriel suivant de Kn
Ker A  tx P Kn | Ax  0u.
Le noyau Ker A est formé des solutions de l'équation
Ax  0.
Exercice 21. Soit A une matrice inversible de M pKq. Décrire les sous-espaces
n

Ker pAq, Ker pAJ q, Im pAq, Im pAJ q.


Exercice 22. Soit A P M n,mpKq et B P Mn,ppKq deux matrices. Montrer que
Im prA Bsq  Im pAq Im pBq,
r s
où A B désigne la matrice constituée des blocs A et B.

Exercice 23. p q
Soient A et B deux matrices compatibles. Montrer que Ker B est un sous-espace
p
vectoriel de Ker AB .q

Ÿ 6 Rang d'une matrice


III.6.1.Dénition. Soient E un K-espace vectoriel. On appelle rang d'une famille de
vecteurs pxi qi de E , la dimension du sous-K-espace vectoriel de E engendré par pxi qi . En
d'autres termes, le rang de la famille pxi qi est le nombre maximal de vecteurs linéairement
indépendants que l'on peut extraire de pxi qi .
Dénition III.11. Le rang d’une matrice A de M m,n pKq est le rang de la famille de ses
vecteurs colonnes dans Km . On le note rang A. Autrement dit,

rang A  dimpIm Aq.

III.12 Proposition. Soit A une matrice de M pKq. Le rang de A vérifie les propriétés
m,n
suivantes :
i) rang A ¤ inf tm, nu,
ii) rang A  rang pAJq (en particulier le rang de A est aussi le rang des vecteurs lignes),
iii) Ker A  t0u si, et seulement si, rang A  n,
iv) Ker pAJq  t0u si, et seulement si, rang A  m,
v) si m  n, alors A est inversible si, et seulement si, rang A  n.
46 CHAPITRE III. LES MATRICES

Soit A P Mp,q pKq et Q P Mp pKq, P P Mp pKq deux matrices inversibles, on a


rang A  rang pQAPq.
En particulier si rang A  r, il existe deux matrices inversibles P et Q telles que
 
AQ
1r 0
P.
0 0

III.13 Proposition. Soit A une matrice de M p,q pKq de rang r. Alors la matric A est
équivalente à la matrice  
Jr  1r 0
0 0
.

p q
En particulier, deux matrices de Mp,q K sont équivalentes si, et seulement si, elles ont même rang.

Soit u : E ÝÑ E 1 une application linéaire. On a déni le rang de u comme la dimension


du sous-espace Im u. Soient B et B1 des bases de E et E 1 respectivement. On a
rang u  dim Im u  dim VectpupB qq.
1
Autrement dit le rang de u est le rang de la matrice rusBB .
Exercice 24. Soient A et B deux matrices de M n,m K . p q
p q
1. Montrer que Im A B est un sous-espace de Im A Im B . p q p q
p q¤
2. En déduire que rang A B p q
rang A rang B . p q
Exercice 25. Soit A P Mn,mpKq et B P Mn,ppKq deux matrices. Montrer que
rang prA Bsq ¤ rang pAq rang pBq  dimpIm pAq X Im pBqq.

Ÿ 7 Opérations matricielles par blocs


Dans certaines situations, nous rencontrerons des matrices partionnées par blocs. Les
opérations sur les matrices dénies sur les scalaires, comme l'addition et la multiplication,
se généralisent aux matrices partitionnées par blocs.

III.7.1.Matrices par blocs. Exprimer une matrice par colonnes ou par lignes et un
cas particulier de partitionnement de matrice. Plus généralement, soit A une matrice de
Mm,n pKq, une partitionner A consiste à l'écire sous la forme

 n11    nk

A1    Ak1 m1

 ... .. 
 ..
. .
A1l    Akl ml
CHAPITRE III. LES MATRICES 47

où n1 n2 . . . nk  n, m1 m2 . . . ml  m et où Aji est une matrice de Mnj ,mi pKq,


appelée bloc pi, j q ou sous-matrice pi, j q de la matrice A.
Les opérations sur les matrices par blocs se dénissent comme dans le cas des matrices
dénies par des scalaires ; il faut cependant tenir compte des compatibilités des tailles des
blocs.

III.7.2.Addition par blocs. Considérons deux matrices par blocs, partitionnées de


la même façon :

 n11    nk
  n11    nk

A1    Ak1 m1 B1    Bk1 m1

A   ... .. 
 .. 
B   ... .. 
 ..
. . , . . .
A1l    Akl ml B1l    Bkl ml

La somme des matrices A et B est une matrice C de même partion :

 n11    nk
  1 
C1    Ck1 m1 A1 B11  Ak1 Bk1
CA

B   ... .. 
 ...  
 .. .. 
.
. . .
C1l    Ckl ml A1l B1l  Akl Bkl

III.7.3.Multiplication par blocs. La multiplication par blocs est moins évidente.


Considérons deux matrices par blocs

 n11    ni
  p11    pk

A1    Ai1 m1 B1    Bk1 n1

A   ... .. 
 .. et

B   ... .. 
 ..
. . . . .
A1j    Aij ml B1i    Bki ni

Avec ces notations, on montre que (ce n'est pas immédiat)


III.14 Proposition. Si la matrice produit C  AB est partionnée de la façon suivante
 p11    pk

C1    Ck1 m1

C   ... .. 
 ..
. .
C1j    Ckj ml

alors, pour tous r P J1, lK et s P J1, kK,


¸i
Csr  Atr Bst .

t 1

En particulier, on a par exemple,


C11  A11B11 A21 B12 ... Ai1 B1i .
48 CHAPITRE III. LES MATRICES

III.7.4.Exemples.
a) Soient A, B, C dans M m,n1 pKq, Mm,n2 pKq, Mm,n3 pKq respectivement et D, E, F
dans Mn1 ,p pKq, Mn2 ,p pKq, Mn3 ,p pKq respectivement, alors
 
  D
A B C  E   AD BE CF.
F

b) Soient A P M pKq, B P Mm ,n pKq, C P Mm ,n pKq, D P Mm ,n pKq et E P


m1 ,n1
Mn ,p pKq, F P Mn ,p pKq, G P Mn ,p pKq, H P Mn ,p pKq, alors
1 2 2 1 2 2

1 1 1 2 2 1 2 2

    
A B
C D
E F
G H
 CE DG CF DH
AE BG AF BH

c) Soient
 p1 p2
  1

A et x 
A B n1 x1 p1
C D n2 x2 p2

une matrice par blocs de Mn1 pKq et un vecteur de Kp


n2 ,p1 p2
1 p2
. On a
    
A
C
B
D
x1
x2
 Cx1 Dx2 .
Ax1 Bx2

Exercice 26. Soient A P M pKq et B P Mm,ppKq deux matrices partionnées en blocs de la


n,m
façon suivante
   
A B
C 12 12 0
,
12 0 C C
où  
C
1 2
.
3 4

Exprimer le produit AB par blocs, puis calculer AB.

Exercice 27. Soient A P M n,n pKq, B P Mm,mpKq et C P Mm,npKq, telles que les matrices
A et B sont inversibles. Montrer que les matrices suivantes sont inversibles et calculer leur inverse
   
A 0 A C
, .
0 B 0 B


CHAPITRE III. LES MATRICES 49

Ÿ 8 Exercices

Exercice 28. Parmi les sous-ensembles de matrices de M pKq suivants, lesquels sont des sous-
n
espaces vectoriels :
a) les matrices symétriques,
b) les matrices diagonales,
c) les matrices inversibles,
d) les matrices non inversibles,
e) les matrices triangulaires,
f) les matrices triangulaires supérieures,
g) les matrices qui commutent avec une matrice donnée A,
h) les matrices A telles que A  A,
2

i) les matrices de trace nulle.


Exercice 29. Donner les dimensions des sous-espaces vectoriels de M pKq suivants
a) le sous-espace vectoriel des matrices à coefficients constants,
n

b) le sous-espace vectoriel des matrices diagonales,


c) le sous-espace vectoriel des matrices symétriques,
d) le sous-espace vectoriel des matrices antisymétriques.
Exercice 30. Trouver des bases de l’espace des lignes et de l’espace des colonnes de la matrice
 
1 2 3
A   4 1 3 .
5 3 8

Quelles sont les dimensions des noyaux de l’application linéaire représentée par A et de celle représentée
par sa transposée. Déterminer des bases de ces noyaux.

Exercice 31. Soit u l’application de R à valeurs dans R définie par


3 3

   
x xy
u y    y  x .
z xz

1. Montrer que u est une application linéaire.


2. Exprimer la matrice de u dans la base suivante de R : 3

$      ,
& 1 0 1 .
B   0 ,  1 ,  1 
% 1 1 0
-
50 CHAPITRE III. LES MATRICES

3. Écrire la matrice de passage de la base B à la base canonique de R .


4. Donner la matrice de u exprimée dans la base canonique.
3

Exercice 32. Mêmes questions avec l’application u définie par


   
x x y

u y  
 y x .
z x z

Exercice 33. Pour chacune des applications de R à valeurs dans R définies par 3 3

       
x 2x  y x x  2y
aq u  y    x 2y  z  , bq u  y    x  2z  ,
z zy z 2y z
       
x xy x xy z
cq u  y    y  z  , dq u  y    x y  z  .
z x z z x y z

1. Montrer que u est une application linéaire.


2. Exprimer la matrice de u dans la base canonique de R .
3. Montrer que l’application
3

4. Déterminer u px, y, zq, pour tout vecteur px, y, zq de R .


linéaire u est inversible.
1 3

Exercice 34. Soit T (resp. T ) l’ensemble des matrices triangulaires supérieures (resp. inférieures)
s i

de M pKq.
1. Montrer que T et T sont des sous-espaces vectoriels de M pKq.
n

2. Montrer que M pKq  T T . Cette somme est-elle directe ?


s i
n

3. Quels sont les dimensions des sous-espaces T et T ?


s i
n
s i

Exercice 35. Montrer que toute matrice triangulaire supérieure est semblable à une matrice tri-
angulaire inférieure.

Exercice 36. Soit u l’endomorphisme de R représenté dans une base B de R par la matrice
2 2

 
rusB  1
1
1
1 .

1. Montrer que u  0.
2. Déterminer le rang, l’image et le noyau de u.
2

3. Montrer qu’il existe une base de R dans laquelle la matrice de u est


2

 
0 2
.
0 0

Exercice 37. Soit A P M pKq.


1. Montrer que
2

A2  trpAqA det pAq12  0.


CHAPITRE III. LES MATRICES 51

2. On suppose que le déterminant de A est non nul. Calculer l’inverse de A.


Exercice 38. Soient A P M pKq et λ, µ P K tels que
n

A2  λA µ1n .

1. Montrer que si µ est non nul, la matrice A est inversible et que


A 1  µ1pA  λ1nq.
2. Montrer que pour tout entier k, la matrice A s’écrit comme une combinaison linéaire des matrices
k

A et 1n .

Exercice 39. Soient E un K-espace vectoriel et u un endomorphisme non nul de E tel que u  2

0.
1. Montrer que Im u € Ker u.
2. Déterminer la dimension du noyau de u et de l’image de u.
3. Montrer qu’il existe une base de R dans laquelle l’endomorphisme u a pour matrice
3

 
0 0 1
0 0 0 .
0 0 0
52 CHAPITRE III. LES MATRICES
CHAPITRE
IV

Déterminants

Sommaire
1 Dénition récursive du déterminant . . . . . . . . . . . . . . . 53
2 Premières propriétés du déterminant . . . . . . . . . . . . . . 55
3 Les formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . 60
4 Formulation explicite du déterminant . . . . . . . . . . . . . . 62
5 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . 64
6 Calcul de l'inverse d'une matrice . . . . . . . . . . . . . . . . . 67
7 Déterminant d'un endomorphisme . . . . . . . . . . . . . . . . 69
8 Annexe : rappels sur les groupes symétriques . . . . . . . . . 70
9 Annexe : déterminants et formes multilinéaires alternées . . 71

Dans tout ce chapitre, K désignera un corps commutatif.

Ÿ 1 Dénition récursive du déterminant


IV.1.1.Notation. Soit A  raji s une matrice de Mn pKq et soient i, j P J1, nK. On
notera Aijq la matrice obtenue en supprimant la i-ème ligne et j -ème colonne de la matrice
A:  
a11  aj1  an1

 ..
.
..
.
..
. 


Aijq   a1i  aji . . . ani

 P Mn1pKq

 .. .. .. 

. . .
a1n  ajn  ann

53
54 CHAPITRE IV. DÉTERMINANTS

IV.1.2.Dénition. Soit A  ra s une matrice de M pKq. On dénit une application


j
i n

det : Mn pKq ÝÑ K

par récurrence sur l'entier n en posant, pour n  1,

det A  a11 ,

et, pour tout n ¡ 1,


¸
n
det A  p1qk 1 k
a1 det A1k
|.

k 1

Le scalaire det A ainsi déni est appelé le déterminant de la matrice A


   1 

a11 . . . an1
.. ..   a.1 . . . an1
..

Le déterminant d'une matrice  . .  est aussi parfois noté  .. . .
a1n . . . ann  a1n . . . ann 

IV.1.3.Exemples. Pour une matrice de M pKq, on a 2

 
 a b   ad  bc.
c d

Pour une matrice de M3 pKq, on a


 1 
 a11 a21 a31  1  a22 a32  2  a12 a32  3  a12 a22 
 a21 a22 a32   a1  a23 a33   a1  a13 a33  a1  a13 a23 
a3 a23 a33
 a11pa22a33  a23a32q  a21pa12a33  a13a32q a31pa12a23  a13a22q
 a11a22a33  a11a23a32  a21a12a33 a21a13a32 a31a12a23  a31a13a22.
Exercice 1. Montrer que le déterminant d’une matrice triangulaire est égal au produit des coeffi-
cients de la diagonale.

IV.1.4.Déterminant d'une famille de vecteurs. Soient E un K-espace vectoriel


de dimension n et B  pe1 , . . . , en q une base de E .
Étant donnée une famille px1 , . . . , xn q de vecteurs de E , on forme la matrice de Mn pKq,
notée
r x1 | x 2 | . . . | xn s B ,
dont la j -ème colonne est constituée des coordonnées du vecteur xj exprimé dans la base
B.
Le scalaire det r x1 | x2 | . . . | xn sB est appelé le déterminant de la famille de vecteurs
par rapport à la base B. On le note det B px1 , . . . , xn q.
CHAPITRE IV. DÉTERMINANTS 55

Ÿ 2 Premières propriétés du déterminant


Soit A  raji s une matrice de Mn pKq. On notera aj la j -ème colonne de la matrice
A. Avec cette notation, on peut écrire la matrice A par colonnes sous la forme
 
A a1 a2 . . . an .

Figure IV.1  Gottfried Wilhelm Leibniz (1646 - 1716)

Gottfried Wilhelm Leibniz est un mathématicien, philosophe, juriste, diplomate


allemand. En mathématiques, l'inuence de Leibniz est considérable, dans le
domaine de l'algébrisation de la géométrie, en calcul diérentiel, calcul in-
nitésimal. Leibniz travaille aussi sur la résolution des systèmes d'équations.
Il introduit la notion de déterminant d'un système d'équation. Ses travaux sur
les déterminants ne sont pas publiés, mais se retrouvent dans une lettre au
mathématicien Guillaume François Antoine de L'Hôpital datée du 28 avril
1693. Dans cette lettre, il écrit la condition de compatibilité d'un système de
trois équations linéaires à deux inconnues sous forme de déterminant. Le terme
de  déterminant ne sera introduit que plus tard, par Carl Friedrich Gauss
en 1801 dans l'ouvrage  Disquisitiones Arithmeticae .
56 CHAPITRE IV. DÉTERMINANTS

IV.1 Proposition. Le déterminant est une application linéaire par rapport à chaque colonne,
i.e., pour toute matrice A  ra s de M pKq, on a, pour tout j P J1, nK,
j

i) si a  b c,
i n
j j j

   
det a1 . . . bj cj . . . an  det a1 . . . bj . . . an
 
det a1 . . . cj . . . an

ii) pout tout scalaire α P K,


   
det a1 . . . α aj . . . an  α det a1 . . . aj . . . an

Preuve . On montre les assertions et i) ii)


par récurrence sur n. Si n  1, les deux
assertions sont immédiates. Si n  2, on vérie que
 1 
 b11 c11 a21   pb11 c11qa22  pb12 c12qa21
b2 c12 a22
 pb11a22  b12a21q pc11a22  c12a21q
 1 2  1 2
  bb11 aa21   cc11 aa12  .
2 2 2 2

Pour tout α P K, on a
 1 
 αa11 a21   pαa11qa22  pαa12qa21
αa2 a22
 αpa11a22  a12 a21q
 1 2
 α  aa11 aa12  .
2 2

On montre de façon analogue la linéarité du déterminant par rapport à la seconde colonne.


i) ii)
 pour toute matrice de Mn1pKq et considérons
Supposons les assertions et vraies
une matrice A  a a . . . a de Mn pKq. Soit j P J1, nK, montrons que det A est
1 2 n

linéaire par rapport à la j -ème colonne.


Par dénition, on a
¸
n
det A  p1qk 1 k
(IV.1)
a1 det A1k
|.
 k 1
Lorsque k est diérent de j , alors la matrice A1k | contient la j -ème colonne de A. Comme
A1k| P M n1 pKq , par hypothèse de récurrence, | dépend linéairement de la j -ème
det A1k
colonne de A. Comme a1 ne dépend pas de la j -ème colonne, on en déduit que ak1 det A1k
k
|
dépend linéairement de la j -ème colonne.
| ne contient pas la j -ème colonne et a1 
Dans le cas où k est égal à j . Alors, la mice A1k k

aj1 dépend linéairement de la j -ème colonne de A. Ainsi, ak1 det A1k | dépend linéairement
de la j -ème colonne de A.
On en conclue que tous les termes de la somme (IV.1) dépendent linéairement de la
j -ème colonne de A, par suite det A dépend linéairement de la j -ème colonne de A. 
CHAPITRE IV. DÉTERMINANTS 57

IV.2 Proposition. Le déterminant d’une matrice dont deux colonnes sont égales est nul.
Preuve . Nous allons montrer ce résultat à partir des deux assertions suivantes
i) u ne matrice qui possède deux colonnes adjacentes égales est de déterminant nul,
ii) l e déterminant change de signe, lorsque l'on échange deux colonnes adjacentes.
De ces deux assertions, nous déduisons la proposition. En eet, si une matrice A
possède deux colonnes quelconques égales. D'après l'assertion , par échange successifs, ii)
on peut faire en sorte que les deux colonnes égales soient adjacentes, quitte à changer le
signe du déterminant de la matrice ainsi obtenue. De l'assertion , on en déduit que le i)
déterminant de A est alors nul.
i) ii)
Reste à montrer les assertions et . On procède par récurrence sur la dimension
de la matrice pour l'assertion . Si n  2, alors i)  
 a a   ac  ac  0.
c c
i)
Supposons l'assertions vraie pour toute matrice de Mn1 pKq et considérons une matrice
A  raji s de Mn pKq ayant deux colonnes adjacentes égales, i.e., Aj  Aj 1 pour un
j P J1, nK. Par dénition, on a
¸
n
det A  p1qk 1 k
a1 det A1k
|.
 k 1

| possède deux colonnes identiques.


Or, si k est diérent de j et de j 1, alors la matrice A1k
Par hypothèse de récurrence, on a donc det A1k |  0. Ainsi,
det A  p1qj 1 aj1 det A1j
| p1qj 2 j 1
a1 det A1
j 1 p q.
Or Aj  Aj 1 , donc aj1  aj1 1 et les matrice A1j
| et A1
pj 1q sont égales. det A  0.
 1 D'où 
ii)
Pour montrer l'assertion , considérons une matrice A  a a2 . . . an de
i)
Mn pKq. D'après , on a pour tout j P J1, nK,
 
det a1 . . . aj aj 1
aj aj 1
. . . an  0.
Par linéarité, on en déduit que
   
det a1 . . . aj aj . . . an det a1 . . . aj aj 1
. . . an
   
det a1 . . . aj 1
aj . . . an det a1 . . . aj 1
aj 1
. . . an  0.
i)
Toujours, d'après l'assertion , on en déduit que
   
det a1 . . . aj aj 1
. . . an   det a1 . . . aj 1
aj . . . an ,
ce qui montre ii). 
58 CHAPITRE IV. DÉTERMINANTS

IV.3 Proposition. Le déterminant d’une matrice change de signe, lorsque l’on échange
deux colonnes.

Preuve . Ce résultat est une conséquence


 immédiate du résultat précédent. Considérons
une matrice A  a a . . . a de Mn pKq. Montrons que le déterminant de la
1 2 n

matrice A change de signe lorsque l'on échange les j -ème colonne et k -ème colonne.
D'après la proposition IV.2, on a
 
det a1 . . . aj ak . . . aj ak . . . an  0.
Par linéarité, on en déduit que
   
det a1 . . . aj . . . aj . . . an det a1 . . . aj . . . ak . . . an
   
det a1 . . . ak . . . aj . . . an det a1 . . . ak . . . ak . . . an  0.
D'où le résultat attendu :
   
det a1 . . . aj . . . ak . . . an   det a1 . . . ak . . . aj . . . an .

IV.4 Théorème. Soit A   a 1



a2 . . . an une matrice de Mn pKq. La famille de
vecteurs pa1 , a2 , . . . , an q forme une base de Kn si, et seulement si, det A est non nul.

Preuve . Supposons que la famille pa1 , a2 , . . . , an q soit liée et montrons que le déterminant
det A est nul. Par exemple, supposons que la première colonne soit combinaison linéaire
des autres colonnes : n ¸
a1  αk ak .

k 2

Alors,

n

det A  det αk ak a2 . . . an

k 2
¸n
 
 αk det ak a2 . . . an

k 2
 
Or pour tout k P J2, nK, la matrice ak a2 . . . an possède deux colonnes égales. De
la proposition IV.2, on déduit que det A  0.
Inversement, supposons que la famille B  pa1 , a2 , . . . , an q forme une base de l'espace
Kn , montrons par l'absurde que le déterminant de A est non nul.
CHAPITRE IV. DÉTERMINANTS 59

Supposons que det A  0. Considérons une famille quelconque de vecteurs px1 , . . . , xn q


de Kn . Pour tout j P J1, nK, le vecteur xj se décompose de façon unique dans la base B
en une combinaison linéaire de colonnes de A :
¸
n
xj  αjk ak .

k 1

On a
 ¸ ¸ ¸ 
  n n n
det x 1 x2 . . . xn  det α1k ak 1
α2k ak . . .
1
αnk ak
2 2 n n

k 1 1 k 1 2 k 1 n

¸n ¸
n ¸n
 
 ... α1k α2k . . . αnk det ak ak . . .
1 2 n 1 2
akn
  kn 1
k1 1 k2 1

Si un terme de la somme possède deux indices ki égaux, alors


 
det ak1 ak2 . . . akn 0
d'après la proposition
 IV.2. Si un terme ne possède que des indices diérents, alors le déter-
minant det ak1 ak2 . . . akn est égal, au signe près, au déterminant det A, supposé
nul. Ainsi, pour toute famille de vecteur de Kn , on a
 
det x 1 x2 . . . xn  0.
Ce qui est absurde, car si C an  pc1 , . . . , cn q désigne la base canonique de Kn , on a
1 0  0

   ... .. 
 det  0.. 1 . 
  1.
0 
det c1 . . . cn ... ...
.
0  0 1
Le déterminant det A est donc non nul. 

Figure IV.2  Gabriel Cramer (1704 - 1752)


60 CHAPITRE IV. DÉTERMINANTS

Gabriel Cramer est un mathématicien suisse, il travaille notamment sur les


courbes algébriques. Il publie en 1750,  Introduction à l'analyse des lignes
courbes algébriques . C'est la première publication en Europe sur les déter-
minants. Cramer donne un formulation basée sur les déterminants pour la
solution au problème de la construction de la conique passant par cinq points
donnés, problème qu'il réduit à un système d'équations linéaires.

Ÿ 3 Les formules de Cramer


 
Soit A  a1 a2 . . . an une matrice de Mn pKq. Si son déterminant det A est
non nul, nous allons montrer qu'il existe une formule explicite basée sur le déterminant
de A pour les solutions de l'équation
Ax  b.
Posons    
x1 b1

x .. 
 et

 .. 

. .
xn bn
Le produit Ax est une combinaison linéaire de colonnes de A, à coecients les coecients
du vecteur x :
Ax  x1 a1 x2 a2 . . . xn an .
Ainsi, l'équation Ax  B s'écrit sous la forme
     n  
a11 a21 a1 b1

x1  .. 
 
x2  .. 
   
xn  ...    .. 

. . ... .
a1n a2n ann bn
Nous souhaitons déterminer les inconnues x1 , . . . , xn . Soit xi l'une d'entre elles. Dans
l'équation précédente, on soustrait le vecteur b au i-ème vecteur colonne, on obtient
       n
a11 a21 ai1  b1 a1

x1  .. 
 
x2  .. 
 
xi  .. 
  
xn  ...   0.
. . ... . ...
a1n a2n ain  bn ann
Par suite, les colonnes de la matrice suivante sont linéairement dépendantes :
 
a11    pxiai1  b1q    an1

 .. 

.
a1n    pxiain  bnq    ann
Du théorème IV.4, on déduit alors que le déterminant de cette matrice est nul, soit
   
a11  ai1  an1 a11  b1  an1

xi det  .. 
  det 
 .. 
  0.
. .
a1n  ain  ann a1n  bn  ann
CHAPITRE IV. DÉTERMINANTS 61

La première matrice est la matrice A, la seconde est la matrice A dans laquelle on a


remplacé la i-ème colonne par le vecteur colonne b. On a ainsi montré

IV.5 Théorème (Formules de Cramer). Si det A est non nul, alors l’équation
   
x1 b1

A ..

  .. 

. .
xn bn

admet pour solutions


 
a11  b1  an1
xi  det1 A 
det  .. 
,
.
a1n  bn  ann

pour tout i P J1, nK.

Cette formule n'est pas toujours très utilisable en pratique, les méthodes de résolu-
tion de systèmes linéaires par élimination gaussienne sont plus ecaces. Les formules de
Cramer gardent un intérêt théorique qui sera exploité plus loin.
62 CHAPITRE IV. DÉTERMINANTS

Figure IV.3   Introduction à l'analyse des lignes courbes algébriques  de Gabriel


Cramer 1750.

Ÿ 4 Formulation explicite du déterminant


Nous avons vu dans le paragraphe 1, une dénition récursive du déterminant. Dans
cette section, nous établissons une formulation explicite qui sera utile dans la suite pour
établir certaines propriétés des déterminants. Nous renvoyons le lecteur à une annexe de
ce chapitre, section 8, pour un rappel sur les notions du groupe symétrique utilisées pour
établir cette formulation.
 
Considérons le cas n  2. Soit A  une matrice de M2 pKq. La matrice A
a11 a21
 
1 2
a 2 a 2
s'exprime par colonne sous la forme A  a1 a2 . Notons C an  pc1 , c2 q la base canon-
CHAPITRE IV. DÉTERMINANTS 63

ique de K2 . Les colonnes a1 et a2 qui s'identient à des vecteurs de K2 se décomposent
dans la base canonique en

a1  a11c1 a12 c2


a2  a21c1 a22 c2

On a
 1 
det A  det a2
 1
a

 det a1c1 a12c2  a21c1 a22c2
 pa11a22  a12a21q det c1 c2
 
Or det c1 c2  1, on retrouve ainsi la formule donnée précédemment : det A 
a11 a22  a12 a21 . Ce qui s'écrit aussi sous la forme

det A  sgnpidqa1idp1q a2idp2q sgnpτ qa1τ p1q a2τ p2q ,

avec τ  p1, 2q. Plus généralement, montrons la formulation suivante

IV.6 Théorème (Formule de Leibniz). Soit A  ra s une matrice de M pKq. On j


i n
a ¸
det A  sgnpσ qa1σp1q a2σp2q . . . anσpnq .
σ Sn P

 
Preuve . Soit A  a1 a2 . . . an une matrice de Mn pKq. Considérons la base canon-
ique C an  pc1 , . . . , cn q de Kn . Tout vecteur colonne aj de A se décompose dans la base
canonique en
¸
n
a j
 ajk ck .
k 1 
On a
 1 2 
det A  det  a . . . an
 a¸n ¸
n ¸
n

 det a1k ck 1
a2k ck . . .
1 ank ck 2 2 n n
k 1 1 k 1 k 12 n

¸n ¸
n ¸n
 
 ... a1k a2k . . . ank det ck ck . . .
1 2 n 1 2 ckn
 
k1 1 k2 1 kn 1
Si un terme de la somme précédente possède deux indices ki égaux, alors
 
det ck1 ck2 . . . ckn  0.
64 CHAPITRE IV. DÉTERMINANTS

Sinon, un terme ne possède que des indices diérents k1 , . . . , kn de l'intervalle J1, nK. La
donnée de ces n indices correspond à la donnée d'une permutation de Sn , telle que
σ piq  ki , pour tout i P J1, nK.
On en déduit que
¸  
det A  a1σp1q a2σp2q . . . anσpnq det cσp1q cσp2q . . . cσpnq
P
σ Sn

Or, d'après la proposition IV.17, toute permutation de Sn se décompose en un produit de


transpositions. Ainsi, d'après la proposition IV.3, on a
   
det cσp1q cσp2q . . . cσpnq  sgnpσqdet c1 c2 . . . cn .
 
Comme det c1 c2 . . . cn  1, on en déduit que
¸
det A  sgnpσ qa1σp1q a2σp2q . . . anσpnq .
P
σ Sn

Ÿ 5 Calcul des déterminants

IV.7 Proposition. Pour toute matrice A de M pKq, on a n

det pAJ q  det A.

IV.5.1.Déterminant de la transposée d'une matrice.


Preuve . Soit A  raji s une matrice de Mn pKq. On a montré que
¸
det A  sgnpσ qa1σp1q a2σp2q . . . anσpnq .
P
σ Sn

Pour toute permutation σ de Sn , le corps K étant commutatif, on a, pour toute permu-


tation τ de Sn ,
τ p1q τ p2q τ pnq
a1σp1q a2σp2q . . . anσpnq  aστ p1q aστ p2q . . . aστ pnq .
En particulier, lorsque τ  σ 1 , on a

a1σp1q a2σp2q . . . anσpnq  a1σ p1q aσ2  p2q . . . aσn pnq.


1 1 1

Par ailleurs, sgnpσ q  sgnpσ 1 q, donc

sgnpσ qa1σp1q a2σp2q . . . anσpnq  sgnpσ1qa1σ p1q aσ2  p2q . . . anσ pnq.
1 1 1
CHAPITRE IV. DÉTERMINANTS 65

On a ainsi,
¸
det A  sgnpσ qa1σp1q a2σp2q . . . anσpnq
P
¸
σ Sn
σ 1 1p q aσ1 p2q . . . aσ1 pnq
 sgnpσ 1 qa1 2 n
P
¸
σ Sn
σ 1 1p q aσ1 p2q . . . aσ1 pnq
 sgnpσ 1 qa1 2 n
σ 1 S n
P

Soit encore ¸ p q aσp2q . . . aσpnq .


det A  sgnpσ qa1
σ 1
2 n
P
σ Sn

Cette dernière expression correspond au déterminant de la transposée AJ , car si AJ 


pbji q, on a bji  aij et
¸
det AJ  sgnpσ qb1σp1q b2σp2q . . . bnσpnq
P
¸
σ Sn
p q aσp2q . . . aσpnq .
 sgnpσ qa1
σ 1
2 n
P
σ Sn

Comme conséquence de la proposition précédente, on a

IV.8 Proposition.
i) le déterminant d’une matrice est une application linéaire par rapport à chaque ligne,
ii) le déterminant d’une matrice dont deux lignes sont égales est nul,
iii) le déterminant d’une matrice change de signe, lorsque l’on échange deux lignes,
iv) le déterminant d’une matrice est non nul si, et seulement si, les vecteurs lignes de la matrice
sont linéairement indépendants.

IV.5.2.Déterminant d'un produit. La propriété suivante exprime que le détermi-


nant est compatible au produit de matrices.

IV.9 Théorème. Pour toutes matrices A et B de M pKq, on a n

det pABq  det pAqdet pBq.


66 CHAPITRE IV. DÉTERMINANTS

Preuve . Soit A  raji s et B  rbji s deux matrices de Mn pKq. Notons


 
C  AB  pcji q  c1 c2 . . . cn

le produit de A et B. Par dénition du produit matriciel, on a


¸
n
cji  aki bjk .

k 1

Par suite,
¸
n
cj  bjk ak .
k 1 
Ainsi
 1 2 
det pABq  det  c . . . cn
 c¸n ¸
n ¸
n

 det  b1k1 ak1  ... b2k2 ak2 bnkn akn

k 1 1 k 1 2k 1 n

¸ ¸ ¸ 1 2
n n n
 
 ... bk bk . . . bnk det ak ak
1 2 n
1 2
. . . akn
 
k1 1 k2 1 
kn 1

Si un des terme de la somme précédente possède deux indices ki égaux, alors


 
det ak1 ak2 . . . akn  0.
Ne reste que les termes avec des indices k1 , k2 , . . . , kn de J1, nK tous diérents entre eux.
Cette somme peut donc s'écrire
¸  p q aσp2q . . . aσpnq

det pABq  b1σp1q b2σp2q . . . bnσpnq det σ 1
a   (IV.2)
P
σ Sn

Or  p q aσp2q . . . aσpnq
  
det σ 1
a    sgnpσqdet a1 a2 . . . an .
On déduit donc de l'équation (IV.2) que
¸  
det pABq  sgnpσ qb1σp1q b2σp2q . . . bnσpnq det a1 a2 . . . an
P
σ Sn

D'où det pABq  det pAqdet pBq. 


On en déduit la caractérisation importante suivante des matrices inversibles

IV.10 Proposition. Une matrice A de M pKq est inversible si, et seulement si, det pAq
n
est non nul. On a alors
det pA1 q 
1
det pAq
.
CHAPITRE IV. DÉTERMINANTS 67

Preuve . Soit A une matrice inversible de Mn pKq. Il existe alors une matrice A1 de
Mn pKq telle que AA1  1n . D'après le théorème IV.9, on en déduit que

det pAqdet pA1 q  det pAA1 q  det p1n q  1.

D'où det pAq est non nul et


det pA1 q 
1
det pAq
.
 
Inversement, si A  a1 a2 . . . an est une matrice de Mn pKq de déterminant non
nul. D'après le théorème IV.4, la famille B  pa1 , a2 , . . . , an q forme une base de Kn . La
matrice A est ainsi la matrice de passage de la base canonique de Kn à la base B ; elle est
donc inversible. 

Ÿ 6 Calcul de l'inverse d'une matrice


IV.6.1.Matrice des cofacteurs. Soit A  ra s une matrice de M pKq. On appelle
j
i n
cofacteur du coecient aji le scalaire

cof paji q  p1qi j det pAijq q,

où Aijq est la matrice obtenue en supprimant la i-ème ligne et la j -ème colonne de A.


On appelle comatrice de A, la matrice notée CompAq  pcji q, dénie par

cji  cof paji q.

IV.11 Proposition. Pour tout i P J1, nK, on a la relation du développement du déter-


minant selon la i-ème ligne
¸
n
det pAq  aji cof paji q. (IV.3)

j 1

De la même façon, pour tout j P J1, nK, on a le développement du déterminant selon la j -ème
colonne
¸
n
det pAq  aji cof paji q. (IV.4)

i 1

Preuve . Exercice 

De la proposition précédente, on déduit une formule utile pour le calcul de l'inverse


d'une matrice.
68 CHAPITRE IV. DÉTERMINANTS

IV.12 Théorème. Pour toute matrice A de M pKq, on a : n

ACompAqJ  CompAqJA  det pAq1n.


Si la matrice A est inversible, on a la formule d’inversion

A 1  det1pAq CompAqJ.

Cette formule d'inversion est aussi connue sous le nom de règle de Cramer.
Preuve . Soient A  raji s une matrice de Mn pKq et CompAq sa matrice des cofacteurs.
Exprimons le produit
¸n
pACompAqJqji  aki cof pakj q.
k1

D'après la relation (IV.3), on a, pour tout i P J1, nK,


pACompAqJqi  det pAq. i

Par ailleurs, si i  j , alors pACompAqJ q j


i  0.
Par suite, on a
ACompAqJ
 det pAq1n.
De la même façon, on montre que CompAqJ A  det pAq1n . 
Exercice 2. Calculer l’inverse des matrices inversibles suivantes  
      0 1 1 1 1

0 1 1 1  
1   
1 0 1 1 0 1 1 0 1 1 1

A 1  
B 1 1  C  
D 1 
1 0 1
1 1 1 1 1 0 1  
1 0 1 1 

0 1 1 0 0 1 1 1 1 0 1
1 1 1 0
1 1 1 1 0
 
    
0 1 2 3 4


1 2 3
 
1 2 3
 

1 2 3 4 0 

E 2 3 1 F 3 1 2 G 2 3 4 0 1 
3 2 1 2 3 1  3 4 0 1 2 
4 0 1 2 3
Exercice 3. Trouver la matrice X, telle que

X  AX B, avec
 
0 1 0 1 2
A 0 0 1  et 
B 2 1 .
0 0 0 3 3

Exercice 4. Soit A une matrice inversible symétrique de M pKq. Montrer que la matrice A
n
1

est symétrique.
CHAPITRE IV. DÉTERMINANTS 69

Ÿ 7 Déterminant d'un endomorphisme

IV.13 Proposition. Deux matrices semblables ont le même déterminant.

Preuve . Soient A et B deux matrices semblables de Mn pKq. Il existe donc une matrice
inversible P de Mn pKq telle que
A  PBP1 .

Du théorème IV.9, on déduit que

det pAq  det pPBP1 q  det pPqdet pBqdet pP1 q.

D'après la proposition IV.10, on a det pPqdet pP1 q  1. Ainsi, det A  det B. 

Deux matrices semblables, représentent le même endomorphisme exprimé dans des


bases diérentes. La proposition IV.13 permet de dénir le déterminant d'un endomor-
phisme de la façon suivante.

Dénition IV.14. Soit E un K-espace vecetoriel de dimension finie n et soit u un endomor-


r sB qui représente u dans
phisme de E . On appelle déterminant de u le déterminant de la matrice u
une base quelconque B de E :
det u  det rusB .

On peut compléter la caractérisation des applications linéaires inversibles en dimension


nie donnée dans la proposition II.10 :

IV.15 Proposition. Soit u : E ÝÑ E1 une application linéaire entre deux K-espaces


vectoriel de même dimension finie. Les assertions suivantes sont équivalentes :
i) det u est non nul,
ii) u est injective,
iii) u est surjective,
iv) u est bijective
v) Ker u  t0u,
vi) Im u  E1,
vii) rang u  dim E1.
70 CHAPITRE IV. DÉTERMINANTS

Ÿ 8 Annexe : rappels sur les groupes symétriques


Dans le paragraphe suivant, nous donnons une formulation explicite du déterminant
d'une matrice en terme de permutations des colonnes de la matrice. Nous rappelons ici
quelques notions autour des groupes symétriques.

IV.8.1.Dénitions. Soit n un entier naturel non nul. On note Sn l'ensemble des


permutations de l'ensemble J1, nK, i.e., des bijections de l'ensemble J1, nK dans lui-même.
Pour n  1, on a S1  tidu. Dans la suite de ce paragraphe section, nous supposerons
n ¡ 1.

IV.16 Proposition. L’ensemble S , muni de la composition des applications, forme un


n
groupe de cardinal n!.

Le groupe Sn est appelé le groupe symétrique d'indice n. La permutation composée de


deux permutation σ  σ 1 est appelée le produit des permutations et notée σσ 1 .
Soient i et j deux éléments distincts de J1, nK. La permutation τ de Sn dénie par
τ piq  j, τ pj q  i, τ pk q  k, si k
R ti, j u
est appelée transposition des éléments i et j et est notée pi, j q.

IV.17 Proposition. Le groupe symétrique Sn est engendré par les transpositions, i.e., toute
permutation de Sn se décompose en un produit de transpositions.

Preuve . On procède par récurrence. Pour n  2, le groupe S2 est composé de l'identité


et de la permutation p1, 2q ; l'énoncé est donc clair dans ce cas.
Supposons que toute permutation de Sn1 se décompose en un produit de transposi-
tions. Soit σ P Sn . Si σ pnq  n, alors σ permute J1, n  1K. Par hypothèse de récurrence,
σ s'écrit comme un produit de transpositions de J1, n  1K.
Si σ pnq  i avec i  n, la permutation σ 1  σ  pn, iq vérie σ 1 pnq  n. D'après la
remarque précédente, σ 1 s'écrit comme un produit de transpositions, on en déduit qu'il
en est de même pour σ  pn, iq  σ 1 . 
Pour tout i P J1, nK, notons σi la transposition pi, i 1q. On notera que, pour tout
i j dans J1, nK, on a

pi, j q  σiσi 1 . . . σj2σj1σj2 . . . σi 1σi


 σj1σj2 . . . σi 1σiσi 1 . . . σj2σj1.
En particulier, on en déduit que le groupe Sn est engendré par les transpositions σ1 , . . . , σn1 .
CHAPITRE IV. DÉTERMINANTS 71

IV.8.2.Signature. Soit σ une permutation de Sn . On appelle inversion de σ , un


couple pi, j q d'éléments de J1, nK tel que i j et σ piq ¡ σ pj q. Notons I pσ q le nombre
d'inversions de σ .
On appelle signature de la permutation σ , le réel

sgnpσ q  p1qI pσq .

On peut montrer que la signature est donnée par la relation suivante


¹ σ pj q  σ piq
sgnpσ q 
ji
.
1¤i j ¤n

Une permutation est dite paire (resp. impaire ), si elle est de signature 1 (resp. 1).

IV.18 Proposition. L’application signature sgn est un morphisme de groupes de S n dans


le groupe multiplicatif t1, 1u. En particulier, pour toutes permutations σ, τ , on a
sgnpστ q  sgnpσ qsgnpτ q.

Le noyau de ce morphisme est formé des permutations paires et est appelé groupe
alterné d'indice n . On le note An .

Ÿ 9 Annexe : déterminants et formes multilinéaires


alternées
IV.9.1.Applications multilinéaires alternées. Soient E et F deux K-espaces vec-
toriels et p un entier naturel non nul. Une application p-linéaire de E dans F est une
application
ϕ : Ep ÝÑ F
telle que, pour toute famille px1 , . . . , xp q de vecteurs de E et tout i P J1, nK, l'application

E ÝÑ F
x ÞÝÑ ϕpx1 , . . . , xi1 , x, xi 1 , . . . , xp q

est linéaire.
Une application p-linéaire de E à valeurs dans K est appelée une forme p-linéaire .
Une application p-linéaire ϕ de E dans F est dite alternée si, pour toute famille
px1, . . . , xpq de vecteurs de E et pour tout i  j , on a :
xi  xj ñ ϕpx1, . . . , xpq  0.
72 CHAPITRE IV. DÉTERMINANTS

IV.19 Proposition. Soient E un K-espace vectoriel de dimension n et F un K-espace


vectoriel. Soit ϕ une application n-linéaire alternée de E dans F . Pour toute permutation σ P Sn
p q
et toute famille de vecteurs x1 , . . . , xn de E , on a

ϕpxσp1q , xσp2q , . . . , xσpnq q  sgnpσ qϕpx1 , x2 , . . . , xn q.

Preuve . Exercice. 

IV.20 Théorème. Soient E un K-espace vectoriel de dimension n et B  pe , . . . , e q 1 n


une base de E . Soit ϕ une forme n-linéaire alternée sur E . Alors, pour toute famille x1 , . . . , xn p q
de vecteurs de E , on a

ϕpx1 , . . . , xn q  det r x1 | . . . | xn sB ϕpe1 , . . . , en q,

r | | s r | | s
où det x1 . . . xn B est le déterminant de la matrice x1 . . . xn B dont les coefficients de
la j -ème colonne sont les coordonnées du vecteur xj exprimé dans la base B .

Preuve . Pour tout i P J1, nK, considérons la décomposition du vecteur xi dans la base B :
¸
n
xi  aik ek .

k 1

On a  
a11 . . . an1
r x1 | . . . | xn sB   ..
.
..
.

.
a1n . . . ann
L'application ϕ étant n-linéaire, on a
¸
n ¸
n ¸
n
ϕpx1 , . . . , xn q  ... a1k1 a2k2 . . . ankn ϕpek1 , ek2 , . . . , ekn q.

k1 1 k2 1 
kn 1

Si un terme de cette somme possède deux indices ki égaux, alors le scalaire ϕpxk1 , xk2 , . . . , xkn q
est nul. Sinon, un terme ne possède que des indices diérents k1 , . . . , kn de l'intervalle
J1, nK. La donnée de ces n indices correspond à la donnée d'une permutation de Sn , telle
que
σ piq  ki , pour tout i P J1, nK.
On en déduit que
¸
ϕpx1 , . . . , xn q  a1σp1q a2σp2q . . . anσpnq ϕpeσp1q , eσp2q , . . . , eσpnq q.
P
σ Sn
CHAPITRE IV. DÉTERMINANTS 73

D'après la proposition précédente, on en déduit que


¸
ϕpx1 , . . . , xn q  sgnpσ q a1σp1q a2σp2q . . . anσpnq ϕpe1 , e2 , . . . , en q,
P
σ Sn

D'où la formule à établir :

ϕpx1 , . . . , xn q  det r x1 | . . . | xn sB ϕpe1 , . . . , en q,

Une conséquence immédiate du théorème précédent est

IV.21 Proposition. Soient E un K-espace vectoriel de dimension n et B  pe , . . . , e q 1 n


une base de E . Il existe une unique forme n-linéaire alternée ϕ0 sur E telle que

ϕ0 pe1 , . . . , en q  1.

De plus, toute forme n-linéaire alternée sur E est proportionnelle à ϕ0 .

Preuve . Si on pose, pour toute famille px1 , . . . , xn q de vecteurs de E :

ϕ0 px1 , . . . , xn q  det r x1 | . . . | xn sB . (IV.5)

Ainsi dénie, on déduit des propriétés de l'application det que ϕ0 est une forme n-linéaire
alternée.
D'après le théorème précédent, pour toute forme n-linéaire ϕ sur E , on a

ϕ  ϕpe1 , . . . , en qϕ0 .

Il existe ainsi une unique forme n-linéaire ϕ sur E vériant ϕpe1 , . . . , en q  1, c'est la
forme ϕ0 dénie par (IV.5). 

IV.9.2.Remarque. On aurait pu dénir le déterminant d'une matrice en utilisant le


point de vue des formes multiliéaires alternées.
D'après la proposition précédente, il existe une unique forme n-linéaire alternée sur Kn
telle que ϕ0 pc1 , . . . , cn q  1, où pc1 , . . ., cn q est la base canonique de Kn . Le déterminant
d'une matrice A  a1 a2 . . . an de Mn pKq est alors donné par

det A  ϕ0 pa1 , a2 , . . . , an q.

Vous aimerez peut-être aussi