0% ont trouvé ce document utile (0 vote)
31 vues58 pages

Notes Math2alg

Transféré par

yakawakawsbihina
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
31 vues58 pages

Notes Math2alg

Transféré par

yakawakawsbihina
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Math II Algèbre

– Algèbre Linéaire et Polynôme –

Kenji IOHARA
2
Contents

1 Qu’est-ce que l’algèbre linéaire ?(17/09) 5


1.0.1 L’espace Rn . . . . . . . . . . . . . . . . . . . . . . . . 5
1.0.2 Additions et multiplications externe sur Rn . . . . . . 5
1.0.3 Applications linéaires de Rm vers Rn . . . . . . . . . . 6

2 Espaces vectoriels 7
2.1 Espace vectoriel (24/09) . . . . . . . . . . . . . . . . . . . . . 7
2.1.1 Espace vectoriel . . . . . . . . . . . . . . . . . . . . . 7
2.1.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . 8
2.1.3 Opérations sur les sous-espaces vectoriels∗ . . . . . . . 9
2.1.4 Système générateurs . . . . . . . . . . . . . . . . . . . 10
2.2 Base (01/10) . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.1 Système libre et base . . . . . . . . . . . . . . . . . . . 11
2.2.2 Le cardinal des bases . . . . . . . . . . . . . . . . . . . 13
2.3 Dimension (08/10) . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.1 Existence des bases . . . . . . . . . . . . . . . . . . . . 15
2.3.2 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.3 Une formule de Grassmann . . . . . . . . . . . . . . . 16
2.3.4 Somme directe∗ . . . . . . . . . . . . . . . . . . . . . . 18

3 Applications linéaires 21
3.1 Applications linéaires I (15/10) . . . . . . . . . . . . . . . . . 21
3.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.3 Applications linéaires et bases . . . . . . . . . . . . . . 23
3.1.4 Opérations sur les applications linéaires∗ . . . . . . . . 24
3.2 Applications linéaires II (22/10) . . . . . . . . . . . . . . . . . 25
3.2.1 Injectivité et surjectivité . . . . . . . . . . . . . . . . . 25
3.2.2 La formule du rang . . . . . . . . . . . . . . . . . . . . 26
3.2.3 Premiers pas avec les matrices . . . . . . . . . . . . . 27
3.2.4 Structure d’espace vectoriel sur Mm,n (K) . . . . . . . 27

3
4 CONTENTS

4 Matrices 29
4.1 Matrices I : aspect théorique (29/10) . . . . . . . . . . . . . . 29
4.1.1 Produit de matrices . . . . . . . . . . . . . . . . . . . 29
4.1.2 Matrices inversibles . . . . . . . . . . . . . . . . . . . 30
4.1.3 Changements de bases . . . . . . . . . . . . . . . . . . 31
4.1.4 Transposée d’une matrice∗ . . . . . . . . . . . . . . . . 32
4.2 Matrices II : aspect pratique (05/11) . . . . . . . . . . . . . . 32
4.2.1 Élimination de Gauss . . . . . . . . . . . . . . . . . . 33
4.2.2 Cas général . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2.3 Interprétation matricielle . . . . . . . . . . . . . . . . 36
4.2.4 Le rang d’une matrice . . . . . . . . . . . . . . . . . . 37
4.3 Déterminant I : aspect théorique (19/11) . . . . . . . . . . . . 38
4.3.1 Rappels sur les groupes symétriques . . . . . . . . . . 38
4.3.2 Définition et quelques propriétés . . . . . . . . . . . . 39
4.3.3 Interprétation géométrique∗ . . . . . . . . . . . . . . . 42
4.4 Déterminant II : aspect pratique (03/12) . . . . . . . . . . . . 42
4.4.1 Cas simple . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4.2 Développement en cofacteurs . . . . . . . . . . . . . . 44
4.4.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 45

5 Polynômes et Fractions rationelles 49


5.1 Polynôme (10/12) . . . . . . . . . . . . . . . . . . . . . . . . 49
5.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.1.2 Division euclidienne . . . . . . . . . . . . . . . . . . . 50
5.2 Fraction rationnelle (17/12) . . . . . . . . . . . . . . . . . . . 52
5.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2.2 Décomposition en éléments simples . . . . . . . . . . . 53

A Appendices 55
A.1 Lemme de Zorn . . . . . . . . . . . . . . . . . . . . . . . . . . 55
A.1.1 L’énoncé . . . . . . . . . . . . . . . . . . . . . . . . . . 55
A.1.2 Existence d’une base . . . . . . . . . . . . . . . . . . . 55
A.2 Espace dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
A.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . 56
A.2.2 Transposée d’une application linéaire . . . . . . . . . . 57
A.2.3 Injectivité et surjectivité . . . . . . . . . . . . . . . . . 58
A.2.4 Bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
Chapter 1

Qu’est-ce que l’algèbre


linéaire ?(17/09)

Le but de ce premier cours est de montrer de la façon informelle ce que nous


voulons faire dans le cours

1.0.1 L’espace Rn
Pour un entier positif n ∈ N, Rn désigne l’ensemble des n-uplets de réels,
c’est-à-dire,

Rn := {(x1 , · · · , xn )|xi ∈ R (i = 1, · · · , n)}.

En particulier, on a R1 = R. Donner quelques exemples, n = 1, 2, 3.

1.0.2 Additions et multiplications externe sur Rn


Sur Rn , on peut considérer une opération naturelle (dite somme vectoriel ou
loi interne) et une multiplication externe (dite multiplication par un scalaire
ou composition externe) données comme suit :

1. Pour e = (x1 , · · · , xn ) ∈ Rn et f = (y1 , · · · , yn ) ∈ Rn , la somme de e


et f est l’élément (x1 + y1 , x2 + y2 , · · · , xn + yn ) de Rn , noté par e + f .

2. Pour e = (x1 , · · · , xn ) ∈ Rn et λ ∈ R, le produit externe de e par λ


est l’élément (λx1 , · · · , λxn ), noté par λe.

Proposition 1.0.1. (Rn , +) est un groupe abelien.

Preuve. À montrer en cours. (L’élément neutre est (0, · · · , 0), noté simple-
ment par 0, et le symétrique de e = (x1 , · · · , x2 ) étant −e = (−x1 , · · · , −xn ).)

Voici d’autres propriétés :

5
6 CHAPTER 1. QU’EST-CE QUE L’ALGÈBRE LINÉAIRE ?(17/09)

1. Pour λ, µ ∈ R et e ∈ Rn , on a

(λ + µ)e = λe + µe.

2. Pour λ ∈ R et e, f ∈ Rn , on a

λ(e + f ) = λe + λf .

3. Pour λ, µ ∈ R et e ∈ Rn , on a

λ(µe) = (λµ)e.

4. Pour e ∈ Rn , on a
1e = e.

Toutes les propriétés discutées ci-dessus sont les bases de ce qu’on appelle
espace vectoriel introduit prochainement.
Convention de vocabulaire : Les éléments de Rn sont dits vecteurs,
et le mot scalaire signifie λ ∈ R.
Convention de notation : On écrit e1 + · · · + ek au lieu de (· · · ((e1 +
e2 ) + e3 ) + · · · ) + ek , car on peut déplacer les parenthèses à volonté grâce à
l’associativité.

1.0.3 Applications linéaires de Rm vers Rn


Etant donné deux groupes G et H, un morphisme f de G dans H est une
application f : G −→ H telle que f (xy) = f (x)f (y), pour tous x, y ∈ G.
Maintenant, pour comparer Rm et Rn , quel type d’application faut-il
considérer ? Comme il y a deux opérations définies, il faut prendre ces deux
opérations en compte. Voici ce qu’il faut :

Définition 1.0.1. Une application f de Rm vers Rn est dite application


linéaire lorsqu’elle satisfait

1. pour tous e, f ∈ Rm , u(e + f ) = u(e) + u(f ), et

2. pour tout λ ∈ R et tout e ∈ Rm , u(λe) = λu(e).

1. Donner quelques exemples d’applications (non)linéaires.

2. Parler de l’image réciproque d’un point et le relier avec la notion de


système d’équations linéaires.
Chapter 2

Espaces vectoriels

2.1 Espace vectoriel (24/09)


Ici, on va considérer une généralisation de l’espace Rn . On va donner
plusieurs exemples et quelques propriétés générales qui seront utiles. Dans
cette section, on supposera que K est un corps commutatif, e.g., K = Q, R, C,
etc.

2.1.1 Espace vectoriel


Ici, on généralise Rn (n ∈ N).

Définition 2.1.1. Un ensemble non-vide E est dit un espace vectoriel sur


le corps K (ou un K-espace vectoriel) lorsque E est muni de deux opérations
+ et · satisfaisant

1. (E, +) est un groupe abelien (l’élément neutre est noté 0),

2. pour tout λ ∈ K et tous u, v ∈ E, λ · (u + v) = λ · u + λ · v,

3. pour tous λ, µ ∈ K et tout u ∈ E, (λ + µ) · u = λ · u + µ · u,

4. pour tous λ, µ ∈ K et tout u ∈ E, λ · (µ · u) = (λµ) · u, et

5. 1 · u = u, pour tout u ∈ E.

Términologies :

• Un élément de E est appelé vecteur.

• Un élément de K est appelé scalaire.

• L’opération + est dite la loi de composition interne ou la somme


vectorielle.

7
8 CHAPTER 2. ESPACES VECTORIELS

• L’opération · est dite la loi de composition externe ou la multipli-


cation par un scalaire.

Exemple 2.1.2. 1. Kn .

2. F([a, b]) := {f : [a, b] −→ R| f : une fonction}.

3. Pour r ∈ N ∪ {∞}, C r (a, b) := {f : (a, b) −→ R| f : de classe C r }.

Dans la suite, comme il est souvent d’usage, on écrira λu au lieu de λ · u


pour λ ∈ K et u ∈ E.

2.1.2 Sous-espace vectoriel


Lorsque on souhaite définir un sous-groupe d’un groupe G, on considère un
sous-ensemble H de G avec certaines propriétés, c’est-à-dire, H lui-même
est un groupe par la restriction de la multiplication sur G.
Maintenant, pour un K-espace vectoriel E, une partie F de E à laquelle
on s’intéresse est munie d’une structure de sous-espace comme suit :

Définition 2.1.3. On dit qu’une partie F de E est un sous-espace vec-


toriel de E lorsque les trois conditions suivantes sont vérifiées :

1. F n’est pas le vide.

2. Pour tous u, v ∈ F , la somme u + v est aussi dans F .

3. Pour tout u ∈ F et tout scalaire λ, λu est aussi dans F .

Exemple 2.1.4. Donner un exemple dans R2 , R3 et C 0 (a, b) ⊃ C 1 (a, b) ⊃


· · · ⊃ C ∞ (a, b).

Les deux dernières conditions s’écrivent dans une seule condition de la


façon suivante :

Lemme 2.1.1. Une partie non-vide F d’un espace vectoriel E est un sous-
espace vectoriel si et seulement si la condition suivante est vérifiée :

Pour tout u, v ∈ F et λ ∈ K, u + λv est aussi dans F .

Preuve. Si F ⊂ E est un sous-espace vectoriel, la condition est claire. Sup-


posons que F satisfasse la condition du lemme. Alors, en posant λ = 1 ∈ K,
on a la condition 2. Posons v = u et λ = −1, on voit que u + (−u) = 0 ∈ F .
Par ailleurs, en posant u = 0 dans la condition du lemme, on obtient la
condition 3.
2.1. ESPACE VECTORIEL (24/09) 9

2.1.3 Opérations sur les sous-espaces vectoriels∗


Soit E un K-espace vectoriel.

Proposition 2.1.2. Soient F, F 0 deux sous-espaces vectoriels de E. Alors,


F ∩ F 0 est également un sous-espace vectoriel de E.

Preuve. Faire en TD.

Attention ! En général, F ∪ F 0 n’est pas un sous-espace vectoriel de E.


Au lieu de la réunion, on considère une autre opération : pour deux parties
A, B de E, on définit la somme de A et B, notée par A + B, comme suit

A + B := {a + b|a ∈ A, b ∈ B}.

Proposition 2.1.3. Soient F, F 0 deux sous-espaces vectoriels de E. Alors,


la somme F + F 0 est un sous-espace vectoriel de E.

Preuve. Faire en TD.

Le cas particulier suivant est important :

Définition 2.1.5. Soient F, F 0 deux sous-espaces vectoriels de E. On dit


que la somme F +F 0 est une somme directe, lorsque pour tout u ∈ F +F 0 ,
il existe unique couple (v, v 0 ) ∈ F × F 0 tel que u = v + v 0 . Dans ce cas, on
la note par F ⊕ F 0 .

Un critère simple pour qu’une somme soit directe est le suivant :

Lemme 2.1.4. Soient F, F 0 deux sous-espaces vectoriels de E. Alors, la


somme F + F 0 est une somme directe si et seulement si F ∩ F 0 = {0}.

Preuve. Faire en TD.

Terminologie :

Définition 2.1.6. Soient F, G deux sous-espaces vectoriels de E. G est dit


un supplémentaire de F dans E si E = F ⊕ G.

Remarque 2.1.5. Soit E un espace vectoriel et F un sous-espace vectoriel


de E. Alors, un supplémentaire de F dans E n’est pas unique !

Maintenant, une question se pose : comment peut-on créer un sous-


espace vectoriel d’un espace vectoriel ?
On va répondre à cette question dans la sous-section suivante.
10 CHAPTER 2. ESPACES VECTORIELS

2.1.4 Système générateurs


Pour un groupe G et un sous-ensemble S ⊂ G, on a une notion de sous-
groupe engendré par S. (Rappelons que c’est le plus petit sous-groupe
qui contient S.) Ici, on va introduire une notion similaire :
Définition 2.1.7. Soit S un sous-ensemble de E. Le sous-espace vectoriel
engendré par S est le plus petit sous-espace vectoriel de E qui contient S.
Ce sous-espace existe. En effet, il nous suffit de prendre
\
F.
F ⊂E: sous-espace vectoriel
t.q. S⊂F

Mais, cette description n’est pas sympathique ! On ne voit pas concrètement


ce que c’est. Ne vous inquiètes pas, voici une recette pour en trouver une.
Supposons que S soit une partie finie, posons donc S = {s1 , s2 , · · · , sk }.
Pour chaque indice i (1 ≤ i ≤ k), on peut multiplier
Pk si par un scalaire αi ∈ K
et obtient αi si . On peut les ajouter et obtient i=1 αi si . Quand on a deux
éléments de la même forme, i.e., ki=1 αi si et ki=1 βi si , où αi , βi ∈ K, on a
P P

k
X k
X k
X
αi si + λ βi si = (αi + λβi )si .
i=1 i=1 i=1

D’après le lemme 2.1.1, on déduit que le sous-espace vectoriel engendré par


S contient les vecteurs de la forme
k
X
αi sk αi ∈ K,
i=1

et l’ensemble des vecteurs de cette forme est un sous-espace vectoriel.


Définition 2.1.8. On dit qu’un vecteur u ∈ E est une combinaison
linéaire de S, s’il existe des scalaires α1 , · · · , αk ∈ K tels que u = ki=1 αi si .
P

On a montré le lemme suivant :


Lemme 2.1.6. Soit S une partie finie de E. Le sous-espace vectoriel de E
engendré par S est l’ensemble des combinaisons linéaires de S.
On note le sous-espace vectoriel de E engendré par S = {s1 , · · · , sk } par
Vect(S), hs1 , · · · , sk i, ou Ks1 + Ks2 + · · · + Ksk . La partie S est appelée un
système générateur, ou une famille génératrice de Vect(S).
Remarque 2.1.7. Dans le cas où S est une partie infinie, on pourra mon-
trer que
X
Vect(S) = { αs s|αs ∈ K t.q. card{s|αs 6= 0} < ∞}.
s∈S
2.2. BASE (01/10) 11

Exemple 2.1.9. Donner des exemples de systèmes générateurs dans R2 ,


R3 . En particulier, expliquer

1. qu’un système générateur d’un sous-espace vectoriel n’est pas unique,

2. que pour un système générateur S, l’expression d’un vecteur de Vect(S)


comme combinaison linéaire n’est pas forcément unique.

2.2 Base (01/10)


Ici, on va parler de systèmes générateurs économiques et d’une raison pour
en considérer.

2.2.1 Système libre et base


Soit E un K-espace vectoriel. Ici, on va parler d’un système générateur plus
‘économique’.

Définition 2.2.1. Un système de vecteurs S = {s1 , · · · , sk } de E est dit

1. libre, lorsque λ1 s1 + · · · + λk sk = 0, avec λi ∈ K, entraı̂ne λ1 = · · · =


λk = 0,

2. sinon, on dit que le système S est lié.

Exemple 2.2.2. Donner des exemples de familles de vecteurs qui sont libres
ou liés dans R2 .

Voici une propriété utile :

Lemme 2.2.1. Pour k ∈ N∗ et s1 , · · · , sk ∈ E, la famille {s1 , · · · , sk } est


libre si et seulement si {s1 , · · · , sk−1 } est libre et sk 6∈ Vect{s1 , · · · , sk−1 }.

Preuve. Preuve de =⇒ (par contraposition) : supposons que {s1 , · · · , sk−1 }


soit liée ou que sk ∈ Vect({s1 , · · · , sk−1 }).

• Dans le premier cas, il existe des scalaires λ1 , · · · , λk−1 ∈ K non tous


nuls, tels que

0 = λ1 s1 + · · · + λk−1 sk−1 = λ1 s1 + · · · + λk−1 sk−1 + 0 · sk = 0,

i.e., la famille {s1 , · · · , sk } est liée.

• Dans le deuxième cas, il existe λ1 , · · · , λk−1 ∈ K non tous nuls, tels


que

sk = λ1 s1 +· · ·+λk−1 sk−1 ⇐⇒ λ1 s1 +· · ·+λk−1 sk−1 +(−1)·sk = 0,

i.e., la famille {s1 , · · · , sk } est liée.


12 CHAPTER 2. ESPACES VECTORIELS

Preuve de ⇐= (par contraposition) : supposons que la famille {s1 , · · · , sk }


soit liée. Par hypothèse, il existe λ1 , · · · , λk ∈ K non tous nuls, tels que

λ1 s1 + · · · + λk−1 sk−1 + λk sk = 0.

• Si λk = 0, il existe un indice i (1 ≤ i < k) tel que λi 6= 0 et λ1 s1 +


· · · + λk−1 sk−1 = 0, i.e., la famille {s1 , · · · , sk−1 } est liée.

• Si λk 6= 0, l’égalité ci-dessus récrit comme suit :


λ1 λk−1
sk = − s1 − · · · − sk−1 ,
λk λk
i.e., sk ∈ Vect({s1 , · · · , sk−1 }).

Définition 2.2.3. Soient F un sous-espace vectoriel de E et B = {s1 , · · · , sk } ⊂


F une famille de vecteurs. On dit que B est une base de F , lorsque B est
libre et engendre F .

Exemple 2.2.4. 1. Définir la base canonique de Rn .

2. Donner des exemples de bases de sous-espaces vectoriels de R2 et R3 .

Par définition, le lemme suivant est facile à montrer :

Lemme 2.2.2. Soient E un espace vectoriel et S = {s1 , · · · , sn } une famille


de vecteurs de E. Alors,

1. S engendre E si et seulement si, pour tout v ∈ E, il existe au moins


un k-uplet de scalaires (α1 , · · · , αk ) ∈ Kk tels que v = α1 s1 +· · ·+αk sk .

2. S est libre si et seulement si, pour tout v ∈ E, il existe au plus un


k-uplet de scalaires (α1 , · · · , αk ) ∈ Kk tels que v = α1 s1 + · · · + αk sk .

3. S est une base de E si et seulement si, pour tout v ∈ E, il existe un


unique k-uplet de scalaires (α1 , · · · , αk ) ∈ Kk tels que v = α1 s1 +
· · · + αk sk .

Preuve. 1. est évident par définition. 3. est un corollaire direct de 1. et 2. Il


nous reste à montrer 2.
Preuve de =⇒ : supposons que S soit libre. Pour un v ∈ E, supposons que
les scalaires α1 , · · · , αk et β1 , · · · , βk permettent d’écrire

v = α1 s1 + · · · αk sk = β1 s1 + · · · + βk sk .

En soustrayant ces deux égalités, on obtient

0 = (α1 − β1 )s1 + · · · + (αk − βk )sk .


2.2. BASE (01/10) 13

Par hypothèse, on a α1 − β1 = · · · = αk − βk = 0, donc, l’unicité d’écriture


de v.
Preuve de ⇐= (par contraposition) : supposons que le système S soit lié. Il
existe donc des scalaires λ1 , · · · , λk ∈ K non tous nuls, tels que λ1 s1 + · · · +
λk sk = 0. Mais, on peut aussi écrire 0 d’une façon évidente : 0s1 +· · ·+0sk =
0. Donc, il existe un vecteur de E qui possède plus d’une écriture.

Définition 2.2.5. Soient E un espace vectoriel, B = {b1 , · · · , bk } une base


de E, et v un vecteur de E. On appelle coordonnées de v dans la base B
les scalaires α1 , · · · , αk déterminés de façon unique, tels que
v = α1 b1 + · · · + αk bk .
On les note par 

α1
matB (v) =  ...  .
 

αk
Une question se pose : est-ce que le nombre de vecteurs d’une base d’un
espace vectoriel dépend d’un choix d’une base ?
La réponse est NON! On va le montrer dans la section suivante.

2.2.2 Le cardinal des bases


Soit E un K-espace vectoriel. Ici, on va montrer que le cardinal d’une base
de E ne dépend que E. Plus précisement, on va le monter quand E est de
type fini, c.-à.-d., quand E possède une famille génératrice finie.
Lemme 2.2.3. Soient {f1 , · · · , fp } un système libre de E et {g1 , · · · , gq }
un système générateur de E. Alors, il existe un indice j (1 ≤ j ≤ q) tel que
{f1 , · · · , fp−1 , gj } soit encore un système libre.
Preuve. Montrons ce lemme par l’absurde. Supposons que la conclusion soit
fausse, c.-à.-d., pour chaque j, {f1 , · · · , fp−1 , gj } est un système lié.
Par le lemme 2.2.1, {f1 , · · · , fp−1 } est libre et gj est une combinaison linéaire
de {f1 , · · · , fp−1 }. Donc, il existe des scalaires ai,j ∈ K (1 ≤ i ≤ p − 1, 1 ≤
j ≤ q) tels que
p−1
X p−1
X p−1
X
g1 = ai,1 fi , g2 = ai,2 fi , ··· , gq = ai,q fi .
i=1 i=1 i=1

Comme {g1 , · · · , gq } est un système générateur, tout vecteur de E, en parti-


culier fp , peut s’écrire comme combinaison linéaire de {g1 , · · · , gq }, c.-à.-d.,
il existe des scalaires b1 , · · · , bq ∈ K tels que
q
X
fp = bj gj .
j=1
14 CHAPTER 2. ESPACES VECTORIELS

Comme g1 , · · · , gq sont combinaisons linéaires de {f1 , · · · , fp−1 }, ceci en-


traı̂ne que fp est une combinaison linéaire de {f1 , · · · , fp−1 }. C’est une
contradiction.

Le corollaire suivant est un point important :

Corollaire 2.2.4. Soient {f1 , · · · , fp } un système libre de vecteurs de E et


{g1 , · · · , gq } un système générateur de E. Alors, p ≤ q.

Preuve. Si p = 0, le résultat est évident. Supposons que p > 0. Appliquant


le lemme 2.2.3, il existe un indice j (1 ≤ j ≤ q) tel que {f1 , · · · fp−1 , gj } soit
libre. Notons ce j par ϕ(p).
Appliquons le même lemme à {gϕ(p) , f1 , · · · , fp−1 }, il existe un indice j 0 (1 ≤
j 0 ≤ q) tel que {gϕ(p) , f1 , · · · , fp−2 , gj 0 } soit libre. Notons j 0 par ϕ(p − 1).
Répétons cette idée, on voit qu’il existe une application ϕ de {1, · · · , p} dans
{1, · · · q} telle que {gϕ(1) , · · · , gϕ(p) } soit libre. De plus, comme le système
obtenu est libre, on a ϕ(i) 6= ϕ(j) pour i 6= j, c’est-à-dire, ϕ est injective ce
qui entraı̂ne que p ≤ q.

Voici une conséquence importante :

Théorème 2.2.5. Soit E un espace vectoriel de type fini. Toutes les bases
de E ont le même cardinal.

Preuve. Soient F = {f1 , · · · , fp } et G = {g1 , · · · , gq } deux bases de E.


En appliquant le corollaire 2.2.4 au système libre F et au système générateur
G, on obtient p ≤ q.
En appliquant le corollaire 2.2.4 au système libre G et au système générateur
F, on obtient q ≤ p.

Corollaire 2.2.6. Soit n un entier positif. Toutes les bases de Kn sont des
n-uplets.

Remarque 2.2.7. Les arguments donnés ci-dessus montrent l’équivalence


des notions suivantes :

une base ∼ un système générateur minimal


∼ un système libre maximal.

2.3 Dimension (08/10)


Ici, je vais discuter de quelques propriétés de la notion de dimension d’un
espace vectoriel.
2.3. DIMENSION (08/10) 15

2.3.1 Existence des bases


Le théorème suivant est appelé le théorème de la base incomplète :

Théorème 2.3.1. Soient E un espace vectoriel de type fini et {f1 , · · · , fp }


un système libre de E. Alors, il existe l ∈ N et fp+1 , · · · , fp+l ∈ E tels que
{f1 , · · · , fp , fp+1 , · · · , fp+l } est une base de E.

Preuve. Si le système {f1 , · · · , fp } est déjà une base, il n’y a rien à faire
! Sinon, soit fp+1 ∈ E \ {0} tel que fp+1 6∈ Vect({f1 , · · · , fp }). D’après le
lemme 2.2.1, {f1 , · · · , fp+1 } est un système libre. Si ce nouveau système est
une base, c’est fini. Sinon, on peut lui adjoindre un nouveau vecteur fp+2 .
On peut ensuite continuer ...
D’après le théorème 2.2.5, il est clair qu’on s’arrêtera un jour, car E est de
type fini par hypothèse.

En général, la démonstration de cette propriété nćessite ce que l’on ap-


pelle le lemme de Zorn. Voir, e.g., § A.1 pour plus de détails.
Bon, on arrive à conclure comme suit :

Théorème 2.3.2. Soit E un espace vectoriel de type fini. Alors, E possède


une base.

Preuve. Si E = {0}, il n’y a rien à montrer. (Dans ce cas, il faut prendre ∅.)
Sinon, soit v ∈ E un vecteur non nul. Alors, le système {v} est un système
libre. En appliquant le théorème 2.3.1 à ce système libre, on obtient une
base de E.

2.3.2 Dimension
Maintenant, on a le droit de poser

Définition 2.3.1. Soit E un espace vectoriel de type fini. On appelle di-


mension de E, notée par dim E, le cardinal de n’importe quelle base de
E.

Voici quelques propriétés :

Lemme 2.3.3. Soient E un espace vectoriel de dimension finie et F un


sous-espace vectoriel de E. Alors,

1. dim F ≤ dim E.

2. Si F 6= E, on a dim F < dim E.

Preuve. 1. : Soit F une base de F . Alors, F est un système libre de E. Par


le théorème de la base incomplète (Théorème 2.3.1), on obtient l’inégalité
dim F ≤ dim E.
2. (par contraposition) : supposons que F ⊂ E et dim E = dim F . Prenons
16 CHAPTER 2. ESPACES VECTORIELS

une base F de F . C’est un système libre dans E qui possède dim E éléments,
donc c’est aussi une base de E. L’espace engendré par ce système F est à
la fois E et F , donc E = F .

2.3.3 Une formule de Grassmann


Soit E un K-espace vectoriel de type fini.

Théorème 2.3.4 (Formule de Grassmann). Soient F, G deux sous-espaces


vectoriels de E.

dim(F + G) = dim F + dim G − dim(F ∩ G).

Preuve. Notons p = dim F , q = dim G et r = dim(F ∩ G).


Partons d’une base {h1 , · · · , hr } de F ∩ G.
Par le théorème de la base incomplète appliqué à {h1 , · · · , hr } et F , il ex-
iste des vecteurs f1 , · · · , fa (a = p − r) tels que {h1 , · · · , hr , f1 , · · · , fa }
soit une base de F . De même (en notant b := q − r), on fabrique une
base {h1 , · · · , hr , g1 , · · · , gb } de G. Il nous suffit de montrer que B :=
{h1 , · · · , hr , f1 , · · · , fa , g1 , · · · , gb } est une base de F + G. En effet, cela
signifie que

dim(F +G) = r+a+b = r+(p−r)+(q−r) = p+q−r = dim F +dim G−dim(F ∩G).

Montrons que B est un système générateur de F + G. Notons H le sous-


espace vectoriel engendré par B.

• Montrons que F + G ⊂ H. Soit v ∈ F + G. Alors, il existe f ∈ F et


g ∈ G tels que v = f + g. Il existe des scalaires γ1 , · · · , γr , α1 , · · · , αa
tels que
X r a
X
f= γ i hi + αi fi .
i=1 i=1

De même, il existe des scalaires δ1 , · · · , δr , β1 , · · · , βb tels que

r
X b
X
g= δi hi + βi gi .
i=1 i=1

Dès lors
r
X a
X b
X
v= (γi + δi )hi + αi fi + βi gi ,
i=1 i=1 i=1

donc v ∈ G.
2.3. DIMENSION (08/10) 17

• Montrons que H ⊂ F + G. Soit v ∈ H. Il existe des scalaires


γ1 , · · · γr , α1 , · · · , αa , β1 , · · · , βb tels que
r
X a
X b
X
v= γi hi + αi fi + βb gb
i=1 i=1 i=1
r a b
! !
X X X
= γ i hi + αi fi + βi gi .
i=1 i=1 i=1

Dans ces parenthèses, on voit que v s’écrit comme somme d’un vecteur
de F et d’un vecteur de G, donc v ∈ F + G.
Montrons que B est un système libre.
Soit λ1 , · · · , λr , µ1 , · · · , µa , ν1 , · · · , νb des scalaires tels que
r
X a
X b
X
λi hi + µi fi + νi gi = 0.
i=1 i=1 i=1

Regroupons les différemment :


r
X a
X b
X
λi hi + µi fi = − νi gi .
i=1 i=1 i=1

Appelons x ce nouveau vecteur.


Vu sa première expression, x ∈ F et vu sa deuxième expression, x ∈ G, donc
x ∈ F ∩ G.
Comme {h1 , · · · , hr } est une base de F ∩ G, il existe des scalaires γ1 , · · · , γr
tels que
X r
x= γi hi .
i=1
Mettons côte à côte deux expressions :
r
X b
X
x= γi hi + 0gi
i=1 i=1
Xr Xb
= 0hi − νi gi .
i=1 i=1

Comme {h1 , · · · , hr , g1 , · · · , gb } est libre dans G, ces deux écritures doivent


coı̈ncider. Donc, on obtient ν1 = · · · = νb = 0 et x = 0, c.-à.-d.,
r
X a
X
λi hi + µi fi .
i=1 i=1

Comme {h1 , · · · , hr , f1 , · · · , fa } est libre dans F , on obtient λ1 = · · · = λr =


µ1 = · · · = µa = 0, c.-à.-d., B est libre.
18 CHAPTER 2. ESPACES VECTORIELS

2.3.4 Somme directe∗


Soit E un K-espace vectoriel de dimension finie.
Définition 2.3.2. Soient F1 , · · · , Fk des sous-espaces vectoriels de E. No-
tant leur somme F = F1 + · · · + Fk , on dira que les sous-espaces F1 , · · · , Fk
sont en somme directe, lorsque, pour tout v ∈ F , il existe un unique
k-uplet de vecteurs v1 ∈ F1 , · · · , vk ∈ Fk tels que

v = v1 + · · · + vk .

Dans ce cas, on note cette somme par F = F1 ⊕ · · · ⊕ Fk .


Voici un critère pratique pour déterminer qu’une somme est directe :
Théorème 2.3.5. Soient F1 , · · · , Fk des sous-espaces vectoriels de E. Les
sous-espaces sont en somme directe si et seulement si (F1 +· · ·+Fi−1 )∩Fi =
{0} pour tout 1 < i ≤ k.
Preuve. Procédons par récurrence. Le cas k = 2 sera traité en TD. Sup-
posons que l’énoncé soit vrai jusqu’à k − 1. Montrons le cas k.
D’abord, on montre que la condition est suffisante. Soit v ∈ F1 +· · ·+Fk . Le
cas k = 2 implique qu’il existe un unique v 0 ∈ F1 + · · · + Fk−1 et un unique
vk ∈ Fk tels que v = v 0 + vk . Par hypothèse, il existe des vi ∈ Fi (1 ≤ i < k)
tels que v 0 = v1 + · · · + vk−1 . Donc, l’écriture v = v1 + · · · + vk est unique.
Ensuite, on montre que la condition est aussi nécessaire par contraposition.
Supposons qu’il existe 1 < i ≤ k tel que (F1 + · · · + Fi−1 ) ∩ Fi 6= {0}. Le cas
k = 2 implique que la somme (F1 + · · · + Fi−1 ) + Fi n’est pas directe, d’où
la conclusion.

Donc, par la formule de Grassmann, on déduit aisément que, si la somme


F1 + · · · + Fk est directe, on a dim(F1 + · · · + Fk ) = dim F1 + · · · + dim Fk .
Le théorème suivant nous assure que cette condition est aussi suffisante.
Théorème 2.3.6. Soient F1 , · · · , Fk des sous-espaces vectoriels de E. Les
sous-espaces sont en somme directe si et seulement si

dim(F1 + · · · + Fk ) = dim F1 + · · · + dim Fk .

Preuve. On a déjà vu que si les sous-espaces F1 , · · · , Fk sont en somme


directe, alors dim(F1 +· · ·+Fk ) = dim F1 +· · ·+dim Fk . Donc, il nous reste à
vérifier le contraire. Supposons que dim(F1 +· · ·+Fk ) = dim F1 +· · ·+dim Fk .
Notons Bi une base de Fi (1 ≤ i ≤ k). Il est clair que B := B1 ∪ · · · ∪ Bk est
une famille génératrice de F := F1 +· · ·+Fk qui est minimale par hypothèse,
c’est donc une base. Soit v ∈ F et considérons deux écritures

v = v1 + · · · + vk
= w1 + · · · + wk
2.3. DIMENSION (08/10) 19

de v, dansPlesquelles vi , wi ∈ Fi (1
P ≤ i ≤ k). Soient αb , βb des scalaires tels
que vi = b∈Bi αb b et que wi = b∈Bi βb b. Reportons ces écriture dans les
deux écritures du vecteur v :
X X
v= αb b = βb b.
b∈B b∈B

Comme B est une base de F , on voit bien que αb = βb , pour tout b ∈ B,


c.-à.-d., vi = wi , pour tout 1 ≤ i ≤ k. Donc, l’écriture de v est bien
unique.
20 CHAPTER 2. ESPACES VECTORIELS
Chapter 3

Applications linéaires

3.1 Applications linéaires I (15/10)


Ici, on fixe un corps commutatif K.

3.1.1 Définitions
On commence par

Définition 3.1.1. Soient E, F deux K-espaces vectoriels et u une applica-


tion de E vers F . On dit que u est une application linéaire, lorsque

1. pour tous x, y ∈ E, u(x + y) = u(x) + u(y),

2. Pour tout λ ∈ K et tout x ∈ E, u(λx) = λu(x).

L’ensemble des applications linéaires de E vers F sera noté L(E, F ).

Voici un cas particulier :

Définition 3.1.2. Soit E un K-espace vectoriel.

1. Une application linéaire de E vers E est dite un endomorphisme.

2. Un endomorphisme bijectif est appelé un automorphisme.

On notera L(E) pour L(E, E).

On peut facilement caractériser les applications linéaires comme on a fait


pour les sous-espaces vectoriels :

Proposition 3.1.1. Une application u d’un espace vectoriel E vers un es-


pace vectoriel F est linéaire si et seulement si :

pour tous x, y ∈ E et tout λ ∈ K, u(x + λy) = u(x) + λu(y).

21
22 CHAPTER 3. APPLICATIONS LINÉAIRES

Preuve. Preuve de =⇒ : Supposons que f soit linéaire. Soient x, y ∈ E et


λ ∈ K. On a alors :

u(x + λy) = u(x) + u(λy) = u(x) + λu(y).

Preuve de ⇐= : Supposons que f vérifie la caractérisation de l’enoncé de


la proposition. Soient x, y ∈ E. On a alors, u(x + y) = u(x + 1y) =
u(x) + 1u(y) = u(x) + u(y). On en déduit ensuite que u(0) = u(0 + 0) =
u(0) + u(0), donc u(0) = 0. Alors, pour x ∈ E et λ ∈ K, on a alors
u(λx) = u(0 + λx) = u(0) + λu(x) = λu(x). Donc, u est bien linéaire.

3.1.2 Exemples
D’abord, on considère le cas E = F = R2 . Soit B = {e1 , e2 } la base
canonique.
Le premier exemple est une
1. Dilatation Soient a, b ∈ R des réels positifs. On définit l’application
linéaire u ∈ L(E) par

u(e1 ) = ae1 , u(e2 ) = be2 .

Calculons l’image du cercle {(x, y)|x2 + y 2 = 1}, etc.


Le deuxième exemple est une
2. Rotation Soient α ∈ R un réel positif et u la rotation de centre (0, 0)
et d’angle α. Montrons que u ∈ L(E).
Pour tout (x, y) ∈ E \ {(0, 0)}, il existe r ∈ R positif et θ ∈ [0, 2π[ tels
que x = r cos θ et y = r sin θ. Par la formule d’addition des fonctions
trigonométriques, on a

u(xe1 + yey ) = u((x, y))


= (r cos(θ + α), r sin(θ + α)) = r cos θ(cos α, sin α) + r sin θ(− sin α, cos α)
= x(cos αe1 + sin αe2 ) + y(− sin αe1 + cos αe2 ),

c.-à.-d., u est une application linéaire.


Le troisième exemple est une
3. Symétrie Soient α ∈ R un réel positif et u la symétrie par rapport à
la droite (sin α)x − (cos α)y = 0. Montrons que u ∈ L(E).
Notons l’image u((x, y)) par (x0 , y 0 ). Alors, on sait que

1. le milieu de (x, y) et (x0 , y 0 ) est sur l’axe de cette symétrie et que

2. la droite qui passe par (x, y) et (x0 , y 0 ) est perpendiculaire à cet axe.

Ces deux propriétés se traduisent sous la forme suivante :


x + x0 y + y0
   
sin α − cos α = 0, cos α(x0 − x) + sin α(y 0 − y) = 0.
2 2
3.1. APPLICATIONS LINÉAIRES I (15/10) 23

De ces deux égalités, on déduit

x0 = (cos 2α)x + (sin 2α)y, y 0 = (sin 2α)x − (cos 2α)y,

c.-à.-d.,

u(xe1 + ye2 ) = x(cos 2αe1 + sin 2αe2 ) + y(sin 2αe1 − cos 2αe2 ).

Donc, u est une application linéaire.


Maintenant, on considère le cas E = F = C ∞ (R, R).
Le quatrième exemple est la
4. Différentielle Soit u l’application de E dans E définie par u(f )(x) :=
df
dx (x). Alors, u est une application linéaire. (Le montrer.)
Le cinquième exemple est l’
5. Intégrale
Rx Soient a ∈ R et u l’application de E dans E définie par
u(f )(x) := a f (t)dt. Alors, u est une application linéaire. (Le montrer.)

3.1.3 Applications linéaires et bases


Ici, on discute des données minimales pour définir une application linéaire.
Une proposition assez pratique est donnée comme suit :

Proposition 3.1.2. Soient E un K-espace vectoriel de dimension finie et


F un K-espace vectoriel. Soient {e1 , · · · , ek } une base de E et {f1 , · · · , fk }
une famille de vecteurs de F . Alors, il existe une et une seule application
linéaire u de E vers F telle que

u(e1 ) = f1 , · · · , u(ek ) = fk .

Preuve. D’abord, on va montrer que si une telle application linéaire existe,


elle est unique.
Soit donc u une application linéaire de E vers F avec les propriétés ci-dessus.
Soit x ∈ E. Comme
Pk {e1 , · · · , ek } ⊂ E est une base, il existe α1 , · · · , αk ∈ K
tels que x = i=1 αi ei . Alors, on a

Xk n
X k
X
u(x) = u( αi ei ) = αi u(ei ) = αi fi .
i=1 i=1 i=1

Donc, u est déterminée sur chacun des vecteurs de E ; elle est donc unique
si elle existe.
Pour l’existence, il nous suffit de montrer que l’application u définie par la
formule ci-dessus est bien linéaire. On procède par un calcul direct.
24 CHAPTER 3. APPLICATIONS LINÉAIRES

3.1.4 Opérations sur les applications linéaires∗


Soient E, F deux K-espaces vectoriels.

Définition 3.1.3. Soient f, g ∈ L(E, F ) et λ ∈ K.

1. La somme de f et g est l’application, notée par f + g, définie par


(f + g)(x) := f (x) + g(x).

2. La multiplication de f par λ est l’application, notée par λf , définie


par (λf )(x) := λ(f (x)).

On voit aisément que f + g ∈ L(E, F ) et que λf ∈ L(E, F ).

Maintenant, il est naturel d’espérer

Proposition 3.1.3. L(E, F ) est muni d’une structure de K-espace vectoriel.

Preuve. Exercice.

Soit G un espace vectoriel. On peut parler de la composition d’applications


linéaires :

Lemme 3.1.4. Soient f, f1 , f2 ∈ L(E, F ) et g, g1 , g2 ∈ L(F, G).

1. La composée g ◦ f est une application linéaire de E dans G, c.-à.-d.,


g ◦ f ∈ L(E, G).

2. (g1 + g2 ) ◦ f = g1 ◦ f + g2 ◦ f .

3. g ◦ (f1 + f2 ) = g ◦ f1 + g ◦ f2 .

Preuve. On montre le premier et on laisse le reste comme exercice.


Soient x, y ∈ E et λ ∈ K. Alors, on a (g ◦ f )(x + λy) = g(f (x + λy)) =
g(f (x) + λf (y)) = g(f (x)) + λg(f (y)) = (g ◦ f )(x) + λ(g ◦ f )(y).

Remarque 3.1.5. Évidemment, la composition est associative. Donc, d’après


le lemme ci-dessus, on déduit que L(E) est muni d’une structure d’anneau.

Alors, on va parler de l’inverse d’une application linéaire :

Proposition 3.1.6. Soit f une application linéaire bijective de E dans F .


Alors, f −1 est aussi linéaire.

Preuve. Soient y1 , y2 ∈ F et λ ∈ K. Comme u est bijective, il existe x1 , x2 ∈


E tels que y1 = f (x1 ) et y2 = f (x2 ). Montrons que f −1 (y1 + λy2 ) =
f −1 (y1 ) + λf −1 (y2 ). Posons x := f −1 (y1 + λy2 ) et x0 := f −1 (y1 ) + λf −1 (y2 ).
Alors, on a f (x) = f (f −1 (y1 + λy2 )) = y1 + λy2 et f (x0 ) = f (f −1 (y1 ) +
λf −1 (y2 )) = f (f −1 (y1 )) + λf (f −1 (y2 )) = y1 + λy2 , d’où f (x) = f (x0 ).
Comme f est bijective, on en déduit que x = x0 .
3.2. APPLICATIONS LINÉAIRES II (22/10) 25

3.2 Applications linéaires II (22/10)


Ici, K désigne un corps commutatif. Je vais expliquer quelques propriétés
générales des applications linéaires.

3.2.1 Injectivité et surjectivité


Ici, on va discuter de l’injectivité et de la sujectivité d’une application
linéaire. Soient E et F deux espaces vectoriels.
On commence par un lemme préliminaire :

Lemme 3.2.1. Soient u une application linéaire de E vers F et F 0 un


sous-espace vectoriel de F . Alors, u−1 (F 0 ) est un sous-espace vectoriel de
E.

Preuve. L’image réciproque u−1 (F 0 ) est non vide, car il contient 0 ∈ E.


Soient x, y ∈ u−1 (F 0 ) et λ ∈ K. Montrons que x + λy ∈ u−1 (F 0 ). Par
définition, on a u(x), u(y) ∈ F 0 . Comme F 0 est un sous-espace vectoriel, on
a u(x) + λu(y) ∈ F 0 , donc u(x + λy) ∈ F 0 , car u est linéaire. Ceci implique
que x + λy ∈ u−1 (F 0 ).

D’abord, on cherche une condition pour qu’une application linéaire soit


injective. Soit u une application linéaire de E vers F . Supposons que u soit
injective, c.-à.-d., si x, y ∈ E tels que u(x) = u(y), alors on a x = y. Comme
u est linéaire, u(x) = u(y) implique que 0 = u(x) − u(y) = u(x − y). Par
hypothèse, on obtient u−1 (0) = 0. Maintenant, supposons que u−1 (0) = 0.
Soient x, y ∈ E tels que u(x) = u(y). Alors, comme u est linéaire, u(x) =
u(y) implique que 0 = u(x) − u(y) = u(x − y), donc, x − y = 0 c.-à.-d., u
est injective.
Donc, il est utile d’introduire la notion suivante :

Définition 3.2.1. Soit u ∈ L(E, F ). Le sous-espace vectoriel u−1 ({0}) est


appelé le noyau de u et noté par Ker u.

D’après ce que l’on a discuté, on obtient

Proposition 3.2.2. Soit u une application linéaire de E vers F . Alors, u


est injective si et seulement si Ker u = {0}.

Maintenant, on aborde la notion de surjectivité. Cette fois-ci, il n’y a


rien de nouveau...
En effet, soit u une application linéaire de E vers F et supposons que u soit
surjective. Alors, on a u(E) = F par définition. C’est tout ! Il nous reste à
définir

Définition 3.2.2. Soit u une application linéaire de E vers F . Le sous-


espace vectoriel u(E) de F est appelé l’image de u et noté par Im u.
26 CHAPTER 3. APPLICATIONS LINÉAIRES

3.2.2 La formule du rang


Ici, on va montrer une formule importante :
Théorème 3.2.3. Soient E un espace vectoriel de dimension finie et F un
espace vectoriel. Soit u une application linéaire de E vers F . Alors, on a
dim Ker u + dim Im u = dim E.
Preuve. Soit {e1 , · · · , ek } une base de Ker u. Par le théorème de la base in-
omplète, il existe ek+1 , · · · , en ∈ E tels que {e1 , · · · , ek , ek+1 , · · · , en } forme
une base de E. Avec ces notations, on a dim Ker u = k et dim E = n.
Donc, il faut montrer que dim Im u = n − k. Pour cela, montrons que
{u(ek+1 ), · · · , u(en )} forme une base de Im u.
D’abord, on montre que cette famille est une famille génératrice de Im u.
Soit y ∈ Im u. Alors, il existe x ∈ E tel que y = u(x). On peut écrire x
dans la base {e1 , · · · , en } de E, x = α1 e1 + · · · + αk ek + αk+1 ek+1 + · · · αn en .
Donc,
y = u(x) = u(α1 e1 + · · · + αk ek + αk+1 ek+1 + · · · αn en )
= α1 u(e1 ) + · · · + αk u(ek ) + αk+1 u(ek+1 ) + · · · αn u(en )
= αk+1 u(ek+1 ) + · · · αn u(en ),
car e1 , · · · , ek ∈ Ker u. Donc, y ∈ hu(ek+1 ), · · · , u(en )i.
Montrons maintenant que la famille {u(ek+1 ), · · · , u(en )} est libre. Soient
λk+1 , · · · , λn ∈ K tels que λk+1 u(ek+1 )+· · ·+λn u(en ) = 0, i.e., u(λk+1 ek+1 +
· · · + λn en ) = 0, i.e., λk+1 ek+1 + · · · + λn en ∈ Ker u. Comme Ker u est
engendré par {e1 , · · · , ek }, il existe λ1 , · · · , λk ∈ K tels que λk+1 ek+1 + · · · +
λn en = λ1 e1 + · · · + λk ek . Cela signifie que λk+1 = · · · = λn = 0, car
{e1 , · · · , en } est libre.
Définition 3.2.3. Soient E un espace vectoriel de dimension finie et F un
espace vectoriel. Soit u une application linéaire de E vers F . La dimension
dim Imu est appelée le rang de u et noté par rg u.
Voici une application directe de la formule du rang : supposons que E
et F soient deux espaces vectoriels tels que dim E = dim F .
Théorème 3.2.4. Soient E un espace vectoriel de dimension finie, F un
espace vectoriel et u une application linéaire de E vers F . Alors, on a
u est injective ⇐⇒ u est surjective ⇐⇒ u est bijective.
Soient E, F deux K-espaces vectoriels.
Définition 3.2.4. Lorsqu’il existe une application linéaire bijective u de E
dans F , on dit que E est isomorphe à F , noté E ∼ = F , et que u est un
isomorphisme.
Par définition, le lemme suivant est immédiat :
Lemme 3.2.5. La relation ∼ = est une relation d’équivalence.
3.2. APPLICATIONS LINÉAIRES II (22/10) 27

3.2.3 Premiers pas avec les matrices


Soient E, F deux K-espaces vectoriels, B = {e1 , · · · , en } et C = {f1 , · · · , fm }
des bases de E et F , respectivement. Soit u : E −→ F une application
linéaire. On a vu que, pour déterminer u complétement, il suffit Pm de se
donner l’image {u(e i )|1 ≤ i ≤ n}. Explicitement, si u(e j ) = i=1 ai,j fi ,
alors, pour x = nj=1 xj ej ∈ E, l’image y = m
P P
y
i=1 i i f = u(x) est donnée
par
n
X n
X Xm X n
y = u(x) = u( xj ej ) = xj u(ej ) = ai,j xj fi ,
j=1 j=1 i=1 j=1

c.-à.-d., on a 

 y1 = a1,1 x1 + · · · + a1,n xn ,
 y2 = a2,1 x1 + · · · + a2,n xn ,

.. .. .. .. (3.1)


 . . . .
ym = am,1 x1 + · · · + am,n xn .

Notons le vecteur des coordonnées de x dans la base B par X et celui de y


dans la base C par Y . Introduisons le tableau rectangulaire suivant
 
a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n 
A :=  . ..  .
 
..
 .. . . 
am,1 am,2 · · · am,n

On récrira (3.1) sous la forme Y = AX. Le tableau A est appelé une


matrice de taille (m, n) à coefficients dans K et l’ensemble de telles
matrices est notée par Mm,n (K). On note aussi la matrice A ci-dessus comme
A = (ai,j )1≤i≤m,1≤j≤n . Le scalaire ai,j est dit le coefficient de la i-ème
ligne, j-ème colonne. Par rapport à l’application linéaire f , cette matrice
est dite la matrice de u dans les bases B et C et notée par A = matB,C (u).
On veut  définir  le produit des matrices de manière à ce que

matC (u(x)) = matB,C (u)matB (x). (3.2)

En particulier, lorsque m = n, on note Mm,n (K) par Mn (K).

3.2.4 Structure d’espace vectoriel sur Mm,n (K)


Soient E et F deux K-espaces vectoriels de dimension n et m, respective-
ment. Comme L(E, F ) est muni d’une structure d’espace vectoriel, il est
naturel que Mm,n (K) le soit aussi. Ceci est fait comme suit :

Définition 3.2.5. 1. La somme de deux matrices A = (ai,j ), B =


(bi,j ) ∈ Mm,n (K) est la matrice C = (ci,j ) ∈ Mm,n (K) définie par
ci,j := ai,j + bi,j . On la note par A + B.
28 CHAPTER 3. APPLICATIONS LINÉAIRES

2. Soient A = (ai,j ) ∈ Mm,n (K) et λ ∈ K. La multiplication de A


par un scalaire λ est la matrice C = (ci,j ) ∈ Mm,n (K) définie par
ci,j = λai,j . On la note par λA.

Alors, on a

Lemme 3.2.6. Mm,n (K) est muni d’une structure de K-espace vectoriel.

Preuve. Exercice.

Quelle est la dimension de Mm,n (K) ? Pour répondre à cette question,


on considère les matrices suivantes :

Définition 3.2.6. Fixons m et n. On appelle matrices élémentaires les


matrices Ei,j (1 ≤ i ≤ m, 1 ≤ j ≤ n) dont les coefficients sont nuls, sauf le
coefficient de la i-ème ligne, j-ème colonne qui vaut 1.

Alors, il est facile de montrer

Lemme 3.2.7. La famille {Ei,j }1≤i≤m,1≤j≤n est une base de Mm,n (K), en
particulier, dim Mm,n (K) = mn.
Chapter 4

Matrices

4.1 Matrices I : aspect théorique (29/10)


Ici, on fixe un corps commutatif K comme d’habitude. On va définir une
certaine structure sur Mm,n (K).

4.1.1 Produit de matrices


Soient E, F, G des K-espaces vectoriels de dimension l, m et n respective-
ment. Alors, on peut définir la composée de u ∈ L(E, F ) et v ∈ L(F, G) qui
est une application linéaire v ◦ u ∈ L(E, G). Soient B = {e1 , · · · , el }, C =
{f1 , · · · , fm } et D = {g1 , · · · , gn } des bases de E, F et G, respectivement.
Au niveau des matrices, on veut donc définir  le produit  de matrices
de telle sorte qu’il satisfasse

matB,D (v ◦ u) = matC,D (v)matB,C (u). (4.1)

Posons A = (ai,j ) = matC,D (v) et B = (bi,j ) = matB,C (u). On va calculer


l’image de x = lj=1 xj ej ∈ E par v ◦ u. Alors,
P

l
X l
X
v ◦ u(x) = v ◦ u( xj ej ) = xj v(u(ej ))
j=1 j=1
l
X m
X l X
X m l X
X m n
X
= xj v( br,j fr ) = br,j xj v(fr ) = br,j xj ai,r gi
j=1 r=1 j=1 r=1 j=1 r=1 i=1
 
n l m
!
X X X
=  ai,r br,j xj  gi .
i=1 j=1 r=1

Par conséquence, il est naturel de définir le produit de matrices comme


suit :

29
30 CHAPTER 4. MATRICES

Définition 4.1.1. Soient A = (ai,j ) ∈ Mn,m (K) et B = (bi,j ) ∈ Mm,l (K).


Le produitPdes matrices A et B est la matrice C = (ci,j ) ∈ Mn,l (K) définie
par ci,j = mr=1 ai,r br,j .
Remarque 4.1.1. Attention ! Le produit de deux matrices A ∈ Mk,l (K)
et B ∈ Mm,n (K) peut être défini si et seulement si l = m.
Soient H un K-espace vectoriel de dimension k et w ∈ L(G, H). Alors,
on a l’associativité w ◦ (v ◦ u) = (w ◦ v) ◦ u. Cette propriété se traduit dans
le langage matriciel comme suit :
Lemme 4.1.2. Soient A ∈ Mk,l (K), B ∈ Ml,m (K) et C ∈ Mm,n (K). Alors,
on a l’associativité (AB)C = A(BC).
La distributivité, c.-à.-.d, le lemme 3.1.4 se traduit comme suit :
Lemme 4.1.3. Soient A, A1 , A2 ∈ Ml,m (K) et B, B1 , B2 ∈ Mm,n (K). Alors,
(A1 + A2 )B = A1 B + A2 B, A(B1 + B2 ) = AB1 + AB2 .
Remarque 4.1.4. Soient A, B ∈ M( K). En général, on a AB 6= BA. Par
exemple, on a Ei,j Ej,i = Ei,i , tandis que Ej,i Ei,j = Ej,j .

4.1.2 Matrices inversibles


Ici, on considère le cas E = F , donc L(E). Rappelons que pour un auto-
morphisme u ∈ L(E), l’inverse u−1 est aussi un automorphisme. Fixons une
base B de E, ceci se traduit dans le langage matriciel comme suit.
D’abord, la matrice matB (idE ) est une matrice très particulière et impor-
tante :
Définition 4.1.2. La matrice identité de taille (n, n) est la matrice, notée
1n , dont le coefficient de la i-ième ligne j-ième colonne est δi,j , le symbole
dit de Kronecker.
Évidemment, pour tout A ∈ Mm,n (K), on a
A1n = 1m A = A.
Lemme 4.1.5. Mn (K) est muni d’une structure d’anneau unitaire non com-
mutatif.
Maintenant, supposons que dim E = n et posons A = matB (u) et B =
matB (u−1 ). Par (4.1), on a matB (idE ) = matB (u)matB (u−1 ) = matB (u−1 )matB (u),
c.-à-d.,
1n = AB = BA.
Définition 4.1.3. Soit A ∈ Mn (K). La matrice A est dite inversible s’il
existe une matrice B ∈ Mn (K) telle que AB = BA = 1n . La matrice B est
appelée l’inverse de A et notée par A−1 .
Il est clair que quand on a deux matrices inversibles A et B, alors le
produit AB l’est aussi et l’inverse de AB est B −1 A−1 .
4.1. MATRICES I : ASPECT THÉORIQUE (29/10) 31

4.1.3 Changements de bases


Rappelons que la matrice d’une application linéaire dépend du choix des
bases. Une question très naı̈ve se pose : qu’est-ce qu’il se passe sur la
matrice quand on change de bases ? On va aborder ce problème ici.
D’abord, soient B = {e1 , · · · , en }, B 0 = {e01 , · · · , e0n } deux bases de E.
Pour un x ∈ E, on pose
   0
x1 x1
 ..  0  .. 
X = matB (x) =  .  et X = matB0 (x) =  .  .
xn x0n

Comme B et B 0 sont P des bases de E, il existe des scalaires pi,j ∈ K (1 ≤ i, j ≤


n) tels que e0j = ni=1 pi,j ei , c.-à.-.d., P = (pi,j ) = matB0 ,B (idE ). Alors, on
a
 
Xn n
X Xn Xn Xn n
X
x= x0j e0j = x0j pi,j ei =  pi,j x0j  ei = xi ei ,
j=1 j=1 i=1 i=1 j=1 i=1

c.-à.-d.,

X = P X0 ⇐⇒ matB (x) = matB0 ,B (idE )matB0 (x). (4.2)

Définition 4.1.4. La matrice P = matB0 ,B (idE ) est appelée la matrice de


passage de B à B 0 .

Maintenant, soient B, B 0 des bases de E et C, C 0 des bases de F . Pour


une application linéaire u ∈ L(E, F ), on pose A := matB,C (u) et B :=
matB0 ,C 0 (u). On pose aussi P := matB0 ,B (idE ) et Q := matC 0 ,C (idF ). L’objectif
est de trouver le lien entre les matrices A et B. Pour x ∈ E, par (3.2) et
(4.2), on a

matC 0 (u(x)) = matC,C 0 (idF )matC (u(x)) = matC 0 ,C (idF )−1 matC (u(x))
= matC 0 ,C (idF )−1 matB,C (u)matB (x)
= matC,C 0 (idF )−1 matB,C (u)matB0 ,B (idE )matB0 (x),

c.-à.-d., on obtient

matB0 ,C 0 (u) = matC 0 ,C (idF )−1 matB,C (u)matB0 ,B (idE )


(4.3)
⇐⇒ B = Q−1 AP.

Remarque 4.1.6. Soit x ∈ E et posons X := matB (x), X 0 := matB0 (x) et


Y := matC (u(x)), Y 0 := matC 0 (u(x)). Alors, par (3.2) et (4.2), on a

Y = AX, Y 0 = BX 0 , X = P X 0, Y = QY 0 .
32 CHAPTER 4. MATRICES

Ceci implique que

QY 0 = Y = AX = AP X 0 =⇒ Y 0 = Q−1 AP X 0 ,

c.-à-d., B = Q−1 AP .
En résumé, on a montré la proposition suivante :
Proposition 4.1.7. Soient B, B 0 des bases de E et C, C 0 des bases de F .
Pour une application linéaire u ∈ L(E, F ), on pose A := matB,C (u) et
B := matB0 ,C 0 (u). Notons les matrices de passage de B à B 0 par P et de
C à C 0 par Q. Alors,
B = Q−1 AP.

4.1.4 Transposée d’une matrice∗


Ici, on introduit la transposée d’une matrice et on donne une des propriétés
de cette opération. La signification de la transposée en terme d’application
linéaire sera donnée en appendice § A.2.
Définition 4.1.5. Soit A = (ai,j ) une matrice de taille (m, n). La trans-
posée de A est la matrice B = (bi,j ) de taille (n, m) définie par bi,j := aj,i ,
pour tous 1 ≤ i ≤ n et 1 ≤ j ≤ m. La transposée de A est notée par t A.
Voici une propriété importante :
Proposition 4.1.8. Pour toutes matrices A de taille (l, m), B de taille
(m, n), on a t (AB) = t B t A.
Preuve. Notons C = AB, D = t (AB), E = t A, F = t B et G = t B t A.
D’après les définitions de la transposition et du produit, pour tout i avec
1 ≤ i ≤ l et tout j avec 1 ≤ j ≤ n, on a
m
X m
X m
X
dj,i = ci,j = ai,k bk,j = ek,i fj,k = fj,k ek,i = gj,i ,
k=1 k=1 k=1

donc, on obtient D = G.

Voici quelques types particuliers de matrices :


Définition 4.1.6. Soit A ∈ Mn (K) une matrice carrée.
1. A est dite symétrique, lorsque t A = A.
2. A est dite anti-symétrique, lorsque t A = −A.

4.2 Matrices II : aspect pratique (05/11)


Ici, on explique une méthode très efficace pour calculer l’inverse d’une ma-
trice carrée. Comme d’habitude, on fixe un corps commutatif K.
4.2. MATRICES II : ASPECT PRATIQUE (05/11) 33

4.2.1 Élimination de Gauss


Ici, on explique ce que l’on appelle l’élimination de Gauss ou le pivot de
Gauss. On fixe n ∈ N∗ .
Soit A = (ai,j ) une matrice carrée de taille (n, n). Alors, l’inverse de A,
s’il existe, est la matrice A−1 = (xi,j ) de taille (n, n) qui satisfait A · A−1 =
1n . Regardons chaque colonne, on voit bien que ceci équivaut aux systèmes
d’équations linéaires
   
x1,j 0
 ..   .. 
 .  .
   
A
 x j,j
 = 1 j
   1 ≤ j ≤ n.
 ..   .. 
 .  .
xn,j 0

Donc, il nous suffit de trouver une méthode pour résoudre un système


d’équations linéaires :
   
x1 b1
 ..   .. 
AX = B, où X =  . , B =  . ,
xn bn


 a1,1 x1 + a1,2 x2 + · · · + a1,n xn = b1 ,
 a2,1 x1 + a2,2 x2 + · · · + a2,n xn = b2 ,

⇐⇒ .. ..


 . .
an,1 x1 + an,2 x2 + · · · + an,n xn = bn .

Rappelons comment on peut résoudre ce système d’équations. On appelle


la i-ième ligne par Li .
1er étape Supposons qu’un des coefficients ai,1 ne soit pas nul, i.e.,
ai1 ,1 6= 0. Alors, en permutant L1 avec Li1 , on suppose que a1,1 6= 0.
Maintenant,
1
1. Renommer L1 comme L1 .
a1,1
2. Pour 1 < i ≤ n, renommer Li − ai,1 L1 comme Li .
On exprime cette nouvelle ligne comme Li : ai,1 x1 +ai,2 x2 +· · ·+ai,n xn = bi ,
pour économiser les symboles. Alors, le coefficient de x1 de la nouvelle ligne
Li est 1 pour i = 1 et 0 pour 1 < i ≤ n, i.e., ai,1 = δi,1 .
2e étape On fait la même chose pour x2 avec L2 , · · · , Ln . C’est-à-dire,
on suppose qu’un des coefficients ai,2 ne soit pas nul, i.e., ai2 ,2 6= 0 (2 ≤ i2 ≤
n). Alors, en permutant L2 avec Li2 , on suppose que a2,2 6= 0. Maintenant,
1
1. Renommer L2 comme L2 .
a2,2
34 CHAPTER 4. MATRICES

2. Pour 1 ≤ i ≤ n tel que i 6= 2, renommer Li − ai,2 L2 comme Li .

On exprime cette nouvelle ligne comme Li : ai,1 x1 +ai,2 x2 +· · ·+ai,n xn = bi ,


pour économiser les symboles. Alors, le coefficient de x2 de la nouvelle Li
est 1 pour i = 2 et 0 pour 1 < i ≤ n tel que i 6= 2, i.e., ai,2 = δi,2 . Notons
que les coefficients ai,1 ne changent pas dans cette étape.
On répète la même étape jusqu’à xn : on obtient la solution

x1 = b01 ,
x2 = b02 ,
.. .
. = ..
xn = b0n .

En résumé, on a utilisé les trois types d’opérations suivantes :

(I) Permuter la i-ième ligne et j-ième ligne (i 6= j),

(II) Multiplier la i-ième ligne par un scalaire non nul, et

(III) Ajouter un multiple scalaire de la j-ième à i-ième ligne (i 6= j).

Ce que l’on a fait ci-dessus est interprété en terme de matrice


 
a1,1 a1,2 ··· a1,n b1
 a2,1 a2,2 ··· a2,n b2 
A
e :=  ..  ,

 .. .. ..
 . . . .
an,1 an,2 · · · an,n bn

comme suit. Appliquant des opérations (I), (II) et (III) d’une manière ap-
propriée, on arrive à la matrice de la forme

0 b01
 
1 0 ···
 .. .. 0 
0 1 . . b2 
..  .

 .. . .

..
. . . 0 .
0 ··· 0 1 b0n

(La seule différence est de ne pas écrire x1 , · · · , xn !) Pour trouver l’inverse


de A, on applique ces opérations à la matrice
 
a1,1 a1,2 ··· a1,n 1 0 ··· 0
 .. .. 
 a2,1 a2,2 · · ·
 a2,n 0 1 . .,
 .. .. .. .. .. .. 
 . . . . . . 0
an,1 an,2 · · · an,n 0 · · · 0 1
4.2. MATRICES II : ASPECT PRATIQUE (05/11) 35

on trouve l’inverse X = (xi,j ) de A dans la forme


 
1 0 ··· 0 x1,1 x1,2 ··· x1,n
 .. .. 
0 1 . . x2,1 x2,2 ··· x2,n 
..  .

 .. . . .. ..

..
. . . 0 . . . 
0 ··· 0 1 xn,1 xn,2 · · · xn,n

Cette méthode qui est extrêmement pratique et puissante est appelée l’élimination
de Gauss ou le pivot de Gauss.

4.2.2 Cas général


Dans la sous-section précédente, on était vraiment optimiste. C’est-à-dire,
on a considéré un système d’équations linéaires


 a1,1 x1 + a1,2 x2 + · · · + a1,n xn = b1 ,
 a2,1 x1 + a2,2 x2 + · · · + a2,n xn = b2 ,

.. ..


 . .
an,1 x1 + an,2 x2 + · · · + an,n xn = bn ,

et on a supposé que l’on pouvait aller jusqu’au bout. En général, il se peut


que l’on ne puisse pas aller jusqu’au bout. On considère un tel cas, ici.
Supposons que l’on ait pu appliquer le pivot de Gauss jusqu’à r-ième
étape avec 0 < r < n, en changeant l’ordre d’arrangement de x1 , · · · , xn si
nécessaire, mais pas plus c.-à-d., on est arrivé à la forme suivante :
 
1 a1,r+1 · · · a1,n b1
 .. .. .. .. 
 . . . . 
 

 1 ar,r+1 · · · ar,n br  
0 · · · 0 0 ··· 0 br+1 
 
 .. .. .. .. .. 
. . . . . 
0 ··· 0 0 ··· 0 bn

qui correspond au système d’équations linéaires




x1 +a1,r+1 xr+1 + · · · + a1,n xn = b1 ,

 .. ..


 . .

xr +ar,r+1 xr+1 + · · · + ar,n xn = br ,


 0 = br+1 ,

 ..
.




0 = bn .

36 CHAPTER 4. MATRICES

Donc, ce système admet une solution si et seulement si br+1 = · · · = bn = 0.


Dans ce cas, la solution générale est donnée par
       
x1 b1 a1,r+1 a1,n
 ..   ..   .   . 
 .  =  .  − tr+1  ..  · · · − tn  ..  , xi = ti r < i ≤ n.
xr br ar,r+1 ar,n

4.2.3 Interprétation matricielle


Ici, on interprète les opérations que l’on a utilisées avec le pivot de Gauss
en termes matriciels.
En effet, les opérations (I), (II) et (III) correspondent à la multiplication
d’une matirce à gauche; précisément,
l’opération (I) correspond à la multiplication de la matrice
 
X
P (i, j) :=  Ek,k  + Ei,j + Ej,i
k6=i,j

à gauche,
l’opération (II) correspond à la multiplication de la matrice
 
X
Di (t) :=  Ek,k  + tEi,i
k6=i

à gauche,
l’opération (III) correspond à la multiplication de la matrice

xi,j (t) := 1n + tEi,j

à gauche. Cette matrice est appelée une transvection.

Une question naı̈ve se pose : si on multiplie ces matrices à droite, que


va-t-il se passer ?
La réponse est que la multiplication de ces matrices à gauche correspond
à certaines opérations sur les lignes tandis que celle à droite correspond à
certaines opérations sur les colonnes. C’est-à-dire,
(I’) la multiplication de la matrice P (i, j) à droite fait permuter la i-ième
et j-ième colonne,

(II’) la multiplication de la matrice Di (t) à droite fait multiplier t sur la


i-ième cologne, et

(III’) la multiplication de la matrice xi,j (t) à droite fait ajouter t fois la


j-ième colonne à i-ième colonne.
4.2. MATRICES II : ASPECT PRATIQUE (05/11) 37

Pourtant, en ce qui concerne les systèmes d’équations linéaires, il est naturel


de considérer les opérations sur les lignes. C’est la raison pour laquelle, on
a traité les opérations sur les lignes en détail.

Remarque 4.2.1. Par la formule


        
1 1 1 0 1 1 0 1 −1 0 0 1
= =
0 1 −1 1 0 1 −1 0 0 1 1 0

et les arguments ci-dessus, on voit que toute matrice carrée inversible peut
s’écrire comme le produit de matrices diagonales inversibles et des transvec-
tions.

4.2.4 Le rang d’une matrice


Rappelons la démonstration de la formule du rang. Soient E, F des K-
espaces vectoriels de dimension n et m respectivement et u une application
linéaire. La clef est que l’on peut trouver des bases B = {e1 , · · · , en } de E
et C = {f1 , · · · , fm } de F telles que

1. {er+1 , · · · , en } est une base de Ker u,

2. u(ei ) = fi pour 1 ≤ i ≤ r.

Dans ces bases, la matrice de u a la forme simple suivante


 
1 0 ··· 0
 .. .. .. 
 . . .
 
 1 0 · · · 0 
matB,C (u) = 
0 · · · 0 0 · · · 0 ,
 (4.4)
 
 .. .. .. .. 
. . . .
0 ··· 0 0 ··· 0

avec r nombres de 1. Ce nombre r est la dimension de Imu, donc le rang


rg(u).
En général, soient u ∈ L(E, F ) et B ⊂ E, C ⊂ F des bases. Posons
A := matB,C (u). L’argument ci-dessus avec la proposition 4.1.7 montre qu’il
existe des matrices inversibles P ∈ Mm (K) et Q ∈ Mn (K) telles que P AQ
soit une matrice de la forme (4.4). Dans ce cas, on dit que le rang de
la matrice A est r. Le lemme suivant est un corollaire immédiate de la
propsotion 4.1.8 :

Lemme 4.2.2. Pour toute matrice A ∈ Mm,n (K), on a rg(t A) = rg(A).

D’après la sous-section précédente, on voit que toute la matrice peut se trans-


former sous la forme (4.4) par les opérations (I) ∼ (III) et (I’) ∼ (III’), c.-à-d.,
le rang d’une matrice peut ^ etre calculé par le pivot de Gauss.
38 CHAPTER 4. MATRICES

Au point de vue pratique, cela demande un peu trop de calculs... En


effet, on peut calculer le rang d’une matrice avec les opérations sur les lignes
sans utiliser celles sur les colonnes. Par opérations sur les lignes, on peut
toujours ramener une matrice A ∈ Mm,n (K) à la forme
 
1 a1,r+1 · · · a1,n
 .. .. .. 
 . . . 
 

 1 ar,r+1 · · · ar,n  .
0 · · · 0 0 ··· 0 
 
 .. .. .. .. 
. . . . 
0 ··· 0 0 ··· 0

Alors le rang rg(A) est r, car le rang est, par définition, le nombre de vecteurs
en colonne (où en ligne, c’est la même chose d’après le lemme 4.2.2).
La remarque dans la sous-section précédente se généralise comme suit :
Remarque 4.2.3. Toute matrice carrée peut s’écrire comme le produit de
matrices diagonales et de transvections, car elle est le produit de matrices
inversibles et d’une matrice de la forme (4.4).

4.3 Déterminant I : aspect théorique (19/11)


Ici, on va parler du déterminant de matrices carrées et de ses applications.

4.3.1 Rappels sur les groupes symétriques


Soit n ∈ N tel que n > 1. Rappelons que le groupe des permutations de
degré n, noté Sn , est l’ensemble

{σ : {1, 2, · · · , n} −→ {1, 2, · · · , n} | σ bijective}

muni de la composition d’applications. Le groupe est aussi appelé le groupe


symétrique d’indice n. L’ordre de ce groupe est n!, c.-à-d., il y a n!
applications bijectives de {1, 2, · · · , n} vers lui-même.
Un élément de Sn est dit une permutation et, pour 1 ≤ i 6= j ≤ n, la
permutation σ définie par

j
 si k = i,
σ(k) := i si k = j,

k sinon,

est appellée aussi une transposition et notée par (i, j). Alors,
Lemme 4.3.1. Sn est engendré par les transpositions, autrement dit, toute
permutation se décompose en produit de transpositions.
4.3. DÉTERMINANT I : ASPECT THÉORIQUE (19/11) 39

Preuve. Procédons par récurrence. Dans le caas n = 2, l’ennoncé est clair


(car S2 = {id, (1, 2)}). Supposons le cas du rang n − 1. Montrons pour le
rang n. Soit σ ∈ Sn . Si σ(n) = n, σ permute {1, 2, · · · , n − 1}, donc par
récurrence, elle se décompose en produit de transpositions. Sinon, posons
i := σ(n), la permutation (i, n) ◦ σ fixe n, donc, ce cas peut se déduire du
cas où σ(n) = n.

Remarque 4.3.2. Pour 1 ≤ i < n, posons σi = (i, i + 1). Alors, pour


1 ≤ i < j ≤ n, on peut vérifier (exercice !)

(i, j) =σi ◦ σi+1 ◦ · · · ◦ σj−2 ◦ σj−1 ◦ σj−2 ◦ · · · ◦ σi+1 ◦ σi


=σj−1 ◦ σj−2 ◦ · · · ◦ σi+1 ◦ σi ◦ σi+1 ◦ · · · ◦ σj−2 ◦ σj−1 .

Avec le lemme ci-dessus, on voit que Sn est engendré par σ1 , σ2 , · · · , σn−1 .

Maintenant, on considère l’application sgn de Sn dans R∗ définie par


Y σ(j) − σ(i)
sgn(σ) := .
j−i
1≤i<j≤n

Alors, on peut montrer que (exercice !)

1. Im sgn = {±1},

2. pour σ, τ ∈ Sn , sgn(σ ◦ τ ) = sgn(σ)sgn(τ ).

C’est-à-dire, sgn est un morphisme de groupes de Sn dans {±1}.

Remarque 4.3.3. Le noyau de ce morphisme Ker sgn := {σ ∈ Sn |sgn(σ) =


1} est le sous-groupe de Sn d’indice 2 appelé le groupe alterné de degré
n et noté An .

4.3.2 Définition et quelques propriétés


Fixons n ∈ N tel que n > 1. Pour A = (ai,j )1≤i,j≤n ∈ Mn (K), on aussi note
A = (a1 , · · · , an ) où aj = t (a1,j , a2,j , · · · , an,j ). Alors,

Lemme 4.3.4. Il existe une application F non triviale de Mn (K) dans K


telle que

1. (Multilinéaire) pour 1 ≤ j ≤ n et λ ∈ K,
j
^
F (a1 , · · · , aj + λa0j , · · · , an )
j
j ^
^
=F (a1 , · · · , aj , · · · , an ) + λF (a1 , · · · , a0j , · · · , an ),
40 CHAPTER 4. MATRICES

2. (Antisymétrique) pour σ ∈ Sn ,

F (aσ(1) , · · · , aσ(n) ) = (sgnσ)F (a1 , · · · , an ).

L’antisymétrie pour σ = (i, j) implique que


i j i j
^ ^ ^ ^
F (a1 , · · · , aj , · · · , ai , · · · , an ) = −F (a1 , · · · , ai , · · · , aj , · · · , an ).

(D’après le lemme 4.3.1, l’antisymétrie pour tout (i, j) (i 6= j) implique


l’antisymétrie pour tout σ ∈ Sn . ) En particulier, on a
i j
^ ^
F (a1 , · · · , a , · · · , a , · · · , an ) = 0. (4.5)

Preuve. Notons {e1 , · · · , en } la base canonique de Kn . Alors, on a


n
X n
X
F (a1 , · · · , an ) =F ( ai,1 ei , · · · , ai,n ei )
i=1 i=1
X
= ai1 ,1 ai2 ,2 · · · , ain ,n F (ei1 , ei2 , · · · , ein ).
i1 ,··· ,in

Par (4.5), s’il existe j 6= k tel que ij = ik , alors F (ei1 , ei2 , · · · , ein ) = 0, donc
on peut supposer que i1 , i2 , · · · , in sont tous différents. Donc,
X
F (a1 , · · · , an ) = ai1 ,1 ai2 ,2 · · · , ain ,n F (ei1 , ei2 , · · · , ein )
{i1 ,··· ,in }={1,··· ,n}
X
= aσ(1),1 aσ(2),2 · · · aσ(n),n F (eσ(1) , eσ(2) , · · · , eσ(n) ).
σ∈Sn

Par l’antisymétrie, on a F (eσ(1) , · · · , eσ(n) ) = (sgnσ)F (e1 , · · · , en ), ce qui


implique que
X
F (a1 , · · · , an ) = (sgnσ)aσ(1),1 aσ(2),2 · · · aσ(n),n F (e1 , · · · , en ).
σ∈Sn

Posons c := F (e1 , · · · , en ), on obtient une application non triviale. Si


l’application F est donnée par cette formule, il est facile de vérifier qu’une
telle application est multilinéaire et antisymétrique.

Définition 4.3.1. La valeur de A ∈ Mn (K) par F du lemme 4.3.4 nor-


malisée par F (e1 , e2 , · · · , en ) = 1 est dit le déterminant de A, noté det A,
ou encore |A|. Pour une matrice A = (ai,j ) ∈ Mn (K), il est aussi noté
comme suit
a1,1 · · · a1,n
.. .. .
. .
an,1 · · · an,n
4.3. DÉTERMINANT I : ASPECT THÉORIQUE (19/11) 41

Remarque 4.3.5. D’après la démonstration du lemme 4.3.4, on a pour


A = (ai,j )
X
det A = (sgnσ)aσ(1),1 aσ(2),2 · · · aσ(n),n
σ∈Sn
X
= (sgnσ)a1,σ(1) a2,σ(2) · · · an,σ(n) .
σ∈Sn

La remarque ci-dessus implique que


Lemme 4.3.6. Pour tout A ∈ Mn (K), on a det(t A) = det(A).
Ce lemme implique que le déterminant est non seulement multilinéaire
et antisymétrique pour les colonnes mais aussi pour les lignes !
Le lemme suivant est aussi important :
Lemme 4.3.7. Pour A, B ∈ Mn (K), on a det(AB) = det(A) det(B).
Preuve. Notons A = (a1 , · · · , an ) et B = (bi,j ). Alors, il est clair que
Xn n
X
AB = ( bi,1 ai , · · · , bi,n ai ).
i=1 i=1
Donc, par un argument similaire à la démonstration du lemme 4.3.4, on a
n
X n
X
det(AB) = det( bi,1 ai , · · · , bi,n ai )
i=1 i=1
X
= bσ(1),1 bσ(2),2 · · · bσ(n),n det(aσ(1) , · · · , aσ(n) )
σ∈Sn
!
X
= det(a1 , · · · , an ) (sgnσ)bσ(1),1 bσ(2),2 · · · bσ(n),n
n∈Sn
= det(A) det(B).

Ce lemme implique un corollaire important :


Corollaire 4.3.8. Si une matrice carrée A ∈ Mn (K) est inversible, on a
det(A) 6= 0.
Preuve. En effet, si A est inversible, il existe une matrice B ∈ Mn (K) telle
que AB = BA = 1n . Donc, par le lemme ci-dessus, on a det(A) det(B) =
det(1n ) = 1.
Plus tard, on montrera que cette condition est aussi suffisante.
 
a b
Exemple 4.3.2. Soit A = ∈ M2 (K). Alors, on a
c d
det(A) = det(ae1 + ce2 , be1 + de2 ) = det(ae1 , de2 ) + det(ce2 , be1 )
=(ad − bc) det(e1 , e2 ) = ad − bc.
42 CHAPTER 4. MATRICES

4.3.3 Interprétation géométrique∗


Pour une matrice carrée A = (a1 , · · · , an ) ∈ Mn (K), soit
n
X
ΓA := { ti ai |0 ≤ ti ≤ 1}
i=1

le parallélotope engendré par a1 , . . . , an . En particulier, dans le cas n = 2,


ce n’est que le parallélogramme engendré par a1 et a2 .
Considérons le cas n = 2. Par (4.5), on a

det(a1 , a2 ) = det(a1 , a2 + ta1 ) = det(a1 + ta2 , a2 ), t ∈ K.

Alors, la forme des parallelogrammes changent mais ses aires sont toujours
les mêmes, car ce sont des transvections ! Avec les transvections, on peut se
ramener aucas où ΓA devient un rectangle, en particulier, A est une matrice
p 0
diagonale qui a le déterminant égal à pq. Evidement, l’aire du
0 q
rectangle engendré par (p, 0) et (0, q) est |pq|, ceci implique que | det(A)| =
vol(ΓA ), où vol(ΓA ) signifie le volume de ΓA .
Cet argument se généralise pour n général, et on en conclut que

| det A| = vol(ΓA ).

Remarque 4.3.9. Soit u ∈ L(Kn ) et B la base canonique de Kn . Posons


A = matB (u). Par définition, on a ΓA = u(Γ1n ). Découpant la carte
cartésienne en petits morceaux, on voit que, pour tout D ⊂ Kn dont cela a
du sens de parler de son volume, la formule suivante est valable :

vol(u(D)) = | det A|vol(D).

Les détails seront traités plus tard en analyse.

4.4 Déterminant II : aspect pratique (03/12)


Ici, on va présenter une méthode pratique pour calculer le déterminant d’une
matrice carrée. Comme d’habitude, K est un corps commutatif.

4.4.1 Cas simple


Soit n ∈ N tel que n > 1. On commence par une observation

t1 0 ··· 0
.. .. n
0 t2 . . Y
.. .. .. = ti .
. . . 0 i=1
0 ··· 0 tn
4.4. DÉTERMINANT II : ASPECT PRATIQUE (03/12) 43

Soient p, q ∈ N tels que p, q > 1 et A = (ai,j ) ∈ Mp (K), B =  (bi,j ) ∈ Mq (K).



A 0p,q
Le but est de calculer le déterminant de la matrice M := ∈
0q,p B
M
 p+q (K), où
 0k,l est lamatrice nulle dans Mk,l (K). Notons que M =
A 0p,q 1p 0p,q
, d’après le lemme 4.3.7, il nous suffit de calculer
0q,p 1q 0q,p B
le déterminant de chaque matrice. Calculons celui de la première d’abord.
Par définition, on a
  p p
A 0p,q X X
det = det( ai,1 ei , · · · , ai,p ei , ep+1 , · · · , ep+q )
0q,p 1q
i=1 i=1
X
= ai1 ,1 · · · aip ,p det(ei1 , · · · , eip , ep+1 , · · · , ep+q )
1≤i1 ,··· ,ip ≤p
X
= aσ(1),1 · · · aσ(p),p det(eσ(1) , · · · , eσ(p) , ep+1 , · · · , ep+q )
σ∈Sp
X
= (sgnσ)aσ(1),1 · · · aσ(p),p det(e1 , · · · , ep , ep+1 , · · · , ep+q )
σ∈Sp

= det(A).

Maintenant, calculons celui de la deuxième. Pour le cas p = 1, on a

1 0 ··· 0 0 ··· 0 1 b1,1 · · · b1,q 0


0 b1,1 · · · b1,q b ··· b1,q 0 .. .. ..
q 1,1 . . . ,
.. .. .. = (−1) .. .. .. =
. . . . . . bq,1 · · · bq,q 0
0 bq,1 · · · bq,q bq,1 · · · bq,q 0 0 ··· 0 1

par l’antisymétrie. Pour un p quelconque, c’est pareil et on obtient que


 
1p 0p,q
det = det(B),
0q,p B

on en déduit que det(M ) = det(A) det(B). Pour le cas général, on peut


montrer par récurrence :

Lemme 4.4.1. Soit M une matrice diagonale par blocs, i.e., il existe Ai ∈
Mni (K) (1 ≤ i ≤ k) telles que
 
A1 0 · · · 0
. 
 0 . . . . . . .. 

M =  .. . . ..
.

 . . . 0
0 · · · 0 Ak
Qk
Alors, on a det(M ) = i=1 det(Ai ).
44 CHAPTER 4. MATRICES

4.4.2 Développement en cofacteurs


Ici, on va expliquer une méthode pour calculer le déterminant.
Soit A = (ai,j ) ∈ Mn (K). On va calculer det(A). Pour 1 ≤ i, j ≤ n,
posons
a1,1 ··· a1,j−1 a1,j+1 ··· a1,n
.. .. .. ..
. . . .
ai−1,1 · · · ai−1,j−1 ai−1,j+1 · · · ai−1,n
Ai,j := (−1)i+j .
ai+1,1 · · · ai+1,j−1 ai+1,j+1 · · · ai+1,n
.. .. .. ..
. . . .
an,1 ··· an,j−1 an,j+1 ··· an,n
Ai,j est apellé le cofacteur associé à (i, j) de la matrice A et (−1)i+j Ai,j
est appelé la mineur associé à (i, j) de la matrice A.
Par multilinéarité, pour la i-ième ligne, on a
a1,1 ··· a1,j−1 a1,j a1,j+1 ··· a1,n
.. .. .. .. ..
. . . . .
n
X ai−1,1 · · · ai−1,j−1 ai−1,j ai−1,j ··· ai−1,n
det(A) = ai,j 0 ··· 0 1 0 ··· 0 .
j=1 ai+1,1 · · · ai+1,j−1 ai+1,j ai+1,j ··· ai+1,n
.. .. .. .. ..
. . . . .
an,1 ··· an,j−1 an,j an,j+1 · · · an,n
Dans cette formule, le coefficient de ai,j est égal à Ai,j pour la raison suivante.
En effet, il est égal à
a1,1 ··· a1,j−1 0 a1,j+1 ··· a1,n
.. .. .. .. ..
. . . . .
ai−1,1 · · · ai−1,j−1 0 ai−1,j ··· ai−1,n
0 ··· 0 1 0 ··· 0 ,
ai+1,1 · · · ai+1,j−1 0 ai+1,j ··· ai+1,n
.. .. .. .. ..
. . . . .
an,1 ··· an,j−1 0 an,j+1 · · · an,n
par (4.5) et ce dernier est égal à Ai,j par antisymétrie et le lemme 4.4.1.
D’après le lemme 4.3.6, ceci implique que l’on peut aussi développer par
rapport à la j-ième colonne (1 ≤ j ≤ n). En résumé, on obtient
Proposition 4.4.2. Pour 1 ≤ i, j ≤ n, on a:
1. développement par rapport à la i-ième ligne
n
X
det A = ai,j Ai,j ,
j=1
4.4. DÉTERMINANT II : ASPECT PRATIQUE (03/12) 45

2. développement par rapport à la j-ième colonne


n
X
det A = ai,j Ai,j .
i=1

Par cette proposition et (4.5), on voit bien que


X n
X
ai,j Ai0 ,j = δi,i0 det(A), ai,j Ai,j 0 = δj,j 0 det(A).
j=1 i=1

C’est-à-dire, posons com(A) := (Ai,j )1≤i,j≤n ∈ Mn (K), on a

A · t com(A) = t com(A) · A = (det(A))1n .

La matrice com(A) est appelée la comatrice de A. Cette formule implique


la récirpoque du corollaire 4.3.8. Donc, on obtient la proposition suivante :
Proposition 4.4.3. Soit A ∈ Mn (K).
1. La matrice A admet un inverse si et seulement si det(A) 6= 0.
2. Lorsque det(A) 6= 0, on a
1 t
A−1 = com(A).
det(A)

Remarque 4.4.4. Attention! En général, le deuxième énoncé de cette


proposition n’est pas utile, même s’il montre théoriquement qu’une matrice
carrée A est inversible si det(A) 6= 0.

4.4.3 Exemples
On a déjà considéré le déterminant d’une matrice diagonale, ainsi que d’une
matrice diagonale par blocs. Ici, on présente quelques autres cas qu’il faut
connaı̂tre.
Le premier cas est celui des matrices triangulaires. Une matrice carrée
A = (ai,j ) ∈ Mn (K) est dite triangulaire supérieure si ai,j = 0 pour i > j
et triangulaire inférieure si ai,j = 0 pour i < j. Notons que la transposée
d’une matrice triangulaire supérieure est une matrice triangulaire inférieure
et vice-versa. Donc, d’après le lemme 4.3.6, il nous suffit de considérer, par
exemple, une matrice triangulaire. Par le développement par rapport à la
première colonne (cf. proposition 4.4.2), on a

a1,1 · · · ··· a1,n a2,2 · · · ··· a2,n


.. .. .. ..
0 . . 0 . .
.. .. .. .. = a1,1 .. .. .. .. .
. . . . . . . .
0 ··· 0 an,n 0 ··· 0 an,n
46 CHAPTER 4. MATRICES

Donc, par récurrence, on obtient que det(A) = ni=1 ai,i , c.-à-d., le déterminant
Q
de A est le produit des composantes diagonales de A.
Le deuxième cas est celui des matrices de Vandermonde de taille (n, n).
Soient λ1 , · · · , λn ∈ K∗ . La matrice dont on s’intéresse ici est
 
1 1 ··· 1
 λ1 λ2 · · · λn 
V = . ..  .
 
. .
.
 . . . 
n−1 n−1 n−1
λ1 λ2 · · · λn

Calculons det(V ). Par (4.5) et l’antisymétrie, ajoutant −λ1 fois la i-ième


ligne à (i + 1)-ième ligne, dans l’ordre de i = n − 1, n − 2, · · · , 1, on voit que

1 1 ··· 1
0 (λ2 − λ1 ) ··· (λn − λ1 )
det(V ) = . .. .. .
.. . .
0 λn−2
2 (λ2 − λ1 ) · · · λnn−2 (λn − λ1 )

Appliquant le développement par rapport à la première colonne, par la mul-


tilinéarité, on a

1 1 ··· 1
n
Y λ2 λ3 ··· λn
det(V ) = (λi − λ1 ) .. .. .. .
i=2 . . .
λn−2
2 λ3n−2 · · · λn−2
n

Donc, par récurrence, on obtient que


Y
det(V ) = (λj − λi ).
1≤i<j≤n

Ce déterminant est appelé le déterminant de Vandermonde. Cette for-


mule est très utile.
Le troisième cas est celui des matrices circulaires. Soient a0 , a1 , · · · , an−1 ∈
K, on considère la matrice
 
a0 a1 · · · an−1
.. 
an−1 . . . ..

. . 
C :=  .

. .
.
 . . . . . . a1 

a1 · · · an−1 a0
 √ 
2π −1
Soit ω une n-ième racine de l’unité, e.g., ω = exp n . Pour 0 ≤ i < n,
t (1, ω i , · · ·
Pn−1
on pose vi := , ω (n−1)i ). Posons Q(λ) := k=0 ak λk , on voit que
4.4. DÉTERMINANT II : ASPECT PRATIQUE (03/12) 47

Cvi = Q(ω i )vi pour 0 ≤ i < n. Donc, posons P = (v0 , v1 , · · · , vn−1 ) et


 
Q(1) 0 ··· 0
 .. .. .. 
 0 . . . 
D :=  .. ..
,

 . . 0 
0 ··· 0 Q(ω n−1 )

on
Q obtient CP = P D. Par le déterminant de Vandermonde, on a det(P ) =
(ω j − ω i ) 6= 0, donc P est inversible d’après la proposition 4.4.3.
0≤i≤j<n
Donc, les lemmes 4.3.7 et 4.4.1 impliquent que
n−1
Y
det(C) = det(P DP −1 ) = det(D) = Q(ω i )
i=0
n−1
Y
= (a0 + a1 ω i + · · · + an−1 ω (n−1)i ).
i=0
48 CHAPTER 4. MATRICES
Chapter 5

Polynômes et Fractions
rationelles

5.1 Polynôme (10/12)


Soit A un anneau commutatif et unitaire.

5.1.1 Définition
L’anneau des polynômes en une indéterminée, on notera A[X] cet anneau,
est défini de la façon suivante. Un monôme est une expression de la forme

λX m

où λ ∈ A et m ∈ N. Ici, par convention, on pose X 0 := 1. Un polynôme


est une somme d’un nombre fini de monômes. L’addition et la multi-
plication
Pm Pn  comme
s’éffectuent
i, Q =
on l’imagine . C’est-à-dire, pour P =
j ∈ A[X], l’addition est définie par
a
i=0 i X b
j=0 j X

max{m,n}
X
P + Q := (ak + bk )X k ,
k=0

où on pose ak = 0, pour k > m, et bk = 0, pour k > n. La multiplication


est définie par  
m+n
X  X  k
P Q := 
 a i bj
X .

k=0 i,j≥0
i+j=k

Avec ces deux opérations,

Lemme 5.1.1. A[X] est un anneau commutatif et unitaire.

49
50 CHAPTER 5. POLYNÔMES ET FRACTIONS RATIONELLES

Définition 5.1.1. Soit P = ni=0 ai X i ∈ A[X] tel que an 6= 0. Le degré de


P
P est l’entier n, noté deg(P ) ou d◦ (P ). Par convention, on pose deg(0) :=
−∞.

Remarque 5.1.2. La définition d’un polynôme donnée ci-dessus est imprécise.


Si cela vous pose problème, voici une autre définition. Considérons l’ensemble
AN des éléments de la forme (ai )i∈N tels que ai ∈ A et que ai soit nul pour
i suffisament grand. Soient a = (ai )i∈N et b = (bi )i∈N deux éléments de AN .
On pose
a + b := (ai + bi )i∈N ,
et
m
X
a · b := c, avec cm = ak bm−k .
k=0
i
^
Alors, AN est isomorphe à A[X] en associant (0, . . . , 0, 1 , 0, . . .) à X i .

5.1.2 Division euclidienne


Ici, on considère le cas où A est un corps commutatif K. Dans ce cas, on a

Lemme 5.1.3. L’anneau K[X] est intègre.


Pm i
Pn j
Preuve. Soient P = i=0 ai X et Q = j=0 bj X deux polynômes dans

K[X] tels que am , bn ∈ K . Alors, le terme de plus haut degré de P Q est
am bn X m+n qui est non nul car am bn 6= 0 par hypothèse, d’où P Q 6= 0.

Remarque 5.1.4. Par la démonstration ci-dessus, on peut généraliser ce


résultat de la façon suivante: pour un anneau intègre unitaire A, l’anneau
des polynômes A[X] est aussi intègre.

De plus, on a l’additivité du degré :

Lemme 5.1.5. Soient P, Q deux polynômes dans K[X]. Alors,

deg(P Q) = deg(P ) + deg(Q).

Preuve. Exercice.

D’abord, rappelons la division euclidienne pour l’anneau Z des entiers


relatifs. Soient a un entier et b ≥ 1 un entier strictement positif. Alors, il
existe un et un seul couple (q, r) d’entiers vérifiant les conditions suivantes :

a = bq + r 0 ≤ r < b.

Ici, on montre que cette division se généralise au cas de l’anneau K[X],


c.-à-d.,
5.1. POLYNÔME (10/12) 51

Théorème 5.1.6. Soient P, Q deux polynômes de K[X]. On suppose que


deg(Q) > 0. Alors, il existe un unique couple de polynômes (R, S) dans
K[X] vérifiant les conditions suivantes :

1. P = QS + R,

2. deg(R) < deg(Q).

Lorsque R = 0 dans ce théorème, on dit que Q divise P .

Preuve. Montrons d’abord l’unicité. Si P = QS + R = QS 0 + R0 , alors


Q(S 0 − S) = R − R0 et de degré au plus max{deg(R), deg(R0 )} < deg(Q).
Supposons que S 6= S 0 , i.e., S 0 − S 6= 0. Alors, on a

deg(Q) > deg(R − R0 ) = deg(Q(S 0 − S)) = deg(Q) + deg(S 0 − S) ≥ deg(Q),

ce qui contredit, c.-à-d., R0 = R et S 0 = S.


Montrons maintenant l’existence du couple (R, S) comme dans le théorème.
Notons cQ X deg(Q) le terme de plus haut degré de Q. On raisonne par
récurrence sur le degré de P . Si deg(P ) < deg(Q), il suffit de poser R = 0
et S = P . Sinon, soit cP X deg(P ) le terme de plus haut degré de P . Alors,
P 0 := P − cP c−1
Q X
deg(P )−deg(Q) Q est un polynôme de degré au plus deg(P )

dont le coefficient du terme de degré deg(P ) égal à cP − cP c−1


Q cQ = 0. Ainsi,
deg(P 0 ) < deg(P ). Par récurrence, il existe un couple de polynômes (R0 , S 0 )
tels que
P 0 = QS 0 + R0 , deg(R0 ) < deg(Q).
Alors, on a

P = P 0 + cP c−1
Q X
deg(P )−deg(Q)
Q = (cP c−1
Q X
deg(P )−deg(Q)
+ S 0 )Q + R0 .

Donc, il suffit de poser S = S 0 + cP c−1


Q X
deg(P )−deg(Q) et R = R0 .

Comme dans le cas de Z, une conséquence importante du théorème 5.1.6


est ce que l’on appelle l’identité de Bézout :

Corollaire 5.1.7. Soient P, Q deux polynômes dans K[X] non nuls tels que
deg(P ) ≥ deg(Q) > 0. Alors, il existe un couple de polynômes (A, B) dans
K[X] tel que
AP + BQ = D,
où D := P GCD(P, Q).

Une autre
P conséquence utile concerne la factorisation d’un polynôme.
Soit P = ni=1 ai X i un polynôme de degré strictement positif. Pour P tout
α ∈ K, on pourra considérer l’évaluation de P en α, c-à-d., P (α) = ni=0 ai αi .
52 CHAPTER 5. POLYNÔMES ET FRACTIONS RATIONELLES

On dit aussi que l’on substitue α à X. Il est clair que, pour tous P, Q ∈ K[X]
et tout α ∈ K, on a
(P + Q)(α) = P (α) + Q(α), (P Q)(α) = P (α)Q(α).
D’après le théorème 5.1.6, il existe un polynôme Q dans K[X] et un scalaire
R ∈ K tels que
P (X) = Q(X)(X − α) + R.
En spécialisant X à α, on obtient P (α) = R. En particulier, on a
Corollaire 5.1.8. Un polynôme P dans K[X] est divisible par X − α, avec
un scalaire α ∈ K, si et seulement si P (α) = 0.
Définition 5.1.2. Soit P un polynôme dans K[X].
1. P est dit scindé s’il peut s’écrire comme produit de polynômes du
premier degré.
2. P est dit irréductible s’il est ni nul, ni constant, ni produit de deux
polynômes non-constants.
Le théorème suivant est connu sous le nom de théorème fondamental
de l’algèbre :
Théorème 5.1.9 (D’Alembert-Gauss). Tout polynôme dans C[X] est scindé.
Une démonstration de ce théorème utilise certaine théorie d’analyse com-
plexe. On admettra ce théorème.

5.2 Fraction rationnelle (17/12)


A partir de Z, on peut construire le corps Q des nombres rationnelles. Ici,
on va construire le corps K(X) à partir de l’anneau K[X] en imitant la
construction de Q.

5.2.1 Définition
On commence par une définition formelle. Considérons T := K[X]×(K[X]\
{0}). On définit une relation ∼ sur T comme suit: pour (P, Q), (P 0 , Q0 ) ∈ T ,
(P, Q) ∼ (P 0 , Q0 ) ⇐⇒ P Q0 = P 0 Q.
C’est une relation d’équivalence sur T (montrer-le). L’ensemble des classes
d’équivalence T / ∼ est noté K(X). L’élément de K(X) représenté par
P P P0
(P, Q) ∈ T est noté , appelé fraction rationnelle. Pour , 0 ∈ K(X),
Q Q Q
on définit une addition sur K(X) par
P P0 P Q0 + P 0 Q
+ 0 := ,
Q Q QQ0
5.2. FRACTION RATIONNELLE (17/12) 53

et une multiplication sur K(X) par


P P0 PP0
· 0 := .
Q Q QQ0
Comme dans le cas du corps Q, on peut montrer
Lemme 5.2.1. Ces opérations sont bien définies. De plus, pour ces opérations,
K(X) est un corps, appelé corps des fractions rationnelles.
Preuve. Exercice.

5.2.2 Décomposition en éléments simples


P
Soit ∈ K(X) un élément non nul. Quitte à simplifier la fraction, on
Q
suppose que P et Q sont premiers entre eux. Par la division euclidienne
(cf. le théorème 5.1.6), il existe un couple de polynômes (R, S) tels que
P = QS + R et que deg(R) < deg(Q). Alors, on a
P QS + R R
= =S+ .
Q Q Q
R
Une question se pose : est-ce que la fraction Q se décompose dans une forme
encore plus simple ?
La réponse est OUI ! On va répondre à la question ci-dessus.
P
Ici, on consèdere la fraction . Soit Q = ri=1 Qm
Q i
i une décomposition
Q
en produit de polynômes irréductibles, où Qi et Qj sont premiers entre eux
pour i 6= j.
1. D’abord, considérons le cas r = 1 !
Si deg(P ) < deg(Q1 ), on ne peut plus décomposer. Supposons que deg(P ) ≥
deg(Q1 ). Alors, il existe un entier n ∈ N∗ tel que n deg(Q1 ) ≤ deg(P ) <
(n+1) deg(Q1 ). Par la division euclidienne, il existe un couple de polynômes
(An , Pn−1 ) de K[X] tel que

P = An Qn1 + Pn−1 , 0 ≤ deg(Pn−1 ) < deg(Q1 ).

Par la définition de n, on a 0 ≤ deg(An ) < deg(Q1 ). Par la division eucli-


dienne de Pn−1 par Qn−11 , il existe un couple de polynômes (An−1 , Pn−2 ) de
K[X] tel que

Pn−1 = An−1 Qn−1


1 + Pn−2 , 0 ≤ deg(Pn−2 ) < deg(Q1 ).

Vu le degré de Pn−1 , on a deg(An−1 ) < deg(Q1 ). En répétant cette opération,


on déduit qu’il existe des polynômes A0 , A1 , · · · , An ∈ K[X] tels que

P = An Qn1 + An−1 Qn−1


1 + · · · + A1 Q 1 + A0 , deg(Ai ) < deg(Q1 ).
54 CHAPTER 5. POLYNÔMES ET FRACTIONS RATIONELLES

Donc, on obtient l’expression


P An An−1 A1 A0
= m1 −n + m −(n−1) + · · · + m1 −1 + m1 .
Q Q1 Q1 1 Q1 Q1
1
Bien sûr, si m < 0, on interprète = Q−m .
Qm
2. Maintenant, on considère le cas r = 2.

Comme Qm 1 m2
1 et Q2 sont premiers entre eux, d’après l’identité de Bézout,
il existe un couple de polynômes (P1 , P2 ) de K[X] tel que
P1 Qm 2 m1
2 + P2 Q1 = P.

(Attention aux indices !) Alors, on a


P P 1 Qm2 m1
2 + P2 Q1 P1 P2
= m1 m2 = m1 + m2 ,
Q Q1 Q2 Q1 Q2
et on peut appliquer la méthode expliquée pour le cas r = 1. Donc, il existe
(1) (2)
deux entiers n1 , n2 positifs et des polynômes Ai1 , Ai2 (0 ≤ ik ≤ nk , k = 1, 2)
tels que
n1 (1) n2 (2)
P X Ai X Ai
= 1 −i
+ 2 −i
.
Q
i=0
Qm1 i=0
Qm2

3. Finalement, considérons le cas général !


Comme Qm et ri=2 Qm
1
Q i
1 i sont premiers entre eux, d’après l’identité de
Bézout, il existe un couple de polynômes (P1 , P20 ) de K[X] tel que
r
Y
P1 Qm i 0 m1
i + P2 Q1 = P.
i=2

Alors, on a
P P1 P0
= m1 + Qr 2 mi .
Q Q1 i=2 Qi
Par récurrence de r, on déduit qu’il existe des polynômes Pi (1 ≤ i ≤ r) de
K[X] tels que
r
P X Pi
= ,
Q Qm i
i
i=1
et on peut appliquer la méthode expliquée pour le cas r = 1. Donc, il existe
(k)
des entiers positifs ni (1 ≤ i ≤ r) et des polynômes Aik (0 ≤ ik ≤ nk , 1 ≤
k ≤ r) tels que
r Xnk (k)
P X Aik
= .
Q Qmk −ik
k=1 ik =0 k
Cette décomposition est appelée décomposition en éléments simples.
Appendix A

Appendices

A.1 Lemme de Zorn


Ici, on énonce ce que l’on appelle le lemme de Zorn et on donne une appli-
cation.

A.1.1 L’énoncé
Un ensemble ordonné (E, ≤) est dit inductif si tout sous-ensemble totale-
ment ordonné possède un majorant.

Lemme A.1.1 (Zorn). Tout ensemble inductif admet au moins un élément


maximal.

C’est un lemme assez délicat est ici on l’admettra. Par exemple, c’est
équivalent à
L’axiome du choix Soit {Eλ }λ∈Λ une famille d’ensembles sur un en-
semble Λ. S’il existe un λ ∈ Q Λ tel que Eλ = ∅, alors par définition du produit
cartésien d’ensembles, Qon a λ∈Λ Eλ = ∅. Mais, si Eλ 6= ∅ pour tout λ ∈ Λ,
il n’est pas clair que λ∈Λ Eλ 6= ∅ pour la raison suivante : il faut Q  choisir
d’une infinité d’éléments xλ ∈ Eλ  pour dire que (xλ )λ∈Λ ∈ λ∈Λ Eλ ,
donc ce dernier n’est pas vide. L’axiome du choix est formulé comme suit :

Soit {Eλ }λ∈Λ une famille d’ensembles


Q tels que Eλ 6= ∅ pour tout λ ∈ Λ.
Alors, λ∈Λ Eλ 6= ∅.

A.1.2 Existence d’une base


Soit K un corps commutatif.

Théorème A.1.2. Soit E un K-espace vectoriel (de dimension quelconque).


Alors, E admet une base.

55
56 APPENDIX A. APPENDICES

Preuve. Si E = {0}, il n’y a rien à montrer, donc on suppose que E 6= {0}.


Posons
S := {S ⊂ E |S est une famille libre}.

Comme S contient {x} pour un x ∈ E \ {0}, S n’est pas vide. Regardant S


comme un ensemble ordonné par rapport à l’inclusion, montrons que (S, ⊂)
est un ensemble inductif.
Soit {Sα }α∈A un sous-ensemble totalement ordonné, c.-à.-d., pour tous α, β ∈
A, soit Sα ⊂ Sβ ou bien Sβ ⊂ Sα est valable. Alors, S∞ := ∪α∈A Sα est une
famille libre. En effet, pour tout sous-ensemble fini S 0 ⊂ S∞ , il existe α ∈ A
tel que S 0 ⊂ Sα . Comme Sα est une famille libre, S 0 l’est, donc, S∞ l’est
aussi. (Rappelons que l’on considère que les combinaisons linéaires finies.)
Donc, d’après le lemme de Zorn, il existe un élmément maximal B de S.
Montrons que B est une famille génératrice.
Supposons que Vect(B) ( E. Alors, pour un x ∈ E \ Vect(B), B ∪ {x} 6∈ S
par maximalité de B, c.-à.-d., la famille B ∪{x} ne peut pas être libre. Donc,
il existe des scalaires non tous nuls α, α1 , · · · , αn ∈ K et x1 , · · · , xn ∈ B tels
que
Xn
αx + αi xi = 0.
i=1

Si α = 0, alors x1 , · · · , xn deviennent liés, ce qui est une contradiction.


Donc, α 6= 0 et comme K est un corps, on a
n
X
−1
x = −α ( αi xi ) ∈ Vect(B).
i=1

Ceci contredit l’hypothèse que x 6∈ Vect(B). On en conclut que Vect(B) = E,


c.-à.d., B est une famille génératrice de E. Comme B ∈ S, elle est libre,
c’est donc une base de E.

A.2 Espace dual


Le but de cette section est d’expliquer l’interprétation de la transposée en
terme d’application linéaire. Pour cela, on introduit la notion du dual d’un
espace vectoriel. Fixons un corps commutatif K comme d’habitude.

A.2.1 Définition
Soit E un K-espace vectoriel.

Définition A.2.1. Le dual de E est le K-espace vectoriel L(E, K), noté


E ∗ . Un élément f ∈ E ∗ est appelé une forme linéaire.
A.2. ESPACE DUAL 57

Par exemple, supposons que E soit un K-espace vectoriel de dimension


n avec n ∈ N∗ et B = {e1 , · · · , en } une base de E. D’après la proposition
∈ E ∗ est déterminé par les données {f (ei )|1 ≤ i ≤ n}.
3.1.2, un élément fP
En effet, pour x = ni=1 xi ei ∈ E, on a
Xn n
X
f (x) = f ( xi ei ) = xi f (ei ).
i=1 i=1

En particulier, pour 1 ≤ i ≤ n, soit e∗i ∈ E ∗ la forme linéaire telle que


e∗i (ej ) = δi,j . Alors,
Lemme A.2.1. B ∗ = {e∗1 , · · · , e∗n } forme une base de E ∗ . En particulier,
on a dim E ∗ = dim E.
B ∗ est appelée la base duale de B. Pour x = ni=1 xi ei ∈ E, on a
P

n
X n
X n
X
e∗i (x) = e∗i ( xj ej ) = xj e∗i (ej ) = xj δi,j = xi ,
j=1 j=1 j=1

c.-à-d., cela signifie que


n
X
x= e∗i (x)ei .
i=1
Donc, B∗ joue un rôle de coordonnées.

A.2.2 Transposée d’une application linéaire


Maintenant, soient E, F deux K-espaces vectoriels.
Définition A.2.2. Pour u ∈ L(E, F ), on définit l’application linéaire t u ∈
L(F ∗ , E ∗ ) par t u(f ) := f ◦ u. L’application t u est appelée la transposée de
u.
Supposons que E, F soient de dimension n et m, respectivement, avec
m, n ∈ N∗ . Soient B = {e1 , · · · , en } une base de E et C := {f1 , · · · , fm }
une base de F . Posons A = (ai,j ) := matB,C (u) ∈ Mm,n (K). Soit B ∗ =
{e∗1 , · · · , e∗n } la base duale de B et C ∗ = {f1∗ , · · · , fm ∗ } la base duale de C.
t
PmCalculons la matrice matC ,B ( u). Pour 1 ≤ j ≤ n, on a u(ej ) =
∗ ∗

a
i=1 i,j i f par définition, donc on obtient, pour 1 ≤ i ≤ m,
m
!
X
t
u(fi∗ )(ej ) =fi∗ ◦ u(ej ) = fi∗ (u(ej )) = fi∗ ak,j fk
k=1
m
X m
X
= ak,j fi∗ (fk ) = ak,j δi,k = ai,j ,
k=1 k=1
Pn
i.e., t u(fi∗ ) = ∗
j=1 ai,j ej . On en déduit que
58 APPENDIX A. APPENDICES

Proposition A.2.2. matC ∗ ,B∗ (t u) = t matB,C (u).


Ceci explique le sens de la transposée d’une matrice. Ce lemme a une
implication intéressante.
Soient E, F, G des K-espaces vectoriels et u ∈ L(E, F ), v ∈ L(F, G) des
applications linéaires. Alors, on a
Proposition A.2.3. t (v ◦ u) = t u ◦ t v.
En effet, pour f ∈ G∗ , on a
t
(v ◦ u)(f ) = f ◦ (v ◦ u) = (f ◦ v) ◦ u = t u(f ◦ v) = t u(t v(f )) = (t u ◦ t v)(f ).
Cette proposition explique la nature de la proposition 4.1.8. D’après le
lemme 4.2.2, on a :
Proposition A.2.4. rg(t u) = rg(u).

A.2.3 Injectivité et surjectivité


Soient E, F deux K-espaces vectoriels. Ici, j’explique la dualité entre injec-
tivité et surjectivité, c.-à-d.,
Proposition A.2.5. Soit u ∈ L(E, F ) une application linéaire.
1. u est injective si et seulement si t u est surjective.
2. u est surjective si et seulement si t u est injective.
Preuve. Montrons 1. D’après la formule du rang, l’injectivité de u im-
plique rg(u) = dim E. Donc, d’après la proposition A.2.4, on obtient
rg(t u) = rg(u) = dim E = dim E ∗ , c.-à-d., t u est surjective. Montrons
2. L’application u étant surjective, on a rg(u) = dim F . Donc, d’après la
proposition A.2.4, on obtient rg(t u) = rg(u) = dim F = dim F ∗ . D’après la
formule du rang, ceci dit que t u est injective.

A.2.4 Bidual
Da’près le lemme A.2.1, on voit que E et E ∗ sont isomorphes lorsque E est
de dimension finie. En effet, en choisissant une base B = {u1 , · · · , un } de
E et une base B 0 = {v1 , · · · , vn } de E ∗ , on peut définir un isomorphisme ϕ
par ϕ(ui ) = vi (1 ≤ i ≤ n). Mais, il n’y a pas d’isomorphisme canonique,
c.-à-d., on ne peut pas donner un isomorphisme de E vers E ∗ sans choisir
des bases.
En revanche, on peut définir l’isomorphisme Φ de E dans le bidual
E ∗∗ := (E ∗ )∗ de E, par
Φ(x)(f ) := f (x).
La définition du morphisme Φ ne dépend pas d’un choix de base, Φ est alors
appelé l’isomorphisme canonique.
Théorème A.2.6. Le bidual E ∗∗ de E est canoniquement isomorphe à E.

Vous aimerez peut-être aussi