0% ont trouvé ce document utile (0 vote)
23 vues40 pages

Cours Alg

Ce document présente les concepts fondamentaux de l'algèbre linéaire, notamment les espaces vectoriels, leurs sous-espaces et la génération de sous-espaces. Il définit les propriétés des espaces vectoriels, les conditions nécessaires pour qu'un sous-ensemble soit un sous-espace vectoriel, ainsi que la notion de combinaison linéaire et de dimension finie. Le document vise à fournir les bases pour identifier et travailler avec des espaces vectoriels et leurs caractéristiques.

Transféré par

Serigne Saliou Diouf
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
23 vues40 pages

Cours Alg

Ce document présente les concepts fondamentaux de l'algèbre linéaire, notamment les espaces vectoriels, leurs sous-espaces et la génération de sous-espaces. Il définit les propriétés des espaces vectoriels, les conditions nécessaires pour qu'un sous-ensemble soit un sous-espace vectoriel, ainsi que la notion de combinaison linéaire et de dimension finie. Le document vise à fournir les bases pour identifier et travailler avec des espaces vectoriels et leurs caractéristiques.

Transféré par

Serigne Saliou Diouf
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Licence MI semestre 3 - Année 2004-2005 Université de Nice-Sophia-Antipolis

ALGÈBRE LINÉAIRE

Chapitre 1
Espaces vectoriels
sous-espaces vectoriels
génération d’espaces vectoriels

Dans la suite la lettre K désigne Q ou R ou C.

1 - Espaces vectoriels

Des règles de calculs usuels sur R, C, Rn ou Cn se dégage une struture algébrique que l’on formalise ici, la
structure d’espace vectoriel. L’étude de cette structure va mettre à jour des propriétés communes aux ensembles
de cette structure, propriétés parfois délicates à isoler si l’étude ne portait que sur les ensembles eux-mêmes.

Définition 1.1. Soit E un ensemble.


• On suppose que l’on peut associer à tout couple (u, v) d’éléments de E un troisième élément, que l’on
notera u + v (ou plus simplement u + v, lorsque l’on ne craindra pas de confondre + et une autre opération du
E E
même type) de sorte que :

i- Il existe un élément particulier dans E, noté nE , tels que : ∀u ∈ E, u + nE = nE + u = u


ii- Pour tout u ∈ E il existe u e ∈ E tel que u + u e=u e + u = nE
iii- Pour tout u, v, w ∈ E, (u + v) + w = u + (v + w)
On dit alors + est une loi interne sur E, que (E, +) est un groupe, que nE est un neutre de E. La
E E
propriété iii est l’associativité de la loi +. Elle permet de se passer des parenthèses dans une somme, puisque
E
pour effectuer cette somme on peut procéder par associations quelconques.
On montre de plus très facilement qu’il existe un unique neutre dans E, appelé le neutre de E et qu’à
chaque u ∈ E correspond un unique ue, appelé l’opposé de u.

• On suppose de plus que l’on peut associer à tout couple (λ, u) de K × E un élément de E, noté λ . u
E
(ou plus simplement λ.v, lorsque l’on ne craindra pas de confondre . et une autre opération du même type), de
E
sorte que :

i- ∀λ ∈ K, u, v ∈ E, λ.(u + v) = λ.u + λ.v


ii- ∀λ, µ ∈ K, u ∈ E, (λ + µ) . u = λ . u + µ . u
K E E E E
iii- ∀λ, µ ∈ K, u ∈ E, λ . (µ . u) = (λ . µ) . u
E E K E
iv- ∀u ∈ E, 1K . u = u
E

1
On dit alors que (E, +, . ) est un espace vectoriel sur K, que les éléments de E sont des vecteurs et les
E E
éléments de K des scalaires.

Remarque. Si E = {a} est un singleton, on peut le munir d’une structure d’espace vectoriel sur
K = Q, R, C etc... en posant a +E a = a et λ.a = a, pour tout λ ∈ K. On alors 0E = a et cet espace
vectoriel est appelé l’espace vectoriel nul, sa structure ne dépend pas de l’élément que contient a, pour cette
raison on note cet espace par E = {0E }.

Propriété 1.2. — i- Si (E, +, . ) est un espace vectoriel le groupe (E, +) est commutatif, ie ∀u, v ∈ E,
E E E
u + v = v + u.
ii- Pour tout u ∈ E, λ ∈ K, λ.u = 0E ⇐⇒ λ = 0K ou u = 0E .
iv- Pour tout u ∈ E, l’opposé u e par −u.
e de u est (−1).u. On notera ainsi u

Preuve. i- Soient u, v ∈ E. On développe (1K +1K ).(u+v) de deux façons différentes. Une fois en utilisant
les propriétés i puis ii puis iv, ce qui donne :

(1 + 1).(u + v) = (1 + 1).u + (1 + 1).v = 1.u + 1.u + 1.v + 1.v = u + u + v + v,

et une seconde fois en utilisant les propriétés ii puis ii puis iv, ce qui donne :

(1 + 1).(u + v) = 1.(u + v) + 1.(u + v) = u + v + u + v.

On en déduit :
u+u+v+v =u+v+u+v
On ajoute alors à chaque membre de cette égalité, à gauche u
e, à droite ve, on obtient :

0 + u + v + 0 = 0 + v + u + 0,

c’est-à-dire :
u + v = v + u.
ii- 0K .u = (0K + 0K ).u = 0K .u + 0K .u. Par ajout de 0g
K .u de part et d’autre de cette égalité on obtient bien :
0K .u = 0E .
λ.0E = λ.(0E + 0E ) = λ.0E + λ.0E . Par ajout de λ.0 gE de part et d’autre de cette égalité on obtient bien :
λ.0E = 0E .
Réciproquement, si λ.u = 0E et si λ 6= 0K , on a : 1/λ.(λ.u) = (1/λ.λ).u = 1.u = u = 0E .
iii- u + (−1).u = 1.u + (−1).u = (1 + (−1)).u = 0K .u = 0E , d’où (−1).u = u e. 2

Exemples d’espaces vectoriels. Voir td.

2 - Sous-espaces vectoriels

Si (E, +E , .E ) est un K-espace vectoriel et F un sous-ensemble quelconque de E, les lois +E et .E de E


peuvent être restreintes à F ; on sait additionner deux éléments de F , car ce sont deux éléments de E, et on sait
de même multiplier un élément de F par un élément de K.

On se pose alors la question suivante : F muni des lois de E devient-il un espace vectoriel ?

Nécessairement pour que F soit un espace vectoriel il doit être non vide (comme tout espace vectoriel il
doit contenir au moins un neutre).
De plus la somme de deux éléments de F doit appartenir à F . De même le produit d’un élément de F par
un élément de K doit appartenir à F .
Comme sur F on fait agir les lois de E, le neutre de F ne peut-être que celui de E. En effet, puisque F est
non vide, soit u ∈ F . Alors 0K .u = 0E doit appartenir à F .

2
En conclusion F sera un espace vectoriel ssi :
i- 0E ∈ F
ii- ∀u, v ∈ F, u + v ∈ F
iii- ∀u ∈ F, λ ∈ K, λ.u ∈ F

Définition 1.3. Soit (E, +E , .E ) un espace vectoriel et F ⊂ E un sous-ensemble de E. La restriction des


lois de E à F fait de (F, +E , .E ) un espace vectoriel ssi les trois points ci-dessus sont vérifiés. On dit alors que
F est un sous-espace vectoriel de E.

Exemples de sous-espaces vectoriels. Voir td.

Soit (E, +E , .E ) un espace vectoriel. On montre que la réunion de sous-espaces vectoriels F et G de E est
un sous-espace de E ssi F ⊂ G ou G ⊂ F , c’est-à-dire ssi F ∪ G = F ou F ∪ G = G.
On se pose alors la question suivante : existe-t-il un plus petit sous-espace de E (du point de vue de
l’inclusion) contenant F ∪ G ?
Nécessairement un tel sous-espace de E contient {u + v; u ∈ F, v ∈ G}. Mais réciproquement on montre
directement que {u + v; u ∈ F, v ∈ G} est un sous-espace de E. Ce sous-espace répond donc bien à notre
question.

Proposition 1.4. — Soit (E, +E , .E ) un espace vectoriel et F, G deux sous-espace de E. Le sous-ensemble


de E défini par {u+E v; u ∈ F, v ∈ G} est le plus petit sous-espace de E (du point de vue de l’inclusion) contenant
F ∪ G. On le note F + G.

Remarque. La notation F + G n’est qu’une notation : le signe + n’est placé entre F et G que pour
rappeler la définition de ce sous-espace, il ne désigne en rien une addition entre sous-espaces, ce qui n’aurait
aucun sens.

3 - Génération de sous-espaces vectoriels

Définition 1.5. Soit (E, +E , .E ) un espace vectoriel et A un sous-ensemble de E. Une combinaison linéaire
Xn
d’éléments a1 , · · · , an de A est une somme du type λi .ai , où n ∈ N et λ1 , · · · , λn ∈ K.
i=1

On considère A un sous-ensemble quelconque de l’espace vectoriel E et on cherche un plus petit sous-espace


de E contenant A. Nécessairement un tel sous-espace de E contient toutes les combinaisons linéaires possibles
p
X
déléments de A, c’est-à-dire contient { λi .ai ; p ∈ N, a1 , · · · , ap ∈ A, λ1 , · · · , λp ∈ K}. On note cet ensemble
i=1
vec(A).
Mais réciproquement on montre directement que vec(A) est un sous-espace de E. Ce sous-espace répond
donc bien à notre question.

Proposition 1.6. — Soit (E, +E , .E ) un espace vectoriel et A ⊂ E un sous-ensemble non vide de E.


p
X
Le sous-ensemble vect(A) de E défini par { λi .ai ; p ∈ N, a1 , · · · , ap ∈ A, λ1 , · · · , λp ∈ K} est le plus petit
i=1
sous-espace de E (du point de vue de l’inclusion) contenant A. On l’appelle de le sous-espace vectoriel
engendré par A. Lorsque vec(A) = E on dit que A engendre E.

La question de savoir si un sous-ensemble d’un espace vectoriel E engendre cet espace vectoriel est naturelle,
puisqu’au lieu d’étudier E on peut se borner à étudier A, lorsque vec(A) = E. Lorsque A est un ensemble fini,
Cette étude sera encore plus simple. On dit alors que E est de dimension finie.

Définition 1.7. Soit (E, +E , .E ) un espace vectoriel. On dit que E est de dimension finie s’il existe une
famille finie a1 , · · · , an ∈ E telle que vec({a1 , · · · , an }) = E.

3
Une question tout aussi délicate est de rechercher une famille de E qui engendre E et qui soit minimale du
point de ce vue, c’est -à-dire telle que si on enlève un élément quelconque à cette famille, on n’obtient plus une
famille génératrice de E (on dira alors, au chapitre suivant, que cette famille est une base de E).

Exemples. • Dans Kn , la famille ~e1 = (1, 0, · · · , 0), · · · , ~en = (0, 0, · · · , 1) est une famille génératrice,
n
X
puisque tout élément (λ1 , · · · , λn ) de Kn s’écrit λi .~ei . Suivant notre définition Kn est un espace vectoriel de
i=1
dimension finie.
n
X
• Dans K[X], la famille 1, X, · · · , X n est une famille génératrice, puisque tout élément λi .X i de K[X]
i=1
n
X
s’écrit (!) λi .X i . Suivant notre définition K[X] est un espace vectoriel de dimension finie.
i=1
• Dans C, vu comme un espace vectoriel sur R, la famille 1, i est une famille génératrice, puisque tout
élément z ∈ C s’écrit z = λ1 .1 + λ2 .i, avec λ1 , λ2 ∈ R. Suivant notre définition C est un R-espace vectoriel de
dimension finie.
• Questions. Peut-on trouver une famille finie dans R qui engendre le Q-espace vectoriel R (autrement
dit existe-t-il des réels r1 , · · · , rn ∈ R tels que pour tout réels r existe une famille finie q1 , · · · , qn de rationnels
telle que : r = q1 .r1 + · · · + qn .rn ) ?
Peut-on trouver une famille finie dans C 0 ([0, 1]; R) qui engendre le R-espace vectoriel C 0 ([0, 1]; R) (autrement
dit existe-t-il des fonctions continues f1 , · · · , fn telles que pour toute fonction continue f existe une famille finie
λ1 , · · · , λn de réels telle que : f = λ1 .f1 + · · · + λn .fn ) ?

• Objectifs du chapitre. Pouvoir identifier des espaces vectoriels, soit en vérifiant la définition 1.1, soit
en prouvant qu’il s’agit d’un sous-espace d’un espace plus grand (Définition 1.3).

4
Chapitre 2
Écritures
Écriture unique : sommes directes et coordonnées
bases

Dans la suite la lettre K désigne Q, R ou C.

1 - Écritures

On a vu au chapitre précédent que si l’espace vectoriel (E, +E , .E ) est engendré par un de ses sous-ensembles
A, par définition, tout vecteur u de E s’écrit comme combinaison linéaire d’éléments de A. Précisément :
n
X
∀u ∈ E, ∃λ1 , · · · , λn ∈ K tels que : u = λi .ai ,
i=1

avec a1 , · · · , an des éléments de A.


On peut se demander si une telle écriture de u comme une combinaison linéaire d’éléments de A est unique,
c’est-à-dire : existe-t-il des µ1 , · · · , µp ∈ K autres que λ1 , · · · , λn , des a01 , · · · , a0p ∈ A autres que a1 , · · · , an tels
que :
Xp
u= µi .a0i ?
i=1

Remarque importante. Bien sûr on peut toujours rajouter à une combinaison linéaire quelconque
n
X p
X
λi .ai une combinaison linéaire d’éléments de A du type 0K .a0i , dite triviale, pour obtenir :
i=1 i=1

n
X n
X p
X
λi .ai = λi .ai + 0K .a0i
i=1 i=1 i=1

n
X p
X
On dira cependant que les a0i n’apparaissent pas dans l’écriture λi .ai + 0K .a0i , et que les deux écritures
i=1 i=1
n
X p
X n
X
λi .ai + 0K .a0i et λi .ai sont les mêmes. C’est en ce sens, ie modulo les combinaisons linéaires triviales
i=1 i=1 i=1
que l’on parlera d’unicité d’écritures.

Exemples. • dans E = R, on considère A = {a1 = 1, a2 = 2}. On peut alors écrire tout réel u d’une
infinité de manière comme combinaisons linéaires d’éléments de A. Par exemple : u = (u + t).a 1 + (−t/2).a2 ,
avec t ∈ R quelconque fournit une infinité d’écritures.
• Dans E = K1 [X] l’espace des polynômes de degré inférieur à 1, on pose A = {a1 = 1, a2 = X, a3 = X −1}.
On peut alors écrire polynôme P ∈ E u d’une infinité de manière comme combinaisons linéaires d’éléments de
A. Par exemple, en notant P = α + βX : P = α.a1 + β.a2 = β.a3 + (α + β).a1 = etc · · ·
En revanche si A = {a 6= 0} dans le premier exemple, et si A = {1, X} ou A = {1, X − 1} dans le second
exemple, on aura l’existence et l’unicité de l’écriture de tout élément de E.

D’autre part on a vu au chapitre précédent que si E est la somme de deux de ses sous-espaces F et G, tout
élément de E est somme d’un élément de F et d’un élément de G (par définition même de légalité E = F + G).
Précisément :
∀u ∈ E, ∃a ∈ F, b ∈ G tels que : u = a + b.
Ici encore se pose la question de l’unicité de l’écriture d’un élément de E comme une somme d’un élément de F
et d’un élément de G.

5
Exemples. • dans E = R3 , on considère F = {(x, y, z) ∈ R3 ; x = y} et G = {(x, y, z) ∈ R3 ; x = z}. On
a bien E = F + G, car tout vecteur de u = (α, β, γ) ∈ E s’écrit : u = (α, α, γ) + (0, β − α, 0) et on a bien
(α, α, γ) ∈ F , (0, β − α, 0) ∈ G. En revanche on ne dispose de l’unicité de l’écriture de u, puisqu’on peut tout
aussi bien écrire : u = (0, 0, γ − α) + (α, β, α) et que (0, 0, γ − α) 6= (α, α, γ) (et (α, β, α) 6= (0, β − α, 0)).
• dans E = R3 , on considère F = {(x, y, z) ∈ R3 ; x = y} et G = {(x, y, z) ∈ R3 ; x = z = 2y}. On a bien E =
F +G, car tout vecteur de u = (α, β, γ) ∈ E s’écrit : u = (2β −α, 2β −α, γ −2α+2β)+(2(α−β), α−β, 2(α−β))
et on a bien (2β − α, 2β − α, γ − 2α + 2β) ∈ F , (2(α − β), αβ , 2(α − β)) ∈ G.
On peut vérifier que cette écriture comme somme d’un élément de F et d’un élément de G est la seule
possible.

2 - Écriture unique : sommes directes et coordonnées

Dans la suite pour un sous-ensemble A de l’espace vectoriel E, on parlera de la famille des éléments de
A, et on dira “la famille A” au lieu de “l’ensemble A”. On ne supposera pas a priori que la famille A est de
cardinal fini.

Définition 2.1. Soit (E, +E , .E ) un K-espace vectoriel et A une famille de E.


• On dit que la famille A est libre ssi quel que soit la sous-famille finie A0 = {a1 , · · · , ap } de A, quels que
p
X
soient les scalaires λ1 , · · · , λp ∈ K, l’égalité λi .ai = 0E implique λ1 = · · · = λp = 0K .
i=1
Autrement dit, A est libre ssi la seule combinaison linéaire nulle d’éléments de K est la combinaison dite
triviale 0K .a1 + · · · + 0K .ap .
• On dit que la famille A est liée ssi elle n’est pas libre.

Remarque. Dans le cas spécial où A = {a1 , · · · , an } est de cardinal fini, être libre signifie que la seule
combinaison linéaire nulle de tous les éléments de K est la combinaison triviale. C’est-à-dire que la vérification
de la définition 2.1 porte sur la famille elle-même et non sur toutes les sous-familles. En effet s’il existe
p
X p
X
λ1 , · · · , λp ∈ K non tous nuls tels que λi .ai = 0E , on a λi .ai + λp+1 .ap+1 + · · · + λn .an = 0E , en posant
i=1 i=1
p
X
λp+1 = · · · = λ = 0E . Et la combinaison linéaire nulle λi .ai + λp+1 .ap+1 + · · · + λn .an = 0E n’est pas la
i=1
combinaison linéaire, de sorte que la liberté de {a1 , · · · , an } implique la liberté de toutes ses sous-familles.

Proposition 2.2. — Soit (E, +E , .E ) un K-espace vectoriel et A une famille de E.


i− La famille A est libre ssi tout élément non nul de vec(A) s’écrit de façon unique
sur cette famille.
ii− La famille A est liée ssi (au moins) un élément de cette famille est combinaison linéaire d’autres
éléments de cette famille.
p
X k
X
Preuve. i− Si A est libre et si λi .ai et λ0i .a0i sont deux écritures pour un même élément de vec(A),
i=1 i=1
p
X k
X
alors λi .ai − λ0i .a0i = 0E . En regroupant les ai , on obtient :
i=1 i=1
X X X
(λi − λ0j ).ai + λi .ai − λ0j .a0j = 0E
i,j/ai =a0j i;ai 6=a0j ,∀j j;a0j 6=ai ,∀i

et cette combinaison linéaire est par hypothèse (puisque A est libre) la combinaison linéaire triviale.
C’est-à-dire que :
- si ai = a0 j, on a λi = λ0j ,
- si ai n’est égal à aucun des a0j , λi = 0,
- si a0j n’est égal à aucun des ai , λ0j = 0,
de sorte que les deux écritures sont bien les mêmes.

6
p
X k
X
Réciproquement si λi .ai et λ0i .a0i sont deux écritures distinctes pour un même élément de vec(A), la
i=1 i=1
p
X k
X
combinaison linéaire λi .ai − λ0i .a0i est nulle mais n’est pas la combinaison linéaire triviale.
i=1 i=1
ii− A est liée ssi il existe une combinaison linéaire d’éléments de A qui est nulle mais n’est pas la combinaison
p
X X p
triviale, ie λi .ai = 0E , avec λ1 (par exemple) non nul. On peut alors écrire : a1 = 1/λ1 . λi .ai . 2
i=1 i=2

Définition 2.3 Soit (E, +E , .E ) un K-espace vectoriel et A une famille libre de E. À tout élément
u ∈ vec(A) on peut associer une unique Xfamille (λa )a∈A de scalaires indexée par A, qui sont tous nuls sauf un
nombre fini d’entre-eux et tels que u = λa .a. Cette famille de scalaires étant unique on lui donne un nom,
a∈A
les coordonnées de u sur la famille A.

Proposition 2.4. — Soit (E, +E , .E ) un K-espace vectoriel et F, G deux sous-espaces de E.


Les éléments de F + G possèdent une écriture unique en une somme d’un élément de F et d’un élément de
G ssi F ∩ G = 0E .

Preuve. Si un élément de F + G s’écrit u + v avec u ∈ F et v ∈ G, mais aussi u0 + v 0 avec u0 ∈ F et


v ∈ G, alors u + v = u0 + v 0 ⇐⇒ u − u0 = v 0 − v. Si u 6= v, on dispose d’un élément de F ∩ G non nul. Et
0

réciproquement si u ∈ F ∩ G est non nul, on a les deux écritures suivantes pour u : u + 0 E et 0E + u, où la
première fois u est vu comme un élément de F et la seconde comme un élément de G. 2

Définition 2.5. • Soit (E, +E , .E ) un K-espace vectoriel et F, G deux sous-espaces de E.


Lorsque F ∩ G = {0E } on dit que la somme F + G est directe, ou encore que F et G sont en somme
directe dans F + G ou que F (resp. G) est un supplémentaire de G (resp. F ) dans F + G. On note :
F + G = F ⊕ G.
• Si F, G deux sous-espaces de E tels que E = F ⊕ G. À tout vecteur u ∈ E, peut associer un couple
(a, b) ∈ F × G tel que u = a + b (puisque E = F + G), et de plus ce couple est unique (puisque la somme F + G
est directe). Par conséquent les applications π1 : E → F et π2 : E → G définies par : π1 (u) = a, pi2 (u) = b
sont bien définies. On les appelle projection de E sur F parallèlement à G (resp. projection de E sur
G parallèlement à F ).

3 - Bases

Définition 2.6. Soit (E, +E , .E ) un K-espace vectoriel et A une famille à la fois libre et génératrice de
E. On dit que A est une base de E.
p
X
Si A est une base de E, tout vecteur u de E possède une écriture u = λi .ai , avec λi ∈ K et ai ∈ A, sur
i=1
la famille A (car A engendre E), et de plus cette écriture est unique (car A est libre). C’est-à-dire que tout
vecteur de E possède des coordonnées sur A.

Se pose alors la question de l’existence d’une telle famille. On y répond dans la théorème suivant.

Théorème 2.7. — i- tout espace vectoriel E 6= {0} possède une base.


ii- Toutes les bases de E ont même cardinal (ie qu’il existe une bijection entre deux bases de E).
iii- Si E est de dimension finie, toutes les bases de E ont un nombre fini d’éléments et ce nombre est
toujours le même. On l’appelle la dimension de E sur K, on le note dim K (E).

Preuve. On fait ces preuves dans le cas particulier où est de dimension finie. Dans le cas général les
preuves sont sensiblement les mêmes, mais on doit avoir recours au lemme de Zorn, hors programme.
i- Soit A une partie génératrice de E, que l’on suppose de cardinal fini. Comme E 6= {0}, il existe a 6= 0 E
dans A. Soit alors L = { sous-familles libres de A}. L est non vide puisque {a} est une sous-famille libre de
A. D’autre part les familles de L ont un cardinal ≤ card(A) < ∞. Une famille B de L réalise ainsi la propriété

7
d’avoir le plus grand des cardinaux des familles de L. Comme B ⊂ L, B est une famille libre. Montrons que B
est une base de E en montrant que B est une famille génératrice de E. Soit a ∈ A. Si a 6∈ vec(B), alors la famille
B ∪ {a} est libre par la Proposition [Link]-. Mais cette famille de L serait de cardinal plus grand strictement que
le plus grand des cardinaux de L. Ce qui est impossible. Donc A ⊂ vec(B), et donc E = vec(A) ⊂ vec(B) ⊂ E,
ie vec(B) = E.
ii- Utilise le lemme de Zorn, passons donc au cas de la dimension finie ie au :
iii- D’après ce qui précède, soit B une base de E. Par construction B est choisie dans une famille
génératrice finie, B est donc elle-même finie, de cardinal fini, disons n. Soit maintenant B 0 une autre base
de E. Comme les éléments de B 0 sont des combinaisons linéaires des éléments de B (puisque B est génératrice),
le lemme qui suit assure que card(B) ≤ card(B) = n. Mais en inversant les rôles de B et B 0 , on en déduit que
card(B) ≤ card(B). 2

De ce lemme technique découle le théorème 2.9 et le théorème de la base incomplète (théorème 2.10).

Lemme 2.8. — Soit (E, +E , .E ) un K-espace vectoriel. Soient a1 , · · · , an ∈ E. Si n + 1 vecteurs


b1 , · · · , bn+1 de E sont combinaisons linéaires chacun des ai , la famille {b1 , · · · , bn+1 } est liée.

Preuve. Par récurrence sur n. Facile mais assez long. Faire la preuve dans le cas de peu de vecteurs pour
en comprendre le mécanisme. 2
La preuve du théorème 2.7.i− montre aussi le théorème très important suivant, dit théorème de la base
incomplète :

Théorème 2.9. (Théorème de la base incomplète) — Soit (E, +E , .E ) un K-espace vectoriel. G une
famille génératrice de E et L une famille libre. Il existe alors une sous-famille C de G telle que L ∪ C est une
base de E.

Preuve. On fait la preuve en dimension finie. On procède comme dans le théorème 2.7.i, en considérant
les familles libres du type L ∪ C, avec C ⊂ G. Il en existe au moins une (sinon vec(L) contiendrait vec(G) = E,
et donc L serait déja une base de E) et elles sont toutes finies (par le lemme 2.8). On en considère une qui
possède le plus grand cardinal possible et on montre qu’elle est libre (exercice à faire soi-même). 2
Du théorème de la base incomplète on tire le corollaire suivant :

Théorème 2.10. — Soit (E, +E , .E ) un K-espace vectoriel.


i- Une famille A de E est une base de E ssi cette famille est libre maximale, ie que si on lui ajoute un
vecteur quelconque de E, la nouvelle famille n’est plus libre.
ii- Une famille A de E est une base de E ssi cette famille est génératrice minimale, ie que si on lui enlève
un de ses vecteurs quelconques, la nouvelle famille n’est plus génératrice.

Preuve. i- Si A est une base de E, tout vecteur de E est combinaison linéaire des éléments de A,
donc d’après [Link], l’ajout d’un vecteur de E donne une famille liée. Réciproquement, Si A est libre, d’après le
théorème de la base incomplète, on doit pouvoir lui ajouter des éléments de la famille E (qui est génératrice !)
pour obtenir une base. Mais si A est libre maximale, on ne peut rien lui ajouter sans que sa liberté soit perdue.
Par conséquent A est déja une base.
ii- On peut supposer que E 6= {0}, car ce cas est trivial. Si A est une base, privée d’un de ses éléments elle
ne peut plus être génératrice, car l’élément en question serait alors combinaison linéaire des autres éléments de
A, ce qui contrdirait la liberté de A, par 2.2.i. Réciproquement si A est génératrice, elle contient un vecteur non
nul, disons u, parce que E 6= {0}. Ce vecteur constitue une famille libre, par le théorème de la base incomplète,
on peut ajouter à {u} des éléments de A pour en faire une base. Mais si A est génératrice minimale, on ne
pourra pas rajouter une famille plus petite que A \ {u}, ie que A est une base de E. 2
Dans la cas ou E est de dimension finie, on en déduit :

8
Théorème 2.11. — Soit E un K-espace vectoriel de dimension finie n. On écarte le cas trivial où E = {0}
(pour des raisons de cohérence dans les définitions).
i- Toute famille libre A de E est de cardinal ≤ n et de cardinal = n ssi A est une base de E ie ssi A est
aussi une famille génératrice de E.
ii- Toute famille génératrice A de E est de cardinal ≥ n et de cardinal = n ssi A est une base de E ie ssi
A est aussi une famille libre de E.
iii- Tout sous-espace vectoriel de E est de dimension finie et de plus dim(F ) ≤ n. L’égalité dim(F ) = n a
lieu ssi E = F .

Preuve. i- Résulte du théorème de la base incomplète : on peut compléter A par des éléments d’une
famille génératrice pour en faire une base. On complète par 0 éléments ssi A est déja une base.
ii- Comme E n’est pas l’espace nul, toute famille génératrice A de E contient un élément non nul a. La
famille {a} est libre, on peut la compléter en une base de E à l’aide d’éléments de A.
iii- F étant un ev, on en prend une base B (2.7.i). Il s’agit d’une famille libre d’éléments de F , donc de
E. Par le point i, on a donc card(B) = dim(F ) ≤ n. Enfin si card(B) = dim(F ) = n, toujours par le point i, B
est une base de E, donc vec(B) = E, mais B étant une base de F , on a aussi vec(B) = F . 2

Théorème 2.12. — Soit E un K-espace vectoriel.


i- Tout sous-espace vectoriel de E admet (au moins) un supplémentaire.
ii- Soient F et G deux sous-espaces de E, A et B une base de F et de G respectivement. On a :

F ⊕ G = E ⇐⇒ A ∪ B est une base de E.

iii- Si E est de dimension finie et F , G deux sous-espaces de E, on a :



F ⊕ G = E ⇐⇒ F ∩ G = {0E } et dim(F ) + dim(G) = dim(E)

Preuve. i- Soit F un sev de E et A une base de F On la complète en une base de E, que l’on note
B = A ∩ A0 , avec A ∩ A0 = ∅. On note alors G = vec(A0 ), et par le point qui suit, on a F ⊕ G = E.
ii- Si A ∪ B est une base de E, on a F ∩ G = {0E }. En effet si x ∈ F ∩ G, en écrivant x dans la base A à
p
X k
X
l’aide de ses coordonnées x = λi .ai , et en écrivant x dans la base B à l’aide de ses coordonnées x = µj .bj .
i=1 j=1
p
X Xk
On en déduit que λi .ai . − µj .bj = 0E . Mais comme A ∪ B est libre, on a λi = µj = 0K , ∀i, j.
i=1 j=1
Si A ∪ B est une base de E, on a F + G = E. En effet tout vecteur x de E s’écrit sur la base A ∪ B, ie :
Xp k
X
x= λi .ai . + µj .bj .
i=1 j=1
Réciproquement, si E = F ⊕G alors A∪B est libre. En effet, sinon un des vecteurs de A∪B est combinaison
linéaire d’autres vecteurs de A ∪ B. Mais A et B étant des bases de F et de G, nécessairement un vecteur de
A ne peut pas être combinaison linéaire d’autres vecteurs de A, de même pour B. On en déduit qu’un vecteur
non nul de A est combinaison linéaire de vecteurs de A et de B à la fois, ou encore qu’un vecteur non nul de A
est combinaison linéaire de vecteurs de B. On en dd́uirait que F ∩ G 6= {0E }.
Si E = F ⊕ G alors A ∪ B est génératrice. En effet, tout x ∈ E s’écrit x = f + g, avec f ∈ F et g ∈ G. En
écrivant f sur A et g sur B, on a le résultat.
iii- ⇒ découle de ii. Quant à ⇐, on montre que la réunion d’une base A de F et d’une base B de G sous

l’hypothèse F ∩ G = {0E } et dim(F ) + dim(G) = dim(E) est une base de E (À faire en exercice). 2

Définition 2.13. Soit E un K-espace et F un sous-espace vectoriel de E. On dit que F est un hyperplan
de E ssi F admet un supplémentaire de dimension 1.

9
Pour illustrer la puissance des résultats prouvés dans ce chapitre, reposons l’une des difficiles questions
posées à la fin du chapitre 2, et voyons comment un traitement purement algébrique donne la solution du
problème :
Question. Peut-on trouver une famille finie dans E = C 0 ([0, 1]; R) qui engendre le R-espace vectoriel E
(autrement dit existe-t-il des fonctions continues f1 , · · · , fn telles que pour toute fonction continue f existe une
famille de n réels λ1 , · · · , λn telle que : f = λ1 .f1 + · · · + λn .fn ) ?

Si l’on n’utilise que la définition de la continuité, le problème est délicat et ne se résoud pas facilement.
En revanche si l’on observe que les fonctions f0 : x 7→ 1, f1 : x 7→ x, f2 : x 7→ x2 , · · · , fn : x 7→ xn , · · · sont des
fonctions de E qui forment une famille libre, le théorème 2.11.i dit que E ne peut pas être de dimension finie,
puisque si E était de dimension finie, toute famille libre de E aurait moins d’éléments que la dimension de E.
n
X
Pour montrer que la famille {f0 , f1 , f2 , · · · , fn , · · ·} est libre, il suffit de remarquer si λi .fi ≡ 0E on a,
i=1
n
X n
X
pour tout x ∈ [0, 1] : λi .fi (x) = 0 et donc nécessairement λ1 = · · · = λn = 0, puisque le polynôme λi .fi
i=1 i=1
ne peut pas avoir plus de n racines s’il n’est pas le polynôme nul.

Poussons plus loin cet exemple : dès que E est un sous-espace de l’espace des fonctions de {g : [0, 1] → R}
et dès que E contient une application f qui prend une infinité de valeurs sur [0, 1] et contient la famille P des
puissances de f : P = {f 0 , f, f 2 , · · · , f n , · · ·}, E ne peut pas être de dimension finie.
Xn
En effet, dans ces conditions, la famille P est libre : ∀x ∈ [0, 1], λi .f i (x) = 0 devient en posant
i=1
n
X n
X
y = f (x), ∀y ∈ f ([0, 1]), λi .y i = 0, c’est-à-dire que le polynôme λi .y i admet une infinité de racines, il
i=1 i=1
est donc nul.

Objectifs du chapitre. Savoir montrer qu’une famille est libre, génératrice, ou est une base. Savoir
montrer que sous-espaces sont en somme directe. Savoir appliquer le théorème de la base incomplète. Savoir
calculer les coordonnées d’un vecteur dans une base.

10
Chapitre 3
Applications linéaires
Espaces quotients
Matrice d’une application linéaire dans un choix de bases

Dans la suite la lettre K désigne Q, R ou C.

1 - Applications linéaires

Après avoir introduit les espaces vectoriels, on s’intéresse aux applications entre les espaces vectoriels. Mais
on souhaite se concentrer sur celles qui préservent la structure d’espace vectoriel, les applications linéaires.

Définition 3.1. Soient E et F deux espaces vectoriels sur le même corps K. et soit une application
f : E → F . On dit que f est linéaire ou K-linéaire ou encore que f est un morphisme ssi ∀x, y ∈ E, ∀λ, µ ∈
K : f (λ.E x +E µ.E y) = λ.F f (x) +F µ.F f (y). Lorsque F = E on dit que f est un endomorphisme.
On note L(E; F ) l’ensemble des applications linéaires de E dans F . Il s’agit d’un espace K-vectoriel, car
la somme de deux applications linéaires est linéaire et le produit par un scalaire d’une application linéaire est
linéaire.

Remarque. La définition précédente équivaut à : ∀x, y ∈ E, f (x +E y) = f (x) +F f (y) et


∀x ∈ K, λ ∈ K : f (λ.E x) = λ.F f (x).

L’intérêt des applications linéaires réside dans la proposition suivante :

Proposition 3.2. — Soient E et F deux espaces vectoriels sur le même corps K et f : E → F une
application linéaire.
i- Quel que soit G sous-espace vectoriel de E, f (G) est un sous-espace vectoriel de F .
ii- Quel que soit H sous-espace vectoriel de F , f −1 (H) est un sous-espace de E.
iii- Si G est un K-espace et si g : F → G est linéaire, alors g ◦ f est linéaire.

Définition 3.3. Soient E et F deux espaces vectoriels sur le même corps K et f : E → F une application
linéaire.
• On note ker(f ) = f −1 (0F ) = {x ∈ E; f (x) = 0F }. D’après la proposition [Link], ker(f ) est un sev de E.
On l’appelle le noyau de f .
• On note Im(f ) = f (E) = {y ∈ F ; ∃x ∈ E tel que y = f (x)} = {f (x); x ∈ E}. D’après la proposition
3.2.i, Im(f ) est un sev de F . On l’appelle l’image de f .

Proposition 3.4. — Soient E et F deux espaces vectoriels sur le même corps K et f : E → F une
application linéaire.
i- f est injective ssi ker(f ) = {0E }. On dit parfois que f est un monomorphisme.
ii- f est surjective ssi Im(f ) = F . On dit parfois que f est un épimorphisme.
iii- f est bijective ssi ker(f ) = {0E } et Im(f ) = F . On dit alors que f est un isomorphisme.

Preuve. i- Soient x et x0 ∈ E. f (x) = f (x0 ) ssi f (x − x0 ) = 0F . Donc (f (x) = f (x0 ) ⇒ x = x0 ) ssi


(f (x − x0 ) = 0F ⇒ x − x0 = 0F ) ssi ker(f ) = {0E }.
ii- et iii- sont vrais par définition même. 2

Définition 3.5. Soient E et F deux espaces vectoriels sur le même corps K et f : E → F une application
linéaire. Si F est de dimension finie, on appelle rang de f l’entier dimK (Im(f )). On le note rg(f ). Par le
théorème [Link], on a rg(f ) ≤ dim(F ) et rg(f ) = dim(F ) ssi f est surjective.

11
Définition 3.6. Soient E un espace vectoriel sur K. Une application f : E → K est appelée une forme
linéaire. L’ensemble des formes linéaires est noté E ∗ , il est appelé l’espace dual de E.

Théorème 3.7. — Soient E un espace vectoriel sur K et F un sous-espace vectoriel de E. F est un


hyperplan de E ssi f est le noyau d’une forme linéaire non nulle.

Le théorème suivant dit que tout sous-espace d’un espace vectoriel peut être vu comme le noyau d’un
endomorphisme de E.

Théorème 3.8. — Soient E un espace vectoriel sur K et F un sous-espace vectoriel de E. Il existe un


endomorphisme de E, f : E → E dont le noyau est F .

Preuve. Soit G un supplémentaire de F dans E (Théorème 2.12.i). Le noyau de la projection de E


parallèlement à F est bien F . 2
Théorème 3.9. — Soient E et F deux espaces vectoriels sur K, et f : E → F une application linéaire.
• Si A est une famille génératrice de E, f (A) est une famille génératrice de f (E),
• Si A est libre dans E alors f injective implique f (A) est libre dans F ,
• Si A est une base de E alors f est un isomorphisme ssi f (A) est une base de F ,
• Si f est un isomorphisme alors A est une base de E ssi f (A) est une base de F .

Preuve. • Soit y = f (x) ∈ f (E), si A engendre E, il existe λ1 , · · · , λp ∈ K et a1 , · · · , ap ∈ A tels que


Xp p
X
x= λj .aj . on en déduit que f (x) = λj .f (aj ), ce qui prouve que f (A) engendre f (E).
j=1 j=1
p
X
• Soit a1 , · · · , ap ∈ A et λ1 , · · · , λp ∈ K tels que λj .f (aj ) = 0F . Par linéarité de f on en déduit :
j=1
p
X p
X
f (λj .aj ) = 0F . Or si f est injective cela implique λj .aj , puisque ker(f ) = {0E }. Mais comme la famille
j=1 j=1
A est libre par hypothèse, on obtient : λ1 = · · · = λp = 0K et donc la liberté de f (A).
• ⇒) résulte des deux points précédents.
Xp p
X
⇐) Si f (x) = 0F , en écrivant x = λj .aj , on en déduit λj .f (aj ) = 0F et la liberté de la famille
j=1 j=1
f (A) donne λ1 = · · · = λp = 0K , et donc x = 0E . Soit ker(f ) = {0E } ie f injective. Maintenant si {(A) est
p
X
une base de F , soit y ∈ F . Il existe λ1 , · · · , λp ∈ K et a1 , · · · , ap ∈ A tels que y = λj .f (aj ). On en déduit
j=1
p
X
y= f (λj .aj ) et donc y ∈ f (E), ie f est surjective.
j=1
• Laissé en exercice. 2
Exemple. Soit E = R3 [X] l’espace vectoriels des polynômes réels de degré ≤ 3. Soit B E = {1, X, X 2, X 3 }
et f : E → R4 l’application linéaire définie par f (1) = (1, 0, 0, 0), f (X) = (0, 1, 0, 0), f (X 2 ) = (0, 0, 1, 0),
3
X
f (X 4 ) = (0, 0, 0, 1). On a, f ( aj .X j ) = a0 .e1 + · · · + a3 .e4 = (a0 , · · · , a3 ). Puisque f transforme une base
j=0
3
X
de E en une base de R4 , f est un isomorphisme. On peut alors soit écrire un polynôme comme aj .X j ou
j=0
comme la donnée de ses coefficients (a0 , · · · , a3 ).

12
2 - espaces quotients

Soit E un K-espace vectoriel et F un sous-espace vectoriel de E.

On consière la relation d’équivalence RF sur E définie de la façon suivante : ∀x, y ∈ E, xRF y ⇐⇒ x − y ∈


F . Pour x ∈ E, on note x̄ la classe déquivalence de x, c’est -à-dire l’ensemble des vecteurs de E qui sont en
relation avec x. Remarquons que si xRF y, x̄ = ȳ.
x̄ est l’ensemble suivant : x̄ = {x + z; z ∈ F }, c’est pourquoi on note souvent x̄ = x + F . Notons que 0̄ = F .
Les classes d’équivalences sur E suivant la relation d’équivalence R F déterminent une partition de E
(comme toutes les classes déquivalence sur un ensemble). On note E/F l’ensemble des classes d’équivalence
pour cette relation, on appelle cet ensemble le quotient de E par F .

Exemples. • E = R3 , F = {(a, b, 0); x, y ∈ R}. On a xRF y ssi x et y ont la même troisième coordonnée,
ou encore la même altitude. La classe de x est constituée par les vecteurs de E ayant la même altitude que
x. Par conséquent E/F est l’ensemble des plans parallèles à F dans R3 . Remarquons que se donner un tel
plan revient à se donner une altitude et que l’ensemble des plans parallèles à F paramétrés par leur altitude
déterminent bien une partition de R3 .

Les lois de E vont donner à E/F une structure d’espace vectoriel. Définissons + et . de la façon
E/F E/F
suivante :
+ : E/F × E/F → E/F
E/F
(x̄, ȳ) 7→ x̄ + ȳ := la classe de x + y
E/F E

. : K × E/F → E/F
E/F
(λ, ȳ) 7→ λ . ȳ := la classe de λ .
E/F E

La définition de + n’a de sens que si la classe de x + y est aussi celle de x0 + y 0 , lorsque xRF x0 et yRF y 0 ,
E E E
car pour définir x̄ + ȳ on fait un choix de représentant dans les classes x̄ et ȳ. Il faut donc que la définition
E/F
de + soit indépendante de ce choix.
E
Mais si xRF x0 et yRF y 0 on a par définition de RF , x − x0 ∈ F et y − y 0 ∈ F ce qui donne par addition
(dans E) membre à membre, (x + y) − (x0 + y 0 ) ∈ F , ie que la classe de x + y est celle de x0 + y 0 . Ceci montre
E E E E
que la définition de x̄ + ȳ est indépendante des choix des représentants dans les classes x̄ et ȳ.
E
De même, La définition de . n’a de sens que si la classe de λ + x est aussi celle de λ + x0 , lorsque xRF x0 .
E E E
Et montre tout aussi facilement que c’est bien le cas. En conclusion (E/F, + , . ) est un K espace vectoriel.
E E

Remarque. Avec ces lois sur E/F , l’application π : E → E/F définie par π(x) = x̄ est linéaire. De plus
cette application est surjective. On l’appelle la surjection canonique de E sur E/F .

L’intérêt des espaces qutients réside dans le théorème suivant et dans ces corollaires.

Théorème 3.10. — Soit E et G deux K-espaces vectoriels et f : E → G une application linéaire.


L’application f¯ : E/ ker(f ) → G telle que f¯(x̄) = f (x) est bien définie et est linéaire. On dit que le diagramme
suivant, où π(x) = x̄, est commutatif :

f: E → G
π↓
f¯ : E/ ker(f ) %

De plus f¯ : E/ ker(f ) → G est injective et f¯ : E/ ker(f ) → Im(f ) est un isomorphisme. On dit que le
diagramme suivant est la factorisation canonique de f ou la décomposition canonique de f :

13
f: E → G
π↓ ↑

f¯ : E/ ker(f ) −
−→ Im(f )

Preuve. Commençons par vérifier que f¯ est bien définie, ie indépendante du choix d’un élément dans
x̄ pour le calcul de f¯(x̄) (qui est posé comme étant égal à x). Si x0 = x̄ on a par définition de E/ ker(f ) :
x − x0 = h et f (h) = 0G . On en déduit que f (x) = f (x0 ). La linéarité de f¯ résulte de celle de f (à vérifier). De
plus x̄ ∈ ker(f¯) ssi f¯(x̄) = f (x) = 0G ssi x ∈ ker(f ) ssi x̄ = 0E/F , ie que f est injective. Enfin Im(f¯) = Im(f ),
donc f¯ : E/F → Im(f ) est surjective. 2

Théorème 3.11. — Soit E un K-espace vectoriel et F un sous-espace de E.

• Tous les supplémentaires de F sont isomorphes E/F , en particulier ils sont tous isomorphes entre-eux.
• Si dimK (E) est finie il en est de même de E/F , et dimK (E/F ) = dimK (E) − dimK (F ).

Preuve. Si S est un supplémentaire de F dans E, soit p la projection de E sur S parallèlement à F . On


a ker(p) = F et Im(p) = S. Le théorème précédent assure que S est isomorphe à E/F . 2
Application. On a défini un hyperplan d’un K-espace E comme un sous-espace H de E admettant un
supplémentaire de dimension 1. Le théorème 3.11 dit que n’importe quel supplémentaire de H est de dimension 1,
puisque tous les supplémentaires sont isomorphes et que les isomorphismes conservent les dimensions (théorème
3.9).

Théorème 3.12. (Théorème du rang) — Soient E et G deux K-espaces vectoriels et f : E → G une


application linéaire. Si E est de dimension finie alors :

dimK (E) = dimK (ker(f )) + dimK (Im(f )).

Preuve. Par le Théorème 3.11, la dimension de Im(f ) est celle d’un supplémentaire de ker(f ), qui par
le Théorème [Link] égale à : dimK (E) − dimK (ker(f )). 2
Théorème 3.13. — Soient E un K-espace vectoriel et f : E → F une application linéaire. Alors :

• “Les applications linéaires n’augmentent pas la dimension” : si E est de dimension finie, il en est de
même de Im(f ) et dimK (Im(f )) ≤ dimK (F ). Si dimK (E) = dimK (F ), l’égalité a lieu ssi f est injective.
• Si dimK (F ) < dimK (E), l’application f ne peut pas être injective.
• Si dimK (F ) > dimK (E), l’application f ne peut pas être surjective.

Preuve. On applique directement le théorème du rang. 2


Théorème 3.14. — Soient E un K-espace vectoriel et f : E → F une application linéaire entre deux
espaces de même dimension (en particulier si f endomorphisme de E = F ). Alors :
f est injectif ssi f est surjectif ssi f est bijectif.

Preuve. On applique le théorème du rang. f est injectif ssi dimK (ker(f )) = 0 ssi dimK (Im(f )) =
dimK (E) = dimK (F ). Mais comme Im(f ) ⊂ F , par le théorème [Link], dim K (ker(f )) = 0 ssi Im(f ) = F , ie f
ssi est surjective. 2

3 - Matrice d’une application linéaire dans un choix de bases

Soit E un espace vectoriel de dimension finie sur le corps K. Et soit B = (a1 , · · · , an ) une base de E.
n
X
L’application ϕB : Kn → E définie par ϕB (λ1 , · · · , λn ) = λj .aj est une application linéaire (à vérifier) et
j=1

14
injective, car la liberté de B signifie ker(ϕB ) = {0Kn }. Le caractère générateur de B implique que ϕB est
surjective.
Une autre façon de montrer que ϕB est un isomorphisme est de remarquer que ϕB envoie la base B sur la
base canonique de Kn , et d’appliquer le théorème 3.9. On a donc démontré :

Théorème 3.15. — Soit E un espace vectoriel de dimension finie sur le corps K. Alors E est isomorphe
n
à K . En particulier tous les espaces vectoriels de même dimension sur le même corps sont isomorphes entre-
eux. 2
Soient E et F deux espaces vectoriels sur K et f : E → F une application linéaire. On suppose que E et F
sont de dimension finie, dimK (E) = n dimK (F ) = p. Soient alors (e1 , · · · , en ) une base de E et (a1 , · · · , ap ) une
base de F . Soient λ1 , · · · , λn les coordonnées d’un vecteur x ∈ E dans la base B E . On notera ces coordonnées
 
λ1
 λ2 
par [x]E =  
 ... . On a :
λn
n
X
f (x) = λj .f (ej )
j=1
 
α1j
 
Mais si note par [f (ej )]BF =  ...  les coordonnées de f (ej ) dans (a1 , · · · , ap ), on a :
αpj
n
X n
X p
X
f (x) = λj .f (ej ) = λj αij ai
j=1 j=1 i=1

c’est-à-dire que les coordonnées [f (x)]BF de f (x) dans (a1 , · · · , ap ) sont :


 Pn 
j=1 λj α1j
 .. 
 . 
Pn
j=1 λj αpj

On vient de prouver que la valeur de f (x) est connue dès que les αij (et les coordonnées de x) sont connus,
ie dès que sont connues les coordonnées des images par f des éléments de la base choisie dans E sur la base
choisie dans F .

Proposition 3.16. — Soient E et F deux espaces vectoriels sur K et f : E → F une application linéaire.
On suppose que E et F sont de dimension finie, dimK (E) = n, dimK (F ) = p. Soient alors B E = (e1 , · · · , en ) une
base de E et BF = (a1 , · · · , ap ) une base de F . L’application f est connue dès que l’on connait les coordonnées
des vecteurs f (e1 ), · · · , f (en ) dans la base (a1 , · · · , ap ). On collecte ces coordonnées dans un tableau à p lignes
et n colonnes :

f (e1 ) f (e2 ) · · · f (en )

 α α1,2 ··· α1,n 


1,1 a1
 α2,1 α2,2 ··· α2,n  a2
 . .. ..  ..
 .  .
. . .
αp,1 αp,2 ··· αp,n ap

On note :  α 
1,1 α1,2 ··· α1,n
 α2,1 α2,2 ··· α2,n 
Mat(f, BE , BF ) = 
 .. .. .. 

. . .
αp,1 αp,2 ··· αp,n

15
On dit que Mat(f, B E , BF ) est la matrice de f dans les bases B E et BF . Si on note [x]BE les
coordonnées de x dans B E , [f (x)]BF les coordonnées de f (x) dans B F , on a :

[f (x)]BF = Mat(f, BE , BF ) × [x]BE .

On résume cela de la façon suivante :


f
E −−−−−−−−−−−
−→ F : ligne de l’application
x 7→ f (x) : ligne des vecteurs

BE BF : ligne des bases


Mat(f,BE ,BF )
E −−−−−−−−−−−
−→ F : ligne de la matrice
[x]BE 7→ [f (x)]BE : ligne des coordonnées

On note Matp×n (K) l’ensemble des matrices à p lignes et n colonnes.

Remarque. • Mat(f, B E , BF ) ne dépend pas uniquement de f mais aussi bien du choix de la base de
l’espace de départ B E et du choix de l’espace d’arrivée B F . Si l’on change f et/ou B E et/ou BF , Mat(f, BE , BF )
change aussi.
• Alors que f agit sur les vecteurs de E (par exemple des polynômes, des fonctions etc...) pour donner des
vecteurs de F , Mat(f, B E , BF ) agit sur des coordonnées (ie des éléments de Kn ) pour donner des coordonnées.
 
α1 p
. X
On trouve ensuite f (x) à l’aide de [f (x)]BF =  ..  par la formule : f (x) = αi .ai .
ap i=1

Exemple. Si IdE désigne l’application identité de E, définie par IdE (x) = x, pour tout x ∈ E, on a
Mat(IdE , BE , BE ) = In , où In est la matrice unité de l’ensemble des matrices à n lignes et n colonnes :
 
1 0 ··· 0
0 1 ··· 0
In = 
 ... ... .. 
.
0 0 ··· 1

Proposition 3.17. — Soient E, F et G trois espaces vectoriels sur K, f : E → F et g : F → G


deux applications linéaires. On suppose que E, F et G sont de dimension finie, dim K (E) = n, dimK (F ) = p,
dimK (G) = q. Soient B E une base de E, BF une base de F et BG une base de G. On a alors :

Mat(g ◦ f, BE , BG ) = Mat(g, BF , BG ) × Mat(f, BE , BF ).

On résume par le diagramme :

f g
E −−−−−−−−−−−−−−−−−−−−−−−
−−→ F −−−−−−−−−−−−−−−−−−−−−−−
−−→ G
BE Mat(f,BE ,BF ) BF Mat(g,BF ,BG ) BG

g◦f
E −−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−→ G
BE Mat(g◦f,BE ,BG )=Mat(g,BF ,BG )×Mat(f,BE ,BF ) BG

Supposons que l’application f soit un isomorphisme entre E et F . Alors n = p et en notant g = f −1


l’application réciproque de f , on a :
g ◦ f = IdE et f ◦ g = IdF .

En interprétant ces deux égalités à l’aide des matrices, on obtient :

Mat(g, BF , BE ) × Mat(f, BE , BF ) = In et Mat(f, BE , BF ) × Mat(g, BF , BE ) = In

16
Définition 3.18. Une matrice carrée M à coefficients dans K est dite inversible ssi il existe une matrice
carrée N à coefficients dans K telle que M × N = In .

Des bases BE et BF étant choisies sur E et F , M représente une application linéaire f : E → F ie que
Mat(f, BE , BF ) = M et N une application linéaire g : F → E ie que Mat(g, B F , BE ) = N . L’égalité : M ×N =
In signifie alors que f ◦ g = IdF . Mais alors g est injective, car g(y) = g(y 0 ) ⇒ f ◦ g(y) = f ◦ g(y 0 ) ⇒ y = y 0 .
Mais g étant une application entre espaces de même dimension, g est un isomorphisme par le théorème du rang
et ainsi g −1 = f , ie que : g ◦ f = IdE , et donc en termes de matrices : N × M = In . On a donc prouvé :
M × N = In ⇒ N × M = In .
On endéduit qu’il ne peut exister qu’une seule matrice N telle que M ×N = In , puisque M ×N = M ×N 0 =
In donne par multiplication à gauche de M × N 0 = In par N :

N × (M × N 0 ) = N × In = N,

soit :
(N × M ) × N 0 = In × N 0 = N 0 = N.

On dit que la matrice N (si elle existe) telle que M × N = In est la matrice inverse de M . On la note M −1 .

Proposition 3.19. — Soient f : E → F une application linéaire et B E , BF des bases de E et F , alors


Mat(f, BE , BF ) est inversible ssi f est un isomorphisme et :

Mat(f, BE , BF )−1 = Mat(f −1 , BF , BE ).

Comme on l’a dit déja dit, la matrice repreésentative de f dans un couple de bases (B E , BF ) dépend du
couple (B E , BF ). Si l’on change ce couple, la matrice change. Observons ce phénomène sur l’application Id E .
On sait que Mat(f, B E , BE ) = In . Soit alors B0E une autre base de E. On note B E = (e1 , · · · , en ) et
BE = (e01 , · · · , e0n ). Par définition Mat(f, B 0E , BE ) est la matrice dont la j eme colonne est celle des coordonnées
0

de IdE (e0j ) = e0j sur la base B. On a donc :

Mat(IdE ) = ( [e01 ]BE [e02 ]BE · · · [e0n ]BE )

Définition 3.20. On appelle la matrice Mat(IdE ) = ( [e01 ]BE [e02 ]BE · · · [e0n ]BE ) la matrice de
passage de B0E à BE .

Maintenant le digramme :

IdE f
E0 −−−−−−−−−−−−−−−−−−−−−−−
−−→ E −−−−−−−−−−−−−−−−−−−−−−−
−−→ F
BE 0 ,B )
Mat(IdE ,BE E BE Mat(f,BE ,BF ) BF

f ◦IdE =f
E0 −−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−→ F
BE 0 ,B )=Mat(f,B ,B )×Mat(Id ,B0 ,B )
Mat(f,BE F E F E E BF
E

Dit que :
0 0
Mat(f, BE , BF ) = Mat(f, BE , BF ) × Mat(IdE , BE , BE )

Remarquons que :

IdE IdE
E0 −−−−−−−−−−−−−−−−−−−−−−−
−−→ E −−−−−−−−−−−−−−−−−−−−−−−
−−→ E
0
BE 0 ,B )
Mat(IdE ,BE E BE 0 )
Mat(IdE ,BE ,BE BE

IdE ◦IdE =IdE


E0 −−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−→ E0
BE 0 ,B0 )=Mat(Id ,B ,B0 )×Mat(Id ,B0 ,B )
In =Mat(IdE ,BE E E E E E E E BE

17
Dit que la matrice de passage de B E à B0E est inversible et d’inverse la matrice de passage de B 0E à BE .

En faisant maintenant un changement de base B F 7→ B0F dans F et en représentant le diagramme


correspondant, on obtient :

Théorème 3.21. — Soient E et F deux K-espaces vectoriels, B E , B0E des bases de E, BF , B0F des bases
de F et soit f : E → F une application linéaire. On a :
0
Mat(f, BE , BF0 ) = Mat(IdF , BF , BF0 ) × Mat(f, BE , BF ) × Mat(IdE , BE
0
, BE )

De plus Mat(IdF , BF , BF0 ) et Mat(IdE , BE


0
, BE ) sont inversibles et :
 0
−1 0
 −1
Mat(IdE , BE , BE ) = Mat(IdE , BE , BE ) et Mat(IdF , BF , BF0 ) = Mat(IdF , BF0 , BF ). 2

Théorème 3.22. (Endomorphisme représenté sur la même base au départ et à l’arrivée) —


Soient E un K-espace vectoriel, B E , B0E des bases de E, et soit f : E → E un endomorphisme de E. On a :
0 0
 0
−1 0
Mat(f, BE , BE ) = Mat(IdE , BE , BE ) × Mat(f, BE , BE ) × Mat(IdE , BE , BE )

Exemple. Faisons E = R2 , F = R3 et f : R2 → R3 définie par f (x, y) = (x + y, 2x, x − y).


Soient BE = (e1 , e2 ) la base canonique  de R2 etBF = (d1 , d2 , d3 ) la base canonique de R3 . On a :
1 1
Mat(f, BE , BF ) = ([f (e1 )]BF , [f (e2 )]BF ) =  2 0 .
1 −1
Soit alors B0E = {e01 = (1, 1), e02 = (1, 2)} et B 0F = {d01 = (1, 1, 1), d02 = (1, 2, 0), d03 = (0, 1, 1)} deux nouvelles
bases. On a :  
1 1
Mat(IdE , B0E , BE ) = ([e01 ]BE [e02 ]BE ) =
1 2
et :
Mat(IdF , BF , B0E ) = ([d1 ]BF0 [d2 ]BF0 [d3 ]BF0 )
 
α
Calculons les coordonnées  β  de d1 dans B0F . Par définition d1 = (1, 0, 0) = α.d01 + β.d02 + γ.d03 ce qui conduit
γ
au système :
1=α+β
0 = α + 2β + γ
0=α+γ
 
1
Soit α = 1, β = 0, γ = −1. La première colonne de Mat(IdF , BF , B0F ) est donc  0 . On obtient les deux
−1
autres colonnes de la même façon, ce qui donne :
 
1 −1/2 1/2
Mat(IdF , BF , B0F ) =  0 1/2 −1/2 
−1 1/2 1/2
 
1 1 0
Comme Mat(IdF , B0F , BF ) =  1 2 1  vérifie que :
1 0 1
 
1 −1/2 1/2  −1
Mat(IdF , BF , B0F ) =  0 1/2 −1/2  = Mat(IdF , B0F , BF )
−1 1/2 1/2

18
Enfin puisque :

Mat(f, B0E , B0F ) = Mat(IdF , BF , B0F ) × Mat(f, BE , BF ) × Mat(IdE , B0E , BE )

On obtient :    
1 −1/2 1/2 1 1  
0 0     1 1
Mat(f, BE , BF ) = 0 1/2 −1/2 × 2 0 ×
1 2
−1 1/2 1/2 1 −1

Exercice. Calculer Mat(f, B 0E , B0F ) directement à partir de la définition, en calculant les coordonnées [f (e0j )]BF0 .

Notations. Soit pour i, j ∈ {1, · · · , n}, i 6= j, Ei,j la matrice de Mn (K) ayant tous ses coefficients nuls
sauf celui situé sur la ligne i et la colonne j, celui-ci étant égal à 1.

On commence par remarquer que l’ensemble des matrices Matp×n (K) est un espace vectoriel pour les lois
+ et . usuelles sur les matrices. D’autre part la famille {Ei,j }i∈{1,···,p},j∈{1,···,n} permet d’écrire de façon unique
tout élément de Matp×n (K) :
X
M = (mi,j )i∈{1,···,p},j∈{1,···,n} = mi,j .Ei,j ,
i∈{1,···,p},j∈{1,···,n}

la famille {Ei,j }i∈{1,···,p},j∈{1,···,n} est une base de Matp×n (K). On en conclut Matp×n (K) est un espace
vectoriel de dimension n.p.

Mais d’autre part, Soient E et F deux K-espaces vectoriels l’ensemble L(E;F) des applications linéaires
de E dans F est aussi un K-espace, pour les lois usuelles + et . sur les applications. Si dimK (E) = n et
dimK (F ) = p, on se donne deux bases B E et B F , l’une de E, l’autre de F et l’application :

Ψ : L(E; F ) → Matp×n (K)


f 7→ Mat(f, BE , BF )
est facilement linéaire. Mais comme à une matrice M correspond une et une seule application, cette application
est un isomorphisme et dimK (L(E; F )) = p × n. Par cette isomorphisme, à la matrice Ei,j correspond
l’application linéaire qui vaut 0F sur tous les éléments de B E , sauf sur la j eme en lequel le vaut le ieme de
BE .

Théorème 3.23. — Soient E et F deux K-espaces vectoriels tels que dim K (E) = n et dimK (F ) = p.
L’espace vectoriel L(E; F ) est de dimension p × n, il est isomorphe à Matp×n (K). Une base de Matp×n (K) est
{Ei,j }i∈{1,···,p},j∈{1,···,n} .

Si la matrice qui représente l’application f change globalement lorsque l’on change les bases des espaces de
départ et d’arrivée, on peut se demander ce qui reste tout de même inchangé et qui se lit sur une matrice qui
représente f .

Définition 3.24. Soit M = (ai,j )i,j∈{1,···,n} ∈ Matn×n (K). On appelle diagonale principale de M les
éléments (a1,1 , · · · , an,n ) et trace de la matrice M la somme des éléments de la diagonale principale, on la note
T r(M ).

Théorème 3.25. — Soient A et B deux matrices carrées. On a :


• T r(A.B) = T r(B.A)
• Si M représente un endomorphisme f sur une base B E (même base au départ et à l’arrivée), et N
 
représente f sur une autre base B 0E de E, on a : T r Mat(f, BE , BE ) = T r Mat(f, B 0E , B0E )

Preuve. On note B = (ai,j )i,j∈{1,···,n} et B = (bi,j )i,j∈{1,···,n} L’élément de la ligne i et la colonne j de


n
X Xn
A.B est ai,k .bk,j . Donc les éléments de la diagonale principale de A.B sont les ai,` .b`,i , i ∈ {1, · · · , n},
`=1 `=1

19
n X
X n n X
X n
et T r(A.B) = ai,` .b`,i . En échangeant les rŝ de A et de B, on a : T r(B.A) = bi,` .a`,i =
i=1 `=1 i=1 `=1
n X
X n
a`,i .bi,` = T r(A.B).
i=1 `=1
On a : Mat(f, B0E , B0E ) = P −1 × Mat(f, BE , BE ) × P , avec P la matrice de passage de B 0E à BE . De ce
qui précède on déduit :    
T r Mat(f, B0E , B0E ) = = T r P −1 × Mat(f, BE , BE ) × P
     
= T r P −1 × P × Mat(f, BE , BE ) = T r In × Mat(f, BE , BE ) = T r Mat(f, BE , BE ) . 2

Puisque la trace d’une matrice ne dépend que de l’endomorphisme qu’elle représente et non d’un choix de
base, on peut parler de la trace d’un endomorphisme :

Définition 3.26. Soit f un endomorphisme de E (ev de dimension finie). On appelle trace de f et on


note T r(f ) la trace de la matrice Mat(f, B E , BE ), où BE est une base quelconque de E.

On va mettre en évidence dans le chapitre suivant d’autres “invariants” par changements de bases des
matrices.

Objectifs du chapitre. Reconnaı̂tre les applications linéaires, savoir donner une base du noyau et de
l’image d’une application linéaire, savoir écrire la matrice d’une application linéaire dans un choix de bases,
savoir changer de bases en utilisant les matrices de passage.

20
Chapitre 4
Opérations élémentaires sur les lignes et les colonnes
Déterminant

Dans la suite la lettre K désigne Q, R ou C.

1 - Opérations élémentaires sur les lignes et les colonnes

Rappelons que le rang d’une application linéaire f : E → F est par définition rg(f ) = dim K (f (E)). Cet
entier est attaché à la seule application f , par conséquent si le rang est lisible sur les matrices qui représentent
f dans un choix de bases, il ne doit pas dépendre du choix des bases. Pour reprendre les termes de la fin du
chapitre précédent, il s’agirait d’un invariant par changement de bases des matrices.
Voyons si on peut effectivement lire le rang d’une application linéaire sur une matrice représentant cette
application linéaire.

Soit f : E → F une application linéaire avec dim(E) = n, dim(F ) = p, B E = {e1 , · · · , en }, BF =


{d1 , · · · , dp } une base de E et de F respectivement et M ∈ Matp×n (K) la matrice représentative de f dans les
bases BE et BF . Notons r = rg(f ).
Comme BE est une base de E, par le premier point du théorème 3.9, {f (e1 ), · · · , f (en )} est une famille qui
engendre f (E). De plus par le théorème de la base incomplète, il existe une sous-famille de {f (e 1 ), · · · , f (en )}
qui est une base de f (E).

En conclusion rg(f ) est le nombre maximal d’éléments linéairement indépendants dans {f (e 1 ), · · · , f (en )}.
r
X
p
Par le théorème 3.15, l’application ϕBF : F → K définie par ϕBF : ( αj .dj ) = (α1 , · · · , αp ), qui à un
j=1
élément de F associe ses coordonées dans la base B F est un isomorphisme. Les éléments f (ei1 ), · · · , f (eir ) sont
ainsi linéairement indépendants ssi leurs coordonnées dans B F le sont. Or les coordonnées de f (ei1 ), · · · , f (eir )
sont les colonnes i1 , · · · , ir de M .

En conclusion rg(f ) est le nombre maximal de colonnes de Mat(f, B E , BF ) (vues comme des éléments de
Kp ) linéairement indépendantes.

Proposition 4.1. — Soient E et F deux K-espaces vectoriels , f : E → F une application linéaire et B E


et BF deux bases respectivement de E et F . On note n = dim(E), p = dim(F ). Soit M ∈ Mat(p × n)(K). Le
nombre maximal de colonnes de M (vues comme des éléments de Kp ) linéairement indépendantes est appelé le
rang de la matrice M et noté rg(M ). On a :

rg(M at(f, B E , BF )) = rg(f ).

Par conséquent rg(Mat(f, B E , BF )) ne dépend pas du choix des bases B E et BF .

Définition 4.2. Soient M et N deux matrices de Matp×n (K). On dit que M et N sont équivalentes
ssi il existe deux matrices inversibles P ∈ Matn×n (K) et Q ∈ Matp×p (K) telles que M = Q.N.P . Si n = p et
Q = P −1 on dit que M et sont semblables.

Remarques. Commes les matrices inversibles représentent des applications linéaires bijectives dans
n’importe quel choix de bases, et que les isomorphismes envoient des bases sur des bases, les matrices P et
Q de la définition ci-dessus peuvent être vus comme des matrices de changement de bases.
Il s’ensuit que M et N sont équivalentes ssi elles représentent la même application linéaire sur des bases de
E et F (éventuellement) différentes : M = Mat(f, B E , BF ), N = Mat(f, B0E , B0F ), où BE , B0E sont des bases de

21
E, BF , B0F sont des bases de F . Et M et N sont semblables ssi M = Mat(f, B E , BE ) et N = Mat(f, B 0E , B0E )
où BE , B0E sont des bases de E.

Les théorèmes 3.25 et 4.1 sénonce alors ainsi :

Nouveaux énoncés pour les théorèmes 3.25 et 4.1. Deux matrices semblables ont même trace, deux
matrices équivalentes ont même rang.

On va donner une méthode pour calculer le rang d’une matrice; la méthode dite du pivot de Gauss.
On rappelle les notations du chapitre précédent : soient pour i, j ∈ {1, · · · , n}, i 6= j, Ei,j la matrice de Mn (K)
ayant tous ses coefficients nuls sauf celui situé sur la ligne i et la colonne j, celui-ci étant égal à 1.

On considère maintenant trois types de matrices, dites matrices élémentaires :

• Type 1 : Soit pour λ ∈ K, Ti,j (λ) = In + λ · Ei,j .


• Type 2 : Soit pour i, j ∈ {1, · · · , n}, i 6= j, Pi,j = In − Ei,i − Ej,j + Ei,j + Ej,i .
• Type 3 : Soit pour λ ∈ K, D(λ) = In + (λ − 1).Ei,i

j
1 0 ··· 0 ··· 0 ··· 0 
 ... ..
. 
 
0 · · · 1 · · · λ · · · 0  ligne i
 
. .. 
Ti,j (λ) =  .. . 
 
0 · · · 0 · · · 1 · · · 0 
. .. 
. 
. .
0 ··· 0 1

 
1 0 ··· ··· ··· 0
 .. .. 
. .
 
D(λ) =  0 · · · · · · λ · · · 0  ligne i
. . 
 .. .. 
0 ··· ··· ··· 0 1

i j
 
1 0 ··· 0 ··· 0 ··· 0
 ... ..
. 
 
0 · · · 0 · · · 1 · · · 0 
  ligne i
. .. 
Pi,j =  .. . 
 
0 · · · 1 · · · 0 · · · 0  ligne j
. .. 
. 
. .
0 ··· 0 1

Soit M ∈ Matp×n (K).

Proposition 4.3. — la multiplication de M à droite par une matrice d’un des trois types décrit ci-dessus
correspond respectivement à une des trois opérations sur les colonnes de M décrites ci-dessus. Ces opérations
sont dites des opérations élémentaires sur les colonnes de M .

• Opération du type 1 : Ajouter à la colonne j, λ fois la colonne i.


• Opération du type 2 : Multiplier la colonne i par λ.
• Opération du type 3 : Permuter les colonnes i et j.

22
Bien sûr si les matrices élémentaires sont dans Matp×p (K) au lieu d’être dans Matn×n (K), on peut
multiplier M à gauche par les matrices élémentaires, ce qui correspond une opération sur les lignes de M d’un
des trois types décrit ci-dessous, dite opération élémentaire sur les lignes de M . :

• Opération du type 1 : Ajouter à la ligne i, λ fois la ligne j.


• Opération du type 2 : Multiplier la ligne i par λ.
• Opération du type 3 : Permuter les lignes i et j.

Dans la suite on ne considère que des opérations élémentaires sur les lignes de M , mais les mêmes énoncés
sont vrais en replaçant colonne par ligne et multiplications à gauche par multiplications à droites.

Théorème 4.4. (Méthode du pivot de Gauss) — Soit r le rang de M . Montrer qu’il existe une suite
finie U1 , · · · , Uk de matrices élémentaires du type 1 et 3 et des réels non nuls c1 , · · · , cr tels que :
 
0 · · · 0 c1 ∗···∗ 0 ∗ ··· ··· ∗
0···0 0 0···0 c2 ∗ ··· ··· ∗ 
 
0···0 0 0···0 0 0 ··· ··· ∗ 
 . .. .. .. 
 . 
 . . . . 
 
U1 · · · Uk · M =  0 · · · 0 0 0 ··· ∗ 0 ∗···∗
 
0···0 ··· 0 cr ∗ · · · ∗  −−−−− ligne r
 
0···0 ··· 0 0···0
 . .. .. 
 .. ··· . . 
0···0 ··· 0 0···0

 
0
.
 . 
 . 
 
0
 
Remarque. les colonnes Ci =  ci  sont dites des colonnes élémentaires. Les colonnes qui sont
 
0
 . 
 .. 
0
à gauche de la colonne Ci dans la matrice réduite ci-dessus sont des combinaisons linéaires des colonnes
élémentaires (Cj )j∈1,···,i . On voit donc puisques les colonnes élémentaires sont libres que le rang de M est
le nombre de colonnes élémentaires de la matrice réduite.

Preuve. On considère la première colonne (en partant de la gauche) non nulle de M , la colonne j 1 .
On permute éventuellement deux lignes de M pour qu’un coefficient non nul se trouve sur la première ligne de
la colonne j1 . Avec des opérations élémentaires du type 1, on se sert de ce coefficient pour rendre les autres
coefficients de la colonne j1 nuls et pour obtenir la première colonne élémentaire C1 . On note M1 la matrice
obtenue à partir de M . On considère alors la première colonne de M1 , (en partant de la gauche) qui n’est pas
proportionnelle à C1 , disons j2 . Cette colonne possède nécessairement un coefficient non nul sur une ligne située
sous la ligne 1. On met ce coefficient sur la ligne 2 et on l’utilise comme pivot pour rendre nul les coefficients
des lignes 1, 3, 4, · · · , p de la colonne j2 , le tout par des opŕations élémentaires sur les lignes. Ce qui donne la
deuxième colonne élémentaire C2 et la matrice M2 . On continue en opérant sur la première colonne de M2 qui
n’est pas combinaison linéaire des colonnes élémentaires C1 et C2 ... 2

Supposons maintenant que n = p (M est carrée) et de rang n, ie M est la matrice représentative d’un
isomorphisme. Le théorème ci-dessus donne : il existe une suite finie U1 , · · · , Uk de matrices élémentaires du
type 1 et 3 et des réels non nuls c1 , · · · , cr tels que :

 
d1 ··· ∗
. .. 
U1 · · · Uk · M =  .. .
0 · · · dn

23
Mais en appliquant des matrices du type 2, on réduit U1 · · · Uk · M à In . En résumé, il existe une suite finie
U1 , · · · , U` de matrices élémentaires du type 1, 2 et 3 et des réels non nuls telles que :

U1 · · · U` · M = I n

On a ainsi :
U1 · · · U` = M −1 .

En remarquant que U1 · · · U` = U1 · · · U` .In et que U1 · · · U` .In est la matrice déduite à partir de In à l’aide des
opérations élémentaires sur les lignes qui font passer de M à In , on obtient :

Théorème 4.5. (Calcul de M −1 par la méthode du pivot de Gauss) — Soit M un matrice


inversible d’ordre M . M −1 est la matrice déduite à partir de In à l’aide des opérations élémentaires sur les
lignes qui font passer de M à In .

2 - Déterminant

Soit M = (ai,j )i,j∈{1,···,n} un matrice à n lignes et n colonnes et à coefficients dans K. On note c1 , · · · , cn les
colonnes de M . Mis en lignes, c1 , · · · , cn sont des vecteurs de Kn . On notera encore ces vecteurs par c1 , · · · , cn .
On note Mi,j la matrice d’ordre n − 1 extraite de M en rayant la ieme ligne et la j eme colonne dans M .

Définition 4.6. Avec les notations ci-dessus, on appelle déterminant de M , et on note det(M ) l’élément
de K définit de la façon suivante :
• si n = 1 et M = (a), det(M ) = a,
Xn
• si n > 1, det(M ) = (−1)i+1 ai,1 det(Mi,1 ).
i=1
 
a b
Exemple. Si n = 2 et M = , det(M ) = ad − bc.
c d
Définition 4.7. — Soit f : (Kn )n → K.
• On dit que f est une forme n-linéaire ssi la restriction de f à chacun de ses facteurs est linéaire, ce qui
veut dire précisément : ∀c1 ∈ Kn , · · · , cn ∈ Kn , l’application :

fj : Kn → K
u 7→ f (c1 , · · · , cj−1 , u, cj+1 , · · · , cn )

(où c1 , · · · , cn est fixé !) est linéaire.


• On dit qu’une forme n-linéaire est antisymétrique ssi ∀c1 ∈ Kn , · · · , cn ∈ Kn , f (c1 , · · · , cn ) =
−f (ec1 , · · · , e
cn ), où la suite ce1 , · · · , e
cn est la même que la suite c1 , · · · , cn , à la permutation de deux éléments
près. On note l’ensemble des formes n-linéaires antisymétriques définies (Kn )n par An (Kn ).

Proposition 4.8. — Avec les notations et les définitions ci-dessus :


o- soit f ∈ An (Kn ). Si deux éléments de la suite c1 , · · · , cn sont égaux, f (c1 , · · · , cn ) = 0.
i- L’ensemble An (Kn ) est un K-espace vectoriel de dimension 1 (deux formes n-linéaires antisymétriques
sont donc proportionnelles).
ii- L’application (c1 , · · · , cn ) 7→ det(c1 , · · · , cn ) est la seule forme n-linéaire antisymétrique qui vaut 1 sur
la base canonique de Kn .

Preuve. o- Supposons que c1 = c2 par exemple, on a alors en permutant c1 et c2 : f (c1 , c2 , c3 , · · · , cn ) =


−f (c2 , c1 , c3 , · · · , cn ). Mais d’autre part f (c1 , c2 , c3 , · · · , cn ) = f (c2 , c1 , c3 , · · · , cn ), puisque c1 = c2 .
i- Que l’ensemble An (Kn ) soit un K-espace vectoriel est clair (à vérifier). Reste à prouver que cet espace
est de dimension 1. Soit f ∈ An (Kn ), et {e1 , · · · , en } la base canonique de Kn . Si σ est une permutation
des indices {1, · · · , n}, on a f (eσ(1) , · · · , eσ(n) ) = (σ).f (e1 , · · · , en ), où (σ) est le nombre de permutations de

24
deux indices seulement qui permettent d’écrire σ. On en déduit, en utilisant la n-linéarité de f , et en écrivant
Xn
cj = ai,j .ei , que :
i=1

X X
f (c1 , · · · , cn ) = aσ(i),1 · · · aσ(i),n .f (eσ(1) , · · · , eσ(n) ) = f (e1 , · · · , en ) aσ(i),1 · · · aσ(i),n .(σ).
σ σ

En conclusion, une fois fixée la valeur de f sur la base {e1 , · · · , en }, on connait la valeur de f partout sur (Kn )n .
ii- La n-linéarité et l’antisymétrie de det se démontrent par récurrence sur n. Facilement det vaut 1 sur la
base canonique de Kn . Par i, il s’agit donc de la seule forme n-linéaire sur (Kn )n valant 1 sur la base canonique
de Kn . 2
Proposition 4.9. (développement suivant les lignes ou les colonnes de det) — Quels que soient
k, ` ∈ {1, · · · , n} :
n
X n
X
det(M ) = (−1)j+k .aj,k . det(Mj,k ) = (−1)j+` .a`,j . det(M`,j ).
j=1 j=1

En particulier det(t M ) = det(M ).


n
X
Preuve. Il suffit de montrer que (c1 , · · · , cn ) 7→ (−1)j+k .aj,k . det(Mj,k ) et (c1 , · · · , cn ) 7→
j=1
n
X
(−1)j+` .a`,j . det(M`,j ) sont des formes n-linéaires antisymétriques valant 1 sur la base canonique de
j=1
Kn . 2
Proposition 4.10. — La famille {c1 , · · · , cn } est une base de Kn ssi det(c1 , · · · , cn ) 6= 0.
La matrice M est inversible ssi det(M ) 6= 0.
Preuve. Soit f l’endomorphisme de Kn qui est représenté dans la base canonique par la matrice M . M
est inversible ssi f est un isomorphisme ssi l’image des ej par f est une base de Kn . Or les colonnes cj de M
sont les coordonnées des f (ej ) dans la base canonique. Il suffit donc de prouver le premier point pour avoir le
second.
Si la famille C = {c1 , · · · , cn } est liée, un cj est combinaison linéaire des autres. Disons que c’est
X n
c1 . En développant det(c1 = , · · · , cn ) grâce à la n-linéarité, on obtient une somme de termes du type
j=2
αj . det(cj , c2 , · · · , cn ), avec j ≤ 2, cette somme est donc nulle, par 4.8.o.
Réciproquement, si C est une base de Kn , et si u est l’endomorphisme de Kn qui envoie la base canonique
sur C, u est un isomorphisme. L’application ϕ : (d1 , · · · , dn ) 7→ det(u(d1 ), · · · , u(dn )) est un élément de An (Kn )
et ϕ(e1 , · · · , en ) = det(c1 , · · · , cn ). Le calcul de la proposition 4.8.i donne alors : ϕ = det(c1 , · · · , cn ). det. Donc
det(c1 , · · · , cn ) est nul ssi ϕ est nulle. Mais la valeur de ϕ sur (u−1 (e1 ), · · · , u−1 (en )) est 1. 2
Proposition 4.11. — Soient M et N deux matrices carrées d’ordre n. Alors :
i- det(M.N ) = det(M ). det(N ). En particulier :
ii det(M.N ) = det(N.M ),
iii- Deux matrices semblables ont même déterminant.
iv- Si M et N représentent le même endomorphisme f de Kn dans une certaine base, on a : det(M ) =
det(N ).

Preuve. i- Si M ou N n’est pas inversible, M.N non plus, et l’égalité à prouver est donc 0 = 0.0. On peut
donc supposer que M et N sont inversibles, ce qui entraı̂ne que M.N est inversible. Les colonnes c 1 , · · · , cn ,
c01 , · · · , c0n , c001 , · · · , c00n de M , N et M.N sont des bases B M , BN et BM.N de Kn .
On note u l’isomorphisme de Kn qui envoie la base canonique de Kn sur BN , On note v l’isomorphisme de
Kn qui envoie B N de Kn sur BM.N . Notons que v ◦ u envoie la base canonique de Kn sur BM.N .

25
En notant C la base canonique, on a : Mat(u, C, C) = N , Mat(v, B N , C) = M.N, et Mat(Id, B N , C) = N ie
Mat(Id, C, BN ) = N −1 et donc Mat(v, C, C) = M.N.N −1 = M . On en conclut que v envoie la base canonique
sur BM .
Soit φ(x1 , · · · , xn ) = det(v(u(x1 )), · · · , v(u(xn ))), on a : φ(x1 , · · · , xn ) = α. det(x1 , · · · , xn ), car φ ∈ An (Kn ).
En faisant (x1 , · · · , xn ) = (e1 , · · · , en ), on obtient α = det(M.N ).
Mais d’autre part φ(x1 , · · · , xn ) = β. det(u(x1 ), · · · , u(xn )),
car (u(x1 ), · · · , u(xn )) 7→ det(v(u(x1 )), · · · , v(u(xn ))) est une forme de An (Kn ). En faisant (x1 , · · · , xn ) =
(u−1 (e1 ), · · · , u−1 (en )), on obtient β = det(M ), puisque v(ej ) = cj .
Puis pour finir on a : det(u(x1 ), · · · , u(xn )) = γ. det(x1 , · · · , xn ), et en faisant xj = ej , on obtient
γ = det(N ).
iii- det(P.M.P −1 ) = det(P −1 .P.M ) = det(M ). 2

Comme le déterminant de la matrice qui représente un endomorphisme f de Kn ne dépend pas de la base


choisie, ce déterminant peut être associé à f .

Définition 4.12. Soit f un endomorphisme Kn . On appelle déterminant de f et on note det(f ), le


scalaire det(Mat(f, B, B)), où B est une base quelconque de Kn .

Soit U une matrice élémentaire du type 1, U est triangulaire avec des 1 sur sa diagonale, donc det(U ) = 1.
Soit U 0 une matrice élémentaire du type 3, alors U 0 est la matrice unité In , après permutation de deux
colonnes. Comme (c1 , · · · , cn ) 7→ det(c1 , · · · , cn ) est antisymétrique, det(U 0 ) = − det(In ) = −1.
Soit maintenant M ∈ Matn×n (K) et R sa matrice réduite par pivot de Gauss. On a :
 
d1 0 ··· 0
 0 d2 ··· 0 
 . .. 
M = U1 · · · Uk .R = U1 · · · Uk .   . . 
. 
 0 ··· d 0 
n−1
0 ··· 0 dn

On en déduit que det(M ) = det(U1 ) · · · det(Uk ) det(R) = (−1)p .d1 · · · dn , où p est le nombre de matrices
élémentaires du type 3 parmi les matrices Ui nécessaires à la réduction.

Règles de calcul des déterminants.

• Quant on ajoute à une colonne (resp. à une ligne) de M une combinaison linéaire des autres colonnes
(resp. des autres lignes) de M , det(M ) est inchangé.
• La permutation de deux colonnes (resp. deux lignes) de M change le signe de det(M ).
• det(c1 , · · · , cj−1 , λ.d + µ.d0 , cj+1 , · · · , cn ) =
λ. det(c1 , · · · , cj−1 , d, cj+1 , · · · , cn ) + µ. det(c1 , · · · , cj−1 , d0 , cj+1 , · · · , cn ).
 
A1 ∗ · · · ∗
 0 A2 · · · ∗ 
• Si A1 , · · · , A` sont des matrices carrées, det   ... ..  = det(A1 ) · · · det(A` ).
. 
0 ··· 0 A`
• det(t M ) = det(M ).

Soit S un système de p équations linéaires à n inconnues x1 , · · · , xn . On note A la matrice p × n des


coefficients de S et X la colonne des inconnues x1 , · · · , xn . Avec ces notations S s’écrit : A.X = B, où B est
une colonne de n lignes.
Pour résoudre S on effectue un pivot de Gauss sur A et le même pivot sur B, ce qui conduit à (en procédant
par exemple sur les lignes) :
U1 · · · Uk .A.X = U1 · · · Uk .B
En notant R la matrice réduite U1 · · · Uk .A et C la colone U1 · · · Uk .B, on obtient la forme équivalente suivante
de S :
R.X = C

26
On résoud alors le système.
Dans la cas particulier où p = n et où de plus A est inversible, on a : A.X = B ⇔ X = A −1 B. Le système
admet donc l’unique solution X = A−1 .B. Lorsque A est inversible on dit que le système est de Cramer.

On montre que :

Théorème 4.13. (Équations de Cramer) — Soit A.X = B un système linéaire où A est inversible.
Alors ce système admet une unique solution X = A−1 .B, et de plus :

1
xi = det(A1 , · · · , Ai−1 , B, Ai+1 , · · · , An ),
det(A)

avec Ai la ieme colonne de A.


En particulier, on note A−1 = (αi,j )i,j∈{1,···,n} :

1
αi,j = det(A1 , · · · , Ai−1 , Ij , Ai+1 , · · · , An )
det(A)

avec Ij la j eme colonne de In .

Corollaire 4.14. — : Soit A.X = B un système de n équations linéaires à n inconnues, dont tous les
coefficients sont dans Z. Si det(A) =+ 1 ce système admet une unique solution X dans Zn .

Définition 4.15. Soit A = (ai,j )i,j∈{1,···,n} . Le déterminant mi,j de la matrice A où la ligne i et la
colonne j sont rayées est appelé le mineur relatif au coefficient a i,j de A.
Soit com(A) la matrice dont le coefficient ci,j de la ieme ligne et de la j eme colonne est (−1)i+j .mi,j On dit
que et que com(A) est la comatrice de A, et que ci,j est le cofacteur relatif à ai,j de A.

Le théorème 4.13 donne immédiatement :


1 t
Théorème 4.16. — Si A est inversible, A−1 = [com(A)]. 2
det(A)
Corollaire 4.17. — Une matrice A à coefficients dans Z admet pour inverse une matrice à coefficients
dans Z ssi det(A) =+ 1.

27
Chapitre 5
Droites stables par un endomorphisme - Espaces propres
Polynôme caractéristique
Diagonalisation
Trigonalisation

Dans la suite la lettre K désigne Q, R ou C.

1 - Droites stables par un endomorphisme

Soit ∆ = vec({u}) une droite d’un K-espace E (u 6= 0E ) et soit f ∈ L(E).


On se demande si ∆ est stable par f , ie si f (∆) ⊂ ∆. Ceci revient à se demander s’il existe λ ∈ K tel que
f (u) = λ.u. Remarquons que λ = 0K , signifie que u ∈ ker(f ).

Définition 5.1. Avec les notations ci-dessus, on dit que u est un vecteur propre de f et que λ est une
valeur propre de f . L’ensemble des valeurs de f est appelé le spectre de f et noté Spec(f ).

Proposition 5.2. — Soit λ ∈ Spec(f ). On appelle sous-espace propre de f associé à la valeur


propre λ et on note Eλ = {u ∈ E; f (u) = λ.u}. Il s’agit d’un sous-espace vectoriel de E. Il est constitué de
0E et des vecteurs propres de f associés à la valeur propre λ.

Preuve. Facile et laissée en exercice.

Remarques. • Si Eλ est un sous-espace propre, on a dim(Eλ ) ≥ 1, puisque par définition un vecteur


propre est non nul.
• E0K = {u ∈ E; f (u) = 0K .u} = ker(f ). Ou encore 0K ∈ Spec(f ) ssi f non injectif.

Proposition 5.3. — Soient λ1 , · · · , λk ∈ Spec(f ), (sans répétition, ie λi 6= λj si i 6= j). Si Li est une famille
libre de Eλi , la famille L1 ∪ · · · ∪ Lk est une famille libre de E. En particulier Eλ1 + · · · + Eλk = Eλ1 ⊕ · · · ⊕ Eλk .

Preuve. On fait la preuve pour k = 2. On note L1 = {x1 , · · · , x` } et L2 = {y1 , · · · , yp }. Si

X̀ p
X
αi .xi + βj .yj (∗)
i=1 j=1

En composant par f :
X̀ p
X X̀ p
X
αi .f (xi ) + βj .f (yj ) = αi .λ1 .xi + βj .λ2 .yj = 0 (∗∗)
i=1 j=1 i=1 j=1

Certainement λ1 ou λ2 est non nul, puisque λ1 6= λ2 . Supposons que λ1 6= 0. Alors (∗∗) devient :

X̀ p
λ2 X
αi .xi + βj .yj = 0 (∗ ∗ ∗)
i=1
λ1 j=1

En retranchant (∗) à (∗ ∗ ∗), on obtient, puisque (λ2 /λ1 ) 6= 1 :

Xp Xp
λ2
( − 1) βj .yj = 0 ⇐⇒ βj .yj = 0
λ1 j=1 j=1

P`
Ce qui implique que βj = 0, car L2 est libre, (∗) est alors : i=1 αi .xi = 0, ce qui implique que αi = 0, car L1
est libre. 2
28
[ ci-dessus, soient Spec(f ) = {λi }i∈I et Bi une base de Eλi . On dit
Définition 5.4. Avec les notations
alors que f est diagonalisable ssi Bλi est une base de E.
i∈I

Exemple. Considérons un projecteur p : E → E, p ◦ p = p ⇐⇒ ker(p) ⊕ Im(p) = E. Si λ ∈ Spec(p),


il existe u 6= 0 tel que p(u) = λ.u. En composant cette égalité par p, il vient : p(p(u)) = λp(u) = λ 2 u. Mais
p(p(u)) = p(u) = λ.u ie (λ − λ2 )u = 0E . Comme u 6= 0, λ ∈ {0, 1}. Si 0 est effectivement une valeur propre
de p, E0 = ker(p). Et si y = p(x) ∈ Im(p), p(y) = p(p(x)) = p(x) = y. Donc si Im(p) 6= {0} ie si p n’est pas
l’endomorphisme nul, tout vecteur non nul de Im(p) est propre associé à la valeur propre 1. Mais si u ∈ E 1 , en
décomposant u dans la somme directe ker(p) ⊕ Im(p) = E, u = n + p(x) et donc p(u) = p(p(x)) = p(x) = 1.u,
ie que n = 0 et u ∈ Im(p). En conclusion E0 = ker(p) et E1 = Im(p).
Comme ker(p) ⊕ Im(p) = E,p est diagonalisable.

Regardons maintenant ce qu’en dimension finie la représentation des endomorphismes par des matrices
permet d’ajouter aux remarques générales que l’on vient de faire.

On considère à partir de maintenant que dim(E) = n.

2 - Polynôme caractéristique.

Soit B une base de E, on note M = Mat(f, B, B). On rappelle que par définition un vecteur propre est
non nul.
On a : λ ∈ Spec(f ) et u ∈ Eλ ssi f (u)−λ.u = 0E ssi (u 6= 0E et u ∈ ker(f −λ.IdE ) ssi ker(f −λ.IdE ) 6= {0E }
ssi f − λ.IdE est non injective ssi f − λ.IdE est non bijective ssi det(M − λ.In ) = 0.
Remarquons que si l’on considère λ comme une variable dans le calcul formel de det(M − λ.I n ), la quantité
det(M − λ.In ) = apparait comme un polynôme en λ et le degré de ce polynôme est exactement n. En résumé :

Proposition 5.5. — Soit E un K-espace de dimension n, f ∈ L(E), B une base de E et M =


Mat(f, B, B).
i− λ ∈ Spec(f ) ssi λ est racine du polynôme χM (X) = det(M − [Link] ).
ii− χM (X) est un polynôme de K[X] de degré n, en particulier Card( Spec(f )) ≤ n.
iii− χM (X) ne dépend pas de la base B sur laquelle M représente f . Par conséquent χM (X) ne dépend
que de f , on le notera donc parfois χf (X). On appelle ce polynôme le polynôme caractéristique de f (ou
de M ).
iv− On a : χM (X) = (−1)n X n + (−1)n−1 tr(M ) + · · · + (−1)n det(M )) (on retrouve d’après le point
précédent que tr(M ) et det(M ) ne dépendent pas de la base sur laquelle M représente f ).
v− χM = χ(t M )

Preuve. ii et iv résultent de calculs. iii et v résultent respectivement de l’invariance du déterminant par


changement de base et par transposition. 2

Remarques. • Deux matrices semblables ont même polynôme caractéristique, mais la réciproque est
0 ··· 0 1
0 ··· ··· 0
fausse. Par exemple la matrice M =   ... ..  vérifie χM (λ) = (−λ)n , qui est aussi le polynôme
.
0 ··· ··· 0
caractéristique de la matrice nulle N . Or si M et N étaient semblables, on aurait : M = P −1 .N.P = N , ce qui
n’est pas le cas.
n−1
X
n n
• Tout polynôme P du type P (X) = (−1) (X + Q(X)), où Q(X) = αi .X i est un polynôme
i=0
quelconque de degré ≤ n − 1, est le polynôme caractéristique d’une matrice M . Il suffit de prendre

29
 
0 ··· α0
1 0 ··· α1 
 
M = 0 1 ··· α2  (la calcul qui prouve que χM = P n’est pas immédiat). Cette matrice est appelé
. .. 
 .. . 
0 · · · 1 αn−1
la matrice compagnon de P .

PropositionX5.6. — Soit λ ∈ Spec(f ) et mλ la multiplicité de la racine λ dans χf . On a : dim(Eλ ) ≤ mλ .


En particulier, dim(Eλ ) ≤ deg(χf ) = n.
λ∈Spec(f )

Preuve. Soit {u1 , · · · , ud } une base de Eλ . On complète cette famille libre en une base B de E. Comme
f (u1 ) = λ.u1 , · · · , f (ud ) = λ.ud , on a :
 
λ.Id ∗
Mat(f, B, B) =
0 A
 
λ−X ∗
où A est une matice d’ordre (n − d). Par conséquent χM (X) = det(M − [Link] ) = det =
0 A − [Link]−d
(λ − X)dim(Eλ ) .χA (X). 2

Définition 5.7. Un polynôme P ∈ K[X] est dit scindé ssi P est produit de facteurs de degré 1 ie
P (X) = cte(X − x1 ) · · · (X − xdeg(P ) ) (les xi apparaissant éventuellement avec répétition).

Remarque. Tout polynôme de C[X] est scindé (c’est le théorème dit “fondamental de l’algèbre”).
 
0 1
Exemple. Soit f ∈ L(K2 ), et M = la matrice représentative de f dans la base canonique de
−1 0
K2 . On a : χM (X) = X 2 + 1. Ce polynôme, vu comme un polynôme de R[X], n’est pas scindé, car irréductible.
En revanche, vu comme un polynôme de C[X], χM (X) = (X − i)(X + i), et par conséquent χM (X) est scindé
dans C[X].

3 - Diagonalisation.

Proposition 5.8. — f est diagonalisable ss’il existe une base B de E telle que M = Mat(f, B, B) est
une matrice diagonale. ie f est diagonalisable ss’il existe P une matrice inversible et ∆ une matrice diagonale
telle que : M = P −1 .∆.P .

Preuve. Par définition f est diagonalisable ssi E admet un base de vecteurs propres de f . Une matrice
représentative est diagonale ssi E admet une telle base. 2
Théorème 5.9. — On a les équivalences :
f est diagonalisable
X
⇐⇒ dim(Eλ ) = n
λ∈Spec(f )
⇐⇒ χf est scindé et ∀λ ∈ Spec(f ), dim(Eλ ) = mλ (la multiplicité de λ dans χf ).

Preuve. Montrons la première équivalence. Si f est diagonalisable, il existe une base B telle de
Mat(f, B, B) est diagonale et chaque élément u de B vérifie f (u) = λi .u donc est dans Eλi . Les u de B
X une famille libre de Eλ , ils sont donc en nombre ≤X
qui sont associés à λ constituent dim(Eλ ). Mais comme B
est de cardinal n, on a : dim(Eλ ) ≥ n. Mais d’après la proposition 5.6, dim(Eλ ) ≤ n.
λ∈Spec(f ) λ∈Spec(f )
X
Réciproquement, si dim(Eλ ) = n, la réunion de bases de chaque Eλ donne une famille libre de E
λ∈Spec(f )
par la proposition 5.3, à n éléments , donc une base de E de vecteurs propres.
X
Montrons la seconde équivalence. Si χf est scindé, mλ = n.
λ∈Spec(f )
X
Réciproquement si dim(Eλ ) = n comme par la proposition 5.6, dim(Eλ ) ≤ mλ et que
λ∈Spec(f )

30
X
mλ ≤ n, on a : dim(Eλ ) = mλ 2
λ∈Spec(f )

Corollaire 5.10. — Si χf possède n racines (distinctes), f est diagonalisable et chaque sous-espace


propre est de dimension 1.
X
Preuve. En effet, on a toujours dim(Eλ ) ≥ 1 et dim(Eλ ) ≤ n. Or une somme de n entiers ≥ 1
λ∈Spec(f )
inférieure à n est nécessairement la somme 1 + · · · + 1 (n fois 1). 2
Remarque. La réciproque du corollaire 5.10 n’a pas lieu, puisque la matrice nulle est diagonalisable (elle
est diagonale dans toute base !) mais Spec(f ) = {0K }.
 
2 0 1
Exemple. Reprenons l’exemple précédent : f ∈ L(K ), et M = la matrice représentative de
−1 0
f dans la base canonique de R2 . On rappelle qu’alors : χM (X) = X 2 + 1 et que ce polynôme, vu comme
un polynôme de R[X], (ie quand K = R) n’est pas scindé, et vu comme un polynôme de C[X] (K = C),
χM (X) = (X − i)(X + i) est scindé.
• Si K = R, Spec(f ) = ∅ et donc f n’est pas diagonalisable.
• Si K = C, Spec(f ) = {i, −i} et donc f estdiagonalisable
  par le corollaire
  5.10.
 On  cherche les espaces
a a a a
propres Ei et E−i , donnés part les équations M. = i. et M. = −i. . Ce qui conduit à :
b b b b
Ei = vec({~u = (1, i)}) et E−i = vec(~v = {(1, −i)}). On
 note  B = B 1 ∪ B2 = {~u, ~v }. Il s’agit d’une base de C2
i 0
dans laquelle la matrice représentative de f est ∆ = .
0 −i
 
1 1
Exemple d’application. Calculer M k , pour k ∈ Z. On note P = Mat(Id, B, C) =
i −i
 
−1 1 t 1 −i −1
On a alors P = com(P ) = et pour k ∈ N,
det(P ) −2i −i 1
     
1 1 1 ik 0 −i −1 −ik+1 i + (−1)k i 1 + (−1)k+1
M k = P −1 .∆k .P = =
−2i i −i 0 (−i)k −i 1 2 −1 + (−1)k i + (−1)k i

Contrairement aux apparences et conformément à ce que l’on attend, M k est bien une matrice à coefficients
réels : exprimez-la en fonction de k modulo 4 (!). Vérifier que pour k = −1 la formule donnant M k est encore
valable et en déduire que cette formule est valable pour tout k ∈ Z.
Calculer (I2 + M )k , pour tout k ∈ Z.

4 - Trigonalisation.
 
0 1
On ne peut pas toujours diagonaliser une matrice/un endomorphisme, même sur C (penser à ).
0 0
On essaie donc une réduction moins exigeante : rendre notre matrice semblable à une matrice triangulaire.

Définition 5.11. Soit f ∈ L(E), B une base de E et M la matrice représentative de f sur B. On dit que
f ou M est trigonalisable ssi M est semblable à une matrice triangulaire (supérieure ou inférieure).

Remarques. • Si la matrice M est semblable à une matrice triangulaire inférieure T , il existe B 0 =


{e1 , · · · , en } une base de E telle Mat(f, B 0 , B0 ) = T . Mais si l’on note, B 00 = {en , · · · , e1 }, Mat(f, B00 , B00 ) est
triangulaire supérieure. Dans la définition 5.11, on peut donc se passer de préciser si M est semblable à une
matrice triangulaire supérieure ou inférieure.
• Être trigonalisable est une propriété qui bien qu’énoncée sur la matrice représentative de f dans une
certaine base de E, ne porte que sur f et ne dépend pas du choix de B. En effet si Mat(f, B, B) est
semblable à T , il existe P inversible telle que Mat(f, B, B) = P −1 .T.P . Mais si B0 est une autre base de
E, Mat(f, B0 , B0 ) = Q−1 .Mat(f, B, B).Q et donc Mat(f, B 0 , B0 ) = (P Q)−1 .T.P Q, ie Mat(f, B 0 , B0 ) est aussi
semblable à T .

31
Théorème 5.12. — Soit E un K-espace vectoriel de dimension n et f ∈ L(E). Les assertions suivantes
sont équivalentes :
i- f est trigonalisable
ii- Il existe une suite (Fi )i=1,···,n strictement croissante {0} ⊂ F1 ⊂ F2 ⊆ · · · ⊂ Fn−1 ⊂ Fn = E de
6= 6= 6= 6=
sous-espaces stables par f (ie f (Fi ) ⊂ Fi ).
iii- χf est scindé.

Preuve. i ⇒ ii. Soit une base B = {e1 , · · · , en } de E. Si on note Fi = vec({e1 , · · · , ei }), la suite (Fi )i=1,···,n
est bien strictement croissante. Si de plus B est telle que Mat(f, B, B) est triangulaire, les F i sont stables par
f.
ii ⇒ iii. L’hypothèse ii implique nécessairement dim(Fi ) = i. Soit alors, pour tout i ∈ {1, · · · , n} une base
Bi = {e1 , · · · , ei } de Fi (on construit Bi à partir de Bi−1 en complétant par un vecteur ei , puisque Fi−1 est un
hyperplan de Fi ). Comme chaque Fi est supposé stable par f , Mat(f, B n , Bn ) est triangulaire supérieure. Si
on note λ1 , · · · , λn les valeurs diagonales de Mat(f, B n , Bn ) (éventuellement avec répétition), on obtient alors
χf (X) = (λ1 − X) · · · (λn − X). χf est ainsi scindé (et les λi sont les valeurs propres de f ).
iii ⇒ i. Montrons cette implication par récurrence sur n = dim(E).
Si n = 1, toutes les matrices sont triangulaires.
Soit alors n ∈ N \ {0, 1} et suposons que les matrices d’ordre n − 1 sont trigonalisables pourvu que leur
polynôme caractéristique soit scindé. Soit enfin E de dimension n et f ∈ L(E) tel que χ f est scindé.
Comme par hypothèse χf est scindé, il admet n racines (éventuellement de multiplicité ≥ 1). Soit λ1 l’une
d’elles, et e1 un vecteur propre associé à λ1 . On complète la famille (qui est libre !) {e1 } en une base B1 de E.
La matrice Mat(f, B 1 , B1 ) a alors la forme :  
λ1 ∗
M1 = ,
0 A1
avec A1 une matrice d’ordre n − 1. On a alors en développant sur la première colonne :

χf (X) = χM1 (X) = (λ1 − X)χA1 (X).

Comme χf est scindé, l’égalité précédente nous apprend qu’il en est de même pour χA1 . Par hypothèse de
récurrence, il existe une matrice invesible P1 telle que A1 = (P1 )−1 .T1 .P1 , avec T1 triangulaire supérieure :
 
λ1 ∗
M1 = .
0 (P1 )−1 .T1 .P1
   
1 0 1 0
On note maintenant Pe1 = , cette matrice est inversible, d’inverse Pg
−1
= (le vérifier) et
0 P1 1 0 P1−1
de plus :  
λ1 ∗
M1 = Pg
−1
1 .
f1 ,
.P
0 T1
cette matrice est bien triangulaire (supérieure) ce qui achève la récurrence. 2
En pratique. On part d’une matrice M qui représente un certain endomorphisme sur une base donnée
−1
B0 . On trouve la base B 1 de la preuve. En notant P0 lamatricede passage de B 0 à B 1 , on a : M
 = P0 .M1 .P0 .
On trouve ensuite sucessivement les matrices P f1 = I1 0 , · · · , Pg n−1 =
In−1 0
. On obtient :
0 P1 0 Pn−1
M = P0−1 .Pg−1 g
−1 g g−1
1 · · · Pn−1 .[Link]−1 · · · P1 .P0 , avec T triangulaire. Les coordonnées dans la base B 0 des vecteurs
de la base de trigonalisation sont les colonnes de P −1 .Pg −1
0 · · · Pg
−1
1 . n−1

Comme tout polynôme de C[X] est scindé, on en déduit :

Corollaire 5.13. — Tout endomorphisme (resp. toute matrice) d’un C-espace de dimension finie (resp.
à coefficients dans C) est trigonalisable (resp. est semblable à une matrice triangulaire). 2

32
Si E est de dimension n, on a vu (théorème 3.23) que L(E) est de dimension n2 . Les endomorphismes
2
IdE , f, f 2 , · · · , f n ne constituent donc pas une famille libre : il existe a0 , · · · , an ∈ K tels que : a0 .IdE + a1 .f +
Xn Xn
· · · .an .f n = 0L(E) . En notant P (X) = ai .X i , on peut introduire la notation symbolique : P (f ) = ai .f i ,
i=0 i=0
où f 0 = IdE et dire que le polynôme P annule f . On a ainsi montrer que tout endomorphisme d’un espace
vectoriel de dimension n est annulé par un polynôme de degré n2 . Le théorème suivant dit que l’on peut faire
encore mieux : tout endomorphisme d’une espace vectoriel de dimension n est annulé par un polynôme de degré
n, et pas n’importe lequel puisqu’il s’agit du polynôme caractéristique de f lui-même !

Théorème 5.14. (Cayley-Hamilton) — Soit E un espace vectoriel de dimension finie et f ∈ L(E).


On a : χf (f ) = 0L(E) .

Preuve. Commençons par supposer que χf est scindé.


Il n’est alors pas difficile de voir que [(X − λ1 ) · · · (X − λn )](f ) = (f − λ1 .IdE ) · · · (f − λn .IdE ) = 0. Il
suffit de considérer T une matrice triangulaire représentant f (dans une certaine base). Dans ce cas les λ i sont
les valeurs diagonales de T et le calcul (T − λ1 .In ) · · · (T − λn .In ) donne bien la matrice nulle.
Si χf n’est pas scindé (ie si K = R, par exemple), on se place dans un corps K̄ qui contient K et sur
lequel tous les polynômes sont scindés (on montre que de tels corps existent) (par exemple C, si K = R). On
effectue alors le calcul comme si χf étaient à coefficients dans K̄, en écrivant : χf = (λ1 − X) · · · (λn − X), où
λi ∈ K̄. 2

Corollaire 5.15. — Soit E un K-espace de dimension n et f ∈ L(E). Si f est inversible, f −1 est un


polynôme en f de degré n − 1.

Preuve. Si f est inversible, 0 n’est pas valeur propre de f et donc χf (0) 6= 0. Le théorème de Cayley-
Hamilton assure : χf (f ) = a0 IdE + a1 f + · · · + an f n = 0, avec a0 6= 0. Par conséquent :

−a1 −an n−1


f ◦(
a0
IdE + · · · +
a0
f ) = IdE . 2

33
Chapitre 6
Produits saclaires sur Rn et Cn
Bases orthonormées
Espaces préhilbertiens
Projections orthogonales sur un sev
Matrices orthogonales et unitaires
Matrices symétriques et normales
Coniques et normes d’opérateurs

Dans ce chapitre, K = R ou C.

1 - Produits saclaires sur Rn et Cn

Sur Kn on dispose d’un produit scalaire. pour a = (a1 , · · · , an ), b = (b1 , · · · , bn ), le produit de a et b est
défini par :
• Si K = R,
n
X
(a|b)R = ai .bi ,
i=1
n n
L’application ( | )R : R × R → R est une forme bilinéaire. Cette forme est symétrique ie (a|b)R = (b|a)R .
Xn
Enfin on a : (a|a)R = kak2 = a2i ≥ 0.
i=1
• Si K = C,
n
X
(a|b)C = ai .bi ,
i=1

où bi est le conjugué de bi .


L’application ( | )C : Cn × Cn → C est linéaire sur son premier facteur, additive sur son second facteur
ie (a|b + c)C = (a|b)C + (a|c)C mais non linéaire sur son second facteur puisque (a|β.b)C = β̄.(a|b). On dit que
( | )C est semi-linéaire sur son second facteur.
Au total on dit que ( | )C est une forme non pas bilinéaire mais sesquilinéaire(†). De plus ( | )C n’est pas
symétrique puisque (a|b)C = (b|a)C . On dit que ( | )C est hermitienne.
Xn
Enfin on a : (a|a)C = kak2 = |ai |2 ≥ 0 (avec |ai | le module du nombre complexe ai ).
i=1

Remarque. On peut remarquer que si on considère les réels comme des nombres complexes, ( | ) R est
sesquilinéaire et hermitienne, (a|b) = (a|b) si (a|b) ∈ R et (a|β.b) = β̄(a|b) si β ∈ R !

2. Bases orthonormées

On dit que deux éléments a et b de Kn sont orthogonaux ssi (a|b)K = 0.


On dit qu’une famille {ei }i∈I est normée si pour tout i ∈ I, kei k = 1.
On dit qu’une famille {ei }i∈I est orthonormée si cette famille est normée et si pour tout i, j ∈ I,
i 6= j, (ei |ej )K = 0 ie que les éléments de la famille sont deux à deux orthogonaux (on dit que la famille est
orthogonale).

Exemple. La base canonique est orthonormée.

L’intérêt de telles familles réside dans le résultat suivant :

(†) En lation “sesqui” signifie 3/2. Il est employé ici pour résumer le fait que ( | ) C est 1-linéaire sur son
premier facteur et semi-linéaire sur son second.

34
Proposition 6.1. — Une famille orthonormée de Kn est libre.
n
X
Preuve. Si αj .eij = 0, en prenant le produit scalaire des deux membres par eik , on obtient αk = 0. 2
j=1
Dans la suite on considèrera des bases orthonormées (en bref des bon). Mais auparavant on va montrer
que tout sev de Kn admet des bases orthonormées.
On commence par remarquer que dès que l’on dispose d’une famille orthogonale, cette famille étant libre,
aucun des vecteurs n’est nul, et ainsi en divisant chacun d’eux par sa norme on obtient une famille orthonormée.
L’existence des bases orthonormées revient donc à montrer l’existence des familles orthogonales.

Montrons la propriété suivante par récurrennce sur n :


P(n) : tout sev de dimension n d’un espace du type Kp admet une base orthogonale.
• Si n = 1, n’importe quel vecteur non nul convient.
• Supposons P(1), · · · , P(n − 1) vraie et soit F un sev de Kp . Soit B = {b1 , · · · , bn } une base de F et F1
un supplémentaire de vec({b1 }) dans F , ie F = vec({b1 }) ⊕ F1 . Alors par hypothèse de récurrence il existe
B1 = {e1 , · · · , en−1 } une base orthonormée de F1 .
n−1
X n−1
X
Remarquons que b1 − (b1 |ei ).ei 6= 0, puisque b1 6∈ F1 . On pose alors en = α(b1 − (b1 |ei ).ei ), avec
i=1 i=1
n−1
X
α = 1/(kα(b1 − (b1 |ei ).ei k.
i=1
On a : (ek |ej ) = 0 pour j 6= k, k, j ∈ {1, · · · , n}. Par la proposition 6.1, la famille {e1 , · · · , en } est une base
de F .
On a prouvé :

Proposition 6.2. — Tout sous-espace vectoriel de Kn admet une base orthonormée. 2


On peut dégager le principe essentiel de cette preuve :

Principe fondamental (Gram-Schmidt). Soit F un sous-espace vectoriel de K n , muni d’une bon


B = e1 , · · · ,P
ep et u un vecteur qui n’est pas dans F . On note G = vec({u}) ⊕ F . Alors une bon de G est donnée
p
u − [ j=1 (u|ej )ej ]
par { P , B}.
ku − [ pj=1 (u|ej )ej ]k

Exemple. Trouver une bon du sev F = {(x, y, z, t) ∈ R4 ; x + y + z + t = 0} de R4 .

On va généraliser nos remarques au cas des espaces vectoriels “abstraits”.

3. Espaces Préhilbertiens

Soit E un K-espace vectoriel. Comme dans le cas où E = Kn :

• Si K = R, on dit qu’une forme bilinéaire ( | ) : E × E → R est :


symétrique ssi (a|b) = (b|a),
positive ssi (a|a) ≥ 0,
définie ssi ((a|a) = 0 ⇐⇒ a = 0).

• Si K = C, on dit qu’une application ( | ) : E × E → C linéaire sur son premier facteur, additive sur son
second facteur (ie (a|b + c) = (a|b) + (a|c)) et telle que (a|β.b) = β̄.(a|b) (ie semilinéaire sur son second facteur)
est une forme sesquilinéaire. Si cette forme est telle que (a|b) = (b|a), on dit qu’elle est hermitienne.
On dit que cette forme est :
positive ssi (a|a) ≥ 0,
définie ssi ((a|a) = 0 ⇐⇒ a = 0).
Dans le cas où ( | ) vérifie toutes ces propriétés,

35
Définition 6.3. Un K-espace vectoriel sur lequel existe une forme ( | ) : E × E → K sesquilinéaire,
hermitienne, définie et positive est appelé un espace préhilbertien et ( | ) un produit scalaire.
• Dans le cas où K = C, on dit que (E, ( | )) est un espace préhilbertien complexe. Dans le cas
particulier où dimC (E) < ∞, on dit que E est une espace hermitien.
• Dans le cas où K = R, on dit que (E, ( | )) est un espace préhilbertien réel. Notons que dans ce cas dire
que la forme ( | ) est hermitienne revient à dire qu’elle est symétrique, et dire qu’elle est sesquilinéaire revient
à dire qu’elle est bilinéaire. Dans le cas particulier où dimR (E) < ∞, on dit que E est un espace euclidien.

Définition 6.4. Soit E un K-espace sur lequel existe une application n : E → R+ telle que, pour a, b ∈ E
et α ∈ K :
i- n(a) = 0R ssi a = 0E ,
ii- n(α.a) = |α|.n(a),
iii- n(a + b) ≤ n(a) + n(b).
On dit que (E, k k) est un espace vectoriel normé et que n est une norme sur E.

Proposition 6.5. — Si (E, ( | )) est un espace préhilbertien (réel ou complexe), l’égalité :


p
n(a) = (a|a)

définit une norme n sur E, plus souvent notée, comme dans le cas de Kn par k k.

Preuve. La propriété i résulte du caractère défini de ( | ) et ii du caractère sesquilinéaire. En revanche


la propriété iii n’est pas immédiate. On l’appelle l’inégalité triangulaire ou inégalité de Minkowski. Elle
résulte de l’inégalité de Cauchy-Schwarz :

Théorème 6.6. (Inégalité de Cauchy-Schwarz) — Soit (E, ( | )) un espace préhilbertien, on a :

(a|b)2 ≤ (a|a)(b|b)

et l’égalité a lieu ssi a et b sont colinéaires.

Preuve. Si (a|b) = 0 ou (b|b), l’inégalité est vraie. De même si a et b sont colinéaires.


On suppose (a|b) 6= 0, (b|b) 6= 0 et a et b non colinéaires, on pose (a|b) = re iθ et λ = [Link]θ . On calcule
ensuite (a + λ.b|a + λ.b). On trouve, en utilisant la sesquilinéarité :

(a + λ.b|a + λ.b) = (a|a) + λλ̄(b|b) + λ(b|a) + λ̄(a|b) = (a|a) + t2 (b|b) + λ(b|a) + λ̄(a|b)

En utilisant le carctère hermitien de ( | ), il vient :

(a + λ.b|a + λ.b) = (a|a) + t2 (b|b) + λ(a|b) + λ̄(a|b).

Or λ(a|b) + λ̄(a|b) = [Link]θ .r.e−iθ + t.e−iθ .[Link]θ = 2t.r = 2|(x|y)|. Ce qui donne :

(a + λ.b|a + λ.b) = t2 (b|b) + 2t|(x|y)| + (a|a).

Or ( | ) étant positive, (a + λ.b|a + λ.b) ≥ 0, et ainsi (a + λ.b|a + λ.b) = t2 (b|b) + 2t|(x|y)| + (a|a) apparait comme
un polynôme de degré 2 de signe ≥ 0 et ayant son coefficient directeur > 0 (on a supposé (b|b) 6= 0). De plus
(a + λ.b|a + λ.b) est nul ss’il existe λ ∈ K tel que a = −λ.b ssi a et b sont colinéaires.
Le discriminant ∆ de ce polynôme est par conséquent < 0, or ∆ < 0 est l’inégalité que l’on veut
démontrer. 2

Corollaire 6.7. (Inégalité triangulaire ou de Minkowski) — Soit (E, ( | )) un espace préhilbertien,


on a :
ka + bk ≤ kak + kbk

36
Preuve. On développe ka + bk = (a + b|a + b) et on utilise l’inégalité de Cauchy-Schwarz. 2
On vient de voir qu’un espace vectoriel muni d’un produit scalaire est un espace vectoriel normé. Mais
réciproquement, un espace vectoriel est-il toujours un espace dont la norme n provient d’un produit scalaire
p
( | ) via l’égalité : n(a) = (a|a) ?
Le théorème qui suit répond à cette question.

Théorème 6.8. — Soit (E, n) un K-espace vectoriel normé. La norme n provient d’un produit scalaire
( | ) ssi on a l’identité dite du parallélogramme :

∀a, b ∈ E, n2 (a + b) + n2 (a − b) = 2[n2 (a) + n2 (b)].

Dans ce cas ( | ) est donné par :


h i
(a|b) = 1/4 n2 (a + b) − n2 (a − b) + i.n2 (a + b) − i.n2 (a − b)

qui est, dans le cas K = R : h i


(a|b) = 1/4 n2 (a + b) − n2 (a − b)

Preuve. On ne la fait pas.

Soit B = {e1 , · · · , en } une base orthonormée d’un espace préhilbertien E de dimension finie. Soit
n
X
a = a1 .e1 + · · · + an .en et b = b1 .e1 + · · · + bn .en . On calcule facilement que : (a|b) = aj .bj , ie :
j=1

(a|b)E = ([a]B | [b]B )Kn

Moralité. Lorsque sur un espace préhilbertien E de dimension finie on se donne une base orthonormée
B, le produit scalaire dans E est celui dans Kn , des coordonnées sur la base B, et par conséquent la structure
d’espace préhilbertien de E est la même que celle de Kn , avec le produit scalaire standard donné dans la partie 1.

4. Projections orthogonales sur un sous-espace

De même que sur Kn , on démontre que dans tout espace préhilbertien les sous-espaces ont des bases
orthonormées (qu’ils soient de dimension finie ou pas). Le principe de Gram-Schmidt s’appliquant à la lettre.
On se pose le problème pratique suivant : E étant un espace préhilbertien, F un sous-espace de dimension
finie de E, dont une base orthonormée est {e1 , · · · , en } et a un élément de E, existe-t-il un élément π de F rendant
la distance de a à un élément de F minimale ? Autrement dit, existe-t-il π ∈ F tel que ∀y ∈ F, ka−πk ≤ ka−yk ?
Xn
La réponse est oui et π est de plus unique et donné par : π = (a|ej )ej .
j=1
n
X
Pour prouver cela il suffit de remarquer que d’après le principe de Gram-Scmidt, a − (a|ej )ej est
j=1
orthogonal à tout vecteur de F , puisqu’étant orthogonal à tous les e j , j ∈ {1, · · · , n}, il est orthogonal à toutes
les combinaisons linéaires des ej . Enfin le calcul de ka − yk2 donne, quel que soit y ∈ F :
n
X n
X
ka − yk2 = ka − (a|ej )ej + (a|ej )ej − yk2
j=1 j=1

n
X n
X h n
X n
X i
= ka − (a|ej )ej k2 + ky − (a|ej )ej k2 + 2Re (a − (a|ej )ej | (a|ej )ej − y)
j=1 j=1 j=1 j=1
n
X n
X
= ka − (a|ej )ej k2 + ky − (a|ej )ej k2
j=1 j=1

37
n
X n
X
2
Autrement dit on a toujours ka − yk ≥ ka − (a|ej )ej et l’egalité a lieu ssi y = (a|ej )ej .
j=1 j=1
On énonce :

Théorème 6.9. — Soit (E, ( | ) un espace préhilbertien, F un sous-espace vectoriel de E de dimension


n
X
finie, {e1 , · · · , en } une base de F et a ∈ F . On note π(= π(a)) = (a|ej )ej , il s’agit d’un élément de F .
j=1
On a :
∀y ∈ F, ka − πk ≤ ka − yk,
n
X n
X
l’égalité n’ayant lieu que si y = (a|ej )ej . Autrement dit (a|ej )ej est le point de F qui réalise la distance
j=1 j=1
n
X n
X
minimale de a à un point de F . On dit que k (a|ej )ej k est la distance de a à F et que (a|ej )ej est le
j=1 j=1
projeté orthogonal de a sur F .

5. Matrices orthogonales et unitaires

Soit E un espace préhilbertien de dimension finie, et B 1 = {e1 , · · · , en }, B2 = {d1 , · · · , dn } deux bon


de E. Notons
 P = Mat(IdE , B1 , B2 ), la matrice de passage de B 1 à B2 . La j eme colonne de P est

p1,j n
 ..  X
[ej ]B2 =  . . On a : ej = pk,j .dk , et comme (ei |ej ) = δij = 0 si i 6= j ou 1 si i = j, on en
pn,j k=1

déduit que (ej |ei ) = ([ej ]B2 | [ei ]B2 )Kn = δij .

En conclusion :

Définition 6.10. Une matrice de passage d’une base orthonormée est telle que ses colonnes sont
orthonormées (en tant qu’élément de Kn ). On appelle une telle matrice une matrice orthogonale dans
le cas K = R, une matrice unitaire dans le cas K = C. L’ensemble des matrices orthogonales d’ordre n est
noté O n (R), L’ensemble des matrices unitaires d’ordre n est noté U n (C).
Remarquons que ([ej ]B2 | [ei ]B2 )Kn = δij ssi P.t P = In lorsque P ∈ On (R) et ssi P.t P = In , lorsque
P ∈ U n (C).
Remarquons aussi que dans ce cas (P.X|P.Y ) = (X|Y ), où X et Y sont des colonnes de Kn . En effet, P.X
sont les coordonnées dans B 2 du vecteur x qui a pour coordonnées X dans B 1 , P.Y sont les coordonnées dans
B2 du vecteur y qui a pour coordonnées Y dans B 1 , et un calcul direct montre alors que :

(x|y)E = (X|Y )Kn = (P.X|P.Y ))Kn (∗)

En faisant X les coordonnées du j eme vecteur de la base canonique de Kn et Y les coordonnées du ieme
vecteur de la base canonique de Kn dans (∗), on retrouve que les colonnes de P sont orthonormées, il y a donc
équivalence entre (∗) et l’appartenance de P à O n (R) ou U n (C).
De même, il y équivalence entre (∗∗) et (∗), d’après l’identité du parallélogramme, et donc avec
l’appartenance de P à O n (R) ou U n (C), où (∗∗) est :

kXkKn = [Link] (∗∗)

On a ainsi :

Proposition 6.11. Soit E un espace préhilbertien de dimension finie, on a :

Une matrice P est une matrice de passage d’une base orthonormée de E à une autre

⇐⇒ ses colonnes sont orthonormées, ie en les notant P1 , · · · Pn , (Pi |Pj )Kn = δij

38
⇐⇒ P −1 =t P (cas K = R), P −1 =t P (cas K = C),

⇐⇒ P préserve la norme, ie [Link] = kXkKn ,

⇐⇒ P préserve le produit scalaire, ie (P.X|P.Y )Kn = (X|X)Kn .

6. Matrices symétriques et normales

On en vient à la préoccupation principale de ce chapitre :

Quelles sont les endomorphismes d’un espace préhilbertien dont on peut tirer
une base orthonormée constituée de vecteurs propres ?

Ou encore :

Quels sont les endomorphismes qui sont représentés


par des matrices diagonales sur une certaine base orthonormée ?

Ou encore, puis que les matrices de passages d’une bon à l’autre sont les matrices orthogonales ou unitaires,
en notant M la matrice représentative de l’endomorphisme f dans une bon B quelconque de E :

Quels sont les matrices M pour lesquelles il existe P ∈ O n (R)


et ∆ diagonale telles que M =t P.∆.P (cas K = R) ? Q1
Quels sont les matrices M pour lesquelles il existe P ∈ U n (U) et
∆ diagonale telles que M =t P .∆.P (cas K = C) ? Q2

• Cas réel (Question Q1) - Si M est comme dans la question Q1, on remarque que :
t
M =t (t P.∆.P ) =t (P ).t ∆.t (t P ) =t .∆.P = M , ie que M est symétrique.
Réciproquement, on montre par récurrence sur la taille de M que :

Théorème 6.12. — Soit M une matrice réelle. Si M est symétrique, M est orthogonalement
diagonalisable.

Corollaire 6.13. — Les matrices réelles orthogonalement diagonalisables sont les matrices symétriques.

• Cas complexe (Question Q2) - Soit M comme dans la question Q2. On note M ∗ =t M, on l’appelle
la matrice adjointe de M . On remarque que :
M ∗ = (P ∗ .∆.P )∗ = P ∗ .∆∗ .(P ∗ )∗ = P ∗ .∆.P .
On a alors, puisque p∗ = P −1 : M.M ∗ = P ∗ .∆.∆.P = P ∗ .∆.∆.P = M ∗ .M , ie que M commute avec sa
matrice adjointe. On dit que M est unematrice normale. On montre que la réciproque est vraie :

Théorème 6.14. — Soit M une matrice complexe. Si M est normale, M est orthogonalement
diagonalisable.

Corollaire 6.15. — Les matrices complexes orthogonalement diagonalisables sont les matrices normales.

Remarques : • Une matrice symétrique réelle est normale puisque sa matrice adjointe est elle-même. Le
théorème 6.14 dit qu’une telle matrice est orthogonalement diagonalisable sur C (les matrices de passage sont
complexes a priori et unitaires et les valeurs propres sont a priori complexes), le théorème 6.12 est donc plus
précis, puisqu’il dit que la diagonalisation a lieu sur R (les matrices de passage sont rélles et orthogonales et les
valeurs propres sont réelles).
• Si les matrices symétriques réellessont normales,
 une matrice symétrique complexe n’est pas forcément
1 1
normale. Par exemple la matrice : S =
1 i

39
 
0 i
Et la matrice N = est normale, mais non symétrique.
−i 0

Matrices normales
= Matrices orthogonalement diagonalisables
sur les complexes

+N

Matrices symétriques réelles


+S = Matrices orthogonalement diagonalisables sur les réels

Matrices symétriques complexes

40

Vous aimerez peut-être aussi