Cours Alg
Cours Alg
ALGÈBRE LINÉAIRE
Chapitre 1
Espaces vectoriels
sous-espaces vectoriels
génération d’espaces vectoriels
1 - Espaces vectoriels
Des règles de calculs usuels sur R, C, Rn ou Cn se dégage une struture algébrique que l’on formalise ici, la
structure d’espace vectoriel. L’étude de cette structure va mettre à jour des propriétés communes aux ensembles
de cette structure, propriétés parfois délicates à isoler si l’étude ne portait que sur les ensembles eux-mêmes.
• On suppose de plus que l’on peut associer à tout couple (λ, u) de K × E un élément de E, noté λ . u
E
(ou plus simplement λ.v, lorsque l’on ne craindra pas de confondre . et une autre opération du même type), de
E
sorte que :
1
On dit alors que (E, +, . ) est un espace vectoriel sur K, que les éléments de E sont des vecteurs et les
E E
éléments de K des scalaires.
Remarque. Si E = {a} est un singleton, on peut le munir d’une structure d’espace vectoriel sur
K = Q, R, C etc... en posant a +E a = a et λ.a = a, pour tout λ ∈ K. On alors 0E = a et cet espace
vectoriel est appelé l’espace vectoriel nul, sa structure ne dépend pas de l’élément que contient a, pour cette
raison on note cet espace par E = {0E }.
Propriété 1.2. — i- Si (E, +, . ) est un espace vectoriel le groupe (E, +) est commutatif, ie ∀u, v ∈ E,
E E E
u + v = v + u.
ii- Pour tout u ∈ E, λ ∈ K, λ.u = 0E ⇐⇒ λ = 0K ou u = 0E .
iv- Pour tout u ∈ E, l’opposé u e par −u.
e de u est (−1).u. On notera ainsi u
Preuve. i- Soient u, v ∈ E. On développe (1K +1K ).(u+v) de deux façons différentes. Une fois en utilisant
les propriétés i puis ii puis iv, ce qui donne :
et une seconde fois en utilisant les propriétés ii puis ii puis iv, ce qui donne :
On en déduit :
u+u+v+v =u+v+u+v
On ajoute alors à chaque membre de cette égalité, à gauche u
e, à droite ve, on obtient :
0 + u + v + 0 = 0 + v + u + 0,
c’est-à-dire :
u + v = v + u.
ii- 0K .u = (0K + 0K ).u = 0K .u + 0K .u. Par ajout de 0g
K .u de part et d’autre de cette égalité on obtient bien :
0K .u = 0E .
λ.0E = λ.(0E + 0E ) = λ.0E + λ.0E . Par ajout de λ.0 gE de part et d’autre de cette égalité on obtient bien :
λ.0E = 0E .
Réciproquement, si λ.u = 0E et si λ 6= 0K , on a : 1/λ.(λ.u) = (1/λ.λ).u = 1.u = u = 0E .
iii- u + (−1).u = 1.u + (−1).u = (1 + (−1)).u = 0K .u = 0E , d’où (−1).u = u e. 2
2 - Sous-espaces vectoriels
On se pose alors la question suivante : F muni des lois de E devient-il un espace vectoriel ?
Nécessairement pour que F soit un espace vectoriel il doit être non vide (comme tout espace vectoriel il
doit contenir au moins un neutre).
De plus la somme de deux éléments de F doit appartenir à F . De même le produit d’un élément de F par
un élément de K doit appartenir à F .
Comme sur F on fait agir les lois de E, le neutre de F ne peut-être que celui de E. En effet, puisque F est
non vide, soit u ∈ F . Alors 0K .u = 0E doit appartenir à F .
2
En conclusion F sera un espace vectoriel ssi :
i- 0E ∈ F
ii- ∀u, v ∈ F, u + v ∈ F
iii- ∀u ∈ F, λ ∈ K, λ.u ∈ F
Soit (E, +E , .E ) un espace vectoriel. On montre que la réunion de sous-espaces vectoriels F et G de E est
un sous-espace de E ssi F ⊂ G ou G ⊂ F , c’est-à-dire ssi F ∪ G = F ou F ∪ G = G.
On se pose alors la question suivante : existe-t-il un plus petit sous-espace de E (du point de vue de
l’inclusion) contenant F ∪ G ?
Nécessairement un tel sous-espace de E contient {u + v; u ∈ F, v ∈ G}. Mais réciproquement on montre
directement que {u + v; u ∈ F, v ∈ G} est un sous-espace de E. Ce sous-espace répond donc bien à notre
question.
Remarque. La notation F + G n’est qu’une notation : le signe + n’est placé entre F et G que pour
rappeler la définition de ce sous-espace, il ne désigne en rien une addition entre sous-espaces, ce qui n’aurait
aucun sens.
Définition 1.5. Soit (E, +E , .E ) un espace vectoriel et A un sous-ensemble de E. Une combinaison linéaire
Xn
d’éléments a1 , · · · , an de A est une somme du type λi .ai , où n ∈ N et λ1 , · · · , λn ∈ K.
i=1
La question de savoir si un sous-ensemble d’un espace vectoriel E engendre cet espace vectoriel est naturelle,
puisqu’au lieu d’étudier E on peut se borner à étudier A, lorsque vec(A) = E. Lorsque A est un ensemble fini,
Cette étude sera encore plus simple. On dit alors que E est de dimension finie.
Définition 1.7. Soit (E, +E , .E ) un espace vectoriel. On dit que E est de dimension finie s’il existe une
famille finie a1 , · · · , an ∈ E telle que vec({a1 , · · · , an }) = E.
3
Une question tout aussi délicate est de rechercher une famille de E qui engendre E et qui soit minimale du
point de ce vue, c’est -à-dire telle que si on enlève un élément quelconque à cette famille, on n’obtient plus une
famille génératrice de E (on dira alors, au chapitre suivant, que cette famille est une base de E).
Exemples. • Dans Kn , la famille ~e1 = (1, 0, · · · , 0), · · · , ~en = (0, 0, · · · , 1) est une famille génératrice,
n
X
puisque tout élément (λ1 , · · · , λn ) de Kn s’écrit λi .~ei . Suivant notre définition Kn est un espace vectoriel de
i=1
dimension finie.
n
X
• Dans K[X], la famille 1, X, · · · , X n est une famille génératrice, puisque tout élément λi .X i de K[X]
i=1
n
X
s’écrit (!) λi .X i . Suivant notre définition K[X] est un espace vectoriel de dimension finie.
i=1
• Dans C, vu comme un espace vectoriel sur R, la famille 1, i est une famille génératrice, puisque tout
élément z ∈ C s’écrit z = λ1 .1 + λ2 .i, avec λ1 , λ2 ∈ R. Suivant notre définition C est un R-espace vectoriel de
dimension finie.
• Questions. Peut-on trouver une famille finie dans R qui engendre le Q-espace vectoriel R (autrement
dit existe-t-il des réels r1 , · · · , rn ∈ R tels que pour tout réels r existe une famille finie q1 , · · · , qn de rationnels
telle que : r = q1 .r1 + · · · + qn .rn ) ?
Peut-on trouver une famille finie dans C 0 ([0, 1]; R) qui engendre le R-espace vectoriel C 0 ([0, 1]; R) (autrement
dit existe-t-il des fonctions continues f1 , · · · , fn telles que pour toute fonction continue f existe une famille finie
λ1 , · · · , λn de réels telle que : f = λ1 .f1 + · · · + λn .fn ) ?
• Objectifs du chapitre. Pouvoir identifier des espaces vectoriels, soit en vérifiant la définition 1.1, soit
en prouvant qu’il s’agit d’un sous-espace d’un espace plus grand (Définition 1.3).
4
Chapitre 2
Écritures
Écriture unique : sommes directes et coordonnées
bases
1 - Écritures
On a vu au chapitre précédent que si l’espace vectoriel (E, +E , .E ) est engendré par un de ses sous-ensembles
A, par définition, tout vecteur u de E s’écrit comme combinaison linéaire d’éléments de A. Précisément :
n
X
∀u ∈ E, ∃λ1 , · · · , λn ∈ K tels que : u = λi .ai ,
i=1
Remarque importante. Bien sûr on peut toujours rajouter à une combinaison linéaire quelconque
n
X p
X
λi .ai une combinaison linéaire d’éléments de A du type 0K .a0i , dite triviale, pour obtenir :
i=1 i=1
n
X n
X p
X
λi .ai = λi .ai + 0K .a0i
i=1 i=1 i=1
n
X p
X
On dira cependant que les a0i n’apparaissent pas dans l’écriture λi .ai + 0K .a0i , et que les deux écritures
i=1 i=1
n
X p
X n
X
λi .ai + 0K .a0i et λi .ai sont les mêmes. C’est en ce sens, ie modulo les combinaisons linéaires triviales
i=1 i=1 i=1
que l’on parlera d’unicité d’écritures.
Exemples. • dans E = R, on considère A = {a1 = 1, a2 = 2}. On peut alors écrire tout réel u d’une
infinité de manière comme combinaisons linéaires d’éléments de A. Par exemple : u = (u + t).a 1 + (−t/2).a2 ,
avec t ∈ R quelconque fournit une infinité d’écritures.
• Dans E = K1 [X] l’espace des polynômes de degré inférieur à 1, on pose A = {a1 = 1, a2 = X, a3 = X −1}.
On peut alors écrire polynôme P ∈ E u d’une infinité de manière comme combinaisons linéaires d’éléments de
A. Par exemple, en notant P = α + βX : P = α.a1 + β.a2 = β.a3 + (α + β).a1 = etc · · ·
En revanche si A = {a 6= 0} dans le premier exemple, et si A = {1, X} ou A = {1, X − 1} dans le second
exemple, on aura l’existence et l’unicité de l’écriture de tout élément de E.
D’autre part on a vu au chapitre précédent que si E est la somme de deux de ses sous-espaces F et G, tout
élément de E est somme d’un élément de F et d’un élément de G (par définition même de légalité E = F + G).
Précisément :
∀u ∈ E, ∃a ∈ F, b ∈ G tels que : u = a + b.
Ici encore se pose la question de l’unicité de l’écriture d’un élément de E comme une somme d’un élément de F
et d’un élément de G.
5
Exemples. • dans E = R3 , on considère F = {(x, y, z) ∈ R3 ; x = y} et G = {(x, y, z) ∈ R3 ; x = z}. On
a bien E = F + G, car tout vecteur de u = (α, β, γ) ∈ E s’écrit : u = (α, α, γ) + (0, β − α, 0) et on a bien
(α, α, γ) ∈ F , (0, β − α, 0) ∈ G. En revanche on ne dispose de l’unicité de l’écriture de u, puisqu’on peut tout
aussi bien écrire : u = (0, 0, γ − α) + (α, β, α) et que (0, 0, γ − α) 6= (α, α, γ) (et (α, β, α) 6= (0, β − α, 0)).
• dans E = R3 , on considère F = {(x, y, z) ∈ R3 ; x = y} et G = {(x, y, z) ∈ R3 ; x = z = 2y}. On a bien E =
F +G, car tout vecteur de u = (α, β, γ) ∈ E s’écrit : u = (2β −α, 2β −α, γ −2α+2β)+(2(α−β), α−β, 2(α−β))
et on a bien (2β − α, 2β − α, γ − 2α + 2β) ∈ F , (2(α − β), αβ , 2(α − β)) ∈ G.
On peut vérifier que cette écriture comme somme d’un élément de F et d’un élément de G est la seule
possible.
Dans la suite pour un sous-ensemble A de l’espace vectoriel E, on parlera de la famille des éléments de
A, et on dira “la famille A” au lieu de “l’ensemble A”. On ne supposera pas a priori que la famille A est de
cardinal fini.
Remarque. Dans le cas spécial où A = {a1 , · · · , an } est de cardinal fini, être libre signifie que la seule
combinaison linéaire nulle de tous les éléments de K est la combinaison triviale. C’est-à-dire que la vérification
de la définition 2.1 porte sur la famille elle-même et non sur toutes les sous-familles. En effet s’il existe
p
X p
X
λ1 , · · · , λp ∈ K non tous nuls tels que λi .ai = 0E , on a λi .ai + λp+1 .ap+1 + · · · + λn .an = 0E , en posant
i=1 i=1
p
X
λp+1 = · · · = λ = 0E . Et la combinaison linéaire nulle λi .ai + λp+1 .ap+1 + · · · + λn .an = 0E n’est pas la
i=1
combinaison linéaire, de sorte que la liberté de {a1 , · · · , an } implique la liberté de toutes ses sous-familles.
et cette combinaison linéaire est par hypothèse (puisque A est libre) la combinaison linéaire triviale.
C’est-à-dire que :
- si ai = a0 j, on a λi = λ0j ,
- si ai n’est égal à aucun des a0j , λi = 0,
- si a0j n’est égal à aucun des ai , λ0j = 0,
de sorte que les deux écritures sont bien les mêmes.
6
p
X k
X
Réciproquement si λi .ai et λ0i .a0i sont deux écritures distinctes pour un même élément de vec(A), la
i=1 i=1
p
X k
X
combinaison linéaire λi .ai − λ0i .a0i est nulle mais n’est pas la combinaison linéaire triviale.
i=1 i=1
ii− A est liée ssi il existe une combinaison linéaire d’éléments de A qui est nulle mais n’est pas la combinaison
p
X X p
triviale, ie λi .ai = 0E , avec λ1 (par exemple) non nul. On peut alors écrire : a1 = 1/λ1 . λi .ai . 2
i=1 i=2
Définition 2.3 Soit (E, +E , .E ) un K-espace vectoriel et A une famille libre de E. À tout élément
u ∈ vec(A) on peut associer une unique Xfamille (λa )a∈A de scalaires indexée par A, qui sont tous nuls sauf un
nombre fini d’entre-eux et tels que u = λa .a. Cette famille de scalaires étant unique on lui donne un nom,
a∈A
les coordonnées de u sur la famille A.
réciproquement si u ∈ F ∩ G est non nul, on a les deux écritures suivantes pour u : u + 0 E et 0E + u, où la
première fois u est vu comme un élément de F et la seconde comme un élément de G. 2
3 - Bases
Définition 2.6. Soit (E, +E , .E ) un K-espace vectoriel et A une famille à la fois libre et génératrice de
E. On dit que A est une base de E.
p
X
Si A est une base de E, tout vecteur u de E possède une écriture u = λi .ai , avec λi ∈ K et ai ∈ A, sur
i=1
la famille A (car A engendre E), et de plus cette écriture est unique (car A est libre). C’est-à-dire que tout
vecteur de E possède des coordonnées sur A.
Se pose alors la question de l’existence d’une telle famille. On y répond dans la théorème suivant.
Preuve. On fait ces preuves dans le cas particulier où est de dimension finie. Dans le cas général les
preuves sont sensiblement les mêmes, mais on doit avoir recours au lemme de Zorn, hors programme.
i- Soit A une partie génératrice de E, que l’on suppose de cardinal fini. Comme E 6= {0}, il existe a 6= 0 E
dans A. Soit alors L = { sous-familles libres de A}. L est non vide puisque {a} est une sous-famille libre de
A. D’autre part les familles de L ont un cardinal ≤ card(A) < ∞. Une famille B de L réalise ainsi la propriété
7
d’avoir le plus grand des cardinaux des familles de L. Comme B ⊂ L, B est une famille libre. Montrons que B
est une base de E en montrant que B est une famille génératrice de E. Soit a ∈ A. Si a 6∈ vec(B), alors la famille
B ∪ {a} est libre par la Proposition [Link]-. Mais cette famille de L serait de cardinal plus grand strictement que
le plus grand des cardinaux de L. Ce qui est impossible. Donc A ⊂ vec(B), et donc E = vec(A) ⊂ vec(B) ⊂ E,
ie vec(B) = E.
ii- Utilise le lemme de Zorn, passons donc au cas de la dimension finie ie au :
iii- D’après ce qui précède, soit B une base de E. Par construction B est choisie dans une famille
génératrice finie, B est donc elle-même finie, de cardinal fini, disons n. Soit maintenant B 0 une autre base
de E. Comme les éléments de B 0 sont des combinaisons linéaires des éléments de B (puisque B est génératrice),
le lemme qui suit assure que card(B) ≤ card(B) = n. Mais en inversant les rôles de B et B 0 , on en déduit que
card(B) ≤ card(B). 2
De ce lemme technique découle le théorème 2.9 et le théorème de la base incomplète (théorème 2.10).
Preuve. Par récurrence sur n. Facile mais assez long. Faire la preuve dans le cas de peu de vecteurs pour
en comprendre le mécanisme. 2
La preuve du théorème 2.7.i− montre aussi le théorème très important suivant, dit théorème de la base
incomplète :
Théorème 2.9. (Théorème de la base incomplète) — Soit (E, +E , .E ) un K-espace vectoriel. G une
famille génératrice de E et L une famille libre. Il existe alors une sous-famille C de G telle que L ∪ C est une
base de E.
Preuve. On fait la preuve en dimension finie. On procède comme dans le théorème 2.7.i, en considérant
les familles libres du type L ∪ C, avec C ⊂ G. Il en existe au moins une (sinon vec(L) contiendrait vec(G) = E,
et donc L serait déja une base de E) et elles sont toutes finies (par le lemme 2.8). On en considère une qui
possède le plus grand cardinal possible et on montre qu’elle est libre (exercice à faire soi-même). 2
Du théorème de la base incomplète on tire le corollaire suivant :
Preuve. i- Si A est une base de E, tout vecteur de E est combinaison linéaire des éléments de A,
donc d’après [Link], l’ajout d’un vecteur de E donne une famille liée. Réciproquement, Si A est libre, d’après le
théorème de la base incomplète, on doit pouvoir lui ajouter des éléments de la famille E (qui est génératrice !)
pour obtenir une base. Mais si A est libre maximale, on ne peut rien lui ajouter sans que sa liberté soit perdue.
Par conséquent A est déja une base.
ii- On peut supposer que E 6= {0}, car ce cas est trivial. Si A est une base, privée d’un de ses éléments elle
ne peut plus être génératrice, car l’élément en question serait alors combinaison linéaire des autres éléments de
A, ce qui contrdirait la liberté de A, par 2.2.i. Réciproquement si A est génératrice, elle contient un vecteur non
nul, disons u, parce que E 6= {0}. Ce vecteur constitue une famille libre, par le théorème de la base incomplète,
on peut ajouter à {u} des éléments de A pour en faire une base. Mais si A est génératrice minimale, on ne
pourra pas rajouter une famille plus petite que A \ {u}, ie que A est une base de E. 2
Dans la cas ou E est de dimension finie, on en déduit :
8
Théorème 2.11. — Soit E un K-espace vectoriel de dimension finie n. On écarte le cas trivial où E = {0}
(pour des raisons de cohérence dans les définitions).
i- Toute famille libre A de E est de cardinal ≤ n et de cardinal = n ssi A est une base de E ie ssi A est
aussi une famille génératrice de E.
ii- Toute famille génératrice A de E est de cardinal ≥ n et de cardinal = n ssi A est une base de E ie ssi
A est aussi une famille libre de E.
iii- Tout sous-espace vectoriel de E est de dimension finie et de plus dim(F ) ≤ n. L’égalité dim(F ) = n a
lieu ssi E = F .
Preuve. i- Résulte du théorème de la base incomplète : on peut compléter A par des éléments d’une
famille génératrice pour en faire une base. On complète par 0 éléments ssi A est déja une base.
ii- Comme E n’est pas l’espace nul, toute famille génératrice A de E contient un élément non nul a. La
famille {a} est libre, on peut la compléter en une base de E à l’aide d’éléments de A.
iii- F étant un ev, on en prend une base B (2.7.i). Il s’agit d’une famille libre d’éléments de F , donc de
E. Par le point i, on a donc card(B) = dim(F ) ≤ n. Enfin si card(B) = dim(F ) = n, toujours par le point i, B
est une base de E, donc vec(B) = E, mais B étant une base de F , on a aussi vec(B) = F . 2
Preuve. i- Soit F un sev de E et A une base de F On la complète en une base de E, que l’on note
B = A ∩ A0 , avec A ∩ A0 = ∅. On note alors G = vec(A0 ), et par le point qui suit, on a F ⊕ G = E.
ii- Si A ∪ B est une base de E, on a F ∩ G = {0E }. En effet si x ∈ F ∩ G, en écrivant x dans la base A à
p
X k
X
l’aide de ses coordonnées x = λi .ai , et en écrivant x dans la base B à l’aide de ses coordonnées x = µj .bj .
i=1 j=1
p
X Xk
On en déduit que λi .ai . − µj .bj = 0E . Mais comme A ∪ B est libre, on a λi = µj = 0K , ∀i, j.
i=1 j=1
Si A ∪ B est une base de E, on a F + G = E. En effet tout vecteur x de E s’écrit sur la base A ∪ B, ie :
Xp k
X
x= λi .ai . + µj .bj .
i=1 j=1
Réciproquement, si E = F ⊕G alors A∪B est libre. En effet, sinon un des vecteurs de A∪B est combinaison
linéaire d’autres vecteurs de A ∪ B. Mais A et B étant des bases de F et de G, nécessairement un vecteur de
A ne peut pas être combinaison linéaire d’autres vecteurs de A, de même pour B. On en déduit qu’un vecteur
non nul de A est combinaison linéaire de vecteurs de A et de B à la fois, ou encore qu’un vecteur non nul de A
est combinaison linéaire de vecteurs de B. On en dd́uirait que F ∩ G 6= {0E }.
Si E = F ⊕ G alors A ∪ B est génératrice. En effet, tout x ∈ E s’écrit x = f + g, avec f ∈ F et g ∈ G. En
écrivant f sur A et g sur B, on a le résultat.
iii- ⇒ découle de ii. Quant à ⇐, on montre que la réunion d’une base A de F et d’une base B de G sous
l’hypothèse F ∩ G = {0E } et dim(F ) + dim(G) = dim(E) est une base de E (À faire en exercice). 2
Définition 2.13. Soit E un K-espace et F un sous-espace vectoriel de E. On dit que F est un hyperplan
de E ssi F admet un supplémentaire de dimension 1.
9
Pour illustrer la puissance des résultats prouvés dans ce chapitre, reposons l’une des difficiles questions
posées à la fin du chapitre 2, et voyons comment un traitement purement algébrique donne la solution du
problème :
Question. Peut-on trouver une famille finie dans E = C 0 ([0, 1]; R) qui engendre le R-espace vectoriel E
(autrement dit existe-t-il des fonctions continues f1 , · · · , fn telles que pour toute fonction continue f existe une
famille de n réels λ1 , · · · , λn telle que : f = λ1 .f1 + · · · + λn .fn ) ?
Si l’on n’utilise que la définition de la continuité, le problème est délicat et ne se résoud pas facilement.
En revanche si l’on observe que les fonctions f0 : x 7→ 1, f1 : x 7→ x, f2 : x 7→ x2 , · · · , fn : x 7→ xn , · · · sont des
fonctions de E qui forment une famille libre, le théorème 2.11.i dit que E ne peut pas être de dimension finie,
puisque si E était de dimension finie, toute famille libre de E aurait moins d’éléments que la dimension de E.
n
X
Pour montrer que la famille {f0 , f1 , f2 , · · · , fn , · · ·} est libre, il suffit de remarquer si λi .fi ≡ 0E on a,
i=1
n
X n
X
pour tout x ∈ [0, 1] : λi .fi (x) = 0 et donc nécessairement λ1 = · · · = λn = 0, puisque le polynôme λi .fi
i=1 i=1
ne peut pas avoir plus de n racines s’il n’est pas le polynôme nul.
Poussons plus loin cet exemple : dès que E est un sous-espace de l’espace des fonctions de {g : [0, 1] → R}
et dès que E contient une application f qui prend une infinité de valeurs sur [0, 1] et contient la famille P des
puissances de f : P = {f 0 , f, f 2 , · · · , f n , · · ·}, E ne peut pas être de dimension finie.
Xn
En effet, dans ces conditions, la famille P est libre : ∀x ∈ [0, 1], λi .f i (x) = 0 devient en posant
i=1
n
X n
X
y = f (x), ∀y ∈ f ([0, 1]), λi .y i = 0, c’est-à-dire que le polynôme λi .y i admet une infinité de racines, il
i=1 i=1
est donc nul.
Objectifs du chapitre. Savoir montrer qu’une famille est libre, génératrice, ou est une base. Savoir
montrer que sous-espaces sont en somme directe. Savoir appliquer le théorème de la base incomplète. Savoir
calculer les coordonnées d’un vecteur dans une base.
10
Chapitre 3
Applications linéaires
Espaces quotients
Matrice d’une application linéaire dans un choix de bases
1 - Applications linéaires
Après avoir introduit les espaces vectoriels, on s’intéresse aux applications entre les espaces vectoriels. Mais
on souhaite se concentrer sur celles qui préservent la structure d’espace vectoriel, les applications linéaires.
Définition 3.1. Soient E et F deux espaces vectoriels sur le même corps K. et soit une application
f : E → F . On dit que f est linéaire ou K-linéaire ou encore que f est un morphisme ssi ∀x, y ∈ E, ∀λ, µ ∈
K : f (λ.E x +E µ.E y) = λ.F f (x) +F µ.F f (y). Lorsque F = E on dit que f est un endomorphisme.
On note L(E; F ) l’ensemble des applications linéaires de E dans F . Il s’agit d’un espace K-vectoriel, car
la somme de deux applications linéaires est linéaire et le produit par un scalaire d’une application linéaire est
linéaire.
Proposition 3.2. — Soient E et F deux espaces vectoriels sur le même corps K et f : E → F une
application linéaire.
i- Quel que soit G sous-espace vectoriel de E, f (G) est un sous-espace vectoriel de F .
ii- Quel que soit H sous-espace vectoriel de F , f −1 (H) est un sous-espace de E.
iii- Si G est un K-espace et si g : F → G est linéaire, alors g ◦ f est linéaire.
Définition 3.3. Soient E et F deux espaces vectoriels sur le même corps K et f : E → F une application
linéaire.
• On note ker(f ) = f −1 (0F ) = {x ∈ E; f (x) = 0F }. D’après la proposition [Link], ker(f ) est un sev de E.
On l’appelle le noyau de f .
• On note Im(f ) = f (E) = {y ∈ F ; ∃x ∈ E tel que y = f (x)} = {f (x); x ∈ E}. D’après la proposition
3.2.i, Im(f ) est un sev de F . On l’appelle l’image de f .
Proposition 3.4. — Soient E et F deux espaces vectoriels sur le même corps K et f : E → F une
application linéaire.
i- f est injective ssi ker(f ) = {0E }. On dit parfois que f est un monomorphisme.
ii- f est surjective ssi Im(f ) = F . On dit parfois que f est un épimorphisme.
iii- f est bijective ssi ker(f ) = {0E } et Im(f ) = F . On dit alors que f est un isomorphisme.
Définition 3.5. Soient E et F deux espaces vectoriels sur le même corps K et f : E → F une application
linéaire. Si F est de dimension finie, on appelle rang de f l’entier dimK (Im(f )). On le note rg(f ). Par le
théorème [Link], on a rg(f ) ≤ dim(F ) et rg(f ) = dim(F ) ssi f est surjective.
11
Définition 3.6. Soient E un espace vectoriel sur K. Une application f : E → K est appelée une forme
linéaire. L’ensemble des formes linéaires est noté E ∗ , il est appelé l’espace dual de E.
Le théorème suivant dit que tout sous-espace d’un espace vectoriel peut être vu comme le noyau d’un
endomorphisme de E.
12
2 - espaces quotients
Exemples. • E = R3 , F = {(a, b, 0); x, y ∈ R}. On a xRF y ssi x et y ont la même troisième coordonnée,
ou encore la même altitude. La classe de x est constituée par les vecteurs de E ayant la même altitude que
x. Par conséquent E/F est l’ensemble des plans parallèles à F dans R3 . Remarquons que se donner un tel
plan revient à se donner une altitude et que l’ensemble des plans parallèles à F paramétrés par leur altitude
déterminent bien une partition de R3 .
Les lois de E vont donner à E/F une structure d’espace vectoriel. Définissons + et . de la façon
E/F E/F
suivante :
+ : E/F × E/F → E/F
E/F
(x̄, ȳ) 7→ x̄ + ȳ := la classe de x + y
E/F E
. : K × E/F → E/F
E/F
(λ, ȳ) 7→ λ . ȳ := la classe de λ .
E/F E
La définition de + n’a de sens que si la classe de x + y est aussi celle de x0 + y 0 , lorsque xRF x0 et yRF y 0 ,
E E E
car pour définir x̄ + ȳ on fait un choix de représentant dans les classes x̄ et ȳ. Il faut donc que la définition
E/F
de + soit indépendante de ce choix.
E
Mais si xRF x0 et yRF y 0 on a par définition de RF , x − x0 ∈ F et y − y 0 ∈ F ce qui donne par addition
(dans E) membre à membre, (x + y) − (x0 + y 0 ) ∈ F , ie que la classe de x + y est celle de x0 + y 0 . Ceci montre
E E E E
que la définition de x̄ + ȳ est indépendante des choix des représentants dans les classes x̄ et ȳ.
E
De même, La définition de . n’a de sens que si la classe de λ + x est aussi celle de λ + x0 , lorsque xRF x0 .
E E E
Et montre tout aussi facilement que c’est bien le cas. En conclusion (E/F, + , . ) est un K espace vectoriel.
E E
Remarque. Avec ces lois sur E/F , l’application π : E → E/F définie par π(x) = x̄ est linéaire. De plus
cette application est surjective. On l’appelle la surjection canonique de E sur E/F .
L’intérêt des espaces qutients réside dans le théorème suivant et dans ces corollaires.
f: E → G
π↓
f¯ : E/ ker(f ) %
De plus f¯ : E/ ker(f ) → G est injective et f¯ : E/ ker(f ) → Im(f ) est un isomorphisme. On dit que le
diagramme suivant est la factorisation canonique de f ou la décomposition canonique de f :
13
f: E → G
π↓ ↑
∼
f¯ : E/ ker(f ) −
−→ Im(f )
Preuve. Commençons par vérifier que f¯ est bien définie, ie indépendante du choix d’un élément dans
x̄ pour le calcul de f¯(x̄) (qui est posé comme étant égal à x). Si x0 = x̄ on a par définition de E/ ker(f ) :
x − x0 = h et f (h) = 0G . On en déduit que f (x) = f (x0 ). La linéarité de f¯ résulte de celle de f (à vérifier). De
plus x̄ ∈ ker(f¯) ssi f¯(x̄) = f (x) = 0G ssi x ∈ ker(f ) ssi x̄ = 0E/F , ie que f est injective. Enfin Im(f¯) = Im(f ),
donc f¯ : E/F → Im(f ) est surjective. 2
• Tous les supplémentaires de F sont isomorphes E/F , en particulier ils sont tous isomorphes entre-eux.
• Si dimK (E) est finie il en est de même de E/F , et dimK (E/F ) = dimK (E) − dimK (F ).
Preuve. Par le Théorème 3.11, la dimension de Im(f ) est celle d’un supplémentaire de ker(f ), qui par
le Théorème [Link] égale à : dimK (E) − dimK (ker(f )). 2
Théorème 3.13. — Soient E un K-espace vectoriel et f : E → F une application linéaire. Alors :
• “Les applications linéaires n’augmentent pas la dimension” : si E est de dimension finie, il en est de
même de Im(f ) et dimK (Im(f )) ≤ dimK (F ). Si dimK (E) = dimK (F ), l’égalité a lieu ssi f est injective.
• Si dimK (F ) < dimK (E), l’application f ne peut pas être injective.
• Si dimK (F ) > dimK (E), l’application f ne peut pas être surjective.
Preuve. On applique le théorème du rang. f est injectif ssi dimK (ker(f )) = 0 ssi dimK (Im(f )) =
dimK (E) = dimK (F ). Mais comme Im(f ) ⊂ F , par le théorème [Link], dim K (ker(f )) = 0 ssi Im(f ) = F , ie f
ssi est surjective. 2
Soit E un espace vectoriel de dimension finie sur le corps K. Et soit B = (a1 , · · · , an ) une base de E.
n
X
L’application ϕB : Kn → E définie par ϕB (λ1 , · · · , λn ) = λj .aj est une application linéaire (à vérifier) et
j=1
14
injective, car la liberté de B signifie ker(ϕB ) = {0Kn }. Le caractère générateur de B implique que ϕB est
surjective.
Une autre façon de montrer que ϕB est un isomorphisme est de remarquer que ϕB envoie la base B sur la
base canonique de Kn , et d’appliquer le théorème 3.9. On a donc démontré :
Théorème 3.15. — Soit E un espace vectoriel de dimension finie sur le corps K. Alors E est isomorphe
n
à K . En particulier tous les espaces vectoriels de même dimension sur le même corps sont isomorphes entre-
eux. 2
Soient E et F deux espaces vectoriels sur K et f : E → F une application linéaire. On suppose que E et F
sont de dimension finie, dimK (E) = n dimK (F ) = p. Soient alors (e1 , · · · , en ) une base de E et (a1 , · · · , ap ) une
base de F . Soient λ1 , · · · , λn les coordonnées d’un vecteur x ∈ E dans la base B E . On notera ces coordonnées
λ1
λ2
par [x]E =
... . On a :
λn
n
X
f (x) = λj .f (ej )
j=1
α1j
Mais si note par [f (ej )]BF = ... les coordonnées de f (ej ) dans (a1 , · · · , ap ), on a :
αpj
n
X n
X p
X
f (x) = λj .f (ej ) = λj αij ai
j=1 j=1 i=1
On vient de prouver que la valeur de f (x) est connue dès que les αij (et les coordonnées de x) sont connus,
ie dès que sont connues les coordonnées des images par f des éléments de la base choisie dans E sur la base
choisie dans F .
Proposition 3.16. — Soient E et F deux espaces vectoriels sur K et f : E → F une application linéaire.
On suppose que E et F sont de dimension finie, dimK (E) = n, dimK (F ) = p. Soient alors B E = (e1 , · · · , en ) une
base de E et BF = (a1 , · · · , ap ) une base de F . L’application f est connue dès que l’on connait les coordonnées
des vecteurs f (e1 ), · · · , f (en ) dans la base (a1 , · · · , ap ). On collecte ces coordonnées dans un tableau à p lignes
et n colonnes :
On note : α
1,1 α1,2 ··· α1,n
α2,1 α2,2 ··· α2,n
Mat(f, BE , BF ) =
.. .. ..
. . .
αp,1 αp,2 ··· αp,n
15
On dit que Mat(f, B E , BF ) est la matrice de f dans les bases B E et BF . Si on note [x]BE les
coordonnées de x dans B E , [f (x)]BF les coordonnées de f (x) dans B F , on a :
Remarque. • Mat(f, B E , BF ) ne dépend pas uniquement de f mais aussi bien du choix de la base de
l’espace de départ B E et du choix de l’espace d’arrivée B F . Si l’on change f et/ou B E et/ou BF , Mat(f, BE , BF )
change aussi.
• Alors que f agit sur les vecteurs de E (par exemple des polynômes, des fonctions etc...) pour donner des
vecteurs de F , Mat(f, B E , BF ) agit sur des coordonnées (ie des éléments de Kn ) pour donner des coordonnées.
α1 p
. X
On trouve ensuite f (x) à l’aide de [f (x)]BF = .. par la formule : f (x) = αi .ai .
ap i=1
Exemple. Si IdE désigne l’application identité de E, définie par IdE (x) = x, pour tout x ∈ E, on a
Mat(IdE , BE , BE ) = In , où In est la matrice unité de l’ensemble des matrices à n lignes et n colonnes :
1 0 ··· 0
0 1 ··· 0
In =
... ... ..
.
0 0 ··· 1
f g
E −−−−−−−−−−−−−−−−−−−−−−−
−−→ F −−−−−−−−−−−−−−−−−−−−−−−
−−→ G
BE Mat(f,BE ,BF ) BF Mat(g,BF ,BG ) BG
g◦f
E −−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−→ G
BE Mat(g◦f,BE ,BG )=Mat(g,BF ,BG )×Mat(f,BE ,BF ) BG
16
Définition 3.18. Une matrice carrée M à coefficients dans K est dite inversible ssi il existe une matrice
carrée N à coefficients dans K telle que M × N = In .
Des bases BE et BF étant choisies sur E et F , M représente une application linéaire f : E → F ie que
Mat(f, BE , BF ) = M et N une application linéaire g : F → E ie que Mat(g, B F , BE ) = N . L’égalité : M ×N =
In signifie alors que f ◦ g = IdF . Mais alors g est injective, car g(y) = g(y 0 ) ⇒ f ◦ g(y) = f ◦ g(y 0 ) ⇒ y = y 0 .
Mais g étant une application entre espaces de même dimension, g est un isomorphisme par le théorème du rang
et ainsi g −1 = f , ie que : g ◦ f = IdE , et donc en termes de matrices : N × M = In . On a donc prouvé :
M × N = In ⇒ N × M = In .
On endéduit qu’il ne peut exister qu’une seule matrice N telle que M ×N = In , puisque M ×N = M ×N 0 =
In donne par multiplication à gauche de M × N 0 = In par N :
N × (M × N 0 ) = N × In = N,
soit :
(N × M ) × N 0 = In × N 0 = N 0 = N.
On dit que la matrice N (si elle existe) telle que M × N = In est la matrice inverse de M . On la note M −1 .
Comme on l’a dit déja dit, la matrice repreésentative de f dans un couple de bases (B E , BF ) dépend du
couple (B E , BF ). Si l’on change ce couple, la matrice change. Observons ce phénomène sur l’application Id E .
On sait que Mat(f, B E , BE ) = In . Soit alors B0E une autre base de E. On note B E = (e1 , · · · , en ) et
BE = (e01 , · · · , e0n ). Par définition Mat(f, B 0E , BE ) est la matrice dont la j eme colonne est celle des coordonnées
0
Définition 3.20. On appelle la matrice Mat(IdE ) = ( [e01 ]BE [e02 ]BE · · · [e0n ]BE ) la matrice de
passage de B0E à BE .
Maintenant le digramme :
IdE f
E0 −−−−−−−−−−−−−−−−−−−−−−−
−−→ E −−−−−−−−−−−−−−−−−−−−−−−
−−→ F
BE 0 ,B )
Mat(IdE ,BE E BE Mat(f,BE ,BF ) BF
f ◦IdE =f
E0 −−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−→ F
BE 0 ,B )=Mat(f,B ,B )×Mat(Id ,B0 ,B )
Mat(f,BE F E F E E BF
E
Dit que :
0 0
Mat(f, BE , BF ) = Mat(f, BE , BF ) × Mat(IdE , BE , BE )
Remarquons que :
IdE IdE
E0 −−−−−−−−−−−−−−−−−−−−−−−
−−→ E −−−−−−−−−−−−−−−−−−−−−−−
−−→ E
0
BE 0 ,B )
Mat(IdE ,BE E BE 0 )
Mat(IdE ,BE ,BE BE
17
Dit que la matrice de passage de B E à B0E est inversible et d’inverse la matrice de passage de B 0E à BE .
Théorème 3.21. — Soient E et F deux K-espaces vectoriels, B E , B0E des bases de E, BF , B0F des bases
de F et soit f : E → F une application linéaire. On a :
0
Mat(f, BE , BF0 ) = Mat(IdF , BF , BF0 ) × Mat(f, BE , BF ) × Mat(IdE , BE
0
, BE )
18
Enfin puisque :
On obtient :
1 −1/2 1/2 1 1
0 0 1 1
Mat(f, BE , BF ) = 0 1/2 −1/2 × 2 0 ×
1 2
−1 1/2 1/2 1 −1
Exercice. Calculer Mat(f, B 0E , B0F ) directement à partir de la définition, en calculant les coordonnées [f (e0j )]BF0 .
Notations. Soit pour i, j ∈ {1, · · · , n}, i 6= j, Ei,j la matrice de Mn (K) ayant tous ses coefficients nuls
sauf celui situé sur la ligne i et la colonne j, celui-ci étant égal à 1.
On commence par remarquer que l’ensemble des matrices Matp×n (K) est un espace vectoriel pour les lois
+ et . usuelles sur les matrices. D’autre part la famille {Ei,j }i∈{1,···,p},j∈{1,···,n} permet d’écrire de façon unique
tout élément de Matp×n (K) :
X
M = (mi,j )i∈{1,···,p},j∈{1,···,n} = mi,j .Ei,j ,
i∈{1,···,p},j∈{1,···,n}
la famille {Ei,j }i∈{1,···,p},j∈{1,···,n} est une base de Matp×n (K). On en conclut Matp×n (K) est un espace
vectoriel de dimension n.p.
Mais d’autre part, Soient E et F deux K-espaces vectoriels l’ensemble L(E;F) des applications linéaires
de E dans F est aussi un K-espace, pour les lois usuelles + et . sur les applications. Si dimK (E) = n et
dimK (F ) = p, on se donne deux bases B E et B F , l’une de E, l’autre de F et l’application :
Théorème 3.23. — Soient E et F deux K-espaces vectoriels tels que dim K (E) = n et dimK (F ) = p.
L’espace vectoriel L(E; F ) est de dimension p × n, il est isomorphe à Matp×n (K). Une base de Matp×n (K) est
{Ei,j }i∈{1,···,p},j∈{1,···,n} .
Si la matrice qui représente l’application f change globalement lorsque l’on change les bases des espaces de
départ et d’arrivée, on peut se demander ce qui reste tout de même inchangé et qui se lit sur une matrice qui
représente f .
Définition 3.24. Soit M = (ai,j )i,j∈{1,···,n} ∈ Matn×n (K). On appelle diagonale principale de M les
éléments (a1,1 , · · · , an,n ) et trace de la matrice M la somme des éléments de la diagonale principale, on la note
T r(M ).
19
n X
X n n X
X n
et T r(A.B) = ai,` .b`,i . En échangeant les rŝ de A et de B, on a : T r(B.A) = bi,` .a`,i =
i=1 `=1 i=1 `=1
n X
X n
a`,i .bi,` = T r(A.B).
i=1 `=1
On a : Mat(f, B0E , B0E ) = P −1 × Mat(f, BE , BE ) × P , avec P la matrice de passage de B 0E à BE . De ce
qui précède on déduit :
T r Mat(f, B0E , B0E ) = = T r P −1 × Mat(f, BE , BE ) × P
= T r P −1 × P × Mat(f, BE , BE ) = T r In × Mat(f, BE , BE ) = T r Mat(f, BE , BE ) . 2
Puisque la trace d’une matrice ne dépend que de l’endomorphisme qu’elle représente et non d’un choix de
base, on peut parler de la trace d’un endomorphisme :
On va mettre en évidence dans le chapitre suivant d’autres “invariants” par changements de bases des
matrices.
Objectifs du chapitre. Reconnaı̂tre les applications linéaires, savoir donner une base du noyau et de
l’image d’une application linéaire, savoir écrire la matrice d’une application linéaire dans un choix de bases,
savoir changer de bases en utilisant les matrices de passage.
20
Chapitre 4
Opérations élémentaires sur les lignes et les colonnes
Déterminant
Rappelons que le rang d’une application linéaire f : E → F est par définition rg(f ) = dim K (f (E)). Cet
entier est attaché à la seule application f , par conséquent si le rang est lisible sur les matrices qui représentent
f dans un choix de bases, il ne doit pas dépendre du choix des bases. Pour reprendre les termes de la fin du
chapitre précédent, il s’agirait d’un invariant par changement de bases des matrices.
Voyons si on peut effectivement lire le rang d’une application linéaire sur une matrice représentant cette
application linéaire.
En conclusion rg(f ) est le nombre maximal d’éléments linéairement indépendants dans {f (e 1 ), · · · , f (en )}.
r
X
p
Par le théorème 3.15, l’application ϕBF : F → K définie par ϕBF : ( αj .dj ) = (α1 , · · · , αp ), qui à un
j=1
élément de F associe ses coordonées dans la base B F est un isomorphisme. Les éléments f (ei1 ), · · · , f (eir ) sont
ainsi linéairement indépendants ssi leurs coordonnées dans B F le sont. Or les coordonnées de f (ei1 ), · · · , f (eir )
sont les colonnes i1 , · · · , ir de M .
En conclusion rg(f ) est le nombre maximal de colonnes de Mat(f, B E , BF ) (vues comme des éléments de
Kp ) linéairement indépendantes.
Définition 4.2. Soient M et N deux matrices de Matp×n (K). On dit que M et N sont équivalentes
ssi il existe deux matrices inversibles P ∈ Matn×n (K) et Q ∈ Matp×p (K) telles que M = Q.N.P . Si n = p et
Q = P −1 on dit que M et sont semblables.
Remarques. Commes les matrices inversibles représentent des applications linéaires bijectives dans
n’importe quel choix de bases, et que les isomorphismes envoient des bases sur des bases, les matrices P et
Q de la définition ci-dessus peuvent être vus comme des matrices de changement de bases.
Il s’ensuit que M et N sont équivalentes ssi elles représentent la même application linéaire sur des bases de
E et F (éventuellement) différentes : M = Mat(f, B E , BF ), N = Mat(f, B0E , B0F ), où BE , B0E sont des bases de
21
E, BF , B0F sont des bases de F . Et M et N sont semblables ssi M = Mat(f, B E , BE ) et N = Mat(f, B 0E , B0E )
où BE , B0E sont des bases de E.
Nouveaux énoncés pour les théorèmes 3.25 et 4.1. Deux matrices semblables ont même trace, deux
matrices équivalentes ont même rang.
On va donner une méthode pour calculer le rang d’une matrice; la méthode dite du pivot de Gauss.
On rappelle les notations du chapitre précédent : soient pour i, j ∈ {1, · · · , n}, i 6= j, Ei,j la matrice de Mn (K)
ayant tous ses coefficients nuls sauf celui situé sur la ligne i et la colonne j, celui-ci étant égal à 1.
j
1 0 ··· 0 ··· 0 ··· 0
... ..
.
0 · · · 1 · · · λ · · · 0 ligne i
. ..
Ti,j (λ) = .. .
0 · · · 0 · · · 1 · · · 0
. ..
.
. .
0 ··· 0 1
1 0 ··· ··· ··· 0
.. ..
. .
D(λ) = 0 · · · · · · λ · · · 0 ligne i
. .
.. ..
0 ··· ··· ··· 0 1
i j
1 0 ··· 0 ··· 0 ··· 0
... ..
.
0 · · · 0 · · · 1 · · · 0
ligne i
. ..
Pi,j = .. .
0 · · · 1 · · · 0 · · · 0 ligne j
. ..
.
. .
0 ··· 0 1
Proposition 4.3. — la multiplication de M à droite par une matrice d’un des trois types décrit ci-dessus
correspond respectivement à une des trois opérations sur les colonnes de M décrites ci-dessus. Ces opérations
sont dites des opérations élémentaires sur les colonnes de M .
22
Bien sûr si les matrices élémentaires sont dans Matp×p (K) au lieu d’être dans Matn×n (K), on peut
multiplier M à gauche par les matrices élémentaires, ce qui correspond une opération sur les lignes de M d’un
des trois types décrit ci-dessous, dite opération élémentaire sur les lignes de M . :
Dans la suite on ne considère que des opérations élémentaires sur les lignes de M , mais les mêmes énoncés
sont vrais en replaçant colonne par ligne et multiplications à gauche par multiplications à droites.
Théorème 4.4. (Méthode du pivot de Gauss) — Soit r le rang de M . Montrer qu’il existe une suite
finie U1 , · · · , Uk de matrices élémentaires du type 1 et 3 et des réels non nuls c1 , · · · , cr tels que :
0 · · · 0 c1 ∗···∗ 0 ∗ ··· ··· ∗
0···0 0 0···0 c2 ∗ ··· ··· ∗
0···0 0 0···0 0 0 ··· ··· ∗
. .. .. ..
.
. . . .
U1 · · · Uk · M = 0 · · · 0 0 0 ··· ∗ 0 ∗···∗
0···0 ··· 0 cr ∗ · · · ∗ −−−−− ligne r
0···0 ··· 0 0···0
. .. ..
.. ··· . .
0···0 ··· 0 0···0
0
.
.
.
0
Remarque. les colonnes Ci = ci sont dites des colonnes élémentaires. Les colonnes qui sont
0
.
..
0
à gauche de la colonne Ci dans la matrice réduite ci-dessus sont des combinaisons linéaires des colonnes
élémentaires (Cj )j∈1,···,i . On voit donc puisques les colonnes élémentaires sont libres que le rang de M est
le nombre de colonnes élémentaires de la matrice réduite.
Preuve. On considère la première colonne (en partant de la gauche) non nulle de M , la colonne j 1 .
On permute éventuellement deux lignes de M pour qu’un coefficient non nul se trouve sur la première ligne de
la colonne j1 . Avec des opérations élémentaires du type 1, on se sert de ce coefficient pour rendre les autres
coefficients de la colonne j1 nuls et pour obtenir la première colonne élémentaire C1 . On note M1 la matrice
obtenue à partir de M . On considère alors la première colonne de M1 , (en partant de la gauche) qui n’est pas
proportionnelle à C1 , disons j2 . Cette colonne possède nécessairement un coefficient non nul sur une ligne située
sous la ligne 1. On met ce coefficient sur la ligne 2 et on l’utilise comme pivot pour rendre nul les coefficients
des lignes 1, 3, 4, · · · , p de la colonne j2 , le tout par des opŕations élémentaires sur les lignes. Ce qui donne la
deuxième colonne élémentaire C2 et la matrice M2 . On continue en opérant sur la première colonne de M2 qui
n’est pas combinaison linéaire des colonnes élémentaires C1 et C2 ... 2
Supposons maintenant que n = p (M est carrée) et de rang n, ie M est la matrice représentative d’un
isomorphisme. Le théorème ci-dessus donne : il existe une suite finie U1 , · · · , Uk de matrices élémentaires du
type 1 et 3 et des réels non nuls c1 , · · · , cr tels que :
d1 ··· ∗
. ..
U1 · · · Uk · M = .. .
0 · · · dn
23
Mais en appliquant des matrices du type 2, on réduit U1 · · · Uk · M à In . En résumé, il existe une suite finie
U1 , · · · , U` de matrices élémentaires du type 1, 2 et 3 et des réels non nuls telles que :
U1 · · · U` · M = I n
On a ainsi :
U1 · · · U` = M −1 .
En remarquant que U1 · · · U` = U1 · · · U` .In et que U1 · · · U` .In est la matrice déduite à partir de In à l’aide des
opérations élémentaires sur les lignes qui font passer de M à In , on obtient :
2 - Déterminant
Soit M = (ai,j )i,j∈{1,···,n} un matrice à n lignes et n colonnes et à coefficients dans K. On note c1 , · · · , cn les
colonnes de M . Mis en lignes, c1 , · · · , cn sont des vecteurs de Kn . On notera encore ces vecteurs par c1 , · · · , cn .
On note Mi,j la matrice d’ordre n − 1 extraite de M en rayant la ieme ligne et la j eme colonne dans M .
Définition 4.6. Avec les notations ci-dessus, on appelle déterminant de M , et on note det(M ) l’élément
de K définit de la façon suivante :
• si n = 1 et M = (a), det(M ) = a,
Xn
• si n > 1, det(M ) = (−1)i+1 ai,1 det(Mi,1 ).
i=1
a b
Exemple. Si n = 2 et M = , det(M ) = ad − bc.
c d
Définition 4.7. — Soit f : (Kn )n → K.
• On dit que f est une forme n-linéaire ssi la restriction de f à chacun de ses facteurs est linéaire, ce qui
veut dire précisément : ∀c1 ∈ Kn , · · · , cn ∈ Kn , l’application :
fj : Kn → K
u 7→ f (c1 , · · · , cj−1 , u, cj+1 , · · · , cn )
24
deux indices seulement qui permettent d’écrire σ. On en déduit, en utilisant la n-linéarité de f , et en écrivant
Xn
cj = ai,j .ei , que :
i=1
X X
f (c1 , · · · , cn ) = aσ(i),1 · · · aσ(i),n .f (eσ(1) , · · · , eσ(n) ) = f (e1 , · · · , en ) aσ(i),1 · · · aσ(i),n .(σ).
σ σ
En conclusion, une fois fixée la valeur de f sur la base {e1 , · · · , en }, on connait la valeur de f partout sur (Kn )n .
ii- La n-linéarité et l’antisymétrie de det se démontrent par récurrence sur n. Facilement det vaut 1 sur la
base canonique de Kn . Par i, il s’agit donc de la seule forme n-linéaire sur (Kn )n valant 1 sur la base canonique
de Kn . 2
Proposition 4.9. (développement suivant les lignes ou les colonnes de det) — Quels que soient
k, ` ∈ {1, · · · , n} :
n
X n
X
det(M ) = (−1)j+k .aj,k . det(Mj,k ) = (−1)j+` .a`,j . det(M`,j ).
j=1 j=1
Preuve. i- Si M ou N n’est pas inversible, M.N non plus, et l’égalité à prouver est donc 0 = 0.0. On peut
donc supposer que M et N sont inversibles, ce qui entraı̂ne que M.N est inversible. Les colonnes c 1 , · · · , cn ,
c01 , · · · , c0n , c001 , · · · , c00n de M , N et M.N sont des bases B M , BN et BM.N de Kn .
On note u l’isomorphisme de Kn qui envoie la base canonique de Kn sur BN , On note v l’isomorphisme de
Kn qui envoie B N de Kn sur BM.N . Notons que v ◦ u envoie la base canonique de Kn sur BM.N .
25
En notant C la base canonique, on a : Mat(u, C, C) = N , Mat(v, B N , C) = M.N, et Mat(Id, B N , C) = N ie
Mat(Id, C, BN ) = N −1 et donc Mat(v, C, C) = M.N.N −1 = M . On en conclut que v envoie la base canonique
sur BM .
Soit φ(x1 , · · · , xn ) = det(v(u(x1 )), · · · , v(u(xn ))), on a : φ(x1 , · · · , xn ) = α. det(x1 , · · · , xn ), car φ ∈ An (Kn ).
En faisant (x1 , · · · , xn ) = (e1 , · · · , en ), on obtient α = det(M.N ).
Mais d’autre part φ(x1 , · · · , xn ) = β. det(u(x1 ), · · · , u(xn )),
car (u(x1 ), · · · , u(xn )) 7→ det(v(u(x1 )), · · · , v(u(xn ))) est une forme de An (Kn ). En faisant (x1 , · · · , xn ) =
(u−1 (e1 ), · · · , u−1 (en )), on obtient β = det(M ), puisque v(ej ) = cj .
Puis pour finir on a : det(u(x1 ), · · · , u(xn )) = γ. det(x1 , · · · , xn ), et en faisant xj = ej , on obtient
γ = det(N ).
iii- det(P.M.P −1 ) = det(P −1 .P.M ) = det(M ). 2
Soit U une matrice élémentaire du type 1, U est triangulaire avec des 1 sur sa diagonale, donc det(U ) = 1.
Soit U 0 une matrice élémentaire du type 3, alors U 0 est la matrice unité In , après permutation de deux
colonnes. Comme (c1 , · · · , cn ) 7→ det(c1 , · · · , cn ) est antisymétrique, det(U 0 ) = − det(In ) = −1.
Soit maintenant M ∈ Matn×n (K) et R sa matrice réduite par pivot de Gauss. On a :
d1 0 ··· 0
0 d2 ··· 0
. ..
M = U1 · · · Uk .R = U1 · · · Uk . . .
.
0 ··· d 0
n−1
0 ··· 0 dn
On en déduit que det(M ) = det(U1 ) · · · det(Uk ) det(R) = (−1)p .d1 · · · dn , où p est le nombre de matrices
élémentaires du type 3 parmi les matrices Ui nécessaires à la réduction.
• Quant on ajoute à une colonne (resp. à une ligne) de M une combinaison linéaire des autres colonnes
(resp. des autres lignes) de M , det(M ) est inchangé.
• La permutation de deux colonnes (resp. deux lignes) de M change le signe de det(M ).
• det(c1 , · · · , cj−1 , λ.d + µ.d0 , cj+1 , · · · , cn ) =
λ. det(c1 , · · · , cj−1 , d, cj+1 , · · · , cn ) + µ. det(c1 , · · · , cj−1 , d0 , cj+1 , · · · , cn ).
A1 ∗ · · · ∗
0 A2 · · · ∗
• Si A1 , · · · , A` sont des matrices carrées, det ... .. = det(A1 ) · · · det(A` ).
.
0 ··· 0 A`
• det(t M ) = det(M ).
26
On résoud alors le système.
Dans la cas particulier où p = n et où de plus A est inversible, on a : A.X = B ⇔ X = A −1 B. Le système
admet donc l’unique solution X = A−1 .B. Lorsque A est inversible on dit que le système est de Cramer.
On montre que :
Théorème 4.13. (Équations de Cramer) — Soit A.X = B un système linéaire où A est inversible.
Alors ce système admet une unique solution X = A−1 .B, et de plus :
1
xi = det(A1 , · · · , Ai−1 , B, Ai+1 , · · · , An ),
det(A)
1
αi,j = det(A1 , · · · , Ai−1 , Ij , Ai+1 , · · · , An )
det(A)
Corollaire 4.14. — : Soit A.X = B un système de n équations linéaires à n inconnues, dont tous les
coefficients sont dans Z. Si det(A) =+ 1 ce système admet une unique solution X dans Zn .
−
Définition 4.15. Soit A = (ai,j )i,j∈{1,···,n} . Le déterminant mi,j de la matrice A où la ligne i et la
colonne j sont rayées est appelé le mineur relatif au coefficient a i,j de A.
Soit com(A) la matrice dont le coefficient ci,j de la ieme ligne et de la j eme colonne est (−1)i+j .mi,j On dit
que et que com(A) est la comatrice de A, et que ci,j est le cofacteur relatif à ai,j de A.
27
Chapitre 5
Droites stables par un endomorphisme - Espaces propres
Polynôme caractéristique
Diagonalisation
Trigonalisation
Définition 5.1. Avec les notations ci-dessus, on dit que u est un vecteur propre de f et que λ est une
valeur propre de f . L’ensemble des valeurs de f est appelé le spectre de f et noté Spec(f ).
Proposition 5.3. — Soient λ1 , · · · , λk ∈ Spec(f ), (sans répétition, ie λi 6= λj si i 6= j). Si Li est une famille
libre de Eλi , la famille L1 ∪ · · · ∪ Lk est une famille libre de E. En particulier Eλ1 + · · · + Eλk = Eλ1 ⊕ · · · ⊕ Eλk .
X̀ p
X
αi .xi + βj .yj (∗)
i=1 j=1
En composant par f :
X̀ p
X X̀ p
X
αi .f (xi ) + βj .f (yj ) = αi .λ1 .xi + βj .λ2 .yj = 0 (∗∗)
i=1 j=1 i=1 j=1
Certainement λ1 ou λ2 est non nul, puisque λ1 6= λ2 . Supposons que λ1 6= 0. Alors (∗∗) devient :
X̀ p
λ2 X
αi .xi + βj .yj = 0 (∗ ∗ ∗)
i=1
λ1 j=1
Xp Xp
λ2
( − 1) βj .yj = 0 ⇐⇒ βj .yj = 0
λ1 j=1 j=1
P`
Ce qui implique que βj = 0, car L2 est libre, (∗) est alors : i=1 αi .xi = 0, ce qui implique que αi = 0, car L1
est libre. 2
28
[ ci-dessus, soient Spec(f ) = {λi }i∈I et Bi une base de Eλi . On dit
Définition 5.4. Avec les notations
alors que f est diagonalisable ssi Bλi est une base de E.
i∈I
Regardons maintenant ce qu’en dimension finie la représentation des endomorphismes par des matrices
permet d’ajouter aux remarques générales que l’on vient de faire.
2 - Polynôme caractéristique.
Soit B une base de E, on note M = Mat(f, B, B). On rappelle que par définition un vecteur propre est
non nul.
On a : λ ∈ Spec(f ) et u ∈ Eλ ssi f (u)−λ.u = 0E ssi (u 6= 0E et u ∈ ker(f −λ.IdE ) ssi ker(f −λ.IdE ) 6= {0E }
ssi f − λ.IdE est non injective ssi f − λ.IdE est non bijective ssi det(M − λ.In ) = 0.
Remarquons que si l’on considère λ comme une variable dans le calcul formel de det(M − λ.I n ), la quantité
det(M − λ.In ) = apparait comme un polynôme en λ et le degré de ce polynôme est exactement n. En résumé :
Remarques. • Deux matrices semblables ont même polynôme caractéristique, mais la réciproque est
0 ··· 0 1
0 ··· ··· 0
fausse. Par exemple la matrice M = ... .. vérifie χM (λ) = (−λ)n , qui est aussi le polynôme
.
0 ··· ··· 0
caractéristique de la matrice nulle N . Or si M et N étaient semblables, on aurait : M = P −1 .N.P = N , ce qui
n’est pas le cas.
n−1
X
n n
• Tout polynôme P du type P (X) = (−1) (X + Q(X)), où Q(X) = αi .X i est un polynôme
i=0
quelconque de degré ≤ n − 1, est le polynôme caractéristique d’une matrice M . Il suffit de prendre
29
0 ··· α0
1 0 ··· α1
M = 0 1 ··· α2 (la calcul qui prouve que χM = P n’est pas immédiat). Cette matrice est appelé
. ..
.. .
0 · · · 1 αn−1
la matrice compagnon de P .
Preuve. Soit {u1 , · · · , ud } une base de Eλ . On complète cette famille libre en une base B de E. Comme
f (u1 ) = λ.u1 , · · · , f (ud ) = λ.ud , on a :
λ.Id ∗
Mat(f, B, B) =
0 A
λ−X ∗
où A est une matice d’ordre (n − d). Par conséquent χM (X) = det(M − [Link] ) = det =
0 A − [Link]−d
(λ − X)dim(Eλ ) .χA (X). 2
Définition 5.7. Un polynôme P ∈ K[X] est dit scindé ssi P est produit de facteurs de degré 1 ie
P (X) = cte(X − x1 ) · · · (X − xdeg(P ) ) (les xi apparaissant éventuellement avec répétition).
Remarque. Tout polynôme de C[X] est scindé (c’est le théorème dit “fondamental de l’algèbre”).
0 1
Exemple. Soit f ∈ L(K2 ), et M = la matrice représentative de f dans la base canonique de
−1 0
K2 . On a : χM (X) = X 2 + 1. Ce polynôme, vu comme un polynôme de R[X], n’est pas scindé, car irréductible.
En revanche, vu comme un polynôme de C[X], χM (X) = (X − i)(X + i), et par conséquent χM (X) est scindé
dans C[X].
3 - Diagonalisation.
Proposition 5.8. — f est diagonalisable ss’il existe une base B de E telle que M = Mat(f, B, B) est
une matrice diagonale. ie f est diagonalisable ss’il existe P une matrice inversible et ∆ une matrice diagonale
telle que : M = P −1 .∆.P .
Preuve. Par définition f est diagonalisable ssi E admet un base de vecteurs propres de f . Une matrice
représentative est diagonale ssi E admet une telle base. 2
Théorème 5.9. — On a les équivalences :
f est diagonalisable
X
⇐⇒ dim(Eλ ) = n
λ∈Spec(f )
⇐⇒ χf est scindé et ∀λ ∈ Spec(f ), dim(Eλ ) = mλ (la multiplicité de λ dans χf ).
Preuve. Montrons la première équivalence. Si f est diagonalisable, il existe une base B telle de
Mat(f, B, B) est diagonale et chaque élément u de B vérifie f (u) = λi .u donc est dans Eλi . Les u de B
X une famille libre de Eλ , ils sont donc en nombre ≤X
qui sont associés à λ constituent dim(Eλ ). Mais comme B
est de cardinal n, on a : dim(Eλ ) ≥ n. Mais d’après la proposition 5.6, dim(Eλ ) ≤ n.
λ∈Spec(f ) λ∈Spec(f )
X
Réciproquement, si dim(Eλ ) = n, la réunion de bases de chaque Eλ donne une famille libre de E
λ∈Spec(f )
par la proposition 5.3, à n éléments , donc une base de E de vecteurs propres.
X
Montrons la seconde équivalence. Si χf est scindé, mλ = n.
λ∈Spec(f )
X
Réciproquement si dim(Eλ ) = n comme par la proposition 5.6, dim(Eλ ) ≤ mλ et que
λ∈Spec(f )
30
X
mλ ≤ n, on a : dim(Eλ ) = mλ 2
λ∈Spec(f )
Contrairement aux apparences et conformément à ce que l’on attend, M k est bien une matrice à coefficients
réels : exprimez-la en fonction de k modulo 4 (!). Vérifier que pour k = −1 la formule donnant M k est encore
valable et en déduire que cette formule est valable pour tout k ∈ Z.
Calculer (I2 + M )k , pour tout k ∈ Z.
4 - Trigonalisation.
0 1
On ne peut pas toujours diagonaliser une matrice/un endomorphisme, même sur C (penser à ).
0 0
On essaie donc une réduction moins exigeante : rendre notre matrice semblable à une matrice triangulaire.
Définition 5.11. Soit f ∈ L(E), B une base de E et M la matrice représentative de f sur B. On dit que
f ou M est trigonalisable ssi M est semblable à une matrice triangulaire (supérieure ou inférieure).
31
Théorème 5.12. — Soit E un K-espace vectoriel de dimension n et f ∈ L(E). Les assertions suivantes
sont équivalentes :
i- f est trigonalisable
ii- Il existe une suite (Fi )i=1,···,n strictement croissante {0} ⊂ F1 ⊂ F2 ⊆ · · · ⊂ Fn−1 ⊂ Fn = E de
6= 6= 6= 6=
sous-espaces stables par f (ie f (Fi ) ⊂ Fi ).
iii- χf est scindé.
Preuve. i ⇒ ii. Soit une base B = {e1 , · · · , en } de E. Si on note Fi = vec({e1 , · · · , ei }), la suite (Fi )i=1,···,n
est bien strictement croissante. Si de plus B est telle que Mat(f, B, B) est triangulaire, les F i sont stables par
f.
ii ⇒ iii. L’hypothèse ii implique nécessairement dim(Fi ) = i. Soit alors, pour tout i ∈ {1, · · · , n} une base
Bi = {e1 , · · · , ei } de Fi (on construit Bi à partir de Bi−1 en complétant par un vecteur ei , puisque Fi−1 est un
hyperplan de Fi ). Comme chaque Fi est supposé stable par f , Mat(f, B n , Bn ) est triangulaire supérieure. Si
on note λ1 , · · · , λn les valeurs diagonales de Mat(f, B n , Bn ) (éventuellement avec répétition), on obtient alors
χf (X) = (λ1 − X) · · · (λn − X). χf est ainsi scindé (et les λi sont les valeurs propres de f ).
iii ⇒ i. Montrons cette implication par récurrence sur n = dim(E).
Si n = 1, toutes les matrices sont triangulaires.
Soit alors n ∈ N \ {0, 1} et suposons que les matrices d’ordre n − 1 sont trigonalisables pourvu que leur
polynôme caractéristique soit scindé. Soit enfin E de dimension n et f ∈ L(E) tel que χ f est scindé.
Comme par hypothèse χf est scindé, il admet n racines (éventuellement de multiplicité ≥ 1). Soit λ1 l’une
d’elles, et e1 un vecteur propre associé à λ1 . On complète la famille (qui est libre !) {e1 } en une base B1 de E.
La matrice Mat(f, B 1 , B1 ) a alors la forme :
λ1 ∗
M1 = ,
0 A1
avec A1 une matrice d’ordre n − 1. On a alors en développant sur la première colonne :
Comme χf est scindé, l’égalité précédente nous apprend qu’il en est de même pour χA1 . Par hypothèse de
récurrence, il existe une matrice invesible P1 telle que A1 = (P1 )−1 .T1 .P1 , avec T1 triangulaire supérieure :
λ1 ∗
M1 = .
0 (P1 )−1 .T1 .P1
1 0 1 0
On note maintenant Pe1 = , cette matrice est inversible, d’inverse Pg
−1
= (le vérifier) et
0 P1 1 0 P1−1
de plus :
λ1 ∗
M1 = Pg
−1
1 .
f1 ,
.P
0 T1
cette matrice est bien triangulaire (supérieure) ce qui achève la récurrence. 2
En pratique. On part d’une matrice M qui représente un certain endomorphisme sur une base donnée
−1
B0 . On trouve la base B 1 de la preuve. En notant P0 lamatricede passage de B 0 à B 1 , on a : M
= P0 .M1 .P0 .
On trouve ensuite sucessivement les matrices P f1 = I1 0 , · · · , Pg n−1 =
In−1 0
. On obtient :
0 P1 0 Pn−1
M = P0−1 .Pg−1 g
−1 g g−1
1 · · · Pn−1 .[Link]−1 · · · P1 .P0 , avec T triangulaire. Les coordonnées dans la base B 0 des vecteurs
de la base de trigonalisation sont les colonnes de P −1 .Pg −1
0 · · · Pg
−1
1 . n−1
Corollaire 5.13. — Tout endomorphisme (resp. toute matrice) d’un C-espace de dimension finie (resp.
à coefficients dans C) est trigonalisable (resp. est semblable à une matrice triangulaire). 2
32
Si E est de dimension n, on a vu (théorème 3.23) que L(E) est de dimension n2 . Les endomorphismes
2
IdE , f, f 2 , · · · , f n ne constituent donc pas une famille libre : il existe a0 , · · · , an ∈ K tels que : a0 .IdE + a1 .f +
Xn Xn
· · · .an .f n = 0L(E) . En notant P (X) = ai .X i , on peut introduire la notation symbolique : P (f ) = ai .f i ,
i=0 i=0
où f 0 = IdE et dire que le polynôme P annule f . On a ainsi montrer que tout endomorphisme d’un espace
vectoriel de dimension n est annulé par un polynôme de degré n2 . Le théorème suivant dit que l’on peut faire
encore mieux : tout endomorphisme d’une espace vectoriel de dimension n est annulé par un polynôme de degré
n, et pas n’importe lequel puisqu’il s’agit du polynôme caractéristique de f lui-même !
Preuve. Si f est inversible, 0 n’est pas valeur propre de f et donc χf (0) 6= 0. Le théorème de Cayley-
Hamilton assure : χf (f ) = a0 IdE + a1 f + · · · + an f n = 0, avec a0 6= 0. Par conséquent :
33
Chapitre 6
Produits saclaires sur Rn et Cn
Bases orthonormées
Espaces préhilbertiens
Projections orthogonales sur un sev
Matrices orthogonales et unitaires
Matrices symétriques et normales
Coniques et normes d’opérateurs
Dans ce chapitre, K = R ou C.
Sur Kn on dispose d’un produit scalaire. pour a = (a1 , · · · , an ), b = (b1 , · · · , bn ), le produit de a et b est
défini par :
• Si K = R,
n
X
(a|b)R = ai .bi ,
i=1
n n
L’application ( | )R : R × R → R est une forme bilinéaire. Cette forme est symétrique ie (a|b)R = (b|a)R .
Xn
Enfin on a : (a|a)R = kak2 = a2i ≥ 0.
i=1
• Si K = C,
n
X
(a|b)C = ai .bi ,
i=1
Remarque. On peut remarquer que si on considère les réels comme des nombres complexes, ( | ) R est
sesquilinéaire et hermitienne, (a|b) = (a|b) si (a|b) ∈ R et (a|β.b) = β̄(a|b) si β ∈ R !
2. Bases orthonormées
(†) En lation “sesqui” signifie 3/2. Il est employé ici pour résumer le fait que ( | ) C est 1-linéaire sur son
premier facteur et semi-linéaire sur son second.
34
Proposition 6.1. — Une famille orthonormée de Kn est libre.
n
X
Preuve. Si αj .eij = 0, en prenant le produit scalaire des deux membres par eik , on obtient αk = 0. 2
j=1
Dans la suite on considèrera des bases orthonormées (en bref des bon). Mais auparavant on va montrer
que tout sev de Kn admet des bases orthonormées.
On commence par remarquer que dès que l’on dispose d’une famille orthogonale, cette famille étant libre,
aucun des vecteurs n’est nul, et ainsi en divisant chacun d’eux par sa norme on obtient une famille orthonormée.
L’existence des bases orthonormées revient donc à montrer l’existence des familles orthogonales.
3. Espaces Préhilbertiens
• Si K = C, on dit qu’une application ( | ) : E × E → C linéaire sur son premier facteur, additive sur son
second facteur (ie (a|b + c) = (a|b) + (a|c)) et telle que (a|β.b) = β̄.(a|b) (ie semilinéaire sur son second facteur)
est une forme sesquilinéaire. Si cette forme est telle que (a|b) = (b|a), on dit qu’elle est hermitienne.
On dit que cette forme est :
positive ssi (a|a) ≥ 0,
définie ssi ((a|a) = 0 ⇐⇒ a = 0).
Dans le cas où ( | ) vérifie toutes ces propriétés,
35
Définition 6.3. Un K-espace vectoriel sur lequel existe une forme ( | ) : E × E → K sesquilinéaire,
hermitienne, définie et positive est appelé un espace préhilbertien et ( | ) un produit scalaire.
• Dans le cas où K = C, on dit que (E, ( | )) est un espace préhilbertien complexe. Dans le cas
particulier où dimC (E) < ∞, on dit que E est une espace hermitien.
• Dans le cas où K = R, on dit que (E, ( | )) est un espace préhilbertien réel. Notons que dans ce cas dire
que la forme ( | ) est hermitienne revient à dire qu’elle est symétrique, et dire qu’elle est sesquilinéaire revient
à dire qu’elle est bilinéaire. Dans le cas particulier où dimR (E) < ∞, on dit que E est un espace euclidien.
Définition 6.4. Soit E un K-espace sur lequel existe une application n : E → R+ telle que, pour a, b ∈ E
et α ∈ K :
i- n(a) = 0R ssi a = 0E ,
ii- n(α.a) = |α|.n(a),
iii- n(a + b) ≤ n(a) + n(b).
On dit que (E, k k) est un espace vectoriel normé et que n est une norme sur E.
définit une norme n sur E, plus souvent notée, comme dans le cas de Kn par k k.
(a|b)2 ≤ (a|a)(b|b)
(a + λ.b|a + λ.b) = (a|a) + λλ̄(b|b) + λ(b|a) + λ̄(a|b) = (a|a) + t2 (b|b) + λ(b|a) + λ̄(a|b)
Or λ(a|b) + λ̄(a|b) = [Link]θ .r.e−iθ + t.e−iθ .[Link]θ = 2t.r = 2|(x|y)|. Ce qui donne :
Or ( | ) étant positive, (a + λ.b|a + λ.b) ≥ 0, et ainsi (a + λ.b|a + λ.b) = t2 (b|b) + 2t|(x|y)| + (a|a) apparait comme
un polynôme de degré 2 de signe ≥ 0 et ayant son coefficient directeur > 0 (on a supposé (b|b) 6= 0). De plus
(a + λ.b|a + λ.b) est nul ss’il existe λ ∈ K tel que a = −λ.b ssi a et b sont colinéaires.
Le discriminant ∆ de ce polynôme est par conséquent < 0, or ∆ < 0 est l’inégalité que l’on veut
démontrer. 2
36
Preuve. On développe ka + bk = (a + b|a + b) et on utilise l’inégalité de Cauchy-Schwarz. 2
On vient de voir qu’un espace vectoriel muni d’un produit scalaire est un espace vectoriel normé. Mais
réciproquement, un espace vectoriel est-il toujours un espace dont la norme n provient d’un produit scalaire
p
( | ) via l’égalité : n(a) = (a|a) ?
Le théorème qui suit répond à cette question.
Théorème 6.8. — Soit (E, n) un K-espace vectoriel normé. La norme n provient d’un produit scalaire
( | ) ssi on a l’identité dite du parallélogramme :
Soit B = {e1 , · · · , en } une base orthonormée d’un espace préhilbertien E de dimension finie. Soit
n
X
a = a1 .e1 + · · · + an .en et b = b1 .e1 + · · · + bn .en . On calcule facilement que : (a|b) = aj .bj , ie :
j=1
Moralité. Lorsque sur un espace préhilbertien E de dimension finie on se donne une base orthonormée
B, le produit scalaire dans E est celui dans Kn , des coordonnées sur la base B, et par conséquent la structure
d’espace préhilbertien de E est la même que celle de Kn , avec le produit scalaire standard donné dans la partie 1.
De même que sur Kn , on démontre que dans tout espace préhilbertien les sous-espaces ont des bases
orthonormées (qu’ils soient de dimension finie ou pas). Le principe de Gram-Schmidt s’appliquant à la lettre.
On se pose le problème pratique suivant : E étant un espace préhilbertien, F un sous-espace de dimension
finie de E, dont une base orthonormée est {e1 , · · · , en } et a un élément de E, existe-t-il un élément π de F rendant
la distance de a à un élément de F minimale ? Autrement dit, existe-t-il π ∈ F tel que ∀y ∈ F, ka−πk ≤ ka−yk ?
Xn
La réponse est oui et π est de plus unique et donné par : π = (a|ej )ej .
j=1
n
X
Pour prouver cela il suffit de remarquer que d’après le principe de Gram-Scmidt, a − (a|ej )ej est
j=1
orthogonal à tout vecteur de F , puisqu’étant orthogonal à tous les e j , j ∈ {1, · · · , n}, il est orthogonal à toutes
les combinaisons linéaires des ej . Enfin le calcul de ka − yk2 donne, quel que soit y ∈ F :
n
X n
X
ka − yk2 = ka − (a|ej )ej + (a|ej )ej − yk2
j=1 j=1
n
X n
X h n
X n
X i
= ka − (a|ej )ej k2 + ky − (a|ej )ej k2 + 2Re (a − (a|ej )ej | (a|ej )ej − y)
j=1 j=1 j=1 j=1
n
X n
X
= ka − (a|ej )ej k2 + ky − (a|ej )ej k2
j=1 j=1
37
n
X n
X
2
Autrement dit on a toujours ka − yk ≥ ka − (a|ej )ej et l’egalité a lieu ssi y = (a|ej )ej .
j=1 j=1
On énonce :
déduit que (ej |ei ) = ([ej ]B2 | [ei ]B2 )Kn = δij .
En conclusion :
Définition 6.10. Une matrice de passage d’une base orthonormée est telle que ses colonnes sont
orthonormées (en tant qu’élément de Kn ). On appelle une telle matrice une matrice orthogonale dans
le cas K = R, une matrice unitaire dans le cas K = C. L’ensemble des matrices orthogonales d’ordre n est
noté O n (R), L’ensemble des matrices unitaires d’ordre n est noté U n (C).
Remarquons que ([ej ]B2 | [ei ]B2 )Kn = δij ssi P.t P = In lorsque P ∈ On (R) et ssi P.t P = In , lorsque
P ∈ U n (C).
Remarquons aussi que dans ce cas (P.X|P.Y ) = (X|Y ), où X et Y sont des colonnes de Kn . En effet, P.X
sont les coordonnées dans B 2 du vecteur x qui a pour coordonnées X dans B 1 , P.Y sont les coordonnées dans
B2 du vecteur y qui a pour coordonnées Y dans B 1 , et un calcul direct montre alors que :
En faisant X les coordonnées du j eme vecteur de la base canonique de Kn et Y les coordonnées du ieme
vecteur de la base canonique de Kn dans (∗), on retrouve que les colonnes de P sont orthonormées, il y a donc
équivalence entre (∗) et l’appartenance de P à O n (R) ou U n (C).
De même, il y équivalence entre (∗∗) et (∗), d’après l’identité du parallélogramme, et donc avec
l’appartenance de P à O n (R) ou U n (C), où (∗∗) est :
On a ainsi :
Une matrice P est une matrice de passage d’une base orthonormée de E à une autre
⇐⇒ ses colonnes sont orthonormées, ie en les notant P1 , · · · Pn , (Pi |Pj )Kn = δij
38
⇐⇒ P −1 =t P (cas K = R), P −1 =t P (cas K = C),
Quelles sont les endomorphismes d’un espace préhilbertien dont on peut tirer
une base orthonormée constituée de vecteurs propres ?
Ou encore :
Ou encore, puis que les matrices de passages d’une bon à l’autre sont les matrices orthogonales ou unitaires,
en notant M la matrice représentative de l’endomorphisme f dans une bon B quelconque de E :
• Cas réel (Question Q1) - Si M est comme dans la question Q1, on remarque que :
t
M =t (t P.∆.P ) =t (P ).t ∆.t (t P ) =t .∆.P = M , ie que M est symétrique.
Réciproquement, on montre par récurrence sur la taille de M que :
Théorème 6.12. — Soit M une matrice réelle. Si M est symétrique, M est orthogonalement
diagonalisable.
Corollaire 6.13. — Les matrices réelles orthogonalement diagonalisables sont les matrices symétriques.
• Cas complexe (Question Q2) - Soit M comme dans la question Q2. On note M ∗ =t M, on l’appelle
la matrice adjointe de M . On remarque que :
M ∗ = (P ∗ .∆.P )∗ = P ∗ .∆∗ .(P ∗ )∗ = P ∗ .∆.P .
On a alors, puisque p∗ = P −1 : M.M ∗ = P ∗ .∆.∆.P = P ∗ .∆.∆.P = M ∗ .M , ie que M commute avec sa
matrice adjointe. On dit que M est unematrice normale. On montre que la réciproque est vraie :
Théorème 6.14. — Soit M une matrice complexe. Si M est normale, M est orthogonalement
diagonalisable.
Corollaire 6.15. — Les matrices complexes orthogonalement diagonalisables sont les matrices normales.
Remarques : • Une matrice symétrique réelle est normale puisque sa matrice adjointe est elle-même. Le
théorème 6.14 dit qu’une telle matrice est orthogonalement diagonalisable sur C (les matrices de passage sont
complexes a priori et unitaires et les valeurs propres sont a priori complexes), le théorème 6.12 est donc plus
précis, puisqu’il dit que la diagonalisation a lieu sur R (les matrices de passage sont rélles et orthogonales et les
valeurs propres sont réelles).
• Si les matrices symétriques réellessont normales,
une matrice symétrique complexe n’est pas forcément
1 1
normale. Par exemple la matrice : S =
1 i
39
0 i
Et la matrice N = est normale, mais non symétrique.
−i 0
Matrices normales
= Matrices orthogonalement diagonalisables
sur les complexes
+N
40