13 Rappel Sup Alg Lin
13 Rappel Sup Alg Lin
24
1. Matrices . . . . . . . . . . . . . . . . . . . . . 24
Dernière mise à jour 23 septembre 2018 2. Opérations sur les matrices . . . . . . . . . . . . . . 24
3. Transposition . . . . . . . . . . . . . . . . . . . 26
*** *** *** *** 4. Matrices définies par blocs . . . . . . . . . . . . . . . 27
IV. L’anneau Mn (K) . . . . . . . . . . . . . . . . . . . 27
1. Puissance d’une matrice. . . . . . . . . . . . . . . . 27
Plan 2. Matrices carrées inversibles . . . . . . . . . . . . . . 28
3. Matrices diagonales . . . . . . . . . . . . . . . . . 29
I. Rappels . . . . . . . . . . . . . . . . . . . . . . 1
4. Matrices triangulaires . . . . . . . . . . . . . . . . 29
1. Sous-espaces vectoriels . . . . . . . . . . . . . . . . 1
5. Matrices symétriques et antisymétriques . . . . . . . . . . 30
1. Sous-espaces vectoriels . . . . . . . . . . . . . . . 1
6. Matrice d’une famille de vecteurs dans une base . . . . . . . 30
2. Intersection de sous-espaces vectoriels . . . . . . . . . 1
7. Matrice d’une application linéaire . . . . . . . . . . . . 31
3. Espace vectoriel engendré par une partie . . . . . . . . 2
8. Représentation d’un isomorphisme . . . . . . . . . . . . 32
4. Somme de deux sous-espaces vectoriels . . . . . . . . . 2
9. Application linéaire associée à une matrice . . . . . . . . . 32
5. Somme de plusieurs sous-espaces vectoriels . . . . . . . 4
10.Rang d’une matrice . . . . . . . . . . . . . . . . . 34
6. Famille libre. . . . . . . . . . . . . . . . . . . 6
11.Changements de bases . . . . . . . . . . . . . . . . 35
7. Famille génératrice . . . . . . . . . . . . . . . . 6
12.Matrices équivalentes et rang . . . . . . . . . . . . . . 36
8. Bases . . . . . . . . . . . . . . . . . . . . . 6
13.Matrices semblables . . . . . . . . . . . . . . . . . 37
9. Dimension d’un sous-espace vectoriel . . . . . . . . . . 8
10.Rang d’une famille de vecteurs . . . . . . . . . . . . 9
11.Dimension d’un espace vectoriel produit . . . . . . . . 10
12.Supplémentarité en dimension finie . . . . . . . . . . 10
13.Dimension d’une somme de deux sous-espaces vectoriels . . . 11
II. Applications linéaires . . . . . . . . . . . . . . . . . 12
1. Applications linéaires. . . . . . . . . . . . . . . . . 12
2. Espace vectoriel L(E, F ) . . . . . . . . . . . . . . . 13
3. Images d’un sous-espace vectoriel . . . . . . . . . . . . 14
4. Détermination d’une application linéaire . . . . . . . . . . 15
5. L’anneau des endomorphismes . . . . . . . . . . . . . 15
6. Projecteurs vectoriels. . . . . . . . . . . . . . . . . 17
1. Projection vectorielle . . . . . . . . . . . . . . . 17
2. Projecteurs associés à une décomposition . . . . . . . . 18
7. Symétries vectorielles. . . . . . . . . . . . . . . . . 19
8. Applications linéaires en dimension finie . . . . . . . . . . 20
1. Isomorphisme et dimension . . . . . . . . . . . . . 20
2. Théorème du rang . . . . . . . . . . . . . . . . 21
9. Formes linéaires . . . . . . . . . . . . . . . . . . 22
1. Hyperplans . . . . . . . . . . . . . . . . . . . 23
Éléments de cours: MP Rappel de sup : Algèbre linéaire
Exemple 4. Soit le système suivant pour p, n ∈ N∗ : vectoriel de E, et c’est le plus petit sous-espace vectoriel de E contenant A.
On l’appelle le sous-espace engendré par la partie A, noté VectA
a1,1 x1 + · · · + a1,p xp = 0
a2,1 x1 + · · · + a2,p xp = 0 Exemple 5. 1. Vect∅ = {~0}
(S) : .
..
2. VectE = E
an,1 x1 + · · · + an,p xp = 0
Théorème 1
Avec ∀i ∈ 1, n, ∀j ∈ 1, p, ai,j ∈ K. Un tel système appelé système linéaire de n Soient E un K-espace vectoriel et A une famille non vide de E, alors
équations à p inconnues possède un ensemble de solutions Sol (S), qui est un sous ( n )
espace vectoriel de Kp . Montrons ce résultat. X
n n
VectA := λi ai ; n ∈ N, (λ1 , · · · , λn ) ∈ K , (a1 , · · · , an ) ∈ A
Solution. — 0Kp est évidemment une solution de (S). i=1
— Pour (α1 , · · · , αp ) , (β1 , · · · , βp ) ∈ Sol (S) et λ ∈ K, on a pour i ∈ 1, n :
p
X p
X n
X Preuve.
0= ai,j αj = ai,j βj ⇒ 0= ai,j (αj − βj )
j=1 i=1 j=1
4. Somme de deux sous-espaces vectoriels
⇒ (α1 , · · · , αp ) − (β1 , · · · , βp ) ∈ Sol (S)
p
X Définition 3
De plus, pour i ∈ 1, n, λai,j αi = 0 donc (λα1 , · · · , λαp ) ∈ Sol (S) d’où Soit F et G deux sous-espaces vectoriels de E. On appelle somme des sous-
j=1
espaces vectoriels F et G l’ensemble
le résultat.
En particulier, l’ensemble des x = (x1 , · · · , xp ) ∈ Kp tels que a1 x1 +· · ·+ap xp = F + G := {x + y | x ∈ F, y ∈ G}
0 est un sous-espace vectoriel de Kp .
3. Espace vectoriel engendré par une partie Remarque. L’ensemble F + G contient F et contient G : en effet tout élément x
de F s’écrit x = x + 0 avec x appartenant à F et 0 appartenant à G (puisque
Soit un K-espace vectoriel E et une partie A de E. On note FA l’ensemble des G est un sous-espace vectoriel), donc x appartient à F + G. De même pour un
sous-espaces vectoriels de E contenant A, alors : élément de G.
◦ F\A 6= ∅, car E ∈ FA
◦ F est un sous-espace vectoriel de E Théorème 2
F ∈FA
\ Si F et G sont deux sous-espaces vectoriels de E. Alors
◦ Pour tout G sous-espace vectoriel de E contenant A, on a F ⊂G 1. F + G est un sous-espace vectoriel de E.
F ∈FA
2. Le sous-espace vectoriel F + G de E est le sous-espace vectoriel de E
Définition 2 engendré par F ∪ G
\note FA l’ensemble des
Soit un K-espace vectoriel E et une partie A de E. On
sous-espaces vectoriels de E contenant A, alors : F est un sous-espace Preuve. 1. Montrons que F + G est un sous-espace vectoriel de E
F ∈FA ◦ L’ensemble F + G n’est pas vide car O = O + O ∈ F + G.
◦ Soient u et u0 des éléments de F + G , il existe alors deux éléments de F , 3. Pour tout (x, y) ∈ F × G, x + y = 0 ⇐⇒ x = y = 0
x et x0 , et deux éléments de G, y et y 0 , tels que u = x + y et u0 = x0 + y 0
. Preuve. 1 ⇒ 2) Supposons que F et G en somme directe.
Soit λ un scalaire. En utilisant les axiomes des espaces vectoriels, on Soit u ∈ F ∩ G alors u peut s’écrire des deux manières suivantes, comme
obtient : somme d’un élément de F et d’un élément de G :
λu + u0 = (λx + x0 ) + (λy + y 0 )
u=u+0=0+u
Comme F et G sont des sous-espaces vectoriels : λx+x0 ∈ F et λy +y 0 ∈
G donc λu + u0 ∈ F + G L’élément u étant un élément de F ∩ G ,donc c’est un élément de F + G ;
d’après l’unicité de l’écriture d’un élément de F + G , cela entraÓne : u = 0
2. D’après la remarque précédente et le premier résultat du théorème, F + G
. Donc F ∩ G = {0} .
est un sous espace vectoriel contenant F ∪ G.
2 ⇒ 3) Soit (x, y) ∈ F × G.
Il reste à démontrer que tout sous-espace vectoriel contenant F ∪ G contient ◦ Si x + y = 0, alors x = −y ∈ F ∩ G. Par hypothèse F ∩ G = {0}, donc
aussi F + G . x=y=0
Considérons H, un sous-espace vectoriel de E contenant F ∪ G , et u un ◦ Si x = y = 0, c’est évident
élément de F + G . L’élément u est donc la somme d’un élément x de F et 3 ⇒ 1) Soit u ∈ F + G. Supposons qu’il existe deux éléments x, x0 ∈ F et deux
d’un élément y de G. éléments de G tels que u = x + y et u = x0 + y 0 , alors x − x0 + y − y 0 = 0.
Les éléments x et y appartiennent à F ∪ G , donc ils appartiennent aussi à Mais x − x0 ∈ F et y − y 0 ∈ G, donc x − x0 = 0 et y − y 0 = 0, par suite
H, et comme H est un sous-espace vectoriel, l’élément x + y appartient à x = x0 et y = y 0 .
H donc u est un élément de H. Donc H contient F + G. L’écriture de u comme somme d’un élément de F et d’un élément de G est
donc unique.
Remarque. F + G contient F et G et est inclus dans tout sous-espace vectoriel
contenant F et G .
Définition 5: Sous-espaces supplémentaires
Définition 4: Somme directe Soit F et G deux sous-espaces vectoriels de E. L
Soient F et G deux sous-espaces vectoriels de l’espace vectoriel E. On dit que F et G sont supplémentaires si, et seulement, si E = F G.
On dit que F et G sont en somme directe si et seulement si pour tout élément
u de F + G, il existe un unique couple (x; y) de F × G tel que u = x + y. Remarque. Soit F et G deux sous-espaces vectoriels supplémentaires de E. Alors
On dit aussi dans ce cas que la somme F + G est directe. La somme sera
notée : F ⊕ G ∀x ∈ E, ∃!(xF , xG ) ∈ F × G; x = xF + xG
Or f (1) = f (−1) = 0 donc α + β = α − β = 0 puis α = β = 0 et enfin f = 0. Ce qui s’écrit avec les quantificateurs :
Ainsi A ∩ B = {0}. n
X
Étudions A + B. ∀x ∈ F1 + · · · + Fn , ∃!(x1 , · · · , xn ) ∈ F1 · · · × Fn , tel que x = xi
Analyse : On suppose f = g + h avec g ∈ A et h ∈ B. Il existe α, β ∈ R tel que i=1
g(x) = αx + β et h(1) = h(−1) = 0.
On en déduit α + β = f (1) et α − β = f (−1) puis X
Convention. Fi = {0}
1 1 i∈∅
α= (f (1) + f (−1)) et β = (f (1) − f (−1))
2 2 n
X
Ceci détermine g puis h = f − g. Remarque. L’ensemble Fi contient tous les Fi où i ∈ [[1, n]].
i=1
Synthèse : Soit f ∈ E. Posons
1 1 Théorème 4
α= (f (1) + f (−1)) et β = (f (1) − f (−1))
2 2 Soient n ∈ N∗ et F1 , · · · , Fn des sous-espaces vectoriels d’un K-espace vec-
toriel E. Alors
Considérons ensuite g : x ∈ [−1, 1] 7→ αx + β et h = f − g. n
X
On a f = g + h avec g ∈ A. 1. Fi est un sous-espace vectoriel de E.
De plus f (1) = α + β + h(1) donne h(1) = 0 et, de même, on obtient h(−1) = 0. i=1
Ainsi h ∈ B. n
X
Finalement E = A + B. On peut conclure que A et B sont des sous-espaces 2. Le sous-espace vectoriel Fi de E est le sous-espace vectoriel de E
vectoriels supplémentaires de E. n
i=1
[
engendré par Fi
5. Somme de plusieurs sous-espaces vectoriels i=1
Définition 6 n
X
∗
Soient E un K-espace vectoriel , n ∈ N , F1 · · · , Fn des sous-espaces vec- Preuve. 1. Montrons que Fi est un sous-espace vectoriel de E
toriels de E. On définit la somme de F1 · · · , Fn , notée F1 + · · · + Fn ou i=1
n n
X n
X n
X
X
Fi : ◦ L’ensemble Fi n’est pas vide car 0 = 0∈ Fi .
i=1 i=1 i=1 i=1
n
X
F1 + · · · + Fn := {x1 + · · · + xn | (x1 , · · · , xn ) ∈ F1 × · · · Fn } ◦ Soient u et u0 des éléments de Fi , il existe alors deux éléments de
i=1
n n
La somme de F1 , · · · , Fn est dite directe si, et seulement, si tout élément X X
chaque Fi , xi et x0i , tels que u = xi et u0 = x0i .
de F1 + · · · + Fn s’écrit d’une manière unique comme somme d’éléments de
i1 i=1
F1 , · · · , Fn . Soit λ un scalaire. En utilisant les axiomes des espaces vectoriels, on
obtient :
Xn
λu + u0 = (λxi + x0i )
i=1
n
Comme pour tout i ∈ [[1, n]], Fi est un sous-espace vectoriel, alors λxi + M
n
X notée : Fi
x0i ∈ Fi . Donc λu + u0 ∈ Fi i=1
i=1
n
Pn [ Théorème 5: Propriété caractéristique
2. Il est claire que i=1 Fi est un sous espace vectoriel contenant Fi .
i=1
Soient n ∈ N∗ et F1 , · · · , Fn des sous-espaces vectoriels d’un K-espace vec-
n
[ toriel E. Les assertions suivantes sont équivalentes :
Il reste à démontrer que tout sous-espace vectoriel contenant Fi contient 1. F1 , · · · , Fn sont en somme directe
i=1 p−1
!
n X
2. ∀p ∈ [[2, n]] , Fi ∩ Fp = {0}
X
aussi Fi .
i=1 i=1
n
[
Considérons H, un sous-espace vectoriel de E contenant Fi , et u un Preuve. 1 ⇒ 2) Supposons que F1 , · · ·!, Fn sont en somme directe.
i=1 p−1
n n
X
X X Soient p ∈ [[2, n]] et u ∈ Fi ∩ Fp alors il existe (x1 , · · · , xp−1 ) ∈
élément de Fi . L’élément u égale à où xi ∈ Fi . i=1
i=1 i1 p−1
n X
[ F1 × · · · × Fn tel que u = xi .
Les éléments xi appartiennent à Fi , donc ils appartiennent aussi à H,
i=1
i=1 p−1
n X
Donc 0 = xi − u. Or 0 s’écrit d’une manière unique comme somme
X
et comme H est un sous-espace vectoriel, l’élément xi appartient à H
i=1 i=1
n
X d’éléments de F1 , · · · , Fn , cela entraÓne : u = 0 . Donc F ∩ G = {0} .
donc u est un élément de H. Donc H contient Fi . 2 ⇒ 1) Par contraposée, on suppose que F1 , · · · , Fn ne sont pas en somme
i=1 directe.
Xn
Il existe alors un élément x appartenant à Fi admettant deux décompo-
Définition 7: Somme directe i=1
∗
sitions distinctes en somme d’éléments de F1 , · · · , Fn , c’est à dire : il existe
Soient n ∈ N et F1 , · · · , Fn des sous-espaces vectoriels d’un K-espace vec- (x1 , · · · , xn ), (x01 , · · · , x0n ) ∈ F1 × · · · × Fn tels que
toriel E.
n n
On dit que F1 , · · · , Fn sont en somme directe si et seulement si pour tout X X
n
X x= xi = x0i et (x1 , · · · , xn ) 6= (x01 , · · · , x0n )
élément u de Fi , il existe un unique n-uplets (x1 , · · · , xn ) de F1 ×· · ·×Fn i=1 i=1
i=1
n
X Soit p le plus petit élément de [[1, n]] tel que xp 6= x0p . L’entier p est forcément
n n p−1
tel que u = xi . X X X
i=1 supérieur à 1 et l’égalité xi = x0i implique (xi − x0i ) = xp − x0p ,
n
X ! i=1 i=1 i=1
On dit aussi dans ce cas que la somme Fi est directe. La somme sera p−1 p−1
!
X X
i=1 donc xp − x0p ∈ Fi ∩ Fp ce qui montre que Fi ∩ Fp 6= {0}
i=1 i=1
Dans le cas contraire, on dit que la famille (ui )i∈I est liée, ou encore que les Z 2π
vecteurs qui la composent sont libéralement dépendants. 1. Soit p, q ∈ N. Montrer que sin(px) sin(qx)dx = πδpq
0
2. Montrer que (fn )n∈N∗ est libre
— En particulier (u1 , · · · , un ) est libre si, et seulement, si ∀λ1 , · · · , λn ∈
n
7. Famille génératrice
X
K, λi ui = 0 ⇒ ∀i = 1, · · · , n, λi = 0
i=1
— On ne doit pas confondre non tous nuls et tous non nuls. Définition 9
— Une famille réduite à un seul vecteur u est libre ⇐⇒ ~u est non nul. (ui )i∈I est génératrice si, et seulement, si tout vecteur de E est combinaison
— Une famille de deux vecteurs ~u et ~v est liée ⇐⇒ ~u et ~v sont colinéaires, ou linéaire de vecteurs de (ui )i∈I . C’est-à-dire :
encore proportionnels, c’est-à-dire s’il existe un scalaire λ tel que u = λv
X
ou v = λu. ∀x ∈ E, ∃J ⊂ I, J fini, ∃(λj )j∈J ∈ KJ tels que x = λj uj
Cela ne se généralise pas aux familles de plus de deux vecteurs. j∈J
— Une famille de vecteurs est liée ⇐⇒ l’un des vecteurs qui la compose peut
s’écrire comme une combinaison linéaire des autres.
Remarque. — (ui )i∈I est génératrice de E si, et seulement, si E = Vect(ui )i∈I
— Toute sous-famille d’une famille libre est libre.
— Toute sur-famille d’une famille génératrice est génératrice
Cela équivaut à dire que toute sur-famille d’une famille liée est liée. En
particulier toute famille contenant ~0, ou deux vecteurs colinéaires, est liée. Définition 10
Propriété 4 On dit que E est de dimension finie si E possède une famille génératrice
Soient E et F deux espaces vectoriels sur K et f un morphisme de E dans finie.
F.
Soit (ui )i∈I une famille d’éléments de E.
8. Bases
1. Si la famille (ui )i∈I est liée, alors la famille (f (ui ))i∈I est liée.
Définition 11
Soit E un K-espace vectoriel . Une famille est une base de E si, et seulement,
si elle est à la fois libre et génératrice Preuve. Soit B := (e1 , · · · , en ) une base de E
Remarque. — Un morphisme est défini de manière unique par les images des 1. Sinon la famille B est liée
vecteurs d’une base. 2. B étant libre, une famille génératrice a au moins n éléments
— Un morphisme f de E vers F est un isomorphisme ⇐⇒ f transforme une
base de E en une base de F . Il transforme alors toute base de E en une
base de F . Corollaire 3
Propriété 5: Existence de la base Soit E un K-espace vectoriel non nul de dimension finie.
Tout K-espace vectoriel non réduit au vecteur nul et de dimension finie, Toute famille génératrice de E contient une base
possède des bases finies.
Preuve. Soit E un K-espace vectoriel possédant une famille génératrice à m élé-
ments. L’ensemble A des cardinaux des sous-familles génératrices de E est une
Preuve. Soit E un K-espace vectoriel possédant une famille génératrice à m élé-
partie de N non vide ( elle contient m ) . A a donc un plus grand élément n. Soit
ments. L’ensemble A des cardinaux des familles libres de E est une partie de N
(e1 , · · · , ep ) une famille génératrice de p éléments. Montrons que (e1 , · · · , ep ) est
non vide ( elle contient 1, car E contient un vecteur non nul ) et majoré par m. A
libre, si elle ne l’est pas, alors l’un de ces vecteurs est combinaisons des autres,
a donc un plus grand élément n. Soit (e1 , · · · , en ) une famille libre de n éléments.
donc il existe une famille génératrice à p − 1 éléments, ce qui est absurde
Pour x ∈ E, la famille (e1 , · · · , en , x) est liée. Il existe donc une combinaison
Xn
linéaire nulle : αi ei + αx = ~0, avec au moins un coefficient non nul. Comme Corollaire 4: Théorème de la base incomplète
i=1
Soit E un K-espace vectoriel non nul de dimension finie.
(e1 , · · · , en ) est libre, α est nécessairement non nul, donc x ∈ Vect((e1 , · · · , en )) :
Toute famille libre peut être prolongée en une base de E
La famille (e1 , · · · , en ) est génératrice et libre ; c’est une base
Corollaire 1 Preuve. Soit (u1 , · · · , up ) une famille libre et (e1 , · · · , en ) une base de E. On a
p6n
Toutes les bases d’un K-espace vectoriel E non nul de dimension finie ont le — Si p = n, alors (u1 , · · · , up ) d’après le théorème 5
même nombre d’éléments, appelé la dimension de E, noté dimE ou dimK E — Si p 6 n, alors la famille n’est pas génératrice, ∃i ∈ [|1, n|] tel que
(u1 , · · · , up , ei ) est libre, ainsi on vient de construire une famille libre à
Preuve. Supposons l’existence de deux bases B = (e1 , · · · , en ) et B 0 = p + 1 éléments. On refait ce procédé jusqu’à l’obtention d’une famille libre
(v1 , · · · , vm ). Comme B est libre et B 0 est génératrice, alors n 6 m. Comme de n éléments, ce dernier est libre.
B 0 est libre et B est génératrice, alors m 6 n, d’où m = n
Convention. Si E est nul, par convention dimE = 0 Propriété 6: Caractérisation de bases en dimension finie
Soit E un K-espace vectoriel de dimension n ∈ N∗ et B = (e1 , · · · , en ) une
Corollaire 2 famille formée d’exactement n = dimE vecteurs de E. On a équivalence
Soit E un K-espace vectoriel de dimension finie n > 1 entre :
1. Toute famille génératrice a au moins n éléments 1. B est une base,
2. Toute famille libre a au plus n éléments
— Montrons que (x1 , x2 , · · · , xn ) engendre F . Soit x ∈ F . Alors 1 si u 6= 0
Exemple 9. rg(u) =
(x1 , x2 , · · · , xn , x) est liée par maximalité de n dans L. Cela implique 0 sinon
aussitôt que x est combinaison linéaire de x1 , x2 , · · · , xn , car on sait
2 si u, v non colinéaires
qu’en ajoutant à une famille libre un vecteur non combinaison linéaire
Exemple 10. rg(u, v) = 1 si u, v colinéaires, non tous deux nuls
des vecteurs de cette famille, on conserve la liberté. Cela prouve comme
0 si u=v=0
voulu que (x1 , x2 , · · · , xn ) engendre F .
2. On suppose à présent que dimF = dimE = n. Soit (e1 , e2 , · · · , en ) une base Propriété 8
de F . Alors (e1 , e2 , · · · , en ) est une famille libre de E à n = dimE éléments,
Soit (x1 , · · · , xp ) une famille de vecteurs de E.
donc est une base de E en vertu d’un précédent résultat. En particulier,
(e1 , e2 , · · · , en ) engendre E, de sorte que : E = Vect(e1 , e2 , · · · , en ) = F . 1. Si x ∈ Vect(x1 , · · · , xp ), alors rg(x1 , · · · , xp ) = rg(x1 , · · · , xp , x)
2. rg(x1 , · · · , xi , · · · , xj , · · · , xp ) = rg(x1 , · · · , xj , · · · , xi , · · · , xp )
3. ∀λ ∈ K∗ et ∀i ∈ [[1, n]], rg(x1 , · · · , λxi , · · · , xp ) = rg(x1 , · · · , xp )
Remarque (En particulier). — Si dimF = 0 alors F = {~0}
— Si dimF = 1 alors on dit que F est une droite vectorielle. Pour tout u ∈ F 4. ∀λ ∈ K et ∀i 6= j ∈ [[1, n]], rg(x1 , · · · , xi + λxj , · · · , xp ) =
tel que u 6= ~0, F = Vect(u). On dit que u est un vecteur directeur de F . rg(x1 , · · · , xp )
— Si dimF = 2 alors on dit que F est un plan vectoriel. Pour tout u, v ∈ F non
colinéaires, on a F = Vect(u, v). On dit que u, v sont des vecteurs directeurs Exemple 11. On considère la partie F de R4 définie par
de F .
— Si dimF = dimE − 1 alors on dit que F est un hyperplan vectoriel de E. F = {(x, y, z, t) ∈ R4 ; x + y = 0 et x + z = 0}.
Preuve. (x1 , · · · , xp ) est une famille génératrice de l’espace Vect(x1 , · · · , xp ) donc En particulier E n est de dimension finie et dimE n = n.dimE
dimVect(x1 , · · · , xp ) 6 p.
Si la famille (x1 , · · · , xp ) est libre, c’est alors une base de Vect(x1 , · · · , xp ) et
donc dimVect(x1 , · · · , xp ) = p. 12. Supplémentarité en dimension finie
Inversement si dimVect(x1 , · · · , xp ) = p alors la famille (x1 , · · · , xp ) est géné-
ratrice et formée de p = dimVect(x1 , · · · , xp ) vecteurs de Vect(x1 , · · · , xp ), c’est Propriété 11
donc une base de Vect(x1 , · · · , xp ) et en particulier cette famille est libre. Soit E un K-espace vectoriel de dimension finie et F1 , · · · , Fn de sous-espaces
Xn
Formons la famille D = (e1 , · · · , ep , f1 , · · · , fq ) et montrons que c’est une base de dit que F et G sont en somme directe si, et seulement, si F ∩ G
E.
Supposons λ1 e1 + · · · + λp ep + µ1 f1 + · · · + µq fq = 0. Propriété 14
On a λ1 e1 + · · · + λp ep = −(µ1 f1 + · · · + µq fq ) ∈ F ∩ G. Or les espaces F et G sont
supplémentaires donc F ∩ G = {0} et par suite λ1 e1 + · · · + λp ep = µ1 f1 + · · · + Soient E un K-espace vectoriel et F et G deux sous-espaces vectoriels de
µq fq = 0. Puisque les familles B et C sont libres on a alors λ1 = · · · = λp = 0 et dimension finie de E.
µ1 = · · · = µq = 0. Ainsi la famille D, constituée de p + q = dimE éléments, est 1. Alors F + G et F ∩ G sont de de dimension finie et :
libre. Donc c’est une base de E
dim(F +G) = dimF +dimG−dim(F ∩G) (Formule de Grassmann)
Théorème 8
2. En particulier, si F et G sont en somme directe : dim(F ⊕G) = dimF +
Soient E un K-espace vectoriel de dimension finie et F un sous-espace vec-
dimG.
toriel de E. Alors F possède un supplémentaire dans E.
Propriété 16: Deuxième caractérisation de la supplémentarité 2. Si E est l’ensemble des suites complexes convergentes, alors u 7−→ lim u est
C-linéaire.
Soient E un K-espace vectoriel de dimension finie et F et G deux sous-
espaces vectoriels de E. F et G sont supplémentaires dans E si, et seule- 3. P 7−→ P 0 est un endomorphisme du K-espace vectoriel K [X].
ment,si 4. f ∈ C 1 (I, R) 7−→ f 0 ∈ C (I, R) est linéaire.
dimF + dimG = dimE et F + G = E Exemple 14. Montrons que les applications R-linéaires de C dans C sont du
type ϕa,b : z ∈ C 7−→ az + bz avec a, b ∈ C.
Preuve. L’implication directe est évidente. Solution. • Soient a, b ∈ C, pour z, z 0 ∈ C et t ∈ R, on a
Supposons que dimF + dimG = dimE et F + G = E. Alors via la formule de
Grassmann on a tout de suite F ∩ G = {0} ϕa,b (tz + z 0 ) = a (tz + z 0 ) + btz + z 0
taz + az 0 + b tz + z 0
=
II. Applications linéaires = t (az + bz) + az 0 + bz 0
= tϕa,b (z) + ϕa,b (z 0 )
E ,F et G désignent des K-espaces vectoriels .
Soit f une application de E dans F où E et F sont deux espaces vectoriels sur ϕa,b est donc linéaire.
le corps K. — Soit f : C −→ C une application R-linéaire. Pour z ∈ C, z = < (z) + i= (z)
d’où
1. Applications linéaires
f (z) = f (< (z) + i= (z))
Rappel : = < (z) f (1) + = (z) f (i)
Soient E, F deux K-espaces vectoriels et f : E −→ F . z+z z−z
= f (1) + f (i)
On dit que f est linéaire (ou morphisme de K-espaces vectoriels) si et seule- 2 2i
ment si : f (1) f (i) f (1) f (i)
= z + + − z
— Additivité ∀x ∈ E, ∀y ∈ E, f (x + y) = f (x) + f (y) ; 2 2i 2 2i
— Homogénéité ∀λ ∈ K, ∀x ∈ E, f (λx) = λf (x).
| {z } | {z }
a b
si et seulement si = ϕa,b (z)
∀α ∈ K, ∀x, y ∈ E, f (αx + y) = αf (x) + f (y)
Notation. On note Exemple 15. Les applications K-linéaires de K dans K sont celles du type x ∈
K 7−→ ax avec a ∈ K.
1. L (E, F ) l’ensemble des applications linéaires de E dans F .
2. Si E = F , on note L (E) au lieu de L (E, E) et ses éléments sont appelés Solution. En effet :
endomorphismes. — ∀a ∈ K, l’application x 7−→ ax ∈ L (K) ;
Z b — si f : K −→ K est K-linéaire, alors ∀x ∈ K, f (x) = f (1K x) = xf (1K ), on
Exemple 13. 1. Prenons E = C ([a, b] , R), alors f 7−→ f (t)dt est linéaire prend alors a = f (1K ).
a
de E dans R.
Preuve. Si n ∈ N∗ , x1 , · · · , xn ∈ S, α1 , · · · , αn ∈ K alors x1 , · · · , xn ∈ VectS Preuve. Il est facile de démontrer que gof est linéaire de E dans G.
qui est un sous-espace vectoriel donc α1 x1 + · · · + αn xn ∈ VectS. On a donc
l’inclusion Corollaire 8
Si f est un isomorphisme de E sur F et g un isomorphisme de F sur G, gof
VectS ⊃ {combinaison linéaires finies d’éléments de S} est un isomorphisme de E sur G.
D’autre part on montre que l’ensemble des combinaison linéaires finies d’élé- Preuve. la composée de deux applications bijectives (resp. linéaires) est bijective
ments de S est un sous-espace vectoriel de E qui contient S (resp. linéaire).
— On a alors S ⊂ VectS, d’où f (S) ⊂ f (VectS), et f (VectS) est un sous-
espace vectoriel de F car VectS est un sous-espace vectoriel de E. Donc
Propriété 20
Vectf (S) ⊂ f (VectS)
— D’autre part si z ∈ VectS, z s’écrit z = f (x) où x ∈ VectS : ∃λ1 , · · · , αm ∈ Soient E, F et G trois espaces vectoriels sur K.
X X Si f est un isomorphisme de E sur F , alors f −1 est un isomorphisme de
K, ∃y1 , · · · , ym ∈ S, x = αi yi . On a donc z = f (x) = αi f (yi ). Donc
| {z } F sur E.
i i
∈f (S)
z est combinaison linéaire d’éléments de f (S), z ∈ Vectf (S). Preuve. Bien sûr, f −1 est bijective de F sur E. Il ne nous reste qu’à montrer que
f −1 est linéaire.
Soit y, y 0 ∈ F et λ ∈ K. Notons x = f −1 (y) et x0 = f −1 (y 0 )
2. Espace vectoriel L(E, F ) f −1 (λy + y 0 ) = f −1 (λf (x) + f (x0 ))
= f −1 (f (λx + x0 ))
Propriété 18
= λx + x0 = λf −1 (y) + f −1 (y 0 )
Soient E et F deux espaces vectoriels sur K.
Preuve. ⇒ « Déjà vu ! » : une base est en effet en particulier une famille libre u(ei ) = fi .
donc c’est bon.
⇐ Montrons que f est injective : soit x ∈ E tel que f (x) = 0F . Montrons que Propriété 25: Applications linéaires et bases
Xn
x = 0E . B est une base donc x s’écrit (de manière unique) : x = αi ei . Soit E et F deux espaces vectoriels sur K, E étant muni d’une base (ei )i∈I .
i=1 Soit (vi )i∈I une famille quelconque de vecteurs de F .
(avec ∀i [[1, n]], αi ∈ K). Alors il existe une unique application linéaire f de E dans F telle que :
! ∀i ∈ I, f (ei ) = vi .
n
X — l’application f est injective si et seulement si la famille (vi )i∈I est libre
f (x) = 0F ⇔ f αi ei = 0F dans F .
i=1
n
— l’application f est surjective si et seulement si la famille (vi )i∈I est
génératrice dans F .
X
⇔ αi f (ei ) = 0F
i=1
— l’application f est bijective si et seulement si la famille (vi )i∈I est une
base de F .
Comme (f (e1 ) , . . . , f (en )) est libre, on a α1 = . . . = αn = 0K . Par consé-
n
X On retiendra en particulier : Soit f ∈ L (E, F ).
quent x = 0K ei = 0E .
L’application f est un isomorphisme si et seulement si f transforme une base de
i=1
E en une base de F . Elle transforme alors toute base de E en une base de F.
Preuve. Soit maintenant G une famille génératrice de E. On a f (E) = 1. f est une homothétie ;
f (VectG) = Vectf (G). 2. ∀x ∈ E, f (x) est proportionnel à x ;
3. ∀x ∈ E, la famille (x, f (x)) est liée.
f est surjective ⇔ f (E) = F
⇔ Vectf (G) = F Preuve. — Un sens est évident : (1) ⇒ (2). En effet soit α ∈ K tel que f = hα .
⇔ f (G) engendre F Alors il est clair que pour tout x, f (x) = αx est proportionnel à x.
— Mais attention, pour (2) ⇒ (1), il faut voir que (2) ne garantit pas que le
coefficient de proportionnalité est le même pour chaque x. En termes plus
mathématiques, (2) garantit que ∀x ∈ E, ∃αx ∈ K, f (x) = αx x et on doit
montrer que ∃α ∈ K, ∀x ∈ E, f (x) = αx. Il s’agit en fait de montrer que,
4. Détermination d’une application linéaire ∀x, y ∈ E, αx = αy . Prenons x et y non nuls :
— Premier cas : la famille (x, y) est libre. On a αx+y (x + y) = f (x + y) =
Propriété 24
f (x)+f (y) = αx x+αy y . Ainsi αx+y x+αx+y y = αx x+αy y soit encore
Si (ei )i∈I est une base de E et (fi )i∈I une famille de vecteurs de F , alors il (αx+y − αx ) x + (αx+y − αy ) y = 0E . (x, y) est libre donc αx+y = αx =
existe une et une seule application u ∈ L(E, F ) telle que pour tout i ∈ I, αy
— Deuxième cas : (x, y) est liée. x et y sont non nuls donc ∃w ∈ K∗ , y = wx. f n of
αy y = f (y) = f (wx) = wf (x) = wαx x = αx y, soit (αy − αx ) y = 0E .
Comme y 6= 0, αx = αy . Exemple 16. Soit f ∈ L(E) et n ∈ N.
Donc dans tous les cas αx = αy . Donc ∃α ∈ K, ∀x ∈ E ∗ , f (x) =αx. C’est Montrons Kerf n ⊂ Kerf n+1 et Imf n+1 ⊂ Imf n .
vrai aussi si x est nul : f (0E ) = 0E = α0E . Donc f = hα .
Soit x ∈ Kerf n . On a f n (x) = 0 donc f n+1 (x) = f (f n (x)) = f (0) = 0 et ainsi
x ∈ Kerf n+1 .
Théorème 10 Par conséquent Kerf n ⊂ Kerf n+1 .
Soit y ∈ Imf n+1 . Il existe x ∈ E tel que y = f n+1 (x) et alors y = f n (f (x)) =
(L(E), +, ◦) est un anneau d’élément nul l’endomorphisme nul et d’élément f n (a) avec a = f (x) ∈ E et ainsi y ∈ Imf n .
unité l’endomorphisme identité (noté I ou Id). Par conséquent Imf n+1 ⊂ Imf n .
De plus, les éléments inversibles de cet anneau GL (E) sont les automor-
phismes de E. Propriété 26
Soit f, g ∈ L(E) qui commutent (ie f og = g ◦ f ), alors pour tout n ∈ N
Preuve. On sait déjà que (L(E), +) est un groupe abélien de neutre 0̃ car n
X
(L(E), +, .) est un espace vectoriel. (f + g)n = Cnp f p ◦ g n−p
La loi de composition ◦ définit une loi de composition interne sur L(E) car la k=0
composée de deux endomorphismes de E est un endomorphisme de E.
La loi ◦ est associative et possède un neutre IdE qui est un endomorphisme de et
n
X
E. f n+1 − g n+1 = (f − g) f p g n−p
La loi ◦ est distributive sur + dans L(E). En effet, par linéarité à droite et gauche p=0
et du produit de composition, on a
En particulier
n
∀f, g, h ∈ L(E), (g + h)of = g ◦ f + hof.
X
f o(g + h) = f og + f oh et ∀n ∈ N, n
(I + f ) = Cnp f p
k=0
Enfin, un élément inversible de l’anneau (L(E), +, o) est un endomorphisme f
pour lequel il existe g ∈ L(E) vérifiant f og = g ◦ f = IdE ; un tel endomorphisme
est bijectif. Preuve. Par opérations dans un anneau sachant que les deux éléments f et g
Inversement un automorphisme est un élément inversible de l’anneau et son in- commutent.
verse est son isomorphisme réciproque.
Attention. L’anneau (L(E), +, o) n’est pas intègre, ainsi si un produit de com-
Remarque. L’anneau (L(E), +, o) n’est généralement pas commutatif. position est nul, on ne pour autant affirmer qu’un des facteur est nul : f og = 0
n’implique par f = 0 ou g = 0.
Remarque. Puisque (L(E), +, o) est un anneau, on peut exploiter les définitions
et les résultats relatifs à cette structure. En particulier, on peut introduire les Cependant, on peut souvent exploiter à profit le résultat suivant
itérés de composition d’un endomorphisme.
Propriété 27
Définition 15: Les itérés d’un endomorphisme Si f et g sont des endomorphismes de E alors :
Soit f un endomorphisme de E. On pose f 0 = IdE et pour n ∈ N, f n+1 =
g ◦ f = 0 ⇔ Imf ⊂ Kerg.
Preuve. ⇒) Supposons g ◦ f = 0. G
Pour tout y ∈ Imf , il existe x ∈ E tel que y = f (x).
On a alors g(y) = g(f (x)) = (g ◦ f )(x) = 0 donc y ∈ Kerg et ainsi Imf ⊂
Kerg.
⇐) Supposons Imf ⊂ Kerg. xG x
Pour tout x ∈ E, (g ◦ f )(x) = g(f (x)) = 0 car f (x) ∈ Imf ⊂ Kerg. Ainsi
g◦f =0
xF F
Définition 16
Un endomorphisme f ∈ L(E) est dit idempotent si f 2 = f .
Un endomorphisme f ∈ L(E) est dit nilpotent s’il existe n ∈ N tel que Définition 17
f n = 0. — p est appelé projection sur F parallèlement à G.
— q est appelé projection sur G parallèlement à F .
— p et q sont les projections associées à la supplémentarité de F et G.
Exemple 17. Soit f ∈ L(E) nilpotent. Montrons que Id − f ∈ GL(E).
Propriété 28
Soit n ∈ N tel que f n = 0. On a Id = Id − f n .
Puisque Id et f commutent, on peut factoriser et on obtient p et q sont des endomorphismes de E vérifiant
! ! p2 = p, q 2 = q, p + q = Id et qop = poq = 0
n−1
X n−1
X
Id = (Id − f )o fk = fk o(Id − f ) De plus F = Imp = Kerq et G = Kerp = Imq.
k=0 k=0
Preuve. Soient λ, µ ∈ K et x, y ∈ E.
n−1
−1
X On a x = p(x) + q(x) et y = p(y) + q(y) avec p(x), p(y) ∈ F et q(x), q(y) ∈ G.
Par suite Id − f est inversible et (Id − f ) = f k. On a alors λx + µy = (λp(x) + µp(y)) + (λq(x) + µq(y)) avec λp(x) + µp(y) ∈ F
k=0
et λq(x) + µq(y) ∈ G donc
x − p (x)
Corollaire 10
F = Ker(p − Id) est aussi l’ensemble des vecteurs invariants par p.
p (x) Im(p)
Propriété 30
Preuve. Commençons par établir que Imp = Ker(p − Id). n
L’inclusion Ker(p − Id) ⊂ Imp est immédiate et l’inclusion Imp ⊂ Ker(p − Id) pi est la projection sur F = Ei parallèlement à G = ⊕ Ej .
j=1
j6=i
découle de l’égalité p2 = p.
Soit x ∈ Imp ∩ Kerp.
On a p(x) = x et p(x) = 0 donc x = 0. Ainsi Imp ∩ Kerp = {0}. Preuve. Les espaces F et G sont supplémentaires.
Soit x ∈ E. Posons a = p(x) et b = x − p(x). Notons p la projection sur F parallèlement à G.
On a a ∈ Imp, x = a + b et p(b) = p(x) − p2 (x) = 0 donc b ∈ Kerp. Pour tout x ∈ E, on peut écrire de façon unique
X x = x1 + · · · + xn avec xj ∈ Ej .
Ainsi Imp + Kerp = E et finalement Imp et Kerp sont supplémentaires dans E. On a alors x = xi + y avec xi ∈ F et y = xj ∈ G.
Enfin, pour tout x ∈ E, x s’écrit de façon unique x = a + b avec a ∈ F et b ∈ G j6=i
et on a p(x) = a. Par suite p(x) = xi = pi (x). Ainsi p = pi
L’application p apparaît donc comme la projection sur F parallèlement à G.
Propriété 31 Définition 20
n
X s est appelée la symétrie vectorielle par rapport à F parallèlement à G
On a les relations IdE = pi , p2i = pi et pi opj = 0 si i 6= j.
i=1
Exemple 18. 1. Si F = E et G = {0} alors s = id
n
X 2. Si F = {0} et G = E alors s = −id
Preuve. IdE = pi car on a l’égalité x = x1 + · · · + xn avec xi = pi (x) pour
i=1 Théorème 11
tout x ∈ E.
p2i = pi car pi est une projection. L’application s est un endomorphisme de E vérifiant s2 = Id.
Pour i 6= j, pi opj = 0 car Impj = Fj ⊂ Kerpi . De plus F = Ker(s − I) et G = Ker(s + I)
−xG s (x)
Définition 21
La symétrie s0 par rapport à G et parallèlement à F est appelée symétrie
complémentaire de s.
Ker (s − id)
Théorème 12 s (x)
2
Si s est un endomorphisme de E vérifiant s = Id alors
1. Ker(s − Id) et Ker(s + Id) sont supplémentaires dans E,
2. s est la symétrie vectorielle par rapport à F = Ker(s − Id), parallèle-
ment à G = Ker(s + Id).
Propriété 34 Preuve. Soit ϕ ∈ E ∗ \ {0}, ∃x ∈ E tel que ϕ (x) 6= 0K donc Im (ϕ) 6= {0K } donc
dim Im (ϕ) > 1. Or Im (ϕ) ⊂ K et dim K = 1 d’où rg (ϕ) = 1 et Im (ϕ) = K.
Soient E et F deux K-espaces vectoriels de même dimension finie et f ∈
L(E, F ). Les propriétés suivantes sont équivalentes :
Propriété 37
— Si ϕ est une forme linéaire non nulle sur E, il existe un vecteur x tel
1. f est injective ; 3. f est bijective ; que ϕ(x) = 1.
2. f est surjective ; 4. rgf = dimF . — Si x est un vecteur de E non nul et E est de dimension finie, il existe
une forme linéaire telle que ϕ(x) = 1
Preuve. D’après le théorème du rang, compte tenu de dimE = dimF = n, on a :
Preuve.
dimKerf = 0 ⇐⇒ dimImf = n ⇐⇒ rgf = n
Théorème 16: Formes linéaires en dimension finie
ϕ est une forme linéaire de E si, et seulement, s’il existe un unique
n n
X X Preuve. Une droite vectorielle est un sous-espace vectoriel engendré par un vec-
(a1 , · · · , an ) ∈ Kn tel que à x = xk ek l’application associe xk ak
teur non nul
k=1 k=1
Définition 24
Propriété 40
On appelle hyperplan de E tout noyau d’une forme linéaire de E non nulle
Les hyperplans de E sont les ensembles H constitués des vecteurs x ∈ E
dont les composantes x1 , · · · , xn sont solutions d’une équation de la forme
D a1 x1 + · · · + an xn = 0 avec a1 , · · · , an scalaires non tous nuls.
Définition 25
Avec les notations qui précèdent, l’équation a1 x1 +· · ·+an xn = 0 est appelée
équation de l’hyperplan H relative à la base B.
Exemple 20. — Soit E = C([a, b], K) l’espace vectoriel des applications conti-
Rb
nues sur le segment [a, b], à valeurs dans K. L’application f :→ a f (t)dt
est une forme linéaire sur E.
— Soit E = F(X, K) l’espace vectoriel des applications d’un ensemble X non
Propriété 38
vide vers K.
Soit H un sous-espace vectoriel d’un K-espace vectoriel E. Les assertions Soit x0 est un élément particulier de X. L’application f :→ f (x0 ) est une
suivantes sont équivalentes forme linéaire sur E.
1. H est un hyperplan — Si E = Mn (R) est l’espace vectoriel des matrices carrées d’ordre n à coeffi-
2. Pour tout a ∈ E \ H, E = H ⊕ Vect (a) cients dans K, l’application trace qui à tout M de E associe tr(M ) est une
forme linéaire sur E.
Remarque (Vocabulaires). — On notera Mn,p (K) l’ensemble des matrices de 2. Opérations sur les matrices
type (n, p) à coefficients dans K . On définit les opérations suivantes sur Mn,p (K) (ce sont les opérations usuelles
— Les éléments de Mn,p (R) sont appelés matrices réelles. sur les applications). Pour deux matrices A = (aij ) 1≤i≤n , B = (bij ) 1≤i≤n ∈
— Pour n quelconque et p = 1 : les matrices de Mn,1 (K) sont appelées matrices 1≤j≤p 1≤j≤p
Mn,p (K)
colonnes.
a1
— A = B si, et seulement si, ∀(i, j) ∈ [[1, n]] × [[1, p]], aij = bij
a2 — A + B := (aij + bij ) 1≤i≤n (Somme de deux matrices). Ainsi
1≤j≤p
Elles sont de la forme : .
..
a11 ··· a1p b11 ··· b1p a11 + b11 ··· a1p + b1p
an .. .. + .. .. = .. ..
— Pour n = 1 et p quelconque : les matrices de M1,p (K) sont appelées matrices . . . . . .
(uni-) lignes. an1 ··· anp bn1 ··· bnp an1 + bn1 ··· anp + bnp
Elles sont de la forme : (a1 · · · an )
— λ.A = (λaij ) 1≤i≤n ( Multiplication par un scalaire). Ainsi
— Pour 1 ≤ i ≤ n. La matrice Li := ai1 · · · ain est appelée le i-ème 1≤j≤p
vecteur ligne ou la i-ème ligne de A
a1j a11 ··· a1p λa11 ··· λa1p
— Pour 1 ≤ j ≤ p. La matrice Cj := ... est appelée le j-ème vecteur
.. .. = .. ..
λ. .
. . .
anj an1 ··· anp λan1 ··· λanp
— La matrice nulle est définie par 0Mn,p (K) = (0ij ) 1≤i≤n Remarque (Disposition pratique).
1≤j≤p
— Pour (k, `) ∈ [[1, n]] × [[1, n]], la matrice Ek` = (δik δj` ) 1≤i≤n B
1≤j≤p z }|
{
b1,1 ··· b1,j ··· b1,r
.. .. ..
. . .
`
↓ bq,1 bq,j bq,r
A
0 ··· 0 0 0 ··· 0 z }| { ··· ··· ···
.. .. .. .. .. a1,1 ··· a1,q .. ..
. . . . . .. . ↓ .
. q
0 ··· 0 0 0 ··· 0 . ..
.. →
X
ai,1 ··· ai,q ai,k bk,j .
Ek,` 0
= ··· 0 1 0 ··· 0 ←− k
.
k=1
0 ··· 0 0 0 ··· 0 ..
. ..
..
. .. .. .. .. .
.. . . . . ap,1 ··· ap,q
··· ··· ···
0 ··· 0 0 0 ··· 0 | {z }
A×B
1 0 3 1 (1 × 3 + 0 × 2) (1 × 1 + 0 × 1)
est appelée la matrice élémentaire. Tous les coefficients de la matrice Ek` Exemple 21. × = =
−1 3 2 1 (−1 × 3 + 3 × 2) (−1 × 1 + 3 × 1)
sont nuls sauf celui qui se trouve à l’intersection de la ligne k et de la colonne
3 1
` qui vaut 1.
3 2
Théorème 17
1. Mn,p (K) est un K-espace vectoriel Théorème 18
2. (Eij ) 1≤i≤n est une base de Mn,p (K) Soit n, p, q, r quatre entiers naturels strictement positifs
1≤j≤p
1. Associativité : Soient A ∈ Mn,p (K), B ∈ Mp,q (K), C ∈ Mq,r (K)
3. dimMn,p (K) = np. En particulier dimMn (K) = n2 , dimMn,1 (K) = n et λ ∈ K :
et dimM1,p (K) = p
A(BC) = (AB)C et λ(AB) = (λA)B = A(λB)
2. Bilinéarité :
— Soient A, B ∈ Mn,p (K) et C ∈ Mp,q (K) : (A + B)C = AC + BC
Définition 27
— Soient A, B ∈ Mn,p (K) et C ∈ Mq,p (K) : C(A + B) = CA + CB
Soit n, p, q trois entiers naturels strictement positifs. Soit A = (aij ) 1≤i≤n ∈
1≤j≤p 3. Élément neutre : Soit A ∈ Mn,p (K) : In A = A = AIp
Mn,p (K) et B = (bij ) 1≤i≤p ∈ Mp,q (K). On définit la matrice C = A × B =
1≤j≤q
(cij ) 1≤i≤n ∈ Mn,q (K) définie par Preuve. 1. Posons A = (aij ) ∈ Mn,p (K), B = (bij ) ∈ Mp,q (K) et C = (cij ) ∈
1≤j≤q
Mq,r (K). Prouvons que A(BC) = (AB)C en montrant que les matrices
p
X A(BC) et (AB)C ont les mêmes coefficients.
∀(i, j) ∈ [[1, n]] × [[1, q]] , cij := aik bkj X p
k=1 Le terme d’indice (i, k) de la matrice AB est xik = ai` b`k . Le terme
`=1
q
X On appelle matrice transposée de A la matrice AT de taille p × n définie
Le terme d’indice (`, j) de la matrice BC est y`j = b`k ckj . Le terme par :
k=1
d’indice (i, j) de la matrice A(BC) est donc a11 a21 . . . an1
a12 a22 . . . an2
p q
! t
A = (aji ) 1≤i≤p ∈ Mp,n (K) = . .. .
..
..
X X
ai` b`k ckj . 1≤j≤n
. .
`=1 k=1 a1p a2p ... anp
Comme dans K la multiplication est distributive et associative, les coeffi-
cients de (AB)C et A(BC) coÔncident. Autrement dit : le coefficient à la place (i, j) de AT est aji . Ou encore la i-ème
2. Les démonstrations se font comme celle de l’associativité. ligne de A devient la i-ème colonne de AT (et réciproquement la j-ème colonne
de AT est la j-ème ligne de A).
3. Soit A ∈ Mn,p (K) de terme général aij . La matrice unité d’ordre p est telle
que tous les éléments de la diagonale principale sont égaux à 1, les autres Remarque (Notation). La transposée de la matrice A se note aussi souvent AT .
étant tous nuls. Exemple 22.
On peut formaliser cela en introduisant le symbole de Kronecker. Si i et j 1 2
1 3 5
sont deux entiers, on appelle symbole de Kronecker, et on note δi,j , le A= ⇒ t A = 3 4
2 4 6
réel qui vaut 0 si i est différent de j, et 1 si i est égal à j. Donc 5 6
(
0 si i 6= j Théorème 19: Propriétés de la transposition
δi,j =
1 si i = j. ◦ Linéarité : ∀A, B ∈ Mn,p (K), ∀λ, µ ∈ K :
Alors le terme général de la matrice identité Ip est δi,j avec i et j entiers, t
(λA + µB) = λ t A + µ t B
compris entre 1 et p.
La matrice produit AIp est une matrice appartenant à Mn,p (K) dont le t t
◦ Involutivité : ∀A ∈ Mn,p (K) : ( A) = A
p
t
◦ Produit : ∀A ∈ Mn,p (K), ∀B ∈ Mp,q (K) : (AB) =t B t A
X
terme général cij est donné par la formule cij = aik δkj . Dans cette
k=1
somme, i et j sont fixés et k prend toutes les valeurs comprises entre 1 et Preuve.
p. Si k 6= j alors δkj = 0, et si k = j alors δkj = 1. Donc dans la somme qui
définit cij , tous les termes correspondant à des valeurs de k différentes de Remarque. 1. L’application
j sont nuls et il reste donc cij = aij δjj = aij 1 = aij . Donc les matrices AIp
Mn,p (K) −→ Mp,n (K)
et A ont le même terme général et sont donc égales. L’égalité In A = A se ϕ: t
A −→ A
démontre de la même faÁon.
est une bijection
2. En particulier, pour tout n ∈ N, Mn,1 (K) et M1,n (K) sont en bijections, Propriété 41
ainsi on peut identifier une matrice ligne .....
A1 B 1
3. La transposition échange le nombre de colonnes et le nombre de lignes, de A= est inversible si et seulement si A1 et A2 le sont.
0 A2
sorte que la transposée d’une matrice de taille n×p est une matrice de taille
p × n. Au quel cas, A−1 est de la forme
−1
A1 B2
4. Matrices définies par blocs A−1 =
0 A−1
2
On peut définir une matrice M ∈ Mp+s,q+r (K) par blocs de façon suivante
A B
M=
C D
IV. L’anneau Mn (K)
A ∈ Mp,q (K), B ∈ Mp,r (K), C ∈ Ms,q (K) et D ∈ Ms,r (K) 1. Puissance d’une matrice
— M est dite triangulaire par blocs si et seulement si on a : C = 0 ;
Propriété 42
— M est diagonale par blocs si : B = 0, et : C = 0 ;
t t (Mn (K), +, ×) est un anneau ( non commutatif et non intègre si n > 2 )
A C
— tM = t
B tD d’élément nul 0 = On et d’élément unité In
— Lorsque A et D sont carrées, on a : Tr (M ) = Tr (A) + Tr (D)
Pour M et M 0des matrices
de Mp+s,q+r (K), écrites par blocs sous la forme : Définition 29: Les itérés d’une matrice
0 0
A B A B
M= et M 0 = . On a : Soit A ∈ Mn (K), on définit les itérés de A, par la relation de récurrence
C D C 0 D0
suivante
A + A0 B + B 0 • A0 = In
M + M0 = • Soit p ∈ N. On pose Ap+1 = A × Ap
C + C 0 D + D0
Il est vrai pour p = 0 (on trouve l’identité). On
le suppose vrai pour un entier 0 1 1 1
p et on va le démontrer pour p + 1. On a, d’aprèsla définition, 0 0 2 1
Solution. On pose N = A − I = 0 0 0 3. La matrice N est nilpotente car
2p − 1 2p+1 − 1
1 0 1 0 1 1 0 0 0 0 0
Ap+1 = Ap ×A = 0 (−1)p 0 ×0 −1 0 = 0 (−1) p+1
0 . N 4 = 0. Comme A = I + N et les matrices N et I commutent (la matrice identité
0 0 2p 0 0 2 0 0 2p+1 commute avec toutes les matrices), on peut appliquer la formule du binôme de
Newton. On utilise que I k = I pour tout k et surtout que N k = 0 si k ≥ 4. On
Donc la propriété est démontrée. obtient
p 3
Définition 30: Matrice nilpotente X p X p
p
A = k p−k
N I = N k = I + pN + p(p−1) 2
2! N +
p(p−1)(p−2) 3
3! N .
Une matrice A ∈ Mn (K) est dite nilpotente si, et seulement, si ∃m ∈ N, tel k k
k=0 k=0
que Am = On
D’o ?
1 p p2 p(p2 − p + 1)
0 1 1 1 0 1 2p p(3p − 2)
0 0 2 1 Ap = .
Exemple 25. On pose N = 0 0 0 3
. La matrice N est nilpotente ? 0 0 1 3p
0 0 0 1
0 0 0 0
Solution. Les calculs suivants :
Propriété 44: Formule de factorisation
0 0 2 4 0 0 0 6
2
0 0 0 6 3
0 0 0 0 Soit A, B ∈ Mn (K) telles que AB = BA, alors pour tout p ∈ N :
N = 0 0 0 0
N =
0
et N 4 = 0.
0 0 0 p
0 0 0 0 0 0 0 0 Ap+1 − B p+1 = (A − B)
X
Ak B p−k
k=0
montrent que N est nilpotente
AB = BA = In
Preuve. Formule de binôme dans un anneau
1 1 1 1
La matrice B est unique, appelée l’inverse de A et se note A−1
0 1 2 1
Exemple 26. Soit A = 0 0 1 3. Calculer les puissances de A
Preuve. Soient B et C deux inverses de A, CA = In = BA. Donc B = In B =
0 0 0 1 (CA)B = C(AB) = CIn = C
Notation. L’ensemble des matrices inversibles de Mn (K) se note GLn (K). 2. La matrice diag(λ, · · · , λ) = λIn est appelée la matrice scalaire, en effet
multiplier une matrice par λIn revient à la multiplier par λ
0 1 −1 1
Exemple 27. Soit A = . Alors B = est l’inverse de A
1 1 1 0 Théorème 20
Soit A = diag(α1 , · · · , αn ) et B = diag(β1 , · · · , βn ) deux matrices diagonales
0 0
Exemple 28. La matrice A = n’est pas inversible et λ ∈ K. Alors
1 3
1. A + B = diag(α1 + β1 , · · · , αn + βn )
Propriété 45 2. A × B = diag(α1 β1 , · · · , αn βn ) et λA = diag(λα1 , · · · , λαn )
Soient A, B ∈ GLn (K) et λ un sclaire non nul Les matrices diagonales forment une sous-algèbre commutative de Mn (K).
1. In ∈ GLn (K)
−1
2. A−1 ∈ GLn (K) et A−1 =A Remarque. Les matrices diagonales peuvent simplement être multipliées coeffi-
1 cients par coefficients, parce que les zéros en dehors de la diagonale annulent
−1
3. λA ∈ GLn (K) et (λA) = A−1 les autres termes dans la formule de multiplication. Une conséquence de cela est
λ
qu’élever une matrice diagonale A à une certaine puissance revient à élever les
4. AB ∈ GLn (K) et (AB)−1 = B −1 A−1
−1 t −1 coefficients de la diagonale de A à cette puissance :
5. t A ∈ GLn (K) et t A = A . k
diag (a1 , · · · , an ) = diag ak1 , · · · , akn
2. On dit que A est triangulaire inférieure si, et seulement, si 6. Matrice d’une famille de vecteurs dans une base
∀i, j ∈ [[1, n]] , i < j =⇒ aij = 0 Soit E un K-espace vectoriel de dimension n > 1, B := (e1 , · · · , en ) une base
de E.
Notation. L’ensemble des matrices triangulaire supérieure ( inférieure ) se note
Définition 35
Tn+ (K) ( resp Tn− (K))
Xn
Remarque. 1. L’application Soit x ∈ E et (x1 , · · · , xn ) les composantes de x dans la base B : x = xi ei
Tn+ (K) −→ Tn− (K)
i=1
tran :
A 7−→ t
A x1
x2
est une bijection La matrice colonne . s’appelle la matrice-colonne des composantes
..
2. Tn+ (K) ∩ Tn− (K) = Dn (K)
xn
Propriété 46 de x dans la base B et est notée Mat(x)
B
n(n + 1)
Tn+ (K) est une K-algèbre de dimension
2
Ainsi Mat(x) ∈ Mn,1 (K). Il est clair que
B
Preuve.
Mat : E −→ Mn,1 (K)
Remarque. Via la bijection A 7→ t A, on peut affirmer que Tn− (K) est une sous- B
algèbre commutative de Mn (K). x −→ Mat(x)
B
est une bijection. Lorsque X = Mat(x), on dit que x représenté par X dans la
5. Matrices symétriques et antisymétriques B
base B, ou que X représente x dans la base B
Définition 34 Définition 36
Soit A ∈ Mn (K) Soit E un K-espace vectoriel de dimension n > 1, B := (e1 , · · · , en ) une base
— On dit que A est symétrique si, et seulement, si t A = A de E, p ∈ N∗ , F = (v1 , · · · , vp ) une famille de p éléments de E, et, pour
— On dit que A est antisymétrique si, et seulement, si t A = −A chaque j de {1, · · · , p}, (v1j , · · · vnj ) les composantes de vj dans la base B :
la famille F dans la base B et est noté Mat(F) — Nous savons que : dimL(E, F ) = dimE × dimF = np = dimMn,p (K). Pour
B
montrer que l’application du théorème est bijective, il nous suffit donc de
montrer qu’elle est injective.
7. Matrice d’une application linéaire — Soit f ∈ L(E, F ) tel que Mat(f ) = 0Mn,p (K) . Pour tout j ∈ [|1, p|] la matrice
B,C
Soit E et F deux K-espace vectoriel de dimension finie, p = dimE > 1, n = colonne des composantes de f (ej ) est nulle, donc f (ej ) = 0. L’application
dimF > 1. Soit B = (e1 , · · · , ep ) une base de E et C = (f1 , · · · , fn ) une base de f est une application linéaire, nulle sur la base, donc f = 0
F et f ∈ L(E, F ).
Pour chaque j de {1, · · · , p}, (a1j , · · · , anj ) les composantes de f (ej ) dans la base
C: Théorème 22: Écriture matricielle d’une application linéaire
Xn
∀j ∈ {1, · · · , p}, f (ej ) = aij fi Mat (f (x)) = Mat (f ) × Mat (x)
C B,C B
i=1
Définition 37: Matrice d’une application linéaire dans des bases Preuve. Posons B = (e1 , · · · , ep ), C = (f1 , · · · , fn ), Mat(u) = (uij ) 1≤i≤n , X =
B,C 1≤j≤p
La matrice (aij ) 1≤i≤n = Mat (f (B)) est appelée la matrice de l’application x1 y1
1≤j≤p C
.. ..
f relativement aux bases B et C ou la matrice de l’application f dans les . le vecteur colonne des composantes de x dans la base B et Y = .
bases B et C et on note Mat(f ) xp yn
B,C
le vecteur colonne des composantes de y dans la base C
−1
Théorème 23: Matrice du produit = Mat f −1
Dans ce cas Matf
B,C C,B
Soient E1 , E2 , E3 trois K-espace vectoriel de dimension finie, de bases res-
pectives B1 , B2 , B3 . Preuve. — Si f est bijective, alors Matf × Matf −1 = Mat (idF ) = In et
Soient f une application linéaire de E1 dans E2 et g une application linéaire B,C C,B C
de E2 dans E3 . Alors : Matf −1 × Matf = Mat (idE ) = In , donc Matf est inversible, d’inverse
C,B B,C C B,C
Matf −1
Mat (g ◦ f ) = Mat (g) × Mat (f ) C,B
B1 ,B3 B2 ,B3 B1 ,B2
— Réciproquement, si A = Mat(f ) est inversible, soit g l’unique application
B,C
linéaire de F dans E pour laquelle Matg = A−1 . Alors Matg ◦ f = Matg ×
Preuve. Posons B = Mat (g), A = Mat (f ) et C = Mat (g ◦ f ). Montrons que C,B B C,B
B2 ,B3 B1 ,B2 B1 ,B3
Matf = A−1 A = In et de même Mat (f ◦ g) = In . On en déduit que
C = AB. B,C C
Posons B1 = (e1 , e2 , ..., en ). Soit alors j ∈ [|1, n|]. La jème colonne de C est, par g ◦ f = idE et que f og = idF , donc f est bijective de E sur F
definition, la colonne des coordonnées de g . f (ej ) dans B3 .
Or si Ej désigne la colonne des coordonnées de ej dans B1 . un 1 en jème position,
que des 0 ailleurs . alors AEj est la colonne des coordonnées de f (ej ) dans B2 . Corollaire 16
Mais pour la mme raison, B(AEj ) = (BA)Ej est donc la colonne des coordonnées Soient E un K-espace vectoriel de dimension n, B une base de E et F une
de g . f (ej ) dans B3 , i.e. la jème colonne de C. Pour finir, on remarque que (BA)Ej famille de n vecteurs de E. Les assertions suivantes sont équivalentes :
n’est autre que la jème colonne du produit BA, de sorte que C et BA ont la mme
jème colonne, comme prévu.
1. F est une base de E. 2. Mat(F) est inversible.
B
Corollaire 15
Preuve. Introduisons les vecteurs de B et F : B = (e1 , e2 , ..., en ) et F =
Soit E un K-espace vectoriel de dimension finie muni d’une base B.
(f1 , f2 , ..., fn ) et notons f l’unique endomorphisme de E tel que : ∀i ∈
Soit f, g ∈ L(E) et A = Mat(f ), B = Mat(g) ∈ Mn (K), alors Mat(g ◦ f ) =
B B B [|1, n|], f (ei ) = fi . On a l’équivalence :
BA.
Et ∀m ∈ N, Am = Mat(f m ) F est une base de E ⇐⇒ f est un automorphisme de E
B
⇐⇒ Mat(f ) est inversible
B
Dans ce paragraphe E et F sont deux K-espaces vectoriels de même dimension 9. Application linéaire associée à une matrice
n
Théorème 24 Définition 38
Soient E et F deux K-espaces vectoriels de mme dimension finie, B une base Si Bm désigne la base canonique de Km , alors
de E, C une base de F . Soit f une application linéaire de E dans F . Alors :
L(Kp , Kn ) −→ Mn,p (K)
f est un isomorphisme de E sur F si et seulement si Mat(f ) est inversible. f −→ Mat (f )
B,C Bp ,Bn
est appelée l’isomorphisme canonique de L (Kp , Kn ) sur Mn,p (K) • Le rang d’une matrice A est égal à 1 si, et seulement, si A possède une
• Pour f ∈ L(Kp , Kn ), la matrice Mat (f ) est appelée la matrice cano- colonne non nulle et si les autres colonnes de A lui sont proportionnelles.
Bp ,Bn
niquement associée à f • Le rang de A est celui de toute application linéaire susceptible d’être repré-
• Inversement, pour A ∈ Mn,p (K), l’application f ∈ L(Kp , Kn ) telle que sentée par A.
Mat (f ) = A est appelée l’application canoniquement associée à A Propriété 48: Image d’une matrice, et vecteur colonnes
Bp ,Bn
Preuve. Soit B = (e1 , · · · , en ). Alors le rang de u est le rang de (u(e1 ), · · · , u(en )) Propriété 51
et le rang de A = Mat(u) est le rang de (C1 , · · · , Cn ), où les Cj sont les colonnes Soit E un K-espace vectoriel de dimension n, p ∈ N∗ , x1 , · · · , xp ∈ E et
B,C
de A c’est-à-dire des vecteurs u(ej ) exprimés dans la base C. Les deux rangs sont B = (b1 , · · · , bn ) une base de E. Alors
donc égaux
rg (x1 , · · · , xp ) = rg Mat (x1 , · · · , xp )
B
Corollaire 18: Caractérisation des matrices inversibles
Soit une matrice carrée A ∈ Mn (K). Les propriétés suivantes sont équiva- Preuve. Notons M = Mat (x1 , · · · , xp ) ∈ Mn,p (K), considérons ϕ l’unique ap-
B
lentes :
plication linéaire de Kn dans E définie sur Bn = (e1 , · · · , en ) par ∀i ∈ [[1, n]],
1. A ∈ GLn (K) ; ϕ (ei ) = bi . ϕ transforme une base en une base donc c’est un isomorphisme de
2. A est inversible à gauche : ∃B ∈ Mn (K) tq BA = In ; Kn dans E. Pour j ∈ 1, p,
3. A est inversible à droite : ∃B ∈ Mn (K) tq AB = In ;
ϕ (Mj ) = ϕ (M [1, j] , M [2, j] , . . . , M [n, j])
4. ∀Y ∈ Mn,1 (K), ∃!X ∈ Mn,1 (K) tq AX = Y ; Xn
!
5. ∀X ∈ Mn,1 (K), AX = 0 =⇒ X = 0 ; = ϕ M [i, j] ei
i=1
6. rg(A) = n. n
X
= M [i, j]ϕ (ei )
Preuve. i=1
Xn
= M [i, j]bi
10. Rang d’une matrice
i=1
Soit M ∈ Mn,,p (K), on appelle rang de M et on note rg (M ) le rang de la Ainsi, ϕ (Vect (M1 , M2 , . . . , Mp )) = Vect (ϕ (M1 ) , ϕ (M2 ) , . . . , ϕ (Mp )) =
famille (M1 , M2 , . . . , Mp ) où ∀j ∈ [[1, p]], Mj est le j-ième vecteur colonne Vect (x1 , · · · , xp ). Posons alors
de M .
Vect (M1 , M2 , . . . , Mp ) −→ Vect (x1 , · · · , xp )
ϕe:
On a donc toujours rg (M ) 6 min (n, p) et rg (M ) = p si et seulement si la x 7−→ ϕ (x)
famille (M1 , M2 , . . . , Mp ) est libre dans Kn . De même rg (M ) = n si et seulement
si (M1 , M2 , . . . , Mp ) engendre Kn . ϕ
e est bien définie, linéaire et injective comme ϕ et surjective au vu de sa définition
donc ϕe est un isomorphisme d’espaces vectoriels donc
Remarque (Notation). Soit r ∈ [[0, min(n, p)]]. Si r =
6 0, on pose
dim Vect (M1 , M2 , . . . , Mp ) = dim Vect (x1 , · · · , xp ) ⇔ rg (M ) = rg (x1 , · · · , xp )
Ir 0r,p−r Ir (0)
Jn,p,r = = ∈ Mn,p (K)
0n−r,r 0n−r,p−r (0) (0)
Sinon Jn,p,0 = 0
D’après (1),
rg (f (e1 ) , f (e2 ) , . . . , f (ep )) = rg Mat (f (e1 ) , f (e2 ) , . . . , f (ep )) 11. Changements de bases
C
= rg Mat (f ) Soit E un K-espace vectoriel de dimension n muni de deux bases B =
B,C (e1 , · · · , en ) et B 0 = (e01 , · · · , e0n )
D’où le résultat. Définition 42
0
On appelle matrice de passage de B à B 0 la matrice Mat(B 0 ), notée PB
B
p n
Remarque Pour M ∈ Mn,p (K), f ∈ L (K , K ) canoniquement associée à M , B
f est injective ⇔ rg (f ) = p 0
Propriété 54
Propriété 53: Rang d’un produit de matrices Soient B, B 0 , B 00 trois bases de E, on a :
00 0 00
Soit A ∈ Mp,q (K), B ∈ Mq,r (K). Alors : 1. PB B B
B = PB PB 0
1. rg (AB) 6 min (rgA, rgB) ; 0
0 −1
2. PB
B est inversible et PB
B = PB
B0
2. si p = q et A est inversible, alors rg (AB) = rgB ;
αn βn
composantes de x dans B 0 . On a alors 12. Matrices équivalentes et rang
n
X Définition 43: Matrices équivalentes
x = βj e0j
j=1 Soit A et B deux matrices de Mn,p (K). On dit que B est équivalente à A,
Xn n
X 0
ou A et B sont équivalentes, si et seulement si il existe Q ∈ GLp (K) et il
= βj PB
B [i, j] ei existe P ∈ GLn (K) tel que B = P AQ. On écrit A ∼ B
j=1 i=1
n n Propriété 57
X X 0
= PB
B [i, j] βj ej
i=1 j=1
L’équivalence ∼ est une relation d’équivalence sur Mn,p (K).
Transitivité : soient A, B, C ∈ Mn,p (K) telles que A soit équivalente à B et B — D’après le théorème du rang
soit équivalente à C, on écrit C = QBP et B = RAS avec Q, R ∈ GLn (K)
et P, S ∈ GLp (K) d’où C = QRASP avec QR ∈ GLn (K) et SP ∈ GLp (K). dim (H + Kerf ) = dim H + dim Kerf
= r + dim Kerf
Remarque. Soient E et F deux K-espaces vectoriels de dimension finie, B et B 0 = p d’après le théorème du rang
deux bases de E, C et C 0 deux bases de F , f ∈ L (E, F ). Alors Mat (f ) est
B,C Donc E = H ⊕ Kerf .
équivalente à MatB0 ,C 0 (f ). Soit (er+1 , er+2 , . . . , ep ) une base de Kerf , alors B = (e1 , · · · , ep ) est une base de
E par recollement. Pour i ∈ [[1, r]], f (ei ) = εi et ∀j ∈ [[r + 1, p]], f (ej ) = 0 d’où
Propriété 58: Rang et équivalence
Mat (f ) = Jn,p,r .
Pour A, B ∈ Mn,p (K). B,C
Propriété 60 Propriété 61
Soit A ∈ Mn,p (K), B ∈ Mp,n (K), alors Tr (AB) = Tr (BA). 1. Tr : L(E) −→ K est une forme linéaire
En particulier ∀A, B ∈ Mn (K), Tr(AB) = Tr(BA) 2. ∀f, g ∈ L(E), Tr(g ◦ f) = Tr(fog)
n
X Xp
Tr(AB) = aij bji
i=1 j=1
p n
!
X X
= bji aij
j=1 i=1
= Tr(BA)
Définition 45
Soit E un K-espace vectoriel de dimension n ∈ N∗ , f ∈ L(E), on appelle
trace de l’endomorphisme f notée Tr(f), la trace d’une matrice représentative
de f dans une base de E