0% ont trouvé ce document utile (0 vote)
36 vues78 pages

Cours (IA)

Le document traite des espaces vectoriels, y compris leurs définitions, propriétés et sous-espaces. Il présente également des concepts fondamentaux tels que les applications linéaires, les matrices et les déterminants. Enfin, il aborde la diagonalisation des matrices et les théorèmes associés.

Transféré par

simoatir2
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
36 vues78 pages

Cours (IA)

Le document traite des espaces vectoriels, y compris leurs définitions, propriétés et sous-espaces. Il présente également des concepts fondamentaux tels que les applications linéaires, les matrices et les déterminants. Enfin, il aborde la diagonalisation des matrices et les théorèmes associés.

Transféré par

simoatir2
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Table des matières

1 Espaces Vectoriels 1
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Familles génératrices. . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Famille liées, famille libres. . . . . . . . . . . . . . . . . . . . . . 6
1.5 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . 7
1.6 Espaces vectoriels de dimensions finies . . . . . . . . . . . . . . 9
1.6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . 13

2 Espaces affines 15
2.1 Espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 VECTORIALISATION D’UN ESPACE AFFINE . . . . . . . 16
2.3 Translations et homothéties . . . . . . . . . . . . . . . . . . . . 16
2.4 SOUS-ESPACES AFFINES . . . . . . . . . . . . . . . . . . . . 17
2.5 INTERSECTION DE SOUS-ESPACES AFFINES . . . . . . . 17
2.6 PARALLELISME . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.7 REPERES CARTESIENS . . . . . . . . . . . . . . . . . . . . . 18
2.8 Points alignés, points coplanaires . . . . . . . . . . . . . . . . . 18
2.9 BARYCENTRES . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3 Les applications linéaires 21


3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2 Image directe et Image réciproque d’un sous-espace vectoriel . 25
3.3 Structure des endomorphismes . . . . . . . . . . . . . . . . . . . 28
3.4 Applications linéaires en dimension finie . . . . . . . . . . . . . 30
3.5 Isomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

i
4 Matrices 35
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Somme de matrices et multiplication d’une matrice par un
scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4 Écriture matricielle d’un système d’équations linéaires . . . . 43
4.4.1 Calcul de l’inverse . . . . . . . . . . . . . . . . . . . . . . 44
4.5 Matrices d’applications linéaires . . . . . . . . . . . . . . . . . . 46
4.5.1 Matrice d’une famille de vecteurs . . . . . . . . . . . . . 46
4.5.2 Matrice d’une application linéaire . . . . . . . . . . . . 46
4.6 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . 51
4.6.1 Matrices de passage . . . . . . . . . . . . . . . . . . . . . 51
4.6.2 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . 54

5 Déterminants de matrices et applications 57


5.1 Définition récursive du déterminant . . . . . . . . . . . . . . . . 57
5.2 Propriétés des déterminants . . . . . . . . . . . . . . . . . . . . 60
5.3 Les formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . 62
5.4 Déterminant d’une famille de vecteurs . . . . . . . . . . . . . . 63
5.5 Formule explicite du déterminant d’une matrice . . . . . . . . 64
5.6 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . 65
5.7 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . 66

6 Diagonalisation des matrices 69


6.1 Polynôme caractéristique d’une matrice . . . . . . . . . . . . . 69
6.2 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . 70
6.3 Eléments propres d’un endomorphisme . . . . . . . . . . . . . . 70
6.4 Cas des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.5 Diagonalisation des endomorphismes et des matrices . . . . . 73

Introduction 1

ii
Chapitre 1

Espaces Vectoriels

Dans tous ce chapitre et dans les suivants, K désignera R ou C).

1.1 Généralités
Définition 1.1.1. On appelle espace vectoriel sur K (ev sur K) ou K-espace
vectoriel (K-ev) un ensemble non vide E muni
d’une loi interne + ∶ E × E Ð→ E
(u, v) z→ u + v
et d’une loi externe ⋅ ∶ K × E Ð→ E
(α, u) z→ α.u = αu
telles que :
1) (E, +) est un groupe commutatif :
(i) ∀u, v, w ∈ E ∶ u + (v + w) = (u + v) + w = u + v + w (sans parenthèses),
(ii) ∃0E ∈ E, ∀u ∈ E ∶ 0E + u = u + 0E = u,
(iii) ∀u ∈ E, ∃ − u ∈ E ∶
u + (−u) = (−u) + u = 0E ,
(iv) ∀u, v ∈ E ∶ u + v = v + u.
2)∀(u, v) ∈ E 2 , ∀(α, β) ∈ K 2 :
a) α(u + v) = αu + αv. c) (αβ)u = α(βu) = αβu (sans parenthèses).
b) (α + β)u = αu + βu. d) 1u = u.

Les éléments de K sont appelés des scalaires, ceux de E sont appelés des
vecteurs et on les note parfois par Ð

u (une lettre surmentée d’une flèche).

Exemples 1.
1) R est un R-ev.
2) C est un C-ev et un R-ev.

1
3) On muni K n des deux lois suivantes :

(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )

et
α(x1 , . . . , xn ) = (αx1 , . . . , αxn )
(K n , +, .) est alors un K-ev.
4) Généralement, Si E1 , E2 , . . . , En sont des espaces vectoriels sur K, on peut
munir E1 × E2 × ⋯ × En d’une structure naturelle de K-espace vectoriel, en
définissant ainsi les opérations :

∀(x1 , . . . , xn ), (y1 , . . . , yn ) ∈ E1 × E2 × ⋯ × En ∶

(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )


∀(x1 , . . . , xn ) ∈ E1 × E2 × ⋯ × En et ∀λ ∈ K ∶
λ(x1 , . . . , xn ) = (λx1 , . . . , λxn )

5) L’ensemble K[X] des polynômes à coefficients dans K est un K-ev.


7) Soit A un ensemble et E un K-ev. On désigne alors par F (A, E) l’en-
semble de toutes les applications de A dans E.
F (A, E) peut être muni des lois + et . défini par :

f + g ∶ x z→ f (x) + g(x)

αf ∶ x z→ αf (x)
On vérifie facilement que (F (A, E), +, .) est alors un K-ev.

1.2 Sous-espaces vectoriels


Définition 1.2.1. Soient (E, +, .) un K-ev et F une partie de E. On dit que
F est un sous-espace vectoriel de E (F est un sev de E) si (F, +, .) est aussi
un K-ev

Proposition 1.2.2. Soient E un K-ev et F une partie de E. F est un sev de


E si et seulement si :
1) F ≠ ∅,
2) ∀(u, v) ∈ F 2 ∶ u + v ∈ F (on dit que F est stable par la loi interne),
3) ∀α ∈ K, ∀u ∈ F ∶ αu ∈ F (on dit que F est stable par la loi externe).

2
Démonstration. Il est clair que si F est un sev de E alors les conditions 1),2)
et 3) sont vérifiées. Inversement, on a −u = (−1)u ∈ F ∀u ∈ F . Comme F est
stable par la loi +, alors (F, +) est un sous-groupe de (E, +). Puisque on a 3)
alors F est un espace vectoriel.
Proposition 1.2.3. Soient E un K-ev et F une partie de E. F est un sev de
E si et seulement si :
1) F ≠ ∅,
2) ∀(u, v) ∈ F 2 , ∀(α, β) ∈ K 2 , on a αu + βv ∈ F .
Démonstration. Supposons que F est un sev de E. Soient α, β ∈ K et u, v ∈ F .
d’après 3) de la proposition 1.2.2, on a αu ∈ F et βv ∈ F et d’après 2) de la
même proposition, on a αu + βv ∈ F . Inversement, prenant α = β = 1 dans 2),
alors u ∈ F et v ∈ F entrainent que u + v ∈ F . Prenant ensuite β = 0 dans 2),
alors α ∈ K et u ∈ F entrainent que αu ∈ F .
Proposition 1.2.4. Soit F une partie d’un K-ev E. Alors :

F ≠∅
F est un sev de E ⇔ {
∀(u, v) ∈ F 2 , ∀α ∈ K ∶ αu + v ∈ F

Démonstration. Facile.
Remarques 1.
1) Soient E un K-ev et F une partie non vide de E. F est un sev de E veut
dire que F est un K-ev pour les lois induites par celles de E :

3
+ ∶ E × E Ð→ E et . ∶ K × E Ð→ E
(u, v) z→ u + v (α, u) z→ αu.
2) Pour montrer qu’un ensemble E est un espace vectoriel il suffit de montrer
que E est un sev d’un autre ev bien connu.
3) Un sous espace vectoriel contient toujours le vecteur nul. Donc pour mon-
trer que F est une partie non vide de E, on se contente de vérifier que le
vecteur nul 0 de E est dans F . En effet, si 0 ∈/ F alors F n’est pas un sev de
E ; et si 0 ∈ F alors F est non vide.
4) Si F est un sev de E et si E est un sev de G alors F est un sev de G.

Exemples 2.
1) Si E est un K-ev alors {0} et E sont des sev de E. On les appelle les
deux sous-espaces vectoriels triviaux.
2) Soit Kn [X] = {P ∈ K[X]/deg(P ) ⩽ n} (on convient que −∞ < n). Alors
Kn [X] est un sev de K[X].
Si n ⩽ m alors Kn [X] est un sev de Km [X].
3) E = R2 est un R-ev, F1 = {0} × R et F2 = R × {0} sont des sev de E.
4) soit I un intervalle de R. L’ensemble des fonctions numériques définies
et dérivables sur I est un sev de l’ensemble des fonctions numériques défi-
nies et continues sur I et ce dernier est un sev de l’ensemble des fonctions
numériques définies sur I.

Proposition 1.2.5. Soient E un K-ev, (Fi )i∈I une famille de sev de E, alors
F = ⋂ Fi est un sev de E.
i∈I

Démonstration. On a ∀i ∈ I, 0 ∈ Fi , alors 0 ∈ F , donc F ≠ ∅. Soient α ∈ K,


u, v ∈ F . On a u, v ∈ Fi , donc αu + v ∈ Fi et ceci pour tout i ∈ I. Alors
αu + v ∈ F . Par suite F est un sev de E.

Remarque 1. La réunion de deux sev de E n’est pas en générale un sev de


E.

Exemples 3.
1) On sait que F = R2 × {0} et G = R × {0} × R sont des sev de R3 .
On a u ∈ F ⋂ G ⇐⇒ ∃x, x′ , y, z ∈ R ∶ u = (x, y, 0) = (x′ , 0, z) ⇐⇒ x = x′ et
y = z = 0 donc F ∩ G = {(x, 0, 0)/x ∈ R} = R × {0} × {0}.
2) F = {(x, y) ∈ R2 /x + y = 0} et G = {(x, y) ∈ R2 /2x + y = 0} sont deux
sous espaces vectoriels de R2 . On a (1, −1) ∈ F et (1, −2) ∈ G mais (1, −1) +
(1, −2) = (2, −3) ∈/ F et ∈/ G, donc (1, −1) + (1, −2) ∈/ F ∪ G, alors F ∪ G n’est
pas un sous espace vectoriel de R2 .

4
1.3 Familles génératrices.
Définition 1.3.1. Soient u1 , . . . , un une famille finie de vecteurs d’un K-ev
E. Un vecteur u ∈ E est dit combinaison linéaire des vecteurs u1 , . . . , un s’il
existe des scalaires α1 , . . . , αn ∈ K, tel que
n
u = α1 u 1 + ⋯ + αn u n = ∑ αi u i
i=1

Exemples 4.
1) Tout polynôme P ∈ Kn [X] est combinaison linéaire des vecteurs 1, X, X 2 , . . . , X n .
2) Dans le C-ev C2 , tout vecteur (z, z ′ ) est combinaison linéaire des vecteurs
(1, 0) et (0, 1) :
(z, z ′ ) = z(1, 0) + z ′ (0, 1).

3) Dans le R-ev C2 , tout vecteur (z, z ′ ) est combinaison linéaire des vecteurs
(1, 0), (0, 1), (i, 0) et (0, i). Si z = x + iy, x, y ∈ R et z ′ = x′ + iy ′ , x′ , y ′ ∈ R,
alors on a :
(z, z ′ ) = x(1, 0) + x′ (0, 1) + y(i, 0) + y ′ (0, i).
Thoérème 1.3.2. Soit {u1 , . . . , un } une famille finie de vecteurs d’un K-ev E.
Alors :
1) L’ensemble F des combinaisons linéaires des vecteurs u1 , . . . , un est un sev
de E.
2) F est le plus petit ( au sens de l’inclusion) sev de E contenant u1 , . . . , un .
Démonstration.
1) On a 0 = 0u1 + ⋯ + 0un ∈ F , donc F ≠ ∅. Soient α ∈ K, u, v ∈ F . alors
∃α1 , . . . , αn ∈ K et ∃β1 , . . . , βn ∈ K tels que u = α1 u1 + ⋯ + αn un et v =
β1 u1 + ⋯ + βn un . On a alors αu + v = (αα1 u1 + ⋯ + ααn un ) + β1 u1 + ⋯ + βn un =
(αα1 + β1 )u1 + ⋯ + (ααn + βn )un ∈ F , par suite F est un sev de E.
2) Soit G un sev de E qui contient la famille {u1, . . . , un }. Puisque G est un
sev de E alors α1 u1 + ⋯ + αn un ∈ G et ceci ∀α1 , . . . , αn ∈ K, donc F ⊆ G.
Définition 1.3.3. Soient E un K-ev et A = {u1 , . . . , un } une famille finie
de vecteurs de E. On appelle sev engendré par A l’ensemble F = {α1 u1 +
⋯ + αn un /α1 , . . . , αn ∈ K} des combinaisons linéaires des vecteurs u1 , . . . , un
(c’est à dire des éléments de A).
On dit aussi que A engendre F (ou une famille génératrice de F ).
Notation 1. On note
F = sev⟨u1 , . . . , un ⟩ = sev⟨A⟩
ou
F = vect⟨u1 , . . . , un ⟩ = vect⟨A⟩

5
Remarque 2. Par convention on pose sev⟨∅⟩ = {0}.
Exemples 5.
1) K n = sev⟨(1, 0, . . . , 0), . . . , (0, . . . , 0, 1)⟩.
2) Kn [X] = sev⟨1, X, X 2 , . . . , X n ⟩.
3) Considérons le R-ev R (chaque réel est à la fois scalaire et vecteur), alors
R = sev⟨d⟩ pour tout réel non nul d.
Thoérème 1.3.4. Soit A une partie quelconque d’un K-ev E. L’ensemble

H = {α1 u1 + ⋯ + αn un /n ∈ N∗ , α1 , . . . , αn ∈ K, u1 , . . . , un ∈ A}

des combinaisons linéaires finies d’éléments de A est un sev de E. H est le


plus petit sev (pour l’inclusion) de E contenant A. H est aussi noté H =
sev⟨A⟩.

Démonstration. La preuve est analogue à celle du Théorème 5.2.1

Exercice 1. Montrer que la famille {1, X, X 2 , . . .} engendre le K-ev K[X].


Proposition 1.3.5. Soient E un K-ev et A, B, F des parties de E, alors :
1) F = sev⟨F ⟩ ⇔ F est un sev de E.
2) A ⊆ B ⇒ sev⟨A⟩ ⊆ sev⟨B⟩.
3) Si F est un sev de E, alors : A ⊆ F ⇒ sev⟨A⟩ ⊆ F .
4) sev⟨v1 , . . . , vn ⟩ ne change pas si :
(i) on change l’ordre de deux vecteurs vi et vj .
(ii) on remplace un vecteur vi par un autre vecteur de la forme αvi + ∑j≠i αj vj
avec α ≠ 0.

1.4 Famille liées, famille libres.


Définition 1.4.1. Soient E un K-ev et {u1 , . . . , un } une famille finie de vec-
teurs de E.
1) On dit que {u1 , . . . , un } est une famille liée si :
il existe α1 , . . . , αn ∈ K, non tous nuls, tels que α1 u1 + ⋯ + αn un = 0.
Les vecteurs u1 , . . . , un sont dits linéairement dépendants.
2) On dit que {u1 , . . . , un } est une famille libre si elle n’est pas liée. Ce qui
revient à dire que :

α1 u1 + ⋯ + αn un = 0 ⇒ α1 = ⋯ = αn = 0.

Les vecteurs u1 , . . . , un sont dits linéairement indépendants.

6
Remarques 2.
1) Une famille est libre ssi elle n’est pas liée. Par conséquent, une famille
quelconque est ou bien libre ou bien liée.
2) {u} est libre ssi u ≠ 0.
3) Toute sous-famille d’une famille libre est libre.
4) Toute famille contenant une famille liée est une famille liée. En particu-
lier :
- Une famille qui contient un vecteur nul est une famille liée.
- Une famille qui contient deux vecteurs égaux est une famille liée.
5) La notion de “libre” ou “liée” ne dépends pas de l’ordre dont ses éléments
sont disposés.
Exemples 6.
1) E = R2 : {(1, 0), (0, 1)} et {(1, 2), (3, 1)} sont des familles libres.
2) E = R2 : {(1, −2), (2, 1), (5, 0)} est une famille liée puisque (5, 0) = 2(2, 1)+
(1, −2).
3) E = R2 [X] : {1, X, X 2 } et {2 + 3X, 3X + X 2 , X 2 } sont des familles libres.
Définition 1.4.2. Soit A une partie quelconque d’un K-ev E.
1) On dit que A est liée s’il existe une famille finie d’éléménts de A qui est
liée.
2) On dit que A est libre si elle n’est pas liée. Ce qui revient à dire que toute
sous-famille finie de A est libre.
Exercice 2. Montrer que la famille A = {1, X, X 2 , . . .} du K-ev K[X] est
libre.

1.5 Somme de sous-espaces vectoriels


Dans cette section nous allons nous intéresser au plus petit sous-espace
vectoriel contenant deux sous-espaces vectoriels donnés.
Définition 1.5.1. Soient F et G deux sev d’un K-ev E. On note F + G l’en-
semble {u + v/u ∈ F et v ∈ G}. F + G est appelé la somme de F et G.
Remarque 3. F + G = {w ∈ E/∃u ∈ F, ∃v ∈ G, w = u + v}
Proposition 1.5.2. La somme F + G de deux sev F et G d’un K-ev E est un
un sev de E. De plus F + G est le plus petit sev de E (au sens de l’inclusion)
contenant F et G.

Démonstration. On a 0 ∈ F ⋂ G, donc 0 = 0+0 ∈ F +G. Alors F +G ≠ ∅. Soient


α ∈ K, u, v ∈ F et w, z ∈ G. On a α(u+w)+(v+z) = (αu+v)+(αw+z). Comme
αu, v ∈ F et αw, z ∈ G, on a αu + v ∈ F et αw + z ∈ G. Donc α(u + w) + (v + z) ∈

7
F + G. Par suite, F + G est un sev de E.
D’autre part, on a ∀u ∈ F : u = u + 0 ∈ F + G, donc F ⊆ F + G. de la même
façon on a G ⊆ F + G. Soit H un sev tel que F ⊆ H et G ⊆ H. De plus si u ∈ F
et v ∈ G, alors u + v ∈ H et ceci montre bien que F + G ⊆ H et donc F + G est
le plus petit sev de E (au sens de l’inclusion) contenant F et G.

Exercice 3. Soient F, G et H des sev d’un K-ev E. Alors :


1) F + G = G + F .
2) F ⊆ F + G.
3) F ⊆ G ⇒ F + H ⊆ G + H.
4) (F ⊆ H et G ⊆ H) ⇔ F + G ⊆ H.
5) F + F = F .
6) F + {0} = F .
7) F + E = E.
8) (F + G) + H = F + (G + H) (on peut donc ne pas utiliser les parenthèses).
Proposition 1.5.3. Soient A et B deux parties d’un K-ev E. Alors

sev⟨A ∪ B⟩ = sev⟨A⟩ + sev⟨B⟩.

Consequences :
a) sev⟨u1 , . . . , um ⟩ = sev⟨u1 ⟩ + ⋯ + sev⟨um ⟩ = Ku1 + ⋯ + Kum
b) Si A est une famille génératrice de F1 et B est une famille génératrice de
F2 , alors A ⋃ B est une famille génératrice de F1 + F2 .
Définition 1.5.4. Soient F et G deux sev d’un K-ev E. On dit que la somme
F + G est directe si tout élément de F + G s’écrit d’une manière unique sous
la forme u + v avec u ∈ F et v ∈ G. Dans ce cas F + G est noté F ⊕ G.
Proposition 1.5.5. Soient F et G deux sev d’un K-ev E. Les propositions
suivantes sont équivalentes :
1. La somme F + G est directe.
2. F ⋂ G = {0}.
3. ∀u ∈ F , ∀v ∈ G : u + v = 0 Ô⇒ u = v = 0.

Démonstration.
1. Ô⇒ 2. : Soit u ∈ F ⋂ G. On a u = u + 0 ∈ F + G et u = 0 + u ∈ F + G, donc
u = 0 et 0 = u, c’est-à-dire, u = 0. Alors F ⋂ G = {0}.
2. Ô⇒ 3. : Soient u ∈ F et v ∈ G. Supposons que u + v = 0. Alors u = −v ∈ G,
donc u ∈ F ⋂ G, Il est clair que nous avons aussi v = 0.
3. Ô⇒ 1. : Soient u, w ∈ F et v, z ∈ G. Supposons que u + v = w + z. On a dans
ce cas (u − w) + (v − z) = 0. Comme u − w ∈ F et v − z ∈ G, alors u − w = 0 et
v − z = 0, et donc u = w et v = z.

8
Définition 1.5.6. Deux sev F et G d’un K-ev E sont dit supplémentaires
dans E si F ⋂ G = {0} (i.e la somme F + G est directe) et E = F + G.
On écrit alors E = F ⊕ G et on dit que E est la somme directe de F et G.
F (resp.G) est dit un supplémentaire de G (resp.F ) dans E.

Exemples 7.
1) On a E = E ⊕ {0}.
2) Soient E = K 2 , F = K × {0}, G = {0} × K. On a E = F ⊕ G. En effet,
∀(x, y) ∈ E on a (x, y) = (x, 0) + (0, y) ∈ F + G. Donc E ⊆ F + G, et puisqu’on
a déjà F + G ⊆ E, on conclut que E = F + G. D’autre part, si (x, y) ∈ F ⋂ G,
alors y = 0 puisque (x, y) ∈ F et x = 0 puisque (x, y) ∈ G. Donc (x, y) = (0, 0),
d’où F ⋂ G = {(0, 0)}. En conclusion, E = F ⊕ G.

Remarque 4. Un sev F de E peut avoir plusieurs supplémentaires dans E.

Proposition 1.5.7. Soient F et G deux sev d’un espace vectoriel E. Alors E


est somme directe de F et G ssi tout éléments de E se décompose d’une façon
unique en somme d’un éléments de F et d’un élément de G. càd :
E = F ⊕ G ⇔ ∀w ∈ E, il existe et unique (u, v) ∈ F × G tel que w = u + v.

Démonstration. Il suffit d’appliquer la proposition 1.5.5.

1.6 Espaces vectoriels de dimensions finies


1.6.1 Généralités
Définition 1.6.1. On dit qu’un K-ev E est de dimension finie s’il admet
au moins une famille génératrice finie.
c’est à dire : ∃(u1 , . . . , un ) ∈ E n tel que E = sev⟨u1 , . . . , un ⟩. Dans le cas
contraire, on dit que E est de dimension infinie.

Exemples 8.
1) K = sev⟨1⟩ est de dimension finie.
2) Kn = sev⟨e1 , . . . , en ⟩ est de dimension finie, où e1 = (1, 0, . . . , 0), e2 =
(0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1). En particulier, Rn et Cn sont des es-
paces vectoriels de dimensions finies.
3) {0} = sev⟨∅⟩ = sev⟨0⟩ est de dimension finie.
4) Kn [X] = sev⟨1, X, . . . , X n ⟩ est de dimension finie.

Exercice 4. Montrer que K[X] est un K-ev de dimension infinie.

9
1.6.2 Bases
Définition 1.6.2. On dit qu’une famille finie B = (u1 , . . . , un ) d’éléments d’un
K-ev E est une base de E si B est une famille libre et génératrice de E.
Remarque 5. Soient (u1 , . . . , un ) une base de E et α1 , . . . , αn une famille de
scalaires non nuls. Alors (α1 u1 , . . . , αn un ) est aussi une base de E.
Exemples 9.
1) {∅} est, par convention, une base de {0}.
2) E = K n , soient e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).
Alors (e1 , . . . , en ) est une base du K-ev E, appelée base canonique (ou stan-
dard) de E.
3) (1, X, . . . , X n ) est une base de Kn [X], appelée base canonique de Kn [X].
Proposition 1.6.3. Soit B = (u1 , . . . , un ) une famille finie d’un K-ev E. Alors
les propriétés suivantes sont équivalentes :
1. B est une base de E.
2. ∀u ∈ E, u s’écrit de manière unique sous la forme : u = α1 u1 + ⋯ +
αn un , α1 , . . . , αn ∈ K.
Démonstration.
1. Ô⇒ 2. : Soit u ∈ E. Comme B est une famille génératrice de E, ∃α1 , . . . , αn ∈
K tels que u = α1 u1 + ⋯ + αn un .
Supposons que u = α1 u1 + ⋯ + αn un et u = β1 u1 + ⋯ + βn un avec α1 , . . . , αn ∈ K
et β1 , . . . , βn ∈ K. On a u − u = (α1 − β1 )u1 + ⋯ + (αn − βn )un = 0, comme B est
une famille libre, on a α1 − β1 = 0, . . . , αn − βn = 0, donc α1 = β1 , . . . , αn = βn .
2. Ô⇒ 1. : Il est clair que 2. entraine que B est une famille génératrice de
E. Soient α1 , . . . , αn ∈ K et supposons que α1 u1 + ⋯ + αn un = 0. Comme
0 = 0u1 + ⋯ + 0un , on a nécessairement α1 = 0, . . . , αn = 0. Ceci entraine que
B est une famille libre et donc c’est une base de E.
Définition 1.6.4. Soit B = (u1 , . . . , un ) une base d’un K-ev E et soit u un
vecteur de E. Les scalaires α1 , . . . , αn tels que u = α1 u1 +⋯+αn un sont appelés
les coordonnées (ou les composantes) de u dans la base B. αi s’appelle la ième
coordonnée (ou composante) de u dans la base B.
Notation 2. On utilise les notations u = (α1 , . . . , αn )B et uB = (α1 , . . . , αn )
pour dire que u = α1 u1 + ⋯ + αn un .
Remarques 3.
1. Si B = (u1 , . . . , un ) est une base de E, alors en changeant l’ordre des
vecteurs ui on aura une autre base de E. C’est pour cette raison qu’on note
souvent les bases avec des parenthèses et non avec des accolades.
Par exemple : B1 = ((1, 0), (0, 1)) et B2 = ((0, 1), (1, 0)) sont deux bases du

10
K-ev K 2 , et on a (x, y) = (x, y)B1 = (y, x)B2 .
2. Ce sont les coordonnées des vecteurs qui dépendent des bases et pas les
vecteurs.
On admet sans démonstration le lemme qui suit.
Lemme 1.6.5. Soit (v1 , . . . , vm ) une famille d’un K-ev E et soit (u1 , . . . , un )
une famille génératrice de E. Si m > n alors (v1 , . . . , vm ) est liée.
On admet sans démonstration le théorème qui suit.
Thoérème 1.6.6. Soit E un K-ev de dimension finie. Alors :
1. De toute famille génératrice de E on peut extraire une base de E.
2. E admet au moins une base.
3. Toutes les bases de E ont le même cardinal.
Remarque 6. Un espace vectoriel peut avoir plusièures bases.
Définition 1.6.7. On appelle dimension de E, et on note dimK (E) ou dim(E),
le cardinal d’une base de E.
Exemples 10.
1) dim({0}) = 0 (∅ est une base de {0}).
2) dim(K) = 1 et dim(K n ) = n.
3) dim(Kn [X]) = n + 1 ((1, X, X 2 , . . . , X n ) est une base de Kn [X]).
4) dimC (C) = 1 et dimR (C) = 2 (car (1, i) est une base du R-espace vectoriel
C).
5) Les sous-espaces vectoriels de dimension 1 sont appelés droites vectorielles
et les sous-espaces vectoriels de dimension 2 sont appelés plans vectorielles.
Thoérème 1.6.8. (Théorème de la base incomplète) Soient E un K-ev de
dimension finie, B une base de E et L = {v1 , . . . , vm } une famille libre. Alors
il existe H ⊆ B ∖ L tel que L ⋃ H est une base de E.

Démonstration. Si B ⊆ sev⟨L⟩ alors L est une famille géneratrice de E et


donc une base de E. Si B ⊈ sev⟨L⟩, alors ∃u ∈ B tel que u ∈/ sev⟨L⟩, et comme
L est libre alors L′ = L ⋃{u} est aussi libre. On itère le procédé jusqu’à
obtenir une famille H ⊆ B ∖ L tel que L ⋃ H est une base de E.

Nous avons le corollaire suivant dit aussi Théorème de la base incomplète.


Corollaire 1.6.9. Toute famille libre d’un K-ev de dimension finie E peut
être complétée en une base de E.

Démonstration. Ce résultat se déduit du théorème précédent et de l’existence


d’une base de E.

11
On admet sans démonstration le corollaire qui suit

Corollaire 1.6.10. Soient E un K-ev de dimension finie et F un sev de E.


Alors
1) F est de dimension finie et on’a dim(F ) ⩽ dim(E).
2) dim(F ) = dim(E) ⇔ F = E.

Corollaire 1.6.11. Soit E un K-ev de dimension finie. Tout sev de E admet


au moins un supplémentaire.

Démonstration. Soit F un sev de E et soit B une base de F . Pour avoir


un supplémentaire de F il suffit de compléter B par une famille de vecteurs
C pour obtenir une base de E. Le sous-espace vectoriel G = sev⟨C⟩ est un
supplémentaire de F (C est une base de G).

Proposition 1.6.12. Soient E un K-ev de dimension finie n et A une partie


de E. Alors :
1. A est une famille libre ⇒ card(A) ⩽ n.
2. A engendre E ⇒ card(A) ⩾ n.
3. (A est une famille libre et card(A) = n) ⇔ A est une base de E.
4. (A engendre E et card(A) = n) ⇔ A est une base de E.

Démonstration.
1. et 3. Découlent du théorème de la base incomplète.
2. et 4. Découlent du fait que toute famille génératrice de E contient une
base de E.

Remarques 4. Les contraposées des implications et équivalences de la propo-


sition précédente s’écrivent :
1) Si A contient au moins n + 1 éléments alors A est liée.
2) Si A contient au plus n − 1 éléments alors A n’est pas une famille généra-
trice de E.
3) A n’est pas une base de E ⇐⇒ A n’est pas libre ou card(A) ≠ n
⇐⇒ A n’engendre pas E ou card(A) ≠ n.

Corollaire 1.6.13. Soient E un K-ev de dimension finie n et A une partie finie


de E telle que card(A) = n. Alors les propriétés suivantes sont équivalentes :
1. A est une famille libre.
2. A est une famille génératrice de E.
3. A est une base de E.

On admet sans démonstration le théorème qui suit

12
Thoérème 1.6.14. (Formule de Grassmann) Soient E un K-ev de dimension
finie et F, G deux sev de E. Alors :

dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).

Corollaire 1.6.15. Soit E un K-ev de dimension finie et soit F un sev de E.


Tout les supplémentaires de F ont pour dimension dim(E) − dim(F ).
Démonstration. Soit G un supplémentaire de F , c’est-à-dire, E = F + G et
F ∩G = {0}. On a dim(E) = dim(F +G) = dim(F )+dim(G)−dim(F ∩G). Donc
dim(E) = dim(F ) + dim(G) et par suite dim(G) = dim(E) − dim(E).
Corollaire 1.6.16. Soient E un K-ev de dimension finie et E et G deux sev
de E. Alors les propriétés suivantes sont équivalentes :
1) E = F ⊕ G.
2) dim(E) = dim(F ) + dim(G) = dim(F + G).
3) dim(E) = dim(F ) + dim(G) et F ∩ G = 0.
4) dim(E) = dim(F ) + dim(G) et F + G = E.
Démonstration. La démonstration découle facilement de la formule de Grass-
mann.

1.7 Rang d’une famille de vecteurs


Définition 1.7.1. Soit A une partie d’un K-ev E de dimension finie. On
appelle rang de A, et on note rg(A), l’entier naturel : rg(A) = dim(sev⟨A⟩).
Proposition 1.7.2. Soient A et A′ deux parties d’un K-ev E de dimension
finie. Alors :
1. rg(A) ⩽ card(A).
2. A ⊆ A′ ⇒ rg(A) ⩽ rg(A′ ).
3. max(rg(A), rg(A′ )) ⩽ rg(A ∪ A′ ) ⩽ rg(A) + rg(A′ ).
4. rg(A) = max{rg(A′ )/A′ ⊆ A, A′ libre}.
Démonstration. Posons F = sev⟨A⟩ et F ′ = sev⟨A′ ⟩.
1. On a A est une famille génératrice de F , donc rg(A) = dim(F ) ⩽ card(A).
2. Si A ⊆ A′ , alors F ⊆ F ′ et donc dim(F ) ⩽ dim(F ′ ), par suite rg(A) ⩽ rg(A′ ).
3. On a A ⊆ A∪A′ et A′ ⊆ A∪A′ , donc rg(A) ⩽ rg(A∪A′ ) et rg(A′ ) ⩽ rg(A∪A′ ),
alors max(rg(A), rg(A′ )) ⩽ rg(A∪A′ ). D’autre part, on a A∪A′ est une famille
génératrice de F + F ′ . Donc rg(A ∪ A′ ) = dim(F + F ′ ). Or d’après la formule
de Grassmann, on a

dim(F +F ′ ) = dim(F )+dim(F ′ )−dim(F ∪F ′ ) ≤ dim(F )+dim(F ′ ) = rg(A)+rg(A′ ).

13
Par suite rg(A ∪ A′ ) ⩽ rg(A) + rg(A′ ).
4. Si A′ est libre alors c’est une base de F ′ et donc rg(A′ ) = card(A′ ). D’autre
part, puisque A engendre F , alors A contient une base B de F , et on a donc
rg(A) = dim(F ) = card(B) = rg(B). Si A′ est une partie de A qui est libre,
alors card(A′ ) ≤ card(B) et donc rg(A′ ) ≤ rg(B). Par suite rg(A′ ) ≤ rg(A)
et ceci pour toute partie libre A′ de A. D’où le résultat.
Une autre démonstration : Si A′ est libre et A′ ⊆ A, alors A′ est une famille
libre de F , donc rg(A′ ) ≤ dim(F ) = rg(A). On a de plus A est une famille
génératrice de F , donc A contient une base B de F . On a donc B ⊆ A et
rg(B) = dim(F ) = rg(A). D’où le résultat.
Proposition 1.7.3. Soit A une partie d’un K-ev E de dimension finie. Alors :
1. A est une famille génératrice de E ⇔ rg(A) = dim E.
2. A est une famille libre de E ⇔ rg(A) = card(A)
3. A est une base de E ⇔ rg(A) = card(A) = dim E.
Démonstration. Posons F = sev⟨A⟩.
1. on a

A est une famille génératrice de E ⇔ F = E


⇔ dim(F ) = dim(E)
⇔ rg(A) = dim(E)

2. On a

A est une famille libre ⇔ A est une base de F


⇔ dim(F ) = card(A)
⇔ rg(A) = card(A)

3. Se déduit immédiatement de 1. et 2..

14
Chapitre 2

Espaces affines

2.1 Espaces affines


Ð
Soit E un ensemble non vide et E un sous-espace vectoriel de Rn . On dit

que E est un espace affine de direction E ssi il existe une application :


Ð

φ ∶ E × E Ð→ E
Ð

(A, B) z→ AB
Ð→

telle que :

1.∀A, B, C ∈ E, AB + BC = AC relation de Chasles


Ð→ Ð→ Ð→

2.∀Ω ∈ E, ∀Ð
u ∈ E , ∃!M ∈ E, ΩM = Ð
→ Ð
→ ÐÐ→ →
u
Les éléments de E seront appelés des points et ceux de E 2 seront nommés
bipoints. La dimension de l’espace affine E est par définition celle de l’espace
vectoriel sous-jacent E .
Ð

Remarque 7. Il y a deux types d’objets en jeu : les éléments de E (appe-


lés points et notés A, B, X, Y, ...) et ceux de E (appelés vecteurs et notés
Ð

Ð→
a ,Ð→
u , ...).
Exemples 11.
1. L’ensemble E des (x, y, z) de R3 tels que x + y + z = 1 est un espace affine
de direction l’espace vectoriel E = {(x, y, z) ∈ R3 /x + y + z = 0}.
Ð

2. Exemple important :On peut munir un sous-espace vectoriel E de Rn d’une
structure d’espace affine, de direction lui-même, dite structure affine cano-
nique, en considérons l’addition comme une loi externe. Dans ce cas le vecteur

15
Ð
Ð
→Ð→→ Ð
uÐv =→ v −Ð →
u.
Ici, il faut faire bien attention. Sur l’ensemble E, on considère deux struc-
tures différentes : la structure (canonique) d’espace vectoriel et la structure
(canonique) d’espace affine. Ainsi, un élément de l’ensemble E (c’est-à-dire
un n-uplet (x1 , ..., xn ) de nombres réels) peut être considéré tantôt comme
un vecteur, tantôt comme un point : tout dépend de la structure qu’on veut
considérer à ce moment là.

2.2 VECTORIALISATION D’UN ESPACE AFFINE


Nous avons vu que tout espace vectoriel donne naissance à un espace af-
fine (exemple 3.). Mais cet espace possède un point particulier : le vecteur
0 . Au contraire, dans un espace affine général E aucun point n’est privilégié
Ð→
par rapport aux autres : on pourrait dire que la géométrie affine est de la
géométrie vectorielle sans origine a priori. Cependant on peut quand même
selon les besoins de la cause choisir un point O comme origine de E. Cela
permet de vectorialiser E en O, c’est-à-dire d’identifier le point A de E avec
Ð→
le vecteur OA.

Vectorialiser un espace affine E en une origine convenablement choisie per-


met de ramener un problème affine à un problème équivalent dans E , où
Ð

l’on dispose de tous les outils de l’algèbre linéaire : c’est une méthode très
fréquemment utilisée.

2.3 Translations et homothéties


Notation 3. D’après la propriété (2) de la structure d’espace affine, pour
tout point A de E et tout vecteur Ðv de E , il existe un unique point B de E
→ Ð→
Ð→ →
tel que AB = Ð
v . On note A+ Ð →
v ce point B, c’est-à-dire qu’on a : B = A+ Ð

v,
Ð→ Ð → Ð→
AB = v . On peut donc écrire : A + AB = B.

Remarque 8.
Attension : On a défini la somme d’un point et d’un vecteur comme un certain
point : le +, ici, est une notation et n’est pas le + de l’espace vectoriel.

Soit E un espace affine d’espace vectoriel sous-jacent E et


Ð→
Définition 2.3.1.
E ; on appelle translation de vecteur Ð
Ð
→ Ð
→ →
v un vecteur de v l’application tÐ→
v de
E dans E définie par t v (A) = A + v .
Ð→
Ð→

16
Définition 2.3.2. Soient A un point de E et k ∈ R un scalaire non nul. On
appelle homothétie de centre A et de rapport k l’application hk,A de E dans
E définie par hk,A (M) = A + k AM .
ÐÐ→

2.4 SOUS-ESPACES AFFINES


Une partie non vide F d’un espace affine E est un sous-espace affine de
E si et seulement si pour tout point A de F , l’ensemble F = {AM /M ∈ F }
Ð
→ ÐÐ→

est un sous-espace vectoriel de E (qui ne dépent pas du point A). L’espace


Ð→

vectoriel F est alors la direction de F . On dit alors que F est le sous-espace


Ð

affine passant par A et de direction F


Ð

Donc une partie F d’un espace affine E est un sous-espace affine de E si et
seulement si F est un espace affine de direction un sous-espace vectoriel de
E.
Ð

Proposition 2.4.1. Soient F un sous espace affine de E de direction F et A


Ð

un point de F . Alors :
1) M ∈ F si et seulement si AM ∈ F .
ÐÐ→ Ð →

2) F = A + F = {A + Ð u /Ð
u ∈ F }.
Ð
→ → → Ð

Exemples 12.
1. Un point est un sous-espace affine de E de direction {0}.
2. L’ensemble {(x1 , ..., xn ) ∈ Rn /a1 x1 + ... + an xn = b} (a1 , ...an sont des réels
donnés non tous nuls et b un réel quelconque) est un sous-espace affine de
Rn (muni de sa structure canonique d’espace affine).
3. Tout sous espace vectoriel de Rn est un sous-espace affine de l’espace affine
Rn .

2.5 INTERSECTION DE SOUS-ESPACES AFFINES


Proposition 2.5.1. Une intersection quelconque de sous-espaces affines Fi ,
(i ∈ I), est ou bien vide ou un sous-espace affine dont la direction est l’inter-
section des directions :
ÐÐ→
⋂ Fi = ⋂ Fi
Ð→
i∈I i∈I

17
2.6 PARALLELISME
Définition 2.6.1. Soient F et G deux sous-espaces affines de E. On dit que F
et G sont parallèles s’ils ont même direction, i.e., si on a F = G .
Ð
→ Ð →

Proposition 2.6.2. Si F et G sont parallèles, alors F et G sont confondus ou


bien leur intersection est vide.

2.7 REPERES CARTESIENS


Soit E un espace affine de dimension n. On appelle repère cartésien de E
un (n + 1)-uplet R = (O, Ð →e 1 , ..., Ð
→e n ) où O est un point de E et (Ð → e n)
e 1 , ..., Ð

une base de l’espace vectoriel E .
Ð

Pour tout point M de E il existe une unique famille (x1 , ..., xn ) de réels telle
e n . On appelle (xi ) la famille des coordonnées de
ÐÐ→
que OM = x1 Ð →
e 1 + ... + xn Ð

M dans le repère cartésien (O, Ð → e n ), et on écrit M = (x1 , ..., xn )R
e 1 , ..., Ð

Exercice 5. Dans l’espace affine R3 on considère le sous-espace affine

H = {(x, y, z) ∈ R3 /x + 2y + z = 3}

1. Soient O = (0, 1, 1) et M = (−1, 1, 2). Vérifier que O, M ∈ H.


2. Déterminer un repère cartésien de H dont O est l’origine.
3. Déterminer les coordonnées de M dans ce repère.

2.8 Points alignés, points coplanaires


Définitions 2.8.1.
1. Un espace vectoriel est dit un plan vectoriel si sa dimension est égale à 2.
2. Un espace vectoriel est dit une droite vectorielle si sa dimension est égale
à 1.
3. On appelle plan affine tout espace affine de direction un plan vectoriel.
4. On appelle droite affine tout espace affine de direction une droite vecto-
rielle.
Remarque 9. Soit D une droite affine, soit Ð →v un vecteur non nul quelconque
de D , alors { v } est une base de D car dim ( D ) = 1. Soit A0 un point
Ð
→ Ð→ Ð
→ Ð

queconque de D, alors (A0 , Ðv ) est un repère cartésien de D. On dit que Ð
→ →
v
est un vecteur directeur de D ou que D est la droite affine passant par le
point A0 est de vecteur directeur Ðv et on note D = D(A0 , Ð
→ →v ).

18
Définition 2.8.2. On dit que Trois points A, B et C sont alignés, s’ils ap-
partienent à une même droite, et on dit que quatre points A, B, C et D sont
coplanaires s’ils appartienent à un même plan.
Proposition 2.8.3.
1) les points A, B et C sont alignés si et seulement si la famille {AB, AC}
Ð→ Ð→
est liée.
2) les points A, B, C et D sont coplanaires si et seulement si la famille
{AB, AC, AD} est liée.
Ð→ Ð→ Ð→

Remarque 10. Deux points sont toujours alignés, et trois points sont toujours
coplanaires.

2.9 BARYCENTRES
Proposition et Définition 2.9.1. Un point pondéré est un couple (A, λ) avec
A ∈ E et λ ∈ R.
Soit (Ai , λi )1⩽i⩽k avec ∑ki=1 λi ≠ 0 alors il existe un unique G ∈ E, appelé
barycentre de (Ai , λi )1⩽i⩽k , tel que ∑ki=1 λi GAi = 0 .
ÐÐ→ Ð →
Si λ1 = ... = λk , on appelle G l’isobarycentre (ou centre de gravité) des Ai , et
ÐÐ→ Ð →
on a : ∑ki=1 GAi = 0 .
Proposition 2.9.2. le barycentre de (Ai , λi )1⩽i⩽k est caractérisé par
ÐÐ→
Ð→ ∑ki=1 λi OAi
OG = k
.
∑i=1 λi
O est un point quelconque.
Remarque 11. l’isobarycentre de Ai est caractérisé par
ÐÐ→
Ð→ ∑ki=1 OAi
OG = .
k

19
20
Chapitre 3

Les applications linéaires

3.1 Généralités
Définition 3.1.1. Soient E et F deux K-ev et f ∶ E Ð→ F une application.
On dit que f linéaire (ou K-linéaire) si pour tous vecteurs u, v ∈ E et tous
scalaires α, β ∈ K, on a :

f (αu + βv) = αf (u) + βf (v).

Vocabulaire et notations.
● L’ensemble des applications linéaires de E dans F est noté L (E, F ).
● Une application linéaire de E dans E est appelée endomorphisme de E.
● L’ensemble des endomorphismes de E est noté L (E).
● Une application linéaire bijective de E dans F est appelée isomorphisme
de E dans F .
● Un endomorphisme bijectif de E est appelé automorphisme de E.
● L’ensemble des automorphismes de E est noté Gl(E) ou Aut(E).
● Une application linéaire de E dans K est appelée forme linéaire sur E.
Remarque 12. Dans la définition des applications linéaires, on voit claire-
ment que les espaces vectoriels de départ et d’arrivée E et F doivent néces-
sairement être définis sur le même corps K.
Remarque 13. Soient E et F deux K-ev et f ∶ E Ð→ F une application
linéaire. Alors f (0E ) = 0F . En effet, f (0E ) = f (0K .0E ) = 0K .f (0E ) = 0F .
Proposition 3.1.2. Soient E et F deux K-ev et f ∶ E Ð→ F une application.
Alors f est linéaire si et seulement si pour tous vecteurs u, v ∈ E et tout
scalaire α ∈ K, on a :
1. f (u + v) = f (u) + f (v) ;
2. f (αu) = αf (u).

21
Démonstration.
Supposons que f est linéaire. Alors pour avoir 1. il suffit de prendre α = β = 1
dans l’égalité f (αu + βv) = αf (u) + βf (v), et pour avoir 2. il suffit de prendre
β = 0.
Réciproquement, Supposons qu’on a 1. et 2.. Soit u, v ∈ E et α, β ∈ K. On a
alors d’aprés 1. on a f (αu + βv) = αf (u) + f (βv) et d’après 2. on a αf (u) +
f (βv) = αf (u) + βf (v). D’où le résulta.

Proposition 3.1.3. Soient E et F deux K-ev et f ∶ E Ð→ F une application.


Alors f est linéaire si et seulement si pour tous vecteurs u, v ∈ E et tout
scalaire α ∈ K, on a :

f (αu + v) = αf (u) + f (v).

Démonstration. Facile.

Proposition 3.1.4. Soient E et F deux K-ev et f ∶ E Ð→ F une application


linéaire. Pour tout n ∈ N∗ , pour tous scalaires α1 , . . . , αn dans K et pour tous
vecteurs u1, . . . , un dans E, on a :

f (α1 u1 + ⋯ + αn un ) = α1 f (u1 ) + ⋯ + αn f (un ).

Démonstration. La démonstration se fait par récurrence sur n. L’affirmation


est vrai pour n = 1. Supposons lre résultat est vraie pour n. Posons w =
α1 u1 + ⋯ + αn un , alors f (α1 u1 + ⋯ + αn un + αn+1 un+1 ) = f (w + αn+1 un+1 ) =
f (w)+αn+1 f (un+1 ). D’après l’hypothèse de récurrence, on a f (w) = α1 f (u1 )+
⋯+αn f (un ). Par suite, f (α1 u1 +⋯+αn un +αn+1 un+1) = α1 f (u1 )+⋯+αn f (un )+
αn+1 f (un+1 ). Donc le résultat est vraie pour n + 1, donc pour tout n ∈ N∗ .

Exemple 1. L’application

f ∶ E Ð→ F
u z→ 0F

est linéaire. f est dite l’application nulle.


Exemple 2. L’application

idE ∶ E Ð→ E
u z→ u

est un endomorphisme. idE est dite l’application identité de E.

22
Exemple 3. Soit H un sev de E. L’application

f ∶ H Ð→ E
u z→ u

est linéaire et injective. f est dite l’injection canonique.


Exemple 4. Soit H un sev de E et soit

f ∶ E Ð→ F
u z→ f (u)

une application linéaire.


L’application

f∣H ∶ H Ð→ F
u z→ f (u)

est linéaire. f∣H est dite la restriction de f à H.


Exemple 5. Soit H un sev de E et soit G un sev de F . Soit f ∶ E Ð→ F une
application linéaire.
Si f (H) ⊆ G, alors

f ∶ H Ð→ G
u z→ f (u)

est aussi une application linéaire appelée l’application induite par f de H


dans G.
Cas particulier : Soit f ∶ E Ð→ E un endomorphisme de E et soit H un
sev de E stable par f , c’est-à-dire, f (H) ⊆ H. L’application

f ∶ H Ð→ H
u z→ f (u)

est un endomorphisme de H appelé l’endomorphisme induit par f sur H.


Exemple 6. Soit λ ∈ K un scalaire fixé. L’application

hλ ∶ E Ð→ E
u z→ λu

est un endomorphisme. hλ est dite l’homothétie de rapport λ.

23
Exemple 7. Soientt H et G deux sev de E tels quie E = H ⊕ G.
L’application
p1 ∶ E Ð→ H
u = u1 + u2 z→ u1
et
p2 ∶ E Ð→ G
u = u1 + u2 z→ u2
u1 ∈ H et u2 ∈ G, sont des applications linéaires. p1 est appelée la projection
de E sur H parallèlement à G. p2 est la projection de E sur G parallèlement
à H
Exemple 8. Soit K[X] le K-ev des polynômes. L’application
D ∶ K[X] Ð→ K[X]
P z→ P ′
est un endomorphisme. D est dite l’application dérivée (ou de différentia-
tion).
Voici quelques exemples d’applications non linéaires :
Exemple 9. Soit w un vecteur non nul fixé de E et soit
tw ∶ E Ð→ E
u z→ u + w
la translation de vecteur w. On a tw (0E ) = w donc tw (0E ) ≠ 0E et par suite
tw n’est pas linéaire.
Exemple 10. L’application
f ∶ R2 Ð→ R
(x, y) z→ xy
n’est pas linéaire. En effet, on a f (2(4, 3)) = f (8, 6) = 48 et 2f (4, 3) = 2×12 =
24. Donc f (2(4, 3)) ≠ 2f (4, 3).
Exemple 11. L’application
f ∶ R2 Ð→ R
(x, y) z→ x + y + 1
n’est pas linéaire. En effet, on a f (0, 0) = 1 ≠ 0.

24
3.2 Image directe et Image réciproque d’un sous-
espace vectoriel
Thoérème 3.2.1. Soient E et F deux K-ev et f ∶ E Ð→ F une application
linéaire.
1. Si H est un sev de E, son image directe f (H) = {f (u)/u ∈ H} est un sev
de F .
2. Si T est un sev de F , son image réciproque f −1 (T ) = {u ∈ E/f (u) ∈ T } est
un sev de E.
Démonstration.
1. On a 0E ∈ H, donc f (0E ) = 0F ∈ f (H) et par suite f (H) est non vide.
Soient u, v ∈ f (H) et α ∈ K. Soient u′ , v ′ ∈ H tels que f (u′ ) = u et f (v ′ ) = v.
On a αu + v = αf (u′ ) + f (v ′ ) = f (αu′ + v ′ ). Comme H est un sev de E, alors
αu′ + v ′ ∈ H et donc αu + v ∈ f (H). Par suite f (H) est un sev de F .
2. On a f (0E ) = 0F ∈ T , donc 0E ∈ f −1 (T ) et par suite f −1 (T ) est non vide.
Soient u, v ∈ f −1 (T ) et α ∈ K. On a f (u) ∈ T et f (v) ∈ T . Comme T est un sev
de F , alors αf (u)+f (v) ∈ T , donc f (αu+v) ∈ T , c’est-à-dire, αu+v ∈ f −1 (T ).
Par suite f −1 (T ) est un sev de E.
En particulier on a :
● f (E) est un sev de F .
● f −1 (0F ) est un sev de E.
Définition 3.2.2.
● Le sev f (E) est appelé l’image de f et noté Im(f ).
● Le sev f −1 (0F ) est appelé noyau de f et noté ker(f ).
Remarque 14. L’image réciproque f −1 (A) de A est définie même si l’ap-
plication f n’est pas bijective. Par suite, il ne faut pas confondre l’image
réciproque f −1 (A) de A et l’image de A par f −1 , car peut être f −1 n’existe
pas. Cependant, si f −1 existe, c’est-à-dire si f est bijective, alors on peut
faire la confusion sans problème.
Remarque 15.
● v ∈ f (H) ⇐⇒ ∃u ∈ H ∶ f (u) = v.
● v ∈ Im(f ) ⇐⇒ ∃u ∈ E ∶ f (u) = v.
● u ∈ f −1 (T ) ⇐⇒ ∃v ∈ T ∶ f (u) = v ⇐⇒ f (u) ∈ T .
● u ∈ ker(f ) ⇐⇒ f (u) = 0F .
Proposition 3.2.3. Soient E et F deux K-ev et f ∶ E Ð→ F une application
linéaire. Alors :
1. f est injective si et seulement si ker(f ) = {0E }.
2. f est surjective si et seulement si Im(f ) = F .

25
Démonstration.
1. Supposons que f est injective. On sait que 0E ∈ ker(f ) puisque ker(f )
est un sev de E. Soit u ∈ ker(f ), alors f (u) = 0F , donc f (u) = f (0E ) et
comme f est injective, on a u = 0E . Par suite ker(f ) = {0E }. Réciproquement,
Supposons que ker(f ) = {0E }. Soient u, v ∈ E tels que f (u) = f (v). On a
f (u) − f (v) = 0F , donc f (u − v) ∈ ker(f ) d’où f (u − v) = 0F , alors u − v = 0E ,
c’est-à-dire, u = v. ce qui veut dire que f est injective.
2. On a

f est surjective ⇐⇒ f (E) = F


⇐⇒ Im(f ) = F.

Exemple 12. Soit D ∶ R[X] Ð→ R[X] l’application dérivation. On a ker(D) =


R et Im(D) = R[X]. Par suite D est surjective mais n’est pas injective.
Exemple 13. Soit α ∈ K, α ≠ 0, et soit hα ∶ E Ð→ E l’homothétie de rapport
α. On a ker(hα ) = {0E } et Im(hα ) = E. Par suite hα est à la fois surjective
et injective et donc hα est un automorphisme de E.
Exemple 14. Soit E = F ⊕ H et soit p la projection de E sur F parallèlement
à H. On a ker(p) = H et Im(p) = F .
Proposition 3.2.4. Soit f ∶ E Ð→ F une application linéaire injective. Alors
on a :
1. Si A est une famille finie libre de E alors la famille f (A) est libre dans
F.
2. Si A est une famille quelconque libre de E alors la famille f (A) est libre
dans F .

Démonstration.
1. Supposons que A = {u1, . . . , un } est une famille libre.
Soient α1 , . . . , αn ∈ K. On a

α1 f (u1 ) + ⋯ + αn f (un ) = 0F Ô⇒ f (α1 u1 + ⋯ + αn un ) = 0F


Ô⇒ α1 u1 + ⋯ + αn un = 0E car f est injective
Ô⇒ α1 = ⋯ = αn = 0 car A est libre

Par suite A est une famille libre.


2. On sait que par définition A est une famille libre veut dire que toute partie
finie de A est libre. L’assertion découle donc imméditement de 1..

26
Proposition 3.2.5. Soit f ∶ E Ð→ F une application linéaire et soit A une
partie de E. Alors on a :
1. A est une famille liée de E Ô⇒ f (A) est une famille liée de F .
2. f (A) est une famille libre de F Ô⇒ A est une famille libre de E.
Démonstration.
1. Si A est liée alors il existe une famille finie d’éléments u1 , . . . , un de A
et ∃α1 , . . . , αn ∈ K non tous nuls tels que α1 u1 + ⋯ + αn un = 0E . Puisque
f (α1 u1 + ⋯ + αn un ) = α1 f (u1 ) + ⋯ + αn f (un ), on a α1 f (u1 ) + ⋯ + αn f (un ) = 0F
et donc f (A) est une famille liée de F .
2. N’est autre que la contraposée de 1..
Proposition 3.2.6. Soit f ∶ E Ð→ F une application linéaire et soit H un sev
de E. Si A est une famille génératrice de H alors la famille f (A) engendre
f (H).
Démonstration. On veut montrer que
H = sev⟨A⟩ Ô⇒ f (H) = sev⟨f (A)⟩.
On a A ⊆ H, donc f (A) ⊆ f (H), alors sev⟨f (A)⟩ ⊆ f (H).
Inversement, Soit u ∈ f (H). Alors u = f (v) avec v ∈ H. Comme H est engen-
dré par A, il existe une famille finie d’éléments u1 , . . . , un ∈ A et α1 , . . . , αn ∈ K
tels que que v = α1 u1 +⋯+αn un . Donc u = f (α1 u1 +⋯+αn un ) = α1 f (u1 )+⋯+
αn f (un ), ce qui veut dire que u est une combinaison linéaire finie d’éléments
de f (A). Par suite u ∈ sev⟨f (A)⟩ et donc f (H) ⊆ sev⟨f (A)⟩. En conclusion,
f (H) = sev⟨f (A)⟩.
Corollaire 3.2.7. Soit f ∶ E Ð→ F une application linéaire et soit A une
famille génératrice de E. Alors Im(f ) = sev⟨f (A)⟩.
Démonstration. D’après la proposition 3.2.6 on a f (E) = sev⟨f (A)⟩. Or
f (E) = Im(f ), donc Im(f ) = sev⟨f (A)⟩.
Corollaire 3.2.8. Soit f ∶ E Ð→ F une application linéaire surjective et soit
A une famille génératrice de E. Alors f (A) est une famille génératrice de F .
Démonstration. Il suffit d’appliquer le corollaire 3.2.7 et d’utliser le fait que
f est surjective signifie que Im(f ) = F .
On admet sans démonstration le théoràme suivant.
Thoérème 3.2.9. Soient f ∶ E Ð→ F une application linéaire et B une base
de E. Alors On a les équivalences suivantes :
1. f est injective ⇐⇒ f (B) est libre dans F .
2. f est surjective ⇐⇒ f (B) engendre F .
3. f est bijective ⇐⇒ f (B) est une base de F .

27
3.3 Structure des endomorphismes
Proposition 3.3.1. Soient E et F deux K-ev. Alors L (E, F ) muni des lois :
∀f, g ∈ L (E, F ), ∀u ∈ E, ∀α ∈ K

(f + g)(u) = f (u) + g(u)

et
(αf )(u) = αf (u)

est un K-ev.

Démonstration. Soit F (E, F ) l’ensemble de toutes les application de E dans


F . Il est clair que L (E, F ) est un sous-ensemble de F (E, F ). Il suffit donc
de montrer que L (E, F ) est un sev de F (E, F ).
On a L (E, F ) ≠ ∅ car il contient l’application nulle.
Soit f, g ∈ L (E, F ) et α ∈ K. Montrons que h = αf + g ∈ L (E, F ). Pour cela
soit u, v ∈ E et λ ∈ K. Alors

h(λu + v) = (αf )(λu + v) + g(λu + v)


= αf (λu + v) + g(λu + v)
= α(λf (u) + f (v)) + λg(u) + g(v)
= αλf (u) + αf (v) + λg(u) + g(v)
= λ(αf + g)(u) + (αf + g)(v)
= λh(u) + h(v).

Donc h ∶ E Ð→ F est une application linéaire. On a montré alors que ∀λ ∈ K,


∀f, g ∈ L (E, F ) : αf + g ∈ L (E, F ). Ceci montre bien que L (E, F ) est un
sev de F (E, F ) et donc un espace vectoriel.

Proposition 3.3.2. Soient E, F et G des K-ev. Alors


1. Si f ∈ L (E, F ) et g ∈ L (F, G), alors g ○ f ∈ L (E, G).
2. Pour tout f, g ∈ L (E, F ), h, k ∈ L (F, G) et ∀α ∈ K :
(i) h ○ (f + g) = h ○ f + h ○ g.
(ii) (h + k) ○ f = h ○ f + k ○ f .
(iii) h ○ (αf ) = (αh) ○ f = α(h ○ f ).
3. Si f est bijective alors f −1 ∈ L (F, E), c’est-à-dire f −1 est linéaire.

Démonstration.

28
1. Soit α ∈ K et u, v ∈ E. On a

(g ○ f )(αu + v) = g ○ f (αu + v)
= g(f (αu + v))
= g(αf (u) + f (v)) car f est linéaire
= αg(f (u)) + g(f (v)) car g est linéaire
= α(g ○ f )(u) + (g ○ f )(v).

Donc g ○ f ∈ L (E, G).


2. Soient u ∈ E et α ∈ K.
(i) On a

(h ○ (f + g))(u) = h ○ (f + g)(u)
= h((f + g)(u))
= h(f (u) + g(u))
= h(f (u)) + h(g(u)) car h est linéaire
= h ○ f (u) + h ○ g(u)
= (h ○ f + h ○ g)(u).

Donc h ○ (f + g) = h ○ f + h ○ g.
(ii) Cette égalité est vraie même pour des applications qui ne sont pas li-
néaires, et sa preuve est évidente.
(iii) On a

(h ○ (αf ))(u) = h((αf )(u))


= h(αf (u))
= αh(f (u)) car h est linéaire
= (αh) ○ f (u)
= (αh ○ f )(u)
= α(h ○ f )(u).

Donc h ○ (αf ) = (αh) ○ f = α(h ○ f ).


3. Soit f ∈ L (E, F ) une application linéaire bijective. Soient α ∈ K et u, v ∈
F . Posons w = f −1 (αu + v), f −1 (u) = u′ et f −1 (v) = v ′ . On a alors

f (w) = αu + v = αf (u′ ) + f (v ′ ) = f (αu′ + v ′ ),

comme f est injective, on a w = αu′ +v ′ = αf −1 (u)+f −1 (v). Par suite f −1 (αu+


v) = αf −1(u) + f −1 (v). En conclusion f −1 est une application linéaire.

29
3.4 Applications linéaires en dimension finie
Proposition 3.4.1. Soient E et F deux espaces vectoriels de dimensions finies
et soit f ∶ E Ð→ F une application linéaire. Alors :
1. f est injective Ô⇒ dim(E) ≤ dim(F ).
2. f est surjective Ô⇒ dim(F ) ≤ dim(E).
3. f est bijective Ô⇒ dim(E) = dim(F ).
Démonstration.
1. Soit B une base de E. f est injective entraine que f (B) est une famille
libre de F et par suite card(f (B)) ≤ dim(F ), or card(f (B)) = card(B) car
f est injective. Donc dim(E) ≤ dim(F ).
2. Soit B une base de E. f est surjective entraine que f (B) est une fa-
mille génératrice de F et par suite card(f (B)) ≥ dim(F ). Puisque card(B) ≥
card(f (B)), alors dim(E) ≥ dim(F ).
2. Découle de 1. et 2..
Remarque 16. Soient C et D deux ensembles quelconques et f ∶ C Ð→ D une
application. Soit A une partie quelconque de C. Alors on a :
1. card(f (A)) ≤ card(A).
2. Si f est injective alors card(f (A)) = card(A).
Remarque 17. Soient E et F deux espaces vectoriels de dimensions finies et
soit f ∶ E Ð→ F une application linéaire. Les contraposées des propositions
1., 2. et 3. de la proposition 3.4.1 s’écrivent :
1. dim(E) > dim(F ) Ô⇒ f n’est pas injective.
2. dim(E) < dim(F ) Ô⇒ f n’est pas surjective.
3. dim(E) ≠ dim(F ) Ô⇒ f n’est pas bijective.
Dans le cas particuler où E et F ont même dimension, on obtient le
résultat suivant :
Proposition 3.4.2. Soient E et F deux K-ev de dimensions finies et soit
f ∶ E Ð→ F une application linéaire. On suppose que dim(E) = dim(F ).
Alors les conditions suivantes sont équivalentes :
1. f est injective.
2. f est surjective.
3. f est bijective.
Démonstration.
1. ⇐⇒ 3. Supposons que f est injective et soit B une base de E. Alors f (B)
est une famille libre de F qui engendre Im(f ). Ce qui signifie que f (B) est une
base de Im(f ), donc dim(Im(f )) = card(f (B)), or card(f (B)) = card(B)
car f est injective. Donc dim(Im(f )) = dim(E), alors dim(Im(f )) = dim(F ).

30
Comme Im(f ) est un sev de F , on a Im(f ) = F , c’est-à-dire, f est surjective
et par suite bijective.
2. ⇐⇒ 3. Supposons que f est surjective et soit B une base de E. Alors
f (B) est une famille génératrice de F , donc dim(F ) ≤ card(f (B)). Comme
card(f (B)) ≤ card(B) = dim(E) = dim(F ), alors card(f (B)) ≤ dim(F ), il
s’ensuit que card(f (B)) = dim(F ). Par suite f (B) est une base de F et donc
d’après le théorème 5.2.1, on a f est bijective.
Remarque 18. La proposition 3.4.2 ne reste pas valable on dimension infinie.
Par exemple l’endomorphisme dérivé D ∶ R[X] Ð→ R[X] est surjectif mais
n’est pas injectif.
On a le corollaire suivant :
Corollaire 3.4.3. Soit f un endomorphisme d’un espace vectoriel de dimen-
sion finie E. Alors

f est injective ⇐⇒ f est surjective ⇐⇒ f est bijective

Définition 3.4.4. On appelle rang d’une application linéaire f la dimension


de Im(f ). On écrit rg(f ) = dim(Im(f )).
Remarque. Soit f ∶ E Ð→ F une application linéaire. Si F est de dimension
finie alors rg(f ) est aussi fini. Si E est dimension finie, alors on a aussi
rg(f ) est fini, car si B est une famille génératrice finie de E alors f (B) est
une famille génératrice finie de Im(f ).
On admet sans démonstration le théorème suivant.
Thoérème 3.4.5. (Théorème du rang) Soit E un K-ev de dimension finie et
F un K-ev quelconque. Soit f ∶ E Ð→ F une application linéaire. Alors

dim(E) = dim(ker(f )) + rg(f ).

Propriétés 1. Soit E un K-ev de dimension n et F un K-ev de dimension


m. Soit f ∶ E Ð→ F une application linéaire. Alors
1. rg(f ) ≤ n avec égalité si et seulement si f est injective.
2. rg(f ) ≤ m avec égalité si et seulement si f est surjective.
3. Soit α ∈ K, α ≠ 0. On a rg(αf ) = rg(f ).
Démonstration. Voir TD.
Propriétés 2. Soit E un K-ev de dimension finie et soient f et g deux
endomorphismes de E. Alors
1. ∣rg(f ) − rg(g)∣ ≤ rg(f + g) ≤ rg(f ) + rg(g).
2. rg(f ○ g) ≤ min(rg(f ); rg(g))

31
3. Si f est injectif alors rg(f ○ g) = rg(g).
4. Si g est surjectif alors rg(f ○ g) = rg(f ).
Démonstration. Voir TD.
Le théorème suivant montre qu’une application linéaire est complètement
déterminée par les données des images des éléments d’une base.
Thoérème 3.4.6. Soient E et F deux K-ev et B = {u1 , . . . , un } une base de E.
Soient v1 , . . . , vn n vecteurs quelconque de F . Alors il existe alors une unique
application linéaire f ∶ E Ð→ F telle que
f (u1 ) = v1 , . . . , f (un ) = vn .
Démonstration. Existence de f : Soit v ∈ E. Puisque B est une base de E,
le vecteur v s’écrit de façon unique sous la forme v = α1 u1 + ⋯ + αn un où
α1 , . . . , αn ∈ K. On pose alors f (v) = α1 v1 + ⋯ + αn vn . IL est clair que f est
bien définie et ceci est dû à l’unicité des scalaires α1 , . . . , αn . Montrons que
f est linéaire. Pour cela soit v = α1 u1 + ⋯ + αn un ey w = β1 u1 + ⋯ + βn un deux
vecteurs de E et soit λ ∈ K. On a
λv + w = (λα1 + β1 )u1 + ⋯ + (λαn + βn )un ,
donc
f (λv + w) = (λα1 + β1 )v1 + ⋯ + (λαn + βn )vn
= λ(α1 v1 + ⋯ + αn vn ) + (β1 v1 + ⋯ + βn vn )
= λf (v) + f (w).
En conclusion, f est linéaire. De plus il est clair que f (u1 ) = v1 , . . . , f (un ) =
vn .
Unicité de f : Soit g ∶ E Ð→ F une application linéaire telle que
g(u1) = v1 , . . . , g(un ) = vn .
On a (f − g)(u1 ) = 0F , . . . , (f − g)(un ) = 0F , donc (f − g)(B) = {0F }, alors
Im(f − g) = sev⟨{0F }⟩ = {0F }, d’où (f − g)(u) = 0F , ∀u ∈ E. Par suite
f = g.
Remarque 19.
1. Le théorème précédent fournit un outil important pour construire des ap-
plications linéaires
2. Dans le théorème précédent, On peut remplacer une base de E par une
famille génératrice de E. Dans ce cas, on a l’unicité si on a l’existence.
3. Le théorème précédent reste valable même si E n’est pas de dimension
finie.

32
On a les deux corollaires suivants qui sont des conséquences immédiates
du théorème 3.4.6.
Corollaire 3.4.7. Soient f ∶ E Ð→ F et g ∶ E Ð→ F deux applications linéaires
et B = {u1, . . . , un } une base de E. Alors
f = g ⇐⇒ f (u1 ) = g(u1 ), . . . , f (un ) = g(un ).
Corollaire 3.4.8. Soient f ∶ E Ð→ F une applications linéaires et B = {u1 , . . . , un }
une base de E. Alors
f est identiquement nulle ⇐⇒ f (u1 ) = ⋯ = f (un ) = 0F .
Exercice 6. Démontrer le théorème 3.4.6 en utilisant les projections pi ∶ E Ð→
kui .
Exemple 15. On considère les C-ev C2 et C3 . Déterminer l’unique applica-
tion linéaire Déterminer l’unique application f ∶ C2 Ð→ C3 telle que
f (1, 0) = (i, −1, 1), f (0, 1) = (1, 0, i)
Comme {(1, 0), (0, 1)} est une base de C2 , le théorème 3.4.6 assure l’existence
et l’unicité de l’application f . Soit u = (x, y) ∈ C2 . On a u = x(1, 0) + y(0, 1),
donc f (u) = x(i, −1, 1) + y(1, 0, i) = (xi + y, −x, x + yi). Par suite f est défini
par
f (x, y) = (xi + y, −x, x + yi)

3.5 Isomorphismes
Soient E et F deux K-espaces vectoriels. On dit que E et F sont iso-
morphes s’il existe un isomorphisme f ∶ E Ð→ F . on écrit dans ce cas E ≃ F .
Thoérème 3.5.1. Soit E un K-espace vectoriel non nul de dimension finie.
Alors on a
dim(E) = n ⇐⇒ E ≃ K n
Démonstration.
Ô⇒) Supposons que dim(E) = n et soit B = {u1 , . . . , un } une base de
E. Soit C = {e1 , . . . , en } une base quelconque de K n . On sait d’après le
théorème 3.4.6 qu’il existe une application linéaire f ∶ E Ð→ K n telle que
f (u1 ) = e1 , . . . , f (un ) = en . Puisque f (B) = C, alors f (B) est une base de
K n . Donc d’après la proposition 3.4.2, f est un isomorphisme, d’où E ≃ K n .
⇐Ô) Supposons que E ≃ K n . Soit B une base de E. Alors d’après la pro-
position 3.4.2, f (B) est une base de K n . Donc card(f (B)) = dim(K n ) = n.
Comme card(B) = card(f (B)), alors dim(E) = n.

33
Comme conséquence, nous avons le corollaire suivant :
Corollaire 3.5.2. Soient E et F deux K-espaces vectoriels de dimensions
finies. Alors on a
dim(E) = dim(F ) ⇐⇒ E ≃ F
Démonstration. On suppose que E et F sont tous les deux non nuls (dans
le cas contraire, le résultat est évident). Posons n = dim(E), alors d’apès le
théorème 3.5.1 on a E ≃ K n .
Si dim(E) = dim(F ) alors F ≃ K n et donc par transitivité E ≃ F . Réci-
proquement, Si E ≃ F , alors F ≃ K n et donc d’apès le théorème 3.5.1 on a
dim(F ) = n. D’où le résultat.
Exercice 7. Monter que l’application

f ∶ R2 Ð→ C
(x, y) z→ x + iy

est un isomorphisme et en déduire que dimR (C) = 2.

34
Chapitre 4

Matrices

4.1 Généralités
Définition 4.1.1. Soient n et m deux entiers naturels non nuls. On appelle
matrice d’ordre (ou de type, ou de taille) n×m à coefficient dans K un tableau
de scalaires à n lignes et m colonnes de la forme

⎛ a11 a12 ⋯ a1m ⎞


⎜a ⋯ a2m ⎟
A = ⎜ 21 22 ⎟
a
⎜. . . . . . . . . . . . . . . . . . ⎟
⎝an1 an2 ⋯ anm ⎠

où les aij ∈ K s’appellent les coefficients (ou les éléments) de la matrice A.
Si n = m on dit que A est une matrice carrée d’ordre n.
Notations 1.
1. On note par Mn,m (K) l’ensemble des matrices d’ordre n×m à coefficients
dans K.
2. On note par Mn (K) l’ensemble des matrices carrées d’ordre n à coeffi-
cients dans K.
3. La matrice A pourra être écrite de façon abrégée :

A = (aij ) 1≤i≤n Si A est une matrice d’ordre n × m,


1≤j≤m

A = (aij )1≤i,j≤n Si A est une matrice carrée d’ordre n,


ou tout simplement
A = (aij )
s’il n’y a pas de confusion sur l’ordre.
4. Pour une matrice A = (aij ) le premier indice i correspond au numéro de

35
la ligne et le second indice j au numéro de la colonne. Ainsi le coefficient aij
est situé à l’intersection de la ligne numéro i avec la colonne numéro j.
5. Parfois on note Aij le coefficient aij de la matrice A.
6. On note par Li (A) la ligne i de A et Cj (A) la colonne j de A. Avec ces
notations on a
⎛ L1 (A) ⎞
⎜ L (A) ⎟
A=⎜ 2 ⎟
⎜ ⋮ ⎟
⎝Ln (A)⎠

et
A = (C1 (A) C2 (A) . . . Cm (A))
Encore quelques définitions et notations :
• La diagonale d’une matrice carrée A = (aij )1≤i,j≤n est constituée des
éléments situés sur la diagonale de la matrice A. Les éléments a11 , . . . , ann
de la diagonale de A sont dits les coefficients diagonaux.
Soit
⎛ 1 √0 2⎞
A=⎜2 3 4⎟ ,
⎝−1 4 7⎠

les oefficients diagonaux de A sont 1, 3 et 7.
• On appelle matrice colonne toute matrice d’ordre n × 1. On dit aussi
que c’est un vecteur colonne et elle de la forme

⎛ a1 ⎞
⎜ a2 ⎟
⎜ ⎟
⎜⋮⎟
⎝an ⎠

• On appelle matrice ligne toute matrice d’ordre 1 × n. On dit aussi que


c’est un vecteur ligne et elle de la forme

(a1 a2 . . . an )

• On dit que la matrice carrée A est diagonale si ∀i, j tels que i ≠ j on


a Aij = 0. Par suite une matrice diagonale est de la forme

⎛a1 0 ⋯ 0 ⎞
⎜ 0 a2 ⋱ ⋮ ⎟
A=⎜ ⎟
⎜ ⋮ ⋱ ⋱ 0⎟
⎝ 0 ⋯ 0 an ⎠

36
On la note A = diag(a1 , . . . , an ).

⎛1 √0 0⎞
A = ⎜0 2 0⎟ ,
⎝0 0 3 ⎠

est une matrice diagonale d’ordre 3.


• La matrice In = diag(1, . . . , 1) d’ordre n est appelée la matrice identité
d’ordre n.
⎛1 0 0 0⎞
⎜0 1 0 0⎟
I4 = ⎜ ⎟,
⎜0 0 1 0⎟
⎝0 0 0 1⎠
est la matrice identité d’ordre 4.
• La matrice carrée diag(λ, . . . , λ) d’ordre n est appelée matrice scalaire.

⎛ i 0 0⎞
A = ⎜0 i 0 ⎟ ,
⎝0 0 i ⎠
est une matrice scalaire.
• La matrice d’ordre n × m dont tous les coefficients sont des zéros est
appelée la matrice nulle et est notée 0n,m . Donc la matrice 0n est la
matrice scalaire d’ordre n : 0n = diag(0, . . . , 0).

⎛0 0⎞
03,2 = ⎜0 0⎟ ,
⎝0 0⎠

⎛0 0 0⎞
03 = ⎜0 0 0⎟ ,
⎝0 0 0⎠
• Une matrice triangulaire supérieure est une matrice carrée A = (aij )1≤i,j≤n
telle que aij = 0 si i > j, donc A est de la forme

⎛a11 a12 ⋯ a1n ⎞


⎜ 0 a22 ⋱ ⋮ ⎟
⎜ ⎟
⎜ ⋮ ⋱ ⋱ an−1n ⎟
⎝ 0 ⋯ 0 ann ⎠

⎛1 √0 5⎞
A = ⎜0 2 −1⎟ ,
⎝0 0 3⎠
est une matrice triangulaire supérieure.

37
• Une matrice triangulaire inférieure est une matrice carrée A = (aij )1≤i,j≤n
telle que aij = 0 si i < j, donc A est de la forme

⎛ a11 0 ⋯ 0 ⎞
⎜ a21 a22 ⋮ ⎟
⎜ ⎟

⎜ ⋮ ⋱ ⋱ 0 ⎟
⎝an1 ⋯ ann−1 ann ⎠

⎛1 √0 0⎞
A = ⎜2 2 0 ⎟,
⎝4 0 −7⎠

est une matrice triangulaire inférieure.

Définition 4.1.2. Soit A une matrice d’ordre n × m. La transposée de A est


la matrice notée AT dont les lignes sont les colonnes de A.

Remarques 5.
1. Si A = (aij ) 1≤i≤n alors AT = (bji )1≤j≤m avec bji = aij .
1≤j≤m 1≤i≤n
2. Si A est d’ordre n × m alors AT est d’ordre m × n.
3. Si A est une matrice carrée d’ordre n alors AT est aussi une matrice car-
rée d’ordre n.
4. On a Li (A) = Ci (AT et Li (AT ) = Ci (A).
5. Le transposée d’une matrice triangulaire supérieure est une matrice trian-
gulaire inférieure.
6. Le transposée d’une matrice triangulaire inférieure est une matrice trian-
gulaire supérieure.

Exemples 13.
⎛1 5 ⎞
1.Soit A = ( ) alors A = ⎜2 7 ⎟.
1 2 3 T
5 7 6 ⎝3 6 ⎠
2. In = In , 0n = 0n et 0n,m = 0m,n .
T T T

3 (αA)T = αAT .
4. Si A est une matrice scalaire alors AT = A.
5. On peut avoir AT = A sans que soit une matrice scalaire. En effet, consi-
dérons la matrice
⎛1 2 3 ⎞
A = ⎜2 7 6 ⎟
⎝3 6 7 ⎠

Il est clair que AT = A. On dit que A est une matrice symétrique.

38
6. On peut avoir AT = −A. Par exemple

⎛ 0 2 −3⎞
A = ⎜−2 0 6 ⎟
⎝ 3 −6 0 ⎠

On a
⎛ 0 −2 3 ⎞ ⎛ 0 2 −3⎞
A =
T
⎜ 2 0 −6 ⎟ = − ⎜−2 0 6 ⎟ = −A
⎝−3 6 0 ⎠ ⎝ 3 −6 0 ⎠

On dit que A est une matrice antisymétrique.

Définition 4.1.3. Soient A et B deux matrices de même ordre. On dit que


A = B si Aij = Bij pour tout i et j.

4.2 Somme de matrices et multiplication d’une ma-


trice par un scalaire

● Soient A = (aij ) et B = (bij ) deux matrice de même taille n×m. On applelle


somme de A et B la matrice C = (cij ) de taille n × m dont les coeficients sont
cij = aij + bij .
● Soit λ ∈ K. par défintion on a λ.(ai,j ) = λ.(ai,j ) = (λai,j ).
● L’ensemble Mn,m (K) des matrices d’ordre n × m à coefficients dans K est
un K-espace vectoriel de dimension nm.

Exemples 14. Soient


A=( ) et B = ( )
1 2 3 −1 2 3
1
5 −2 6 1 3 3

alors

2A = ( ) et A + B = ( )
2 4 6 0 2+ 2 6
−5
10 −4 12 6 3 9

39
4.3 Produit matriciel
Si A = (aij ) 1≤i≤n et B = (Bij )1≤i≤m , alors, par définition, AB = C où
C = (cij )1≤i≤n avec
1≤j≤m 1≤j≤p

1≤j≤p

⎛ b1j ⎞
cij = (ai1 . . . aim ) ⎜ ⋮ ⎟
⎝bmj ⎠
=ai1 b1j + ⋯ + aik bkj + ⋯ + aim bmj
m
= ∑ aik bkj .
k=1

Remarques 6.
1. Le produit de deux matrice n’est défini que si le nombre de colonnes de la
première matrice est égal au nombre de lignes de la deuxième matrice et le
produit d’une matrice d’ordre n × m par une matrice d’ordre m × p est une
matrice d’ordre n × p.
2. En particulier :
● Si A est d’ordre n × m et B est d’ordre m × n, alors AB est une matrice
carrée d’ordre n.
● Si A est d’ordre n × m et B est une matrice colonne d’ordre m × 1, alors
AB est une matrice colonne d’ordre n × 1.
● Si A est une matrice ligne d’ordre 1 × m et B est d’ordre m × n, alors AB
est une matrice ligne d’ordre 1 × n.

Exemples 15.
1.
⎛ 0 1 −1⎞ ⎛ 1 ⎞ ⎛−3⎞
⎜ 2 −2 0 ⎟ ⎜−1⎟ = ⎜ 4 ⎟
⎝−1 4 5 ⎠ ⎝ 2 ⎠ ⎝ 5 ⎠

2.
⎛ 1 3 −1⎞
(2 −1 4) ⎜ 2 −2 0 ⎟ = (−4 24 18)
⎝−1 4 5 ⎠

3.
⎛1⎞
(2 −1 4) ⎜2⎟ = (12)
⎝3⎠

40
4.
⎛1⎞ ⎛2 −1 4 ⎞
⎜2⎟ (2 −1 4) = ⎜4 −2 8 ⎟
⎝3⎠ ⎝6 −3 12⎠

5.
⎛ 1 3 −1⎞ ⎛1⎞ ⎛1⎞
(2 −1 4) ⎜ 2 −2 0 ⎟ ⎜2⎟ = (−4 24 18) ⎜2⎟ = (106)
⎝−1 4 5 ⎠ ⎝3⎠ ⎝3⎠

6. Si A est une matrice d’ordre n × m, alors A × 0m,p = 0n,p et 0p,n × A = 0p,m.


7. Si A est une matrice carrée d’ordre n, alors A × 0n = 0n × A = 0n et
A × In = In × A = A.
On admet sans démonstration la proposition suivante.
Proposition 4.3.1. Pour toutes matrices A, B et C, si les opérations indiquées
existent, on a les égalités suivantes :
1. A(B + C) = AB + AC
2. (B + C)A = BA + CA
3. (AB)C = A(BC)
Remarque 20. La loi × n’est pas commutative. En effet considérons

A=( ) et B = ( )
−1 3 1 3
2 −2 2 −2

On a
A × B = AB = ( )
5 −9
−2 10

BA = ( )
5 −3
−2 10
On a alors AB ≠ BA.
Remarque 21. Le produit de deux matrices non nulles peut être nul, c’est-à-
dire,
AB = 0 ⇏ A = 0 ou B = 0.
En effet considérons
A=( ) et B = ( )
−1 1 1 1
−1 1 1 1

41
On a
AB = ( )
0 0
0 0
On a alors AB = 0.
Remarque 22. Soit A et B deux matrices carrées de même ordre. Alors

(A + B)2 = A2 + AB + BA + B 2

(A − B)2 = A2 − AB − BA + B 2
(A + B)(A − B) = A2 − AB + BA − B 2
En général on n’a pas (A+B)2 = A2 +2AB +B 2 , mais d’après la remarque
précédente, si on suppose que A et B commutent, c’est-à-dire, AB = BA,
alors on a l’identité (A + B)2 = A2 + 2AB + B 2 . D’une façon général on le
Résultat suivant dit formule de binôme de Newton :
Proposition 4.3.2. Soient A, B ∈ Mn (K). On suppose que AB = BA. Alors
pour tout p ∈ N on a

(A + B)p = ∑ ( )Ak B p−k ( )=


m
m m m!
où .
k=0 k k k!(m − k)!

Démonstration. Voir la fiches d’exercices N°3.


Exercice 8.
1. Montrer que (A + B)T = AT + B T
2. (αA)T = αAT pour tout α ∈ K.
4. Montrer que (AT )T = A.
2. Montrer que (AB)T = B T AT .
3. Montrer que AAT et AT A sont des matrice carrées.
4. On dit que A est une matrice symétrique si AT = A.
(i) Montrer que si A est symétrique alors A est une matrice carrée.
(ii) Montrer que AAT et AT A sont deux matrices symétriques.
Définition 4.3.3. (puissance d’une matrice)
Soit A une matrice carrée d’ordre m et n un entier naturel non nul. La nième
puissance de A est donné par

An = A × A × ⋯ × A
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶
n fois

Remarque 23. Par convention on pose A0 = Im si A est une matrice carrée


quelconque d’ordre m.

42
Exercice 9. Montrer que (An )m = Anm et An Am = An+m .
Exercice 10.
√1 , . . . , am ) une matrice diagonale. Montrer A = diag(a1 , . . . , am ).
1. Soit A = diag(a n n n

⎛ 3 √0 1 ⎞ ⎛0 0 1⎞
2. Soient B = ⎜ 0 3 √1 ⎟ et N = ⎜0 0 1⎟.
⎝ 0 ⎠ ⎝0 0 0⎠

0 3
(i) Montrer que N 2 = 0 et que B − N = 3I3 . √ √
√ Déterminer B en remarquons que B = 3I3 + N et N × ( 3I3 ) =
(ii) n

( 3I3 ) × N.
Définition 4.3.4. Une matrice carrée A de Mn (K) est dite inversible, s’il
existe une matrice B ∈ Mn (K) telle que
AB = In et BA = In .
On dit que B est l’inverse de A et on la note A−1 .
Remarque 24. Une matrice carrée non inversible est dite singulière.
Propriétés 3. Soient A, B ∈ Mn (K). Alors on a les
1. Montrer que l’inverse de A s’il existe elle est unique.
2. Montrer que (A−1 )−1 = A et que In−1 = In .
2. Montrer que AB = In ⇐⇒ BA = In .
3. Montrer que si A et B sont inversible alors la matrice AB est inversible
et on a (AB)−1 = B −1 A−1 .
4. Montrer que si A est inversible alors la matrice AT est inversible et on a
(AT )−1 = (A−1 )T .
5. Montrer que si A est inversible alors la matrice Am est inversible pour
tout m ∈ N et on a (Am )−1 = (A−1 )m .
Démonstration. Voir la fiche d’exercices N°3.

4.4 Écriture matricielle d’un système d’équations


linéaires
Considérons le système d’équations linéaires suivant




a1,1 x1 + ⋯ + a1,n xn = b1





a2,1 x1 + ⋯ + a2,n xn = b2

⎪ .
(S) ⎨
. . .




. . . .




. . . .


⎩ ap,1 x1 + ⋯ + ap,n xn = bp

43
On vérifie facilement que que le système (S) peut être présenté sous la forme
matricielle suivante
AX = B
où
⎛a1,1 a1,2 ⋯ a1,n ⎞ ⎛ x1 ⎞ ⎛b1 ⎞
⎜a ⋯ a2,n ⎟ ⎜x ⎟ ⎜b ⎟
A = ⎜ 2,1 2,2 ⎟, X = ⎜ 2⎟ et B = ⎜ 2 ⎟ .
a
⎜ ⋮ ⋮ ⋯ ⋮ ⎟ ⎜ ⋮ ⎟ ⎜⋮⎟
⎝ap,1 ap,2 ⋯ ap,n ⎠ ⎝xn ⎠ ⎝ bb ⎠
On remarque que A est la matrice des coefficients du système (S) et B son
second membre.
Par exemple, considérons le système suivant

(S) {
2x − 3y + 5z = 1
3x + 2z = 4
Posons
⎛x⎞
A=( ), X = ⎜y ⎟ et B = ( )
2 −3 5 1
3 0 2 ⎝z ⎠ 4

On a
AX == ( )
2x − 3y + 5z
3x + 2z
et donc
2x − 3y + 5z = 1
AX = B ⇐⇒ { ⇐⇒ (x, y, z) ∈ S.
3x + 2z = 4

4.4.1 Calcul de l’inverse


Si A est une matrice inversible, alors l’équation AX = B admet une unique
solution X = A−1 B. En effet, on a AX = A(A−1 B) = AA−1 B = In B = B. Donc
X = A−1 B est une solution de l’équation AX = B. Supposons maintenat que
X et X ′ sont des solutions de l’équation AX = B. Alors AX = AX ′ , donc
A − 1(AX) = A−1 (AX ′ ), d’où A−1 AX = A−1 AX ′ , par suite In X = In X ′ et
donc X = X ′ .
⎛ y1 ⎞
⎜y ⎟
Supposons maintenant que A est d’ordre n et soit Y = ⎜ 2 ⎟. Soit (S) le
⎜⋮⎟
⎝y n ⎠
système d’équation dont l’écriture matricielle est AX = Y et le système (H)
d’équation dont l’écriture matricielle A−1 Y = X. On a évidemment
AX = Y ⇐⇒ X = A−1 Y

44
et donc
(x1 , . . . , xn ) ∈ S ⇐⇒ (y1 , . . . , yn ) ∈ H.
Comme application de ces résultats on a la proposition suivante
Proposition 4.4.1. Soit A une matrice inversible d’ordre n et soit (S) le
système d’équation dont l’écriture matricielle est AX = Y . La resolution
du système (S) donne naissance à une matrice carrée B d’ordre n telle que
BY = X. La matrice B ainsi obtenue est l’inverse de A, c’est-à-dire B = A−1 .
Exemple 16. Soit la matrice
⎛ 1 2 −2⎞
A = ⎜−1 3 0 ⎟
⎝ 0 −2 1 ⎠
Montrer que A est inversible et calculer son inverse.
Soient
⎛x1 ⎞ ⎛y 1 ⎞
X = ⎜x2 ⎟ et Y = ⎜y2 ⎟
⎝x3 ⎠ ⎝y 3 ⎠
On a
⎛ 1 2 −2⎞ ⎛x1 ⎞ ⎛y1 ⎞
AX = Y ⇐⇒ ⎜−1 3 0 ⎟ ⎜x2 ⎟ = ⎜y2 ⎟
⎝ 0 −2 1 ⎠ ⎝x3 ⎠ ⎝y3 ⎠



⎪ 1
x + 2x2 −2x3 = y1
⇐⇒(S) ⎨ −x1 + 3x2 = y2



⎩ −2x2 +x3 = y3
On résout le système (S), on obtient que (S) est un système de Cramer
et donc A est une matrice inversible. On trouve x1 = 3y1 + 2y2 + 6y3 , x2 =
y1 + y2 + 2y3 et x3 = 2y1 + 2y2 + 5y3 . On obtient alors le nouveau système

suivant

⎪ 3y1 + 2y2 + 6y3 = x1

⎨ y1 + y2 + 2y3 = x2



⎩ 2y1 + 2y2 + 5y3 = x3
Ce dernier système peut s’écrire matriciellement
⎛3 2 6⎞ ⎛y1 ⎞ ⎛x1 ⎞
⎜1 1 2⎟ ⎜y2 ⎟ = ⎜x2 ⎟
⎝2 2 5⎠ ⎝y3 ⎠ ⎝x3 ⎠
La matrice inverse de A est donc
⎛3 2 6⎞
A−1 = ⎜1 1 2⎟ .
⎝2 2 5⎠

45
4.5 Matrices d’applications linéaires
4.5.1 Matrice d’une famille de vecteurs
Soit E une espace vectoriel et soit B = (u1 , . . . , un ) une base de E. Soit
v un vecteur de E et considérons les coordonnées de v dans la base B, vB =
(a1 , . . . , an ). On appelle matrice du vecteur v dans la base B, la matrice
colonne MatB (v) = vBT , c’est-à-dire,

⎛ a1 ⎞
MatB (v) = ⎜ ⋮ ⎟
⎝an ⎠

Soit H = (v1 , . . . , vm ) une famille de vecteurs de E. On appelle matrice


de H dans la base B, la matrice colonne MatB (H) dont les colonnes sont
Ci (MatB (H)) = MatB (vi ). Donc si viB = (a1i , . . . , ani ), alors

⎛ a11 a12 ⋯ a1m ⎞


⎜a ⋯ a2m ⎟
MatB (H) = ⎜ 21 22 ⎟
a
⎜ ⋮ ⋮ ⋯ ⋮ ⎟
⎝an1 an2 ⋯ anm ⎠

Exemple 17. Soit B la base canonique de R2 [X].


Soient P1 = 3X 2 − 1, P2 = (X − 1)2 , P3 = 4 − X, P4 = 3X 2 + 5X, P5 = 0. Alors

⎛−1 1 ⎞ ⎛ 1 −1⎞ ⎛−1 −1⎞


MatB (P1 , P2 ) = ⎜ 0 −2⎟ , MatB (P2 , P1 ) = ⎜−2 0 ⎟ MatB (P1 , P1 ) = ⎜ 0 0 ⎟
⎝3 1⎠ ⎝1 3⎠ ⎝3 3⎠

⎛−1 4 0 0⎞
MatB (P1 , P3 , P4 , P5 ) = ⎜ 0 −1 5 0⎟
⎝ 3 0 3 0⎠

4.5.2 Matrice d’une application linéaire


Dans ce qui suit
● E et F désignent deux K-ev de dimensions finies, supposés non nuls.
● B = (u1 , . . . , un ) désigne une base de E et B ′ = (v1 , . . . , vm ) une base de F .
● f ∶ E Ð→ F une application linéaire.
Définition 4.5.1. La matrice de f dans les bases B et B ′ est la matrice de la
famille (f (u1 ), . . . , f (un )) dans la base B ′ . Cette matrice est notée

MatB,B′ (f ) ∈ Mm,n (K).

46
Par suite,
MatB,B′ (f ) = MatB′ (f (u1 ), . . . , f (un )).
Notation 4. Si E = F et B = B ′ , la matrice MatB,B (f ) est notée tout
simplement MatB (f ).
On admet sans démonstration le résultat suivant.
Proposition 4.5.2. Soit w un vecteur quelconque de E. Alors

MatB′ (f (w)) = MatB,B′ (f )MatB (w).

Donc la connaissance de la matrice MatB,B′ (f ) permet de de calculer f (w)


pour tout w ∈ E, c’est-à-dire, de retrouver f .
Remarque 25. Posons

⎛ c11 c12 ⋯ c1n ⎞


⎜c c22 ⋯ c2n ⎟
MatB,B′ (f ) = ⎜ 21 ⎟.
⎜. . . . . . . . . . . . . . . . . . ⎟
⎝cm1 cm2 ⋯ cmn ⎠

Soit Ci (MatB,B′ (f )) la i-ième colonne de la matrice MatB,B′ (f ) où B =


(u1 , . . . , un ).
On a Ci (MatB,B′ (f )) = MatB′ (f (ui )). Puisque MatB′ (f (ui )) = MatB,B′ (f )MatB (ui ),
alors

MatB′ (f (ui )) =MatB,B′ (f )MatB (ui )


⎛0 ⎞
⎜⋮⎟
⎛ c11 c12 ⋯ c1n ⎞ ⎜ ⎟
⎜0⎟ ⎛ 1i ⎞
c
⎜c c22 ⋯ c2n ⎟ ⎜ ⎟ ⎜ c2i ⎟ ⎜ ⎟
= ⎜ 21 ⎟ 1⎟ = ⎜ ⎟ = Ci (MatB,B′ (f ))
⎜. . . . . . . . . . . . . . . . . . ⎟ ⎜
⎜0 ⎟ ⎜ ⋮ ⎟
⎝cm1 cm2 ⋯ cmn ⎠ ⎜ ⎟
⎜ ⎟ ⎝cmi ⎠
⎜⋮⎟
⎝0 ⎠

Exemple 18.
1. On considère l’application identique de E. On a

idE (u1 )B = (1, 0 . . . , 0), idE (u2 )B = (0, 1, 0 . . . , 0), . . . , idE (un )B = (0, . . . , 0, 1).

Donc MatB (idE ) = In .


2. si f = 0 est l’application nulle, alors MatB (f ) = 0m,n .
3. Soient E = K 3 , F = K 2 et soient B et B ′ les bases canoniques de E et

47
de F . Soit f ∶ E Ð→ F l’application linéaire définie par f (x, y, z) = (x + 2y +
3z, x + y − 3z).
on a f (1, 0, 0) = (1, 1), f (0, 1, 0) = (2, 1) et f (0, 0, 1) = (3, −3), alors

MatB,B′ (f ) = ( )
1 2 3
1 1 −3

1 2 3 ⎛ ⎞
x
On a ( ) ⎜y ⎟ = ( ).
x + 2y + 3z
1 1 −3 ⎝ ⎠ x + y − 3z
z
Pousons u = (x, y), alors MatB′ (f (u)) = MatB,B′ (f )MatB (u).
3. Soient E = K4 [X] et F = K2 [X] et soient B et B ′ les bases canoniques √ de

E et de F . Soit f ∶ E Ð→ F l’application linéaire√définie par f (P )
√ 3P .
= ′′

on a f (1) = 0, f (X) = 0, f (X 2 ) = 2 3, f (X 3 ) = 6 3X, f (X √ ) = 12 3X ,


4 2

donc√f (1)B′ = (0, 0, 0), f (X)B′ = (0, 0, 0), f (X )B′ = (2 3, 0, 0), f (X )B′ =
2 3

(0, 6 3, 0), √
f (X 4 )B′ = (0, 0, 12 3).

⎛0 0 2 3 √ 0 0 ⎞
MatB,B′ (f ) = ⎜0 0 0 6 3 0√ ⎟
⎝0 0 0 0 12 3⎠

Considérons P = 2X 4 + X 3 − X 2 + 3X + 5 Déterminer P ′′ .
On a PB = (5, 3, −1, 1, 2). Alors

MatB′ (P ”) = √ MatB′ ( 3P ”) = √ MatB′ (f (P ))
1 1
3 3
⎛5⎞
⎛0 0 2 0 0 ⎞ ⎜ ⎜3⎟

= ⎜0 0 0 6 0 ⎟ ⎜ ⎜−1⎟

⎝0 0 0 0 12⎠ ⎜ ⎜1⎟

⎝2⎠
⎛−2⎞
=⎜6⎟
⎝ 24 ⎠

Donc P ′′(X) = −2 + 6X + 24X 2 .


4. Soient E = F = K 3 et soit B = (e1 , e2 , e3 ) sa base canonique. Posons
B ′ = (v1 , v2 , v3 ) où v1 = (1, 1, 1), v2 = (1, 1, 0), v3 = (1, 0, 0). Il est clair que
B ′ est une famille échelonnée qui ne contient pas (0, 0, 0), donc B ′ est libre.
Comme card(B ′ ) = 3 = dim(E), alors B ′ est une base de E. Soit f ∶ E Ð→ F

48
l’application linéaire définie par f (x, y, z) = (x − 2y + z, y − 3z, 2x + y + z).
on a f (e1 ) = (1, 0, 2), f (e2 ) = (−2, 1, 1) et f (e3 ) = (1, −3, 1), alors

⎛1 −2 1 ⎞
MatB (f ) = ⎜0 1 −3⎟ .
⎝2 1 1 ⎠
On a
v1 = e1 + e2 + e3 , donc
f (v1 ) = f (e1 ) + f (e2 ) + f (e3 ) = (1, 0, 2) + (−2, 1, 1) + (1, −3, 1) = (0, −2, 4)

v2 = e1 + e2 , donc f (v1 ) = f (e1 ) + f (e2 ) = (1, 0, 2) + (−2, 1, 1) = (−1, 1, 3)


v3 = e1 , donc f (v3 ) = (1, 0, 2), alors

⎛ 0 −1 1⎞
MatB′ ,B (f ) = ⎜−2 1 0⎟ .
⎝ 4 3 2⎠

On a
(0, −2, 4) = av1 + bv2 + cv3 ⇐⇒(a + b + c, a + b, a) = (0, −2, 4)
⇐⇒a = 4, b = −6, c = 2
⇐⇒f (v1 )B′ = (4, −6, 2)

(−1, 1, 3) = av1 + bv2 + cv3 ⇐⇒(a + b + c, a + b, a) = (−1, 1, 3)


⇐⇒a = 3, b = −2, c = −2
⇐⇒f (v1 )B′ = (3, −2, −2)

(1, 0, 2) = av1 + bv2 + cv3 ⇐⇒(a + b + c, a + b, a) = (1, 0, 2)


⇐⇒a = 2, b = −2, c = 1
⇐⇒f (v1 )B′ = (2, −2, 1)
Donc
⎛4 3 2⎞
MatB′ (f ) = ⎜−6 −2 −2⎟ .
⎝ 2 −2 1 ⎠
On a e1 = v3 , donc f (e1 )B′ = f (v3 )B′ = (2, −2, 1)
(−2, 1, 1) = av1 + bv2 + cv3 ⇐⇒(a + b + c, a + b, a) = (−2, 1, 1)
⇐⇒a = 1, b = 0, c = −3
⇐⇒f (e2 )B′ = (1, 0, −3)

49
(1, −3, 1) = av1 + bv2 + cv3 ⇐⇒(a + b + c, a + b, a) = (1, −3, 1)
⇐⇒a = 1, b = −4, c = 4
⇐⇒f (e3 )B′ = (1, −4, 4)

Donc
⎛2 1 1⎞
MatB,B′ (f ) = ⎜−2 0 −4⎟ .
⎝ 1 −3 4 ⎠

Proposition 4.5.3. Pour α, β ∈ K et tout f, g ∈ L (E, F ) on a

MatB,B′ (αf + βg) = αMatB,B′ (f ) + βMatB,B′ (g)

Démonstration. Voir TD

Remarque 26. Prenons E = K n et F = K m et B et B ′ les bases canoniques


de E et F . Alors pour toute matrice A ∈ Mm,n (K) il existe une unique ap-
plication lineaire f ∶ K n Ð→ K m telle que MatB,B′ (f ) = A. On dit que f est
canoniquement associée à la matrice A.
Remarque 27. Soit g un endomorphisme de E. Alors
1.
MatB,B′ (f ) = 0m,n ⇐⇒ f = 0 l’application nulle

2.
MatB (g) = In ⇐⇒ g = idE
Proposition 4.5.4. Soient G un K-ev et B ′′ = (w1 , . . . , wq ) une base de G.
Soit g ∶ F Ð→ G une application linéaire. Alors

MatB,B′′ (g ○ f ) = MatB′ ,B′′ (g) × MatB,B′ (f )

Démonstration. Posons A = MatB′ ,B′′ (g) × MatB,B′ (f ) et B = MatB,B′′ (g ○ f )


et montrons que Cj (A) = Cj (B) ∀j ∈ {1, . . . , n}. On a

Cj (A) =MatB′ ,B′′ (g) × MatB,B′ (f ) × MatB (uj )


=MatB′ ,B′′ (g) × MatB′ (f (uj ))
=MatB′′ (g(f (uj )))
=MatB′′ ((g ○ f )(uj ))
=Cj (B)

En conclusion, les matrices A et B ont les mêmes colonnes, donc A = B.

50
Proposition 4.5.5. On suppose que n = m, c’est-à-dire, dim(E) = dim(F ).
Alors
L’application f est bijective si et seulement si MatB,B′ (f ) est inversible. Dans
ce cas on
MatB′ ,B (f −1 ) = MatB,B′ (f )−1 .
Démonstration. Si f est bijective, alors on a f ○ f −1 = idF et f −1 ○ f = idE ,
donc MatB′ (f ○ f −1 ) = In et MatB (f −1 ○ f ) = In . Par suite MatB,B′ (f ) ×
MatB′ ,B (f −1 ) = MatB′ ,B (f −1 ) × MatB,B′ (f ) = In . Donc MatB,B′ (f ) est inver-
sible et on a
MatB′ ,B (f −1 ) = MatB,B′ (f )−1 .
Réciproquement, supposons que la matrice MatB,B′ (f ) est inversible. Puisque
MatB,B′ (f )−1 ∈ Mn,m (K), alors d’après la proposition 4.5.3, ∃g ∈ L (F, E)
telle que MatB′ ,B (g) = MatB,B′ (f )−1 . On a

MatB′ ,B (g) × MatB,B′ (f ) = MatB,B′ (f )−1 × MatB,B′ (f ) = In

donc
MatB (g ○ f ) = In
alors g ○ f = idE . De la même façon on montre que f ○ g = idF . En conclusion,
g = f −1 et donc f est inversible.
Corollaire 4.5.6. Soient g et f deux endomorphismes de E. Alors
1.
MatB (g ○ f ) = MatB (g) × MatB (f )

2. g est bijective si et seulement si MatB (g) est inversible. Dans ce cas on a

MatB (g −1 ) = MatB (g)−1

4.6 Changement de bases


4.6.1 Matrices de passage
Soient B = (u1 , . . . , un ) et B ′ = (v1 , . . . , vn ) deux bases de E.
Définition 4.6.1. On appelle matrice de passage de B à B ′ la matrice MatB (B ′ )
de la famille B ′ dans la base B.
Exemple 19. Si B = (u1 , u2 ) et B ′ = ( 32 u1 − u2 , u1 + u2 ), alors

MatB (B ′ ) = ( )
3
2 1
−1 1

51
Thoérème 4.6.2. On a les résultats suivants :
1. MatB (B ′ ) est une matrice carrée d’ordre n.
2. MatB (B ′ ) = MatB′ ,B (idE ).
3. MatB (B ′ ) est inversible et on a MatB (B ′ )−1 = MatB′ (B).

Démonstration.
1. On sait que MatB (B ′ ) est une matrice d’ordre s × t où s = card(B) et t =
card(B ′ ). Puisque card(B) = card(B ′ ) = n, alors MatB (B ′ ) est une matrice
carrée d’ordre n.
2. On considère idE de E muni de B ′ dans E muni de B :

idE ∶ (E, B ′ ) Ð→ (E, B)

Pour tout vj ∈ B ′ on a idE (vj ) = vj , donc la jième colonne de la matrice


MatB′ ,B (idE ) est la même que la jième colonne de la matrice MatB (B ′ ). Par
suite, MatB (B ′ ) = MatB′ ,B (idE ).
3. L’application
idE ∶ (E, B ′ ) Ð→ (E, B)
est bijective et on a

E = idE ∶ (E, B) Ð→ (E, B ).


id−1 ′

E ) =
Donc MatB′ ,B (idE ) est inversible et on a MatB′ ,B (idE )−1 = MatB,B′ (id−1
MatB,B′ (idE ). D’où le résultat.

Proposition 4.6.3. Soit w ∈ E. Soient MatB (w) la matrice colonne des coor-
données de w dans la base B et MatB′ (w) la matrice colonne des coordonnées
de w dans la base B ′ . Alors

MatB′ (w) = MatB′ (B)MatB (w).

Démonstration. Considérons l’application

idE ∶ (E, B) Ð→ (E, B ′ )

On a
MatB,B′ (idE )MatB (w) = MatB′ (idE (w)).
Donc
MatB′ (B)MatB (w) = MatB′ (w).

52
Exemple 20. Dans E = R2 soit B = (e1 , e2 ) la base canonique. Considérons
la base B ′ = (v1 , v2 ) où v1 = e1 − 2e2 , v2 = 3e1 + e2 .
1. On a
MatB (B ′ ) = ( ).
1 3
−2 1

2. On a e1 = 71 v1 + 27 v2 et e2 = −3
7 v1 + 71 v2 . Donc

MatB′ (B) = ( ).
1 1 −3
7 2 1

3. Soit W = (3, 5). On a MatB (w) = (3, 5)T . On a

MatB′ (w) = MatB′ (B)MatB (w).

Alors
MatB′ (w) = ( )( ) = ( ).
1 1 −3 3 1 −12
7 2 1 5 7 11
Par suite, w = −12
7 v1 + 11
7 v2 .

Thoérème 4.6.4. Soient E et F deux K-ev de dimensions finies et f ∶ E Ð→ F


une application linéaire. Soient B, C deux bases de E et B ′ , C ′ deux bases de
F . Alors

MatC,C ′ (f ) = MatB′ (C ′ )−1 × MatB,B′ (f ) × MatB (C).

Démonstration. Cosidérons le diagramme commutatif suivant

(E, B) (F, B ′ )
f
/

idE ↺ idF

(E, C) (F, C ′ )
 f

/

Ce diagramme est commutatif car f ○ idE = idF ○ f . On a

MatB,C ′ (f ○ idE ) = MatC,C ′ (f ) × MatB,C (idE ) = MatC,C ′ (f ) × MatC (B)

et

MatB,C ′ (idF ○ f ) = MatB′ ,C ′ (idF ) × MatB,B′ (f ) = MatC ′ (B ′ ) × MatB,B′ (f ).

Donc
MatC,C ′ (f ) × MatC (B) = MatC ′ (B ′ ) × MatB,B′ (f )

53
alors
MatC,C ′ (f ) = MatC ′ (B ′ ) × MatB,B′ (f ) × MatC (B)−1
ou
MatC,C ′ (f ) = MatB′ (C ′ )−1 × MatB,B′ (f ) × MatB (C).

Corollaire 4.6.5. Soit f ∶ E Ð→ E un endomorphisme de E, B et B ′ deux


bases de E. Alors

MatB′ (f ) = MatB (B ′ )−1 × MatB (f ) × MatB (B ′ ).

Démonstration. Dans le théorème 4.6.4, on remplace C et C ′ par B ′ et on


remplace B et B ′ par B.
Exemple 21. Soit B = (e1 , e2 ) la base canonique de R2 et soit B ′ = (v1 , v2 )
où v1 = e1 − 2e2 , v2 = 3e1 + e2 . B ′ est une base de R2 .
Soit f ∶ R2 Ð→ R2 l’application linéaire telle que

MatB (f ) = ( ).
3 1
2 0

On a
MatB (B ′ ) = ( )
1 3
−2 1
et
MatB′ (B) = ( ).
1 1 −3
7 2 1
On a
MatB′ (f ) = ( )( )( ).
1 1 −3 3 1 1 3
7 2 1 2 0 −2 1

4.6.2 Rang d’une matrice


Définition 4.6.6. Soit A = (C1 (A) . . . Cm (A)) une matrice de Matn,m (K).
On appelle rang de A, noté rg(A), le rang de la famille constituée par les
vecteurs colonnes C1 (A), . . . , Cm (A). On écrit

rg(A) = rg(C1 (A), . . . , Cm (A)).

Proposition 4.6.7. Soient E de dimension n et de base B et F de dimension


m et de base B ′ . Soit f ∶ E Ð→ F une application linéaire. Posons A =
MatB,B′ (f ) ∈ Matm,n (K). Alors rg(A) = rg(f ).

54
Démonstration. L’application

MatB′ ∶ F Ð→ Matm,1 (K)


w z→ MatB′ (w)

est un isomorphisme. Donc rg(w1 , . . . , wq ) = rg(MatB′ (w1 ), . . . , MatB′ (wq )).


Posons B = (u1 , . . . , un ). On a MatB′ (f (ui )) = Ci (A). Donc

rg(A) =rg(C1 (A), . . . , Cn (A))


=rg(MatB′ (f (u1 )), . . . , MatB′ (f (un )))
=rg(f (u1 ), . . . , f (un ))
=rg(f )

car sev⟨f (u1 ), . . . , f (un )⟩ = Im(f ).


Proposition 4.6.8. Le rang d’une matrice A est égal à celui du système ho-
mogène AX = 0
Démonstration. Voir la fiche d’exercices N°3.
Remarque 28. La proposition4.6.8 montre que le rang d’une matrice peut
être calculer en utilisant la méthode de Gauss utilisée pour la résolution des
systèmes d’équations linéaires.
Corollaire 4.6.9. Soit A ∈ Matn,m (K). Alors

rg(A) = rg(L1 (A), . . . , L(n)(A)),

c’est-à-dire, rg(A) = rg(AT ).


Démonstration. Voir la fiche d’exercices N°4.

55
56
Chapitre 5

Déterminants de matrices et
applications

5.1 Définition récursive du déterminant


Notation 5. Soit A une matrice carrée d’ordre n et soit i, j ∈ {1, . . . , n}. On
notera A(i, j) la matrice obtenue en supprimant la ligne Li et la colonne Cj
de la matrice A.
Définition 5.1.1. Le déterminant de matrices est une application

det ∶ Mn (K) Ð→ K

qui est défini par récurrence sur l’entier n comme suit :


● Pour n = 1 on a det(a) = a.
● Pour n ≥ 2, on a

det(A) = ∑ (−1)m+1 A1m det(A(1, m))


n
(5.1)
m=1

Remarque 29. La formule (5.1) a été obtenue en développant le déterminant


de A suivant la première ligne, on peut montrer que le scalaire det(A) est
indépendante du choix de la ligne ou de la colonne.
● Si on développe le déterminant de A suivant la ième ligne on trouve

det(A) = ∑ (−1)m+1 Aim det(A(i, m))


n

m=1

● Si on développe le déterminant de A suivant la ième colonne on trouve

det(A) = ∑ (−1)m+1 Ami det(A(m, i))


n

m=1

57
Notation 6. Si
⎛ a11 a12 ⋯ a1m ⎞
⎜a ⋯ a2m ⎟
A = ⎜ 21 22 ⎟
a
⎜. . . . . . . . . . . . . . . . . . ⎟
⎝an1 an2 ⋯ anm ⎠

On note aussi
RR a11 a12 ⋯ a1m RR
RR RR
RR R
RR a21 a22 ⋯ a2m RRR
det(A) = RR R RRR
RRR. . . . . . . . . . . . . . . . . .RRR
RRa R
RR n1 an2 ⋯ anm RRR
Exemple 22. On a det(0n ) = 0 et det(In ) = 1.

Exemples 16.
1. A = (3) alors det(A) = 3.
2. Si A = ( ), alors
a b
c d

det(A) = ∣ ∣ = ad − bc
a b
c d

√ √ √ √
Par exemple ! ∣√ ∣ = (2 × 2) − (−3 × 3) = 2 2 + 3 3.
2 −3
3 2
⎛3 0 −2⎞
3. A = ⎜1 2 1 ⎟.
⎝5 4 7 ⎠
On développe det(A) suivant la 1ère ligne :
RR3 0 −2RR
RR RR
RR R
RRR1 2 1 RRRR =3 ∣2 1∣ − 0 ∣1 1∣ − 2 ∣1 2∣
RR R
RR5 4 7 RRR
4 7 5 7 5 4
R R
=30 + 12 = 42

On développe det(A) suivant la 2ème ligne :


RR3 0 −2RR
RRR R
RR1 2 1 RRRR = − ∣0 −2∣ + 2 ∣3 −2∣ − ∣3 0∣
RR RR
RR RR
RRR5 4 7 RRR
4 7 5 7 5 4

= − 8 + 62 − 12 = 42

58
On développe det(A) suivant la 2ème colonne :
RR3 0 −2RR
RR RR
RR R
RR1 2 1 RRR = − (0) ∣1 1∣ + 2 ∣3 −2∣ − 4 ∣3 −2∣
RRR RR
RR5 4 7 RRR
5 7 5 7 1 1
R R
=62 − 20 = 42

Remarques 7.
Régle de Sarrus
1. La régle de Sarrus consiste à écrire les trois colonnes du déterminant, puis
à répéter les deux premières. On calcule la somme des produits des éléments
des trois diagonales principales moins la somme des produits des éléments
des trois diagonales non principales.
⎛a11 a12 a13 ⎞
A = ⎜a21 a22 a23 ⎟.
⎝a31 a32 a33 ⎠

a11 a12 a13 a11 a12


det(A) = a21 a22 a23 a21 a22
a31 a32 a33 a31 a32
=(a11 a22 a33 + a12 a23 a31 + a13 a21 a32 ) − (a31 a22 a13 + a32 a23 a11 + a33 a21 a12 )

⎛3 0 −2⎞
Exemple : Soit A = ⎜1 2 1 ⎟. Alors
⎝5 4 7 ⎠

3 0 −2 3 0
det(A) = 1 2 1 1 2
5 4 7 5 4
=(42 + 0 − 8) − (−20 + 12 + 0)
=42

2. La régle de Sarrus n’est valable que pour des matrices carrées d’ordre 3.
Exercice 11. Montrer que si A est une matrice triangulaire (supérieure ou
inférieure) d’ordre n, alors le déterminant de A est égal au produit des coef-
ficients de la diagonale, c’est-à-dire,
n
det(A) = ∏ Aii .
i=1

59
5.2 Propriétés des déterminants
Thoérème 5.2.1. Notons Ci la colonne i d’une matrice. On a alors

det (C1 . . . Cm−1 Cm + Cm


′ Cm+1 . . . Cn ) =
det (C1 . . . Cm−1 Cm Cm+1 . . . Cn ) +
det (C1 . . . Cm−1 Cm
′ Cm+1 . . . Cn )

Démonstration. Il suffit de développer le premier déterminant suivant la co-


lonne Cm + Cm′ et le deuxième et le troisième suivant les colonnes C ′
m et Cm
respectivement.

Lemme 5.2.2. Si deux lignes ou deux colonnes de A sont égales alors det(A) =
0.

Démonstration. Voir devoir N°3.

Soit A ∈ Mn (K). On considère les transformations suivantes


Ci ↔ Cj
A ÐÐÐÐÐÐÐ→ M, i ≠ j
λCi → Ci
A ÐÐÐÐÐÐÐ→ N,
Ci + αCj → Ci
A ÐÐÐÐÐÐÐ→ P, i≠j
Ci + ∑ αj Cj → Ci
j≠i
A ÐÐÐÐÐÐÐÐ→ Y,

Alors on a le théorème suivant qu’on admet sans démonstration.

Thoérème 5.2.3. On a
1. det(M) = − det(A).
2. det(N) = λ det(A).
3. det(P ) = det(A).
4. det(Y ) = det(A).

Remarque 30. D’après Théorème 5.2.1 et la propriété 2. du Théorème 5.2.5,


on voit que l’application

Cm z→ det (C1 . . . Cm−1 Cm Cm+1 . . . Cn )

est linéaire, pour tout m ∈ {1, . . . , n}.

On a des résultats analogue pour les opérations sur les lignes.

60
Thoérème 5.2.4. On a

⎛ L1 ⎞ ⎛ L1 ⎞ ⎛ L1 ⎞
⎜ ⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟

⎜ Lm−1 ⎟ ⎜Lm−1 ⎟ ⎜Lm−1 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
det ⎜ ′ ⎟ ⎜ ⎟ ⎜ ′ ⎟
⎜Lm + Lm ⎟ = det ⎜ Lm ⎟ + det ⎜ Lm ⎟
⎜ L ⎟ ⎜L ⎟ ⎜L ⎟
⎜ m+1 ⎟ ⎜ m+1 ⎟ ⎜ m+1 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ ... ⎟ ⎜ ... ⎟ ⎜ ... ⎟
⎝ Ln ⎠ ⎝ Ln ⎠ ⎝ Ln ⎠

Soit A ∈ Mn (K). On considère les transformations suivantes


Li ↔ Lj
A ÐÐÐÐÐÐÐ→ H, i ≠ j
λLi → Li
A ÐÐÐÐÐÐÐ→ F,
Li + αLj → Li
A ÐÐÐÐÐÐ→ Z, i ≠ j
Li + ∑ αj Lj → Li
j≠i
A ÐÐÐÐÐÐÐÐ→ S,

Alors on a le théorème suivant

Thoérème 5.2.5. On a
1. det(H) = − det(A).
2. det(F ) = λ det(A).
3. det(Z) = det(A).
4. det(S) = det(A).

Remarque 31. L’application

⎛ L1 ⎞
⎜ ⋮ ⎟
⎜ ⎟
⎜Lm−1 ⎟
⎜ ⎟
Lm z→ det ⎜
⎜ Lm ⎟

⎜L ⎟
⎜ m+1 ⎟
⎜ ⎟
⎜ ... ⎟
⎝ Ln ⎠

est linéaire, pour tout m ∈ {1, . . . , n}.

Remarque 32. Le meilleur choix de la ligne ( ou la colonne ) par rapport à


laquelle sera développé le calcul d’un déterminant, est celui qui contient le
maximum de coefficients nuls. Il est donc commode de créer des zéros dans
ce déterminant sans lui changer sa valeur.

61
Exemple 23. Dans le corps des réels on a :

RR2 4RRRR RR1 2RRRR


RR R
RR RR 1 L1 → L1 RRR R L3 −2 L1 → L3
4 0 2 0
RR0 0RRR 2 R0 0RRRR L4 − L1 → L4
RRR R ÐÐÐÐÐ→ RRRR
4RRRR
5 1 5 1
RR2 4RR R RR2
ÐÐÐÐÐÐÐ→
RR R R RR Facteur ∶ 1
9 0 9 0
RR1
R 2 0 1RRRR Facteur ∶ 2 RRRR1 2 0 1RRR Facteur ∶ 1

RR1 0 2 RRRR RR1 2 0 2 RRRR


RRR 2
RR RRR R
RR0 1 0 RRR L3 − L2 → L1 RRRR0 5 1 0 RRRR
RR = 1 × 5 × (−1) × (−1) = 5
RR0 0 0 RRRR
ÐÐÐÐÐÐ→ RR
0 −1 0 RRRR
5
RRR 5
RR Facteur ∶ 1 RRRR
0
RR
RR0 0 −1RRR RR0 0 0 −1RRR
RR 0 R
Donc
RR2 4RRRR
RR
RRR R
4 0
RR0 0RRRR
RR2 4RRRR
5 1
= 2 × 1 × 1 × 1 × 5 = 10
RR
RRR R
9 0
RR1 2 0 1RRRR

5.3 Les formules de Cramer


On rappelle qu’un système d’équations linéaires (S) à n équations et n
inconues est dit de Cramer si (S) est compatible et admet une seule solution.
⎛ x1 ⎞ ⎛ b1 ⎞
Soit A une matrice carrée d’ordre n et Soit X = ⎜ ⋮ ⎟ et B = ⎜ ⋮ ⎟
⎝xn ⎠ ⎝bn ⎠
Soit Di la matrice obtenue en remplaçant la colonne i de A par B.
Soit (S) le système AX = B. Alors On a le résultat suivant

Thoérème 5.3.1. Si det(A) est non nul, alors le système (S) est de Cramer
et on a
∆xi
xi =
det(A)

où ∆xi = det(Di )

Remarque 33. Le système (S) n’est pas de Cramer si A n’est pas carrée ou
A est carrée avec det(A) = 0. Dans ce cas on peut aussi appliquer la méthode
de Cramer pour résoudre (S), mais on doit appliquer le théorème5.3.1 à une
matrice extraite de A de déterminant non nul et d’ordre maximum. Pour plus
de détail voir devoir N°3.

62
5.4 Déterminant d’une famille de vecteurs
Définition 5.4.1. Soient E un espace vectoriel de dimension n et soit B
une base de E. Soit G = (v1 , . . . , vn ) une famille quelconque de vecteurs de
E de cardinal n. On appelle déterminant de G dans la base B le scalaire
det(MatB (G)).
Thoérème 5.4.2. Soient E un espace vectoriel de dimension n et soit B une
base de E. Soit G = (v1 , . . . , vn ) une famille quelconque de vecteurs de E de
cardinal n. Alors G est une base de E si et seulement si det(MatB (G)) ≠ 0.
Démonstration. Posons A = MatB (G) et Soit T une matrice échelonnée obte-
nue en effectuant des opérations élémentaires sur les colonnes de A. Puisque
T est une matrice carrée d’ordre n, alors T est une matrice triangulaire et
donc det(T ) = T11 × ⋯ × Tnn . Donc

rg(T ) = n ⇐⇒ Tii ≠ 0, 1 ≤ i ≤ n ⇐⇒ det(T ) ≠ 0

Or rg(A) = rg(T ) et det(A) = α det(T ) où α est un scalaire non nul. Donc

det(A) ≠ 0 ⇐⇒α det(T ) ≠ 0


⇐⇒rg(T ) = n
⇐⇒rg(A) = n
⇐⇒rg(G) = n
⇐⇒G est une base de E

Le déterminant d’une famille de vecteurs dépend bien de la base B.


Proposition 5.4.3. Soient E un espace vectoriel de dimension n et soit B une
base de E. Soit G = (v1 , . . . , vn ) une famille quelconque de vecteurs de E de
cardinal n. Si B ′ est une autre base de E, alors

det(MatB′ (G)) = det(MatB′ (B)) × det(MatB (G)).

Démonstration. Posons B = (u1 , . . . , un ) et G = ((w1 , . . . , wn ) et soit f l’en-


domorphisme de E tel que f (ui ) = wi . On alors

MatB (f ) = MatB (f (u1 ), . . . , f (un )) = MatB (w1 , . . . , wn ) = MatB (G).

Soit B ′ une autre base de E. On a

MatB′ (G) = MatB′ (f (u1 ), . . . , f (un )) = MatB,B′ (f ).

63
D’après le diagramme commutatif suivant

(E, B)■ / (E, B)


f

■■
■■
■■ ↺
■■ idE
f ■■

(E, B ′ )
■■
$ 

On déduit que
MatB,B′ (f ) = MatB′ (B) × MatB (f )
donc
MatB′ (G) = MatB′ (B) × MatB (G)
par suite

det(MatB′ (G)) = det(MatB′ (B)) × det(MatB (G)).

5.5 Formule explicite du déterminant d’une ma-


trice
Thoérème 5.5.1. (Formule de Leibniz) Soit A une matrice carrée d’ordre n.
Alors
det(A) = ∑ ε(σ)Aσ(1)1 Aσ(2)2 ⋯Aσ(n)n
σ∈Sn

où Sn est le groupe des permutations de {1, . . . , n} et pour σ ∈ Sn , ε(σ)


désigne la signature de σ.
Remarque 34. On a aussi

det(A) = ∑ ε(σ)A1σ(1) A2σ(2) ⋯A2σ(n)


σ∈Sn

RRRa RR
Exemple 24. Soit
RR 11 a12 a13 RRR
A = RRRRa21 a22 a23 RRRR
RRR R
RRa31 a32 a33 RRRR
On a S3 = {1, τ1 , τ2 , τ3 , σ1 , σ2 } où τ1 = (23), τ2 = (12), τ3 = (13), σ1 = (123), σ2 =
(132).
Alors

det(A) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 + a12 a23 a31 + a13 a21 a32 .

64
Le résultat suivant se démontre en utilisant la formule de Leibniz
Proposition 5.5.2. Soient A et B deux matrices carrées d’ordre n. Alors
1. det(A) = det(AT ).
2. det(AB) = det(A) × det(B).

Démonstration. Voir devoir N°3.

Proposition 5.5.3. Soit A une matrice carrée d’ordre n. Alors A est inversible
si et seulement si det(A) ≠ 0. Dans ce cas on a det(A−1 ) = det(A)−1 .

Démonstration. Supposons que A est inversible. On a A × A−1 = In , donc


det(A × A−1 ) = 1, alors det(A) × det(A−1 ) = 1. Par suite det(A) ≠ 0 et on a
det(A−1 ) = det(A)−1 .
Réciproquement, supposons que det(A) ≠ 0. Soit = (e1 , . . . , en ) la base cano-
nique de K n et Soit f ∶ K n Ð→ K n l’endomorphisme tel que MatB (f ) = A.
Puisque det(A) ≠ 0, alors d’après Théorème 5.4.2, la famille C1 (A), . . . , Cn (A)
forment une base de K n , c’est-à-dire G = (f (e1 ), . . . , f (en )) est une base
de K n . Par suite f est bijective et donc A est inversible et on a A−1 =
MatB (f −1 ) = MatG (B).

5.6 Déterminant d’un endomorphisme


Définition 5.6.1. Soient E un espace vectoriel de dimension n et soit B une
base de E. Soit f un endomorphisme de E. On appelle déterminant de f
dans la base B le scalaire det(MatB (f )).
Proposition 5.6.2. Soient E un espace vectoriel de dimension n et soit B une
base de E. Soit f un endomorphisme de E. Alors
1. f est bijective si et seulement si det(MatB (f )) ≠ 0.
2. Le déterminant de f ne dépend pas de la base B.

Démonstration.
1. Est une conséquence directe du fait que f est bijective si et seulement si
la matrice MatB (f ) est inversible.
2. On sait que MatB′ (f ) = MatB (B ′ )−1 × MatB (f ) × MatB (B ′ ), donc

det(MatB′ (f )) = det(MatB (B ′ ))−1 × det(MatB (f )) × det(MatB (B ′ ))


= det(MatB (f )) × det(MatB (B ′ )) × det(MatB (B ′ ))−1
= det(MatB (f )).

65
5.7 Calcul de l’inverse d’une matrice
Définition 5.7.1. Soit A une matrice carrée d’ordre n. On appelle cofacteur
du coefficient Aij le scalaire

cof(Aij ) = (−1)i+j det(A(i, j)).

On appelle comatrice de A la matrice notée Com(A), définie par

Com(A)ij = cof(Aij ).

Exemple 25. Considérons la matrice

⎛ 1 3 −1⎞
A=⎜2 3 5⎟
⎝−1 1 2 ⎠

Alors

cof(A11 ) = ∣ ∣ = 1, cof(A12 ) = − ∣ ∣ = 9, cof(A13 ) = ∣ ∣=5


3 5 2 5 2 3
1 2 −1 2 −1 1

cof(A21 ) = ∣ ∣ = 7, cof(A22 ) = ∣ ∣ = 1, cof(A23 ) = ∣ ∣=4


3 −1 1 −1 1 3
1 2 −1 2 −1 1

cof(A31 ) = ∣ ∣ = 18, cof(A32 ) = ∣ ∣ = 7, cof(A33 ) = ∣ ∣ = −3


3 −1 1 −1 1 3
3 5 2 5 2 3
Par suite,
⎛1 9 5⎞
Com(A) = ⎜ 7 1 4 ⎟
⎝18 7 −3⎠
Proposition 5.7.2. On a

det(A) = ∑ Aij cof(Aij )


n
(5.2)
j=1

et
det(A) = ∑ Aij cof(Aij )
n

i=1

Démonstration.
Si on dévelope det(A) suivant la ligne i on trouve la première égalité.
Si on dévelope det(A) suivant la colonne j on trouve la deuxième égalité.

66
On admet sans démonstration le résultat suivant.
Thoérème 5.7.3. Soit A une matrice carrée d’ordre n. Alors
(i) ACom(A)T = Com(A)T A = det(A)In .
(ii) Si A est une matrice inversible, On a
1
A−1 = Com(A)T
det(A)

Exemple 26. Reprenons la matrice de l’exemple 25. On a

det(A) = A11 cof(A11 ) − A12 cof(A12 ) + A13 cof(A13 ) = 1 − 27 − 5 = −31.

On a det(A) ≠ 0 donc A est inversible. On a

⎛1 9 5⎞
Com(A) = ⎜ 7 1 4 ⎟
⎝18 7 −3⎠

donc
⎛1 7 18 ⎞
Com(A)T ) = ⎜9 1 7 ⎟
⎝5 4 −3⎠
alors
−1 ⎛
1 7 18 ⎞
A−1 = ⎜9 1 7 ⎟
31 ⎝
5 4 −3⎠

67
68
Chapitre 6

Diagonalisation des matrices

6.1 Polynôme caractéristique d’une matrice


Soit A = (aij )1≤i,j≤p une matrice carée d’ordre p. on a

⎛a11 a12 ⋯ a1p ⎞ ⎛X 0 ⋯ 0 ⎞


⎜a21 a22 a2p ⎟ ⎜ 0 ⋱ ⋱ ⋮ ⎟
= ⎜ ⎟−⎜ ⎟

⎜ ⋮ ⋮ ⎟ ⎜ ⋮ ⋱ ⋱ 0⎟
A − XIp
⎝ap1 ⋯ ap,p−1 app ⎠ ⎝ 0 ⋯ 0 X ⎠

⎛a11 − X a12 ⋯ a1p ⎞


⎜ a a2p ⎟
= ⎜ 21 ⎟
a22 − X ⋯
⎜ ⋮ ⋮ ⋱ ⋮ ⎟
⎝ ap1 ap2 ⋯ app − X ⎠
Définition 6.1.1. Le polynôme caractéristique de la matrice A ∈ Mp (K) est
le polynôme χA défini par χA (X) = det(A − XIp ).
Exemples 17.
1. Soit a ∈ K et posons A = (a) ∈ M1 (K). Alors χA (X) = a − X.
2. Soit A = ( ). Alors
1 2
−3 −1

χA (X) = ∣ ∣ = X2 + 5
1−X 2
−3 −1 − X
3. Supposons que la matrice A est triangulaire supérieure

⎛a11 a12 ⋯ a1n ⎞


⎜ 0 a22 ⋯ a2n ⎟
A=⎜ ⎟.
⎜ ⋮ ⋱ ⋱ ⋮ ⎟
⎝ 0 ⋯ 0 ann ⎠

69
Alors χA (X) = ∏ni=1 (aii − X).
Définition 6.1.2. Soit f ∈ End(E). On appelle polynôme caractéristique de
f , noté χf (X) = det(f − XId), le polynôme caractéristique d’une matrice
quelconque de f .
Remarque 35. On a f − αId est un endomorphisme de E pour tout α ∈ K,
alors que f − XId ne l’est pas (c’est seulement une notation). D’ailleurs la
matrice A − XIp n’appartient pas à Mp (K).

6.2 Théorème de Cayley-Hamilton


Nous allons maintenant énoncer l’un des théorèmes les plus importants
de l’algèbre linéaire.
Thoérème 6.2.1. (Cayley-Hamilton) Soit f ∈ End(E). Alors χf (f ) = 0.
Démonstration. Admit
Remarque 36. Voici la version matricielle de ce théorème : Si A est une
matrice carrée à coefficients dans un corps, alors χA (A) = 0.

6.3 Eléments propres d’un endomorphisme


Définition 6.3.1. Soit E un K-ev et soit f ∈ End(E).
1. On dit que λ ∈ K est une valeur propre de f si et seulement si il existe
u ∈ E tel que u ≠ 0 et f (u) = λu.
2. On dit que u ∈ E est un vecteur propre de f si et seulement si u ≠ 0 et il
existe λ ∈ K tel que et f (u) = λu.
3. Si u ∈ E, ≠ 0 et λ ∈ K tels que f (u) = λu, alors on dit que u est un vecteur
propre associé à la valeur propre λ. on dit aussi que λ est la valeur propre
associée au vecteur propre u.
4. L’ensemble des valeurs propre de f est appelé spectre de f et est noté
spK (f ) ou simplement sp(f ).
5. Si λ ∈ sp(f ), alors le sev E(λ) = ker(f − λId) de E est appelé sous-espace
propre associé à λ.
Remarques 8.
1. On a u ∈ E(λ) ⇐⇒ (f − λId)(u) = 0 ⇐⇒ f (u) = λu.
Donc u ∈ E(λ) ⇐⇒ u = 0 ou u est un vecteur propre associé à λ
2. Si u est un vecteur propre associé à λ alors, pour tout scalaire non-nul α,
αu est vecteur propre associé à λ.
3. λ ∈ sp(f ) ⇐⇒ ker(f − λId) ≠ 0 ⇐⇒ f − λId n’est pas injectif.

70
Donc 0 est une valeur propre de f si et seulement si f n’est pas injectif.
4. Si λ ∈ sp(f ) alors dim(E(λ)) ≥ 1.
Proposition 6.3.2. Soit λ ∈ K. Alors λ est une valeur propre de f si et
seulement si χf (λ) = 0.

Démonstration. On a λ est une valeur propre de f si et seulement si f − λId


n’est pas injectif. Donc λ est une valeur propre de f si et seulement si det(f −
λId) = 0, c’est-à-dire, χf (λ) = 0.

Définition 6.3.3. (Multiplicités algébrique et géométrique)


Soit λ ∈ sp(f ). Alors
(i) la multiplicité de λ en tant que racine de χf est appelée multiplicité algé-
brique de λ et notée ma (λ).
(ii) La multiplicité géométrique de λ, notée mg (λ), est la dimension de E(λ),
c’est-à-dire, mg (λ) = dim(E(λ)).
On admet sans démonstration la proposition et le corollaire suivants.
Proposition 6.3.4.
1. Soit f ∈ End(E) et µ, λ ∈ sp(f ). Si λ ≠ µ alors E(λ) ⋂ E(µ) = {0}.
2. Des vecteurs propres associés à des valeurs propres distinctes sont linéai-
rement indépendants.
3. Si dim(E) = n alors f admet au plus n valeurs propres distinctes.
Corollaire 6.3.5. Soit λ1 , . . . , λm des valeurs propres de f deux à deux dis-
tinctes. Alors

E(λ1 ) + ⋯ + E(λm ) = E(λ1 ) ⊕ ⋯ ⊕ E(λm ).

Exemples 18.
1. Soit E = C(R) le R-ev des fonctions de classe C ∞ . Soit ∂ ∶ E Ð→ E qui
à une fonction f associe sa dérivée f ′ . On a ∂(eλx ) = λeλx . Donc eλx est un
vecteur propre de ∂ associé à la valeur propre λ.
2. On suppose que E = F ⊕ G. et soit π la projection sur F parallèlement à
G. Alors F = E(1), G = E(0).
3. On suppose que E = F ⊕ G. et soit s la symétrie par rapport à F parallè-
lement à G. Alors F = E(1) et G = E(−1).
Proposition 6.3.6. Si λ est une valeur propre de f alors E(λ) est sev stable
par f , c’est-à-dire, f (E(λ)) ⊆ E(λ).

Démonstration. Soit u ∈ E(λ). On a f (f (u)) = f (λu) = λf (u), donc f (u) ∈


E(λ).

71
6.4 Cas des matrices
Définition 6.4.1. Soit A ∈ Mp (K) et Z ∈ K p un vecteur non nul.
1. On dit que Z est un vecteur propre de A si AZ = λZ pour un certain
λ ∈ K. Dans ce cas on dit que λ est la valeur propre de A associée au vecteur
propre Z. On dit aussi que Z est un vecteur propre de A associé à la valeur
propre λ.
2. Le spectre de A, noté spK (A) ou simplement sp(A), est l’ensemble des
valeurs propres de A.
3. Soit λ ∈ sp(A). L’espace propre de A associé à λ est le sev de K p défini
par E(λ) = {Z ∈ K p /AZ = λZ} = {Z ∈ K p /(A − λIp )Z = 0}.

Remarques 9.
1. λ ∈ sp(A) ⇐⇒ det(A − λIp ) = 0 ⇐⇒ χA (λ) = 0.
2. Posons p = dim(E) et Soit f ∈ End(E). Soit B une base de E et posons
A = MB (f ). On a :
(i) sp(f ) = sp(A).
(ii) Soit λ ∈ sp(f ) et soit E(λ, f ) et E(λ, A) les sous espaces propres de f et
de A associés à λ. Alors

u ∈ E(λ, f ) ⇐⇒ uB ∈ E(λ, A).

En effet,
f (u)λu ⇐⇒ AuB = λuB .

Exemples 19.
1. Si A est une matrice triangulaire

⎛a11 a12 ⋯ a1p ⎞


⎜ 0 a22 ⋱ ⋮ ⎟
A=⎜ ⎟
⎜ ⋮ ⋱ ⋱ ap−1p ⎟
⎝ 0 ⋯ 0 app ⎠

alors sp(A) = {aii /1 ≤ i ≤ p}.


2. Soit A ∈ M3 (R) tel que χA (X) = −(X − 1)(X 2 + 1). Alors spR (A) = {1} et
spC (A) = {1, i, −i}.
3.
A=( )
0 1
−1 0

On a χA (X) = X 2 + 1. Donc spR (A) = ∅, spC (A) = {−i, i}, spZ/2Z (A) = {1}
et spZ/5Z (A) = {2, 3}.

72
Définition 6.4.2. Soit P ∈ K[X]. On dit que P est scindé sur K si P à toutes
ses racines dans K, c’est-à-dire, P est de la forme

P = a(X − a1 )m1 ⋯(X − as )ms

où a, a1 , . . . , as ∈ K.
Exemples 20.
1. (X 2 − 1)3 = (X − 1)3 (X + 1)3 est scindé sur R.
2. X 2 + 1 n’est pas scindé sur R et il est scindé sur C.
3. X 2 + 1 est scindé sur Z/5Z car X 2 + 1 = (X − 2)(X − 3).

6.5 Diagonalisation des endomorphismes et des ma-


trices
On rappelle que deux matrices A et B sont dites semblables s’il existe une
matrice inversible P telle que A = P −1 BP . On dit aussi que A est semblable
à B.
Définition 6.5.1. Un endomorphisme f de E est diagonalisable s’il existe une
base B de E telle que MB (f ) est une matrice diagonale. On dit dans ce cas
que B est une base de diagonalisation pour f .
Une matrice carrée est diagonalisable sur K si elle est semblable à une ma-
trice diagonale.
Remarque 37. Soit B = (e1 , . . . , en ) une base de E telle que MB (f ) = diag(λ1 , . . . , λn )
est une matrice diagonale (les scalaires λi ne sont pas nécessairement dis-
tincts). Alors f (ei ) = λi ei et donc e1 , . . . , en sont des vecteurs propres de f .
Réciproquement, s’il existe une base B = (e1 , . . . , en ) de E qui est constituée
de vecteurs propres de f , alors ∃µ1 , . . . , µn ∈ K tels que f (ei ) = µi ei et donc
MB (f ) = diag(µ1 , . . . , µn ) est une matrice diagonale.
De la même façon, si A est une matrice diagonalisable alors il existe une
matrice inversible P et une matrice diagonale D = diag(λ1 , . . . , λn ) telles que
P −1 AP = D. Dans ce cas on a χA = χD et donc sp(A) = sp(D) = {λ1 , . . . , λn }.
D’autre part, supposons que f est diagonalisable. Alors il existe une base B de
E telle que MB (f ) = D est une matrice diagonale. Soit B ′ une autre base de
E et P la matrice de passage de B à B ′ . On sait que MB′ (f ) = P −1 MB (f )P =
P −1 DP . Par suite, les matrice de f sont toutes diagonalisables. En conclu-
sion, on peut diagonaliser un endomorphisme en travaillant sur l’une de ses
matrices.
La réciproque est aussi vraie. Soit A ∈ Mp (K) et considérons une base quel-
conque de K p , par exemple la base canonique C. Soit f l’endomorphisme

73
de K p défini par f (Z) = AZ pour tout vecteur colonne Z de K p . On a
MC (f ) = A. Donc diagonaliser A revient à chercher une base B de vecteurs
propres de f , c’est-à-dire, chercher une matrice inversible P et une matrice
diagonale D telles que P −1 AP = D.
Définition 6.5.2. On dit qu’un endomorphisme d’un K-ev E est scindé si son
polynôme caractéristique est sindé sur K. On dit qu’une matrice A ∈ Mp (K)
est scindée si son polynôme caractéristique est sindé sur K.
Proposition 6.5.3. Soit λ1 , . . . , λs les valeurs propres distinctes de f . Alors f
est diagonalisable si et seulement si f est scindé et

E = E(λ1 ) ⊕ ⋯ ⊕ E(λs ).

Démonstration. Supposons que f est diagonalisable. Alors il existe une base


de E qui constitue de vecteurs propres de f . Donc chaque vecteur de B est
contenu dans un certain E(λi ). Par suite, E ⊆ E(λ1 ) + ⋯ + E(λs ) et donc
E = E(λ1 ) + ⋯ + E(λs ). Comme E(λ1 ) + ⋯ + E(λs ) = E(λ1 ) ⊕ ⋯ ⊕ E(λs ), alors
E = (λ1 ) ⊕ ⋯ ⊕ E(λs ).
Réciproquement, supposons que E = E(λ1 ) ⊕ ⋯ ⊕ E(λs ). Soit Bi une base
de E(λi ). Alors B = (B1 , . . . , Bs ) est une base de E qui est constituée de
vecteurs propres de f . Par suite, f est diagonalisable.
Remarque 38. Il y a des endomorphismes qui ne sont pas diagonalisable.
Par exemple un endomorphisme nilpotent non-nul n’est jamais diagonalisable
(voir TD).
Proposition 6.5.4. Soit f ∈ End(E). Si χf est scindé à racines simples alors
f est diagonalisable.
Démonstration. Posons dim(E) = n. Par hypothèse on a χf (X) = (−1)n (X −
λ1 )⋯(X − λn ) où les λi sont des scalaires deux à deux distincts. Soit ui un
vecteur propres associé à λi . On sait que la famille (u1 , . . . , un ) est libre et
donc c’est une base puisqu’elle contient n vecteurs de E. Comme cette famille
est constituée de vecteurs propres de f , alors f est diagonalisable.
Thoérème 6.5.5. Soit f un endomorphisme d’un K-ev E. Alors f est diago-
nalisable si et seulement si
(i) χf est scindé sur K
{
(ii) mg (λ) = ma (λ) pour toute valeurs propres λ de f

Démonstration. χf (X) = (−1)n (X −λ1 )m1 ⋯(X −λs )ms où les λi sont des sca-
laires deux à deux distincts et n = dim(E). Par hypothèse on a mi = ma (λi ) =
mg (λi ) pour tout i ∈ {1, . . . , s}. Il est clair que m1 +⋯+ms = deg(χf (X)) = n.

74
Puisque dim(E(λi )) = mg (λi ) = ma (λi ) = mi , alors dim(E(λ1 )⊕⋯⊕E(λs )) =
m1 + ⋯ + ms = n, donc E(λ1 ) ⊕ ⋯ ⊕ E(λs ) = E. En conclusion, f est diagona-
lisable.
Réciproquement, supposons que f est diagonalisable. Alors E = E(λ1 ) ⊕
⋯ ⊕ E(λs ) où λ1 , . . . , λs sont les valeurs propres distinctes de f . On sait que
f = fE(λ1 ) ⊕ ⋯ ⊕ fE(λs ) . D’après Proposition ?? on a χfE(λi ) = (−1)mg (λi ) (X −
λi )mg (λi ) , 1 ≤ i ≤ s, Donc χf (X) = ∏si=1 χfE(λi ) = (−1)∑i=1 mg (λi ) ∏si=1 (X −
s

λi )mg (λi ) . par suite χf est scindé sur K et on a ma (λi ) = mg (λi ).


Remarques 10.
1. On a mg (λ) = dim(ker(f − λId)) = n − rg(f − λId). Donc
mg (λ) = ma (λ) ⇐⇒ n − rg(f − λId) = ma (λ).
2. Soit λ ∈ sp(f ), alors E(λ) ≠ 0 et donc 1 ≤ mg (λ). Comme mg (λ) ≤ ma (λ),
alors 1 ≤ mg (λ) ≤ ma (λ).
Par suite, si λ est une racine simple de χf , alors mg (λ) = ma (λ) = 1.

Pratique de la diagonalisation
Soit f un endomorphisme d’un K-ev E de dimension n.
• On détermine χf
• Si f n’est pas scindé sur K alors f n’est pas diagonalisable
• Si f est scindé sur K, on cherche si mg (λ) = ma (λ) pour toute valeur
propre λ de f
• Si oui, on cherche une base Bi de E(λi ) avec sp(f ) = {λ1 , . . . , λs }. On
a alors B = (B1 , . . . , Bs ) est une base de diagonalisation pour f
• Dans le cas contraire, f n’est pas diagonalisable.
Soit A ∈ Mp (K).
• On détermine χA
• Si A n’est pas scindé sur K alors A n’est pas diagonalisable
• Si A est scindé sur K, on cherche si mg (λ) = ma (λ) pour toute valeur
propre λ de A
• Si oui, on cherche une base Bi de E(λi ) avec sp(f ) = {λ1 , . . . , λs }. On
peut par exemple chercher les familles Bi en résolvant les systèmes
homogènes d’inconnue Z :
(A − λi Ip )Z = 0.
• Si P est la matrice de passage de la base canonique C de K p à la base
B = (B1 , . . . , Bs ), c’est-à-dire, P = MC (B) alors
P −1 AP = D

75
est une matrice diagonale
• Dans le cas contraire, A n’est pas diagonalisable.

76

Vous aimerez peut-être aussi