0% ont trouvé ce document utile (0 vote)
65 vues115 pages

Cours (MIP)

algebre_2-Espaces_vectorielles

Transféré par

abdelaadim.h317
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
65 vues115 pages

Cours (MIP)

algebre_2-Espaces_vectorielles

Transféré par

abdelaadim.h317
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Table des matières

1 Espaces Vectoriels 1
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Familles génératrices. . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Famille liées, famille libres. . . . . . . . . . . . . . . . . . . . . . 7
1.5 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . 8
1.6 Espaces vectoriels de dimensions finies . . . . . . . . . . . . . . 11
1.6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . 18

2 Espaces affines 21
2.1 Espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 VECTORIALISATION D’UN ESPACE AFFINE . . . . . . . 22
2.3 Translations et homothéties . . . . . . . . . . . . . . . . . . . . 23
2.4 SOUS-ESPACES AFFINES . . . . . . . . . . . . . . . . . . . . 23
2.5 INTERSECTION DE SOUS-ESPACES AFFINES . . . . . . . 24
2.6 PARALLELISME . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.7 REPERES CARTESIENS . . . . . . . . . . . . . . . . . . . . . 24
2.8 Points alignés, points coplanaires . . . . . . . . . . . . . . . . . 25
2.9 BARYCENTRES . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.10 Droites dans un plan . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.10.1 Représentation d’une droite dans un plan affine . . . . 26
2.11 Représentation d’une droite dans un espace affine de dimen-
sion 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.12 Plan affine dans un espace affine de dimension 3 . . . . . . . . 29
2.12.1 Représentation d’un plan dans l’espace affine R3 . . . 29
2.13 Parallèlisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.13.1 Une droite définie par une équation cartésienne et l’autre
par un repère cartésien . . . . . . . . . . . . . . . . . . . 31
2.13.2 Deux droites définies par des équations cartésiennes . 31

i
2.13.3 Deux droites définies par des repères cartésiens . . . . 33
2.13.4 Deux plans définis par des équations cartésiennes . . . 33
2.13.5 Un plan défini par une équation cartésienne et l’autre
par un repère cartésien . . . . . . . . . . . . . . . . . . . 34
2.13.6 Deux plans définis par des repères cartésiens . . . . . . 34
2.13.7 Un plan défini par une équation cartésienne et une
droite définie par un repère cartésien . . . . . . . . . . 35
2.13.8 Un plan et une droite définis par des équations carté-
siennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.13.9 Un plan et une droite définis par des repères cartésiens 36
2.14 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.14.1 Produit scalaire usuel et angle dans R2 et R3 . . . . . 36
2.15 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.15.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . 38
2.15.2 Vecteur normal . . . . . . . . . . . . . . . . . . . . . . . 40

3 Les applications linéaires 43


3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Image directe et Image réciproque d’un sous-espace vectoriel . 47
3.3 Structure des endomorphismes . . . . . . . . . . . . . . . . . . . 51
3.4 Applications linéaires en dimension finie . . . . . . . . . . . . . 54
3.5 Isomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

4 Matrices 61
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2 L’espace vectoriel Mn,m (K) . . . . . . . . . . . . . . . . . . . . 65
4.3 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.4 Écriture matricielle d’un système d’équations linéaires . . . . 74
4.4.1 Calcul de l’inverse . . . . . . . . . . . . . . . . . . . . . . 75
4.5 Matrices d’applications linéaires . . . . . . . . . . . . . . . . . . 76
4.5.1 Matrice d’une famille de vecteurs . . . . . . . . . . . . . 76
4.5.2 Matrice d’une application linéaire . . . . . . . . . . . . 77
4.6 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . 83
4.6.1 Matrices de passage . . . . . . . . . . . . . . . . . . . . . 83
4.6.2 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . 86

5 Déterminants de matrices et applications 89


5.1 Définition récursive du déterminant . . . . . . . . . . . . . . . . 89
5.2 Propriétés des déterminants . . . . . . . . . . . . . . . . . . . . 92
5.3 Les formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . 95
5.4 Déterminant d’une famille de vecteurs . . . . . . . . . . . . . . 96

ii
5.5 Formule explicite du déterminant d’une matrice . . . . . . . . 97

5.6 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . 98

5.7 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . 99

6 Diagonalisation des matrices 103

6.1 Polynôme caractéristique d’une matrice . . . . . . . . . . . . . 103

6.2 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . 106

6.3 Eléments propres d’un endomorphisme . . . . . . . . . . . . . . 106

6.4 Cas des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

6.5 Diagonalisation des endomorphismes et des matrices . . . . . 109

Introduction 1

iii
Chapitre 1

Espaces Vectoriels

Dans tous ce chapitre et dans les suivants, K désignera un corps commu-


tatif quelconque (le plus souvent K = R ou C).

1.1 Généralités
Définition 1.1.1. On appelle espace vectoriel sur K (ev sur K) ou K-espace
vectoriel (K-ev) un ensemble non vide E muni
d’une loi interne + ∶ E × E Ð→ E
(u, v) z→ u + v
et d’une loi externe ⋅ ∶ K × E Ð→ E
(α, u) z→ α.u = αu
telles que :
1) (E, +) est un groupe commutatif :
(i) ∀u, v, w ∈ E ∶ u + (v + w) = (u + v) + w = u + v + w (sans parenthèses),
(ii) ∃0E ∈ E, ∀u ∈ E ∶ 0E + u = u + 0E = u,
(iii) ∀u ∈ E, ∃ − u ∈ E ∶
u + (−u) = (−u) + u = 0E ,
(iv) ∀u, v ∈ E ∶ u + v = v + u.
2)∀(u, v) ∈ E 2 , ∀(α, β) ∈ K 2 :
a) α(u + v) = αu + αv. c) (αβ)u = α(βu) = αβu (sans parenthèses).
b) (α + β)u = αu + βu. d) 1u = u.

Les éléments de K sont appelés des scalaires, ceux de E sont appelés des
vecteurs et on les note parfois par Ð

u (une lettre surmentée d’une flèche).

Exemples 1.
1) R est un R-ev.

1
2) C est un C-ev et un R-ev.
3) On muni K n des deux lois suivantes :
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
et
α(x1 , . . . , xn ) = (αx1 , . . . , αxn )
(K n , +, .) est alors un K-ev.
4) Généralement, Si E1 , E2 , . . . , En sont des espaces vectoriels sur K, on peut
munir E1 × E2 × ⋯ × En d’une structure naturelle de K-espace vectoriel, en
définissant ainsi les opérations :
∀(x1 , . . . , xn ), (y1 , . . . , yn ) ∈ E1 × E2 × ⋯ × En ∶
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
∀(x1 , . . . , xn ) ∈ E1 × E2 × ⋯ × En et ∀λ ∈ K ∶
λ(x1 , . . . , xn ) = (λx1 , . . . , λxn )

5) L’ensemble K[X] des polynômes à coefficients dans K est un K-ev.


7) Soit A un ensemble et E un K-ev. On désigne alors par F (A, E) l’en-
semble de toutes les applications de A dans E.
F (A, E) peut être muni des lois + et . défini par :
f + g ∶ x z→ f (x) + g(x)
αf ∶ x z→ αf (x)
On vérifie facilement que (F (A, E), +, .) est alors un K-ev.
Cas particuliers :
a) A = N, E = R et K = R : dans ce cas F (A, E) est l’ensemble des suites
réelles qui est donc un R-ev.
b) A = I un intervalle de R, E = R et K = R : F (A, E) est l’ensemble des
fonctions numériques définies sur I qui est donc un R-ev.
Proposition 1.1.2. Soient E un K-ev et u, v ∈ E, α, β ∈ K. Alors on a :
1) α(u − v) = αu − αv.
2) α0E = 0E .
3) α(−v) = −αv et donc (−1)v = −v.
4) (α − β)u = αu − βu.
5) (−β)u = −βu.
6)0K u = 0E
7) αu = 0E ⇒ α = 0K ou u = 0E .
On notra par la suite (s’il n’y a pas de confusion à craindre) 0 les éléments
0K et 0E .

2
Démonstration. 1) On a α(u) = α(u − v + v) = α(u − v) + αv donc α(u − v) =
αu − αv. 2) On fait u = v dans 1). 3) On fait u = 0E dans 1). 4) On a
αu = (α − β + β)u = (α − β)u + βu donc (α − β)u = αu − βu. 5) On fait α = 0
dans 4). 6) On fait α = β dans 4). 7) Si α ≠ 0K alors α est inversible dans K.
On a alors

αu = 0E Ô⇒ α−1 (αu) = α−1 0E = 0E Ô⇒ (α−1 αu) = 0E Ô⇒ (1u) = 0E Ô⇒ u = 0E

1.2 Sous-espaces vectoriels


Définition 1.2.1. Soient (E, +, .) un K-ev et F une partie de E. On dit que
F est un sous-espace vectoriel de E (F est un sev de E) si (F, +, .) est aussi
un K-ev
Proposition 1.2.2. Soient E un K-ev et F une partie de E. F est un sev de
E si et seulement si :
1) F ≠ ∅,
2) ∀(u, v) ∈ F 2 ∶ u + v ∈ F (on dit que F est stable par la loi interne),
3) ∀α ∈ K, ∀u ∈ F ∶ αu ∈ F (on dit que F est stable par la loi externe).

Démonstration. Il est clair que si F est un sev de E alors les conditions 1),2)
et 3) sont vérifiées. Inversement, on a −1 ∈ K, donc, d’après 3), −u = (−1)u ∈ F
∀u ∈ F . Comme F est stable par la loi +, alors (F, +) est un sous-groupe de
(E, +). Puisque on a 3) alors F est un espace vectoriel.

Proposition 1.2.3. Soient E un K-ev et F une partie de E. F est un sev de


E si et seulement si :
1) F ≠ ∅,
2) ∀(u, v) ∈ F 2 , ∀(α, β) ∈ K 2 , on a αu + βv ∈ F .

Démonstration. Supposons que F est un sev de E. Soient α, β ∈ K et u, v ∈ F .


d’après 3) de la proposition 1.2.2, on a αu ∈ F et βv ∈ F et d’après 2) de la
même proposition, on a αu + βv ∈ F . Inversement, prenant α = β = 1 dans 2),
alors u ∈ F et v ∈ F entrainent que u + v ∈ F . Prenant ensuite β = 0 dans 2),
alors α ∈ K et u ∈ F entrainent que αu ∈ F .

Proposition 1.2.4. Soit F une partie d’un K-ev E. Alors :

F est un sev de E ⇔ {
F ≠∅
∀(u, v) ∈ F 2 , ∀α ∈ K ∶ αu + v ∈ F

3
Démonstration. Facile.
Remarques 1.
1) Soient E un K-ev et F une partie non vide de E. F est un sev de E veut
dire que F est un K-ev pour les lois induites par celles de E :

4
+ ∶ E × E Ð→ E et . ∶ K × E Ð→ E
(u, v) z→ u + v (α, u) z→ αu.
2) Pour montrer qu’un ensemble E est un espace vectoriel il suffit de montrer
que E est un sev d’un autre ev bien connu.
3) Un sous espace vectoriel contient toujours le vecteur nul. Donc pour mon-
trer que F est une partie non vide de E, on se contente de vérifier que le
vecteur nul 0 de E est dans F . En effet, si 0 /∈ F alors F n’est pas un sev de
E ; et si 0 ∈ F alors F est non vide.
4) Si F est un sev de E et si E est un sev de G alors F est un sev de G.

Exemples 2.
1) Si E est un K-ev alors {0} et E sont des sev de E. On les appelle les
deux sous-espaces vectoriels triviaux.
2) Soit Kn [X] = {P ∈ K[X]/deg(P ) ⩽ n} (on convient que −∞ < n). Alors
Kn [X] est un sev de K[X].
Si n ⩽ m alors Kn [X] est un sev de Km [X].
3) E = R2 est un R-ev, F1 = {0} × R et F2 = R × {0} sont des sev de E.
4) soit I un intervalle de R. L’ensemble des fonctions numériques définies
et dérivables sur I est un sev de l’ensemble des fonctions numériques défi-
nies et continues sur I et ce dernier est un sev de l’ensemble des fonctions
numériques définies sur I.

Proposition 1.2.5. Soient E un K-ev, (Fi )i∈I une famille de sev de E, alors
F = ⋂ Fi est un sev de E.
i∈I

Démonstration. On a ∀i ∈ I, 0 ∈ Fi , alors 0 ∈ F , donc F ≠ ∅. Soient α ∈ K,


u, v ∈ F . On a u, v ∈ Fi , donc αu + v ∈ Fi et ceci pour tout i ∈ I. Alors
αu + v ∈ F . Par suite F est un sev de E.

Remarque 1. La réunion de deux sev de E n’est pas en générale un sev de


E.

Exemples 3.
1) On sait que F = R2 × {0} et G = R × {0} × R sont des sev de R3 .
On a u ∈ F ⋂ G ⇐⇒ ∃x, x′ , y, z ∈ R ∶ u = (x, y, 0) = (x′ , 0, z) ⇐⇒ x = x′ et
y = z = 0 donc F ∩ G = {(x, 0, 0)/x ∈ R} = R × {0} × {0}.
2) F = {(x, y) ∈ R2 /x + y = 0} et G = {(x, y) ∈ R2 /2x + y = 0} sont deux
sous espaces vectoriels de R2 . On a (1, −1) ∈ F et (1, −2) ∈ G mais (1, −1) +
(1, −2) = (2, −3) ∈/ F et ∈/ G, donc (1, −1) + (1, −2) ∈/ F ∪ G, alors F ∪ G n’est
pas un sous espace vectoriel de R2 .

5
1.3 Familles génératrices.
Définition 1.3.1. Soient u1 , . . . , un une famille finie de vecteurs d’un K-ev
E. Un vecteur u ∈ E est dit combinaison linéaire des vecteurs u1 , . . . , un s’il
existe des scalaires α1 , . . . , αn ∈ K, tel que
n
u = α1 u 1 + ⋯ + αn u n = ∑ αi u i
i=1

Exemples 4.
1) Tout polynôme P ∈ Kn [X] est combinaison linéaire des vecteurs 1, X, X 2 , . . . , X n .
2) Dans le C-ev C2 , tout vecteur (z, z ′ ) est combinaison linéaire des vecteurs
(1, 0) et (0, 1) :
(z, z ′ ) = z(1, 0) + z ′ (0, 1).

3) Dans le R-ev C2 , tout vecteur (z, z ′ ) est combinaison linéaire des vecteurs
(1, 0), (0, 1), (i, 0) et (0, i). Si z = x + iy, x, y ∈ R et z ′ = x′ + iy ′ , x′ , y ′ ∈ R,
alors on a :
(z, z ′ ) = x(1, 0) + x′ (0, 1) + y(i, 0) + y ′ (0, i).
Thoérème 1.3.2. Soit {u1 , . . . , un } une famille finie de vecteurs d’un K-ev E.
Alors :
1) L’ensemble F des combinaisons linéaires des vecteurs u1 , . . . , un est un sev
de E.
2) F est le plus petit ( au sens de l’inclusion) sev de E contenant u1, . . . , un .
Démonstration.
1) On a 0 = 0u1 + ⋯ + 0un ∈ F , donc F ≠ ∅. Soient α ∈ K, u, v ∈ F . alors
∃α1 , . . . , αn ∈ K et ∃β1 , . . . , βn ∈ K tels que u = α1 u1 + ⋯ + αn un et v =
β1 u1 + ⋯ + βn un . On a alors αu + v = (αα1 u1 + ⋯ + ααn un ) + β1 u1 + ⋯ + βn un =
(αα1 + β1 )u1 + ⋯ + (ααn + βn )un ∈ F , par suite F est un sev de E.
2) Soit G un sev de E qui contient la famille {u1 , . . . , un }. Puisque G est un
sev de E alors α1 u1 + ⋯ + αn un ∈ G et ceci ∀α1 , . . . , αn ∈ K, donc F ⊆ G.
Définition 1.3.3. Soient E un K-ev et A = {u1, . . . , un } une famille finie
de vecteurs de E. On appelle sev engendré par A l’ensemble F = {α1 u1 +
⋯ + αn un /α1 , . . . , αn ∈ K} des combinaisons linéaires des vecteurs u1 , . . . , un
(c’est à dire des éléments de A).
On dit aussi que A engendre F (ou une famille génératrice de F ).
Notation 1. On note
F = sev⟨u1 , . . . , un ⟩ = sev⟨A⟩
ou
F = vect⟨u1 , . . . , un ⟩ = vect⟨A⟩

6
Remarque 2. Par convention on pose sev⟨∅⟩ = {0}.
Exemples 5.
1) K n = sev⟨(1, 0, . . . , 0), . . . , (0, . . . , 0, 1)⟩.
2) Kn [X] = sev⟨1, X, X 2 , . . . , X n ⟩.
3) Dans R3 , soient v1 = (2, 1, 0), v2 = (0, −1, 0), v3 = (2, −1, 0) et soit F =
sev⟨v1 , v2 , v3 ⟩. On montre que F = sev⟨v1 , v2 ⟩ = sev⟨v1 , v3 ⟩ = sev⟨v2 , v3 ⟩, et
donc un ev peut avoir plusieurs familles génératrices. D’une façcon générale,
le sev nul {0} possède exactement deux familles génératrices ∅ et {0}.
4) Si K est un corps de caractéristique 0, alors tout sev non nul possède une
infinité de familles génératrices. Par exemple, considérons le R-ev R (chaque
réel est à la fois scalaire et vecteur). On a α = α.1, donc R = sev⟨1⟩. En
général, si d est un réel non nul, alors on a α = αd .d, et donc R = sev⟨d⟩.
5) Soit u, v ∈ E, alors sev⟨u⟩ = {αu/α ∈ K} = Ku et sev⟨u, v⟩ = {αu+βv/α, β ∈
K} = Ku + Kv.
Thoérème 1.3.4. Soit A une partie quelconque d’un K-ev E. L’ensemble

H = {α1 u1 + ⋯ + αn un /n ∈ N∗ , α1 , . . . , αn ∈ K, u1 , . . . , un ∈ A}

des combinaisons linéaires finies d’éléments de A est un sev de E. H est le


plus petit sev (pour l’inclusion) de E contenant A. H est aussi noté H =
sev⟨A⟩.

Démonstration. La preuve est analogue à celle du Théorème 5.2.1

Exercice 1. Montrer que la famille {1, X, X 2 , . . .} engendre le K-ev K[X].


Proposition 1.3.5. Soient E un K-ev et A, B, F des parties de E, alors :
1) F = sev⟨F ⟩ ⇔ F est un sev de E.
2) A ⊆ B ⇒ sev⟨A⟩ ⊆ sev⟨B⟩.
3) Si F est un sev de E, alors : A ⊆ F ⇒ sev⟨A⟩ ⊆ F .
4) sev⟨v1 , . . . , vn ⟩ ne change pas si :
(i) on change l’ordre de deux vecteurs vi et vj .
(ii) on remplace un vecteur vi par un autre vecteur de la forme αvi + ∑j≠i αj vj
avec α ≠ 0.

1.4 Famille liées, famille libres.


Définition 1.4.1. Soient E un K-ev et {u1 , . . . , un } une famille finie de vec-
teurs de E.
1) On dit que {u1, . . . , un } est une famille liée si :
il existe α1 , . . . , αn ∈ K, non tous nuls, tels que α1 u1 + ⋯ + αn un = 0.

7
Les vecteurs u1 , . . . , un sont dits linéairement dépendants.
2) On dit que {u1 , . . . , un } est une famille libre si elle n’est pas liée. Ce qui
revient à dire que :

α1 u1 + ⋯ + αn un = 0 ⇒ α1 = ⋯ = αn = 0.

Les vecteurs u1 , . . . , un sont dits linéairement indépendants.


Remarques 2.
1) Une famille est libre ssi elle n’est pas liée. Par conséquent, une famille
quelconque est ou bien libre ou bien liée.
2) {u} est libre ssi u ≠ 0.
3) Toute sous-famille d’une famille libre est libre.
4) Toute famille contenant une famille liée est une famille liée. En particu-
lier :
- Une famille qui contient un vecteur nul est une famille liée.
- Une famille qui contient deux vecteurs égaux est une famille liée.
5) La notion de “libre” ou “liée” ne dépends pas de l’ordre dont ses éléments
sont disposés.
6) Une famille A est liée ssi il existe u ∈ A tel que u ∈ sev⟨A/{u}⟩ ; c’est à
dire, u est une combinaison linéaire des autres vecteurs de A.
7) Une famille A est libre ssi u ∈/ sev⟨A/{u}⟩ pour tout u ∈ A ; c’est à dire,
aucun vecteur de A n’est combinaison linéaire des autres vecteurs de A.
Exemples 6.
1) E = R2 : {(1, 0), (0, 1)} et {(1, −1), (1, 1)} sont des familles libres.
2) E = R2 : {(1, −1), (1, 1), (3, −1)} est une famille liée puisque (3, −1) =
2(1, −1) + (1, 1).
3) E = R2 [X] : {1, X, X 2 } et {2 + 3X, 3X + X 2 , X 2 } sont des familles libres.
Définition 1.4.2. Soit A une partie quelconque d’un K-ev E.
1) On dit que A est liée s’il existe une famille finie d’éléménts de A qui est
liée.
2) On dit que A est libre si elle n’est pas liée. Ce qui revient à dire que toute
sous-famille finie de A est libre.
Exercice 2. Montrer que la famille A = {1, X, X 2 , . . .} du K-ev K[X] est
libre.

1.5 Somme de sous-espaces vectoriels


Dans cette section nous allons nous intéresser au plus petit sous-espace
vectoriel contenant deux sous-espaces vectoriels donnés.

8
Définition 1.5.1. Soient F et G deux sev d’un K-ev E. On note F + G l’en-
semble {u + v/u ∈ F et v ∈ G}. F + G est appelé la somme de F et G.

Remarque 3. F + G = {w ∈ E/∃u ∈ F, ∃v ∈ G, w = u + v}

Proposition 1.5.2. La somme F + G de deux sev F et G d’un K-ev E est un


un sev de E. De plus F + G est le plus petit sev de E (au sens de l’inclusion)
contenant F et G.

Démonstration. On a 0 ∈ F ⋂ G, donc 0 = 0+0 ∈ F +G. Alors F +G ≠ ∅. Soient


α ∈ K, u, v ∈ F et w, z ∈ G. On a α(u+w)+(v+z) = (αu+v)+(αw+z). Comme
αu, v ∈ F et αw, z ∈ G, on a αu + v ∈ F et αw + z ∈ G. Donc α(u + w) + (v + z) ∈
F + G. Par suite, F + G est un sev de E.
D’autre part, on a ∀u ∈ F : u = u + 0 ∈ F + G, donc F ⊆ F + G. de la même
façon on a G ⊆ F + G. Soit H un sev tel que F ⊆ H et G ⊆ H. De plus si u ∈ F
et v ∈ G, alors u + v ∈ H et ceci montre bien que F + G ⊆ H et donc F + G est
le plus petit sev de E (au sens de l’inclusion) contenant F et G.

Exercice 3. Soient F, G et H des sev d’un K-ev E. Alors :


1) F + G = G + F .
2) F ⊆ F + G.
3) F ⊆ G ⇒ F + H ⊆ G + H.
4) (F ⊆ H et G ⊆ H) ⇔ F + G ⊆ H.
5) F + F = F .
6) F + {0} = F .
7) F + E = E.
8) (F + G) + H = F + (G + H) (on peut donc ne pas utiliser les parenthèses).

Proposition 1.5.3. Soient A et B deux parties d’un K-ev E. Alors

sev⟨A ∪ B⟩ = sev⟨A⟩ + sev⟨B⟩.

Consequences :
a) sev⟨u1 , . . . , um ⟩ = sev⟨u1⟩ + ⋯ + sev⟨um ⟩ = Ku1 + ⋯ + Kum
b) Si A est une famille génératrice de F1 et B est une famille génératrice de
F2 , alors A ⋃ B est une famille génératrice de F1 + F2 .

Définition 1.5.4. Soient F et G deux sev d’un K-ev E. On dit que la somme
F + G est directe si tout élément de F + G s’écrit d’une manière unique sous
la forme u + v avec u ∈ F et v ∈ G. Dans ce cas F + G est noté F ⊕ G.

Plus généralement, on a la définition suivante

9
Définition 1.5.5. Soient F1 , . . . , Fn des sev de E. On dit que la somme F1 +
⋯ + Fn est directe si tout élément de F1 + ⋯ + Fn s’écrit d’une manière unique
sous la forme u1 + ⋯ + un avec u1 ∈ F1 , . . . , un ∈ Fn . Dans ce cas F1 + ⋯ + Fn
est noté F1 ⊕ ⋯ ⊕ Fn .
Proposition 1.5.6. Soient F et G deux sev d’un K-ev E. Les propositions
suivantes sont équivalentes :
1. La somme F + G est directe.
2. F ⋂ G = {0}.
3. ∀u ∈ F , ∀v ∈ G : u + v = 0 Ô⇒ u = v = 0.

Démonstration.
1. Ô⇒ 2. : Soit u ∈ F ⋂ G. On a u = u + 0 ∈ F + G et u = 0 + u ∈ F + G, donc
u = 0 et 0 = u, c’est-à-dire, u = 0. Alors F ⋂ G = {0}.
2. Ô⇒ 3. : Soient u ∈ F et v ∈ G. Supposons que u + v = 0. Alors u = −v ∈ G,
donc u ∈ F ⋂ G, Il est clair que nous avons aussi v = 0.
3. Ô⇒ 1. : Soient u, w ∈ F et v, z ∈ G. Supposons que u + v = w + z. On a dans
ce cas (u − w) + (v − z) = 0. Comme u − w ∈ F et v − z ∈ G, alors u − w = 0 et
v − z = 0, et donc u = w et v = z.

Exercice 4. Soient F1 , . . . , Fn des sev de E. Montrer que les conditions sui-


vantes sont équivalentes :
1. La somme F1 + ⋯ + Fn est directe.
2. ∀p ∈ {2, . . . , n}, (F1 + ⋯ + Fp−1 ) ⋂ Fp = {0}.
3. ∀u1 ∈ F1 , . . . , ∀un ∈ Fn : u1 + ⋯ + un = 0 Ô⇒ u1 = ⋯ = un = 0.
Définition 1.5.7. Deux sev F et G d’un K-ev E sont dit supplémentaires
dans E si F ⋂ G = {0} (i.e la somme F + G est directe) et E = F + G.
On écrit alors E = F ⊕ G et on dit que E est la somme directe de F et G.
F (resp.G) est dit un supplémentaire de G (resp.F ) dans E.
Exemples 7.
1) On a E = E ⊕ {0}.
2) Soient K = R, E = R2 , F = R × {0}, G = {0} × R. On a E = F ⊕ G. En effet,
∀(x, y) ∈ E on a (x, y) = (x, 0) + (0, y) ∈ F + G. Donc E ⊆ F + G, et puisqu’on
a déjà F + G ⊆ E, on conclut que E = F + G. D’autre part, si (x, y) ∈ F ⋂ G,
alors y = 0 puisque (x, y) ∈ F et x = 0 puisque (x, y) ∈ G. Donc (x, y) = (0, 0),
d’où F ⋂ G = {(0, 0)}. En conclusion, E = F ⊕ G.
Remarque 4. Un sev F de E peut avoir plusieurs supplémentaires dans E.
Proposition 1.5.8. Soient F et G deux sev d’un espace vectoriel E. Alors E
est somme directe de F et G ssi tout éléments de E se décompose d’une façon

10
unique en somme d’un éléments de F et d’un élément de G. càd :
E = F ⊕ G ⇔ ∀w ∈ E, il existe et unique (u, v) ∈ F × G tel que w = u + v.

Démonstration. Il suffit d’appliquer la proposition 1.5.6.

Exemple 1. Soient K = R, E = F (R, R) le R-ev des applications de R dans


R. Soit F = {f ∈ E/f paire } et G = {f ∈ E/f impaire }.
On a F et G sont des sev de E. En effet, l’application nulle 0 ∶ x → 0 est à
la fois paire et impaire, donc F ≠ ∅ et G ≠ ∅. De plus, la somme de deux
applications paires (resp. impaires) est une application paire (resp. impaire),
et si on multiplie une application paire (resp. impaire) par un réel quelconque
on obtient une application paire (resp. impaire).
Soit f ∈ F ∩ G, alors f (x) = f (−x) = −f (x), donc f (x) = 0 pour tout x ∈ R,
c’est-ç-dire, f = 0. Par suite F ⋂ G = {0}.
D’autre part, Soit f ∈ E. Il est facile de vérifier que l’application g(x) =
f (x)+f (−x)
2 est paire et que l’application h(x) = f (x)−f
2
(−x)
est impaire. Comme
f = g + h, alors E = F + G. Ce qui fait que E = F ⊕ G. En conclusion, toute
application de R dans R s’écrit de manière unique comme somme de deux
applications l’une paire et l’autre impaire.

1.6 Espaces vectoriels de dimensions finies


1.6.1 Généralités
Définition 1.6.1. On dit qu’un K-ev E est de dimension finie s’il admet
au moins une famille génératrice finie.
c’est à dire : ∃(u1 , . . . , un ) ∈ E n tel que E = sev⟨u1 , . . . , un ⟩. Dans le cas
contraire, on dit que E est de dimension infinie.

Exemples 8.
1) K = sev⟨1⟩ est de dimension finie.
2) Kn = sev⟨e1 , . . . , en ⟩ est de dimension finie, où e1 = (1, 0, . . . , 0), e2 =
(0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1). En particulier, Rn et Cn sont des es-
paces vectoriels de dimensions finies.
3) {0} = sev⟨∅⟩ = sev⟨0⟩ est de dimension finie.
4) Kn [X] = sev⟨1, X, . . . , X n ⟩ est de dimension finie.

Exercice 5. Montrer que K[X] est un K-ev de dimension infinie.

11
1.6.2 Bases
Définition 1.6.2. On dit qu’une famille finie B = (u1 , . . . , un ) d’éléments d’un
K-ev E est une base de E si B est une famille libre et génératrice de E.

Remarque 5. Soient (u1 , . . . , un ) une base de E et α1 , . . . , αn une famille de


scalaires non nuls. Alors (α1 u1 , . . . , αn un ) est aussi une base de E.

Exemples 9.
1) {∅} est, par convention, une base de {0}.
2) E = K n , soient e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).
Alors (e1 , . . . , en ) est une base du K-ev E, appelée base canonique (ou stan-
dard) de E.
3) (1, X, . . . , X n ) est une base de Kn [X], appelée base canonique de Kn [X].
4) Si E et F sont deux K-ev de bases respectives (u1 , . . . , un ) et (v1 , . . . , vm ),
alors ((u1 , 0F ), . . . , (un , 0F ), (0E , v1 ), . . . , (0E , vm )) est une base du K-ev E ×
F.

Proposition 1.6.3. Soit B = (u1 , . . . , un ) une famille finie d’un K-ev E. Alors
les propriétés suivantes sont équivalentes :
1. B est une base de E.
2. ∀u ∈ E, u s’écrit de manière unique sous la forme : u = α1 u1 + ⋯ +
αn un , α1 , . . . , αn ∈ K.

Démonstration.
1. Ô⇒ 2. : Soit u ∈ E. Comme B est une famille génératrice de E, ∃α1 , . . . , αn ∈
K tels que u = α1 u1 + ⋯ + αn un .
Supposons que u = α1 u1 + ⋯ + αn un et u = β1 u1 + ⋯ + βn un avec α1 , . . . , αn ∈ K
et β1 , . . . , βn ∈ K. On a u − u = (α1 − β1 )u1 + ⋯ + (αn − βn )un = 0, comme B est
une famille libre, on a α1 − β1 = 0, . . . , αn − βn = 0, donc α1 = β1 , . . . , αn = βn .
2. Ô⇒ 1. : Il est clair que 2. entraine que B est une famille génératrice de
E. Soient α1 , . . . , αn ∈ K et supposons que α1 u1 + ⋯ + αn un = 0. Comme
0 = 0u1 + ⋯ + 0un , on a nécessairement α1 = 0, . . . , αn = 0. Ceci entraine que
B est une famille libre et donc c’est une base de E.

Définition 1.6.4. Soit B = (u1 , . . . , un ) une base d’un K-ev E et soit u un


vecteur de E. Les scalaires α1 , . . . , αn tels que u = α1 u1 +⋯+αn un sont appelés
les coordonnées (ou les composantes) de u dans la base B. αi s’appelle la ième
coordonnée (ou composante) de u dans la base B.

Notation 2. On utilise les notations u = (α1 , . . . , αn )B et uB = (α1 , . . . , αn )


pour dire que u = α1 u1 + ⋯ + αn un .

12
Remarques 3.
1. Si B = (u1 , . . . , un ) est une base de E, alors en changeant l’ordre des
vecteurs ui on aura une autre base de E. C’est pour cette raison qu’on note
souvent les bases avec des parenthèses et non avec des accolades.
Par exemple : B1 = ((1, 0), (0, 1)) et B2 = ((0, 1), (1, 0)) sont deux bases du
K-ev K 2 , et on a (x, y) = (x, y)B1 = (y, x)B2 .
2. Ce sont les coordonnées des vecteurs qui dépendent des bases et pas les
vecteurs.
Proposition 1.6.5. Soient E un K-ev et B = (v1 , . . . , vn ) une famille de vec-
teurs de E. Alors B est une base de E si et seulement si E = sev⟨v1 ⟩ ⊕ ⋯ ⊕
sev⟨vn ⟩

Démonstration.
Ô⇒) Supposons que B est une base de E. On évidemment sev⟨v1 ⟩ + ⋯ +
sev⟨vn ⟩ ⊆ E. Inversement, Soit u ∈ E. Alors ∃α1 , . . . , αn ∈ K tels que u =
α1 u1 + ⋯ + αn un ∈ sev⟨v1 ⟩ + ⋯ + sev⟨vn ⟩. Donc E ⊆ sev⟨v1 ⟩ + ⋯ + sev⟨vn ⟩. Par
suite E = sev⟨v1 ⟩ + ⋯ + sev⟨vn ⟩.
Soient u1 = α1 v1 ∈ sev⟨v1 ⟩, . . . , un = αn v1 ∈ sev⟨v1 ⟩. Si u1 + ⋯ + un = 0, alors
α1 v1 + ⋯ + αn vn = 0 et comme B est une base, on aura α1 = ⋯ = αn = 0 et
donc u1 = ⋯ = un = 0. Par suite E = sev⟨v1 ⟩ ⊕ ⋯ ⊕ sev⟨vn ⟩.
⇐Ô) Facile.

Lemme 1.6.6. Soit (v1 , . . . , vm ) une famille d’un K-ev E et soit (u1 , . . . , un )
une famille génératrice de E. Si m > n alors (v1 , . . . , vm ) est liée.

Démonstration. La démonstration se fait par récurrence sur le cardinal n de


la famille génératrice de l’espace vectoriel. Supposons que n = 1. Soient w, z
deux vecteurs de E. On a w = αu1 et z = βu1 . Si α = 0 alors la famille {w, z}
est liée. Si α ≠ 0, alors de l’égalité βw − αz = 0 on en déduit que la famille
{w, z} est liée.
On suppose la propriété vrai pour n − 1. Soit (u1 , . . . , un ) une famille géné-
ratrice de E et soit (v1 , . . . , vm ) une famille de E , avec m > n. Puisque

E = sev⟨u1 ⟩ + sev⟨u2 , . . . , un ⟩,

alors
vi = αi u1 + wi , 1 ≤ i ≤ m.
avec α1 , . . . , αm ∈ K et w1 , . . . , wm ∈ F = sev⟨u2 , . . . , un ⟩.
Si αi = 0, 1 ≤ i ≤ m, alors vi ∈ F, 1 ≤ i ≤ m. Or F est engendré par
n − 1 éléments et m > n − 1, alors d’aprés l’hypothèse de récurrence, on a

13
(v1 , . . . , vm ) est une famille liée.
Supposons que αj ≠ 0 pour un certain j. Dans ce cas on a

αj vi − αi vj = αj αi u1 + αj wi − αi αj u1 − αi wj = αj wi − αi wj ∈ F,

Donc ∀i ∈ J = {1, . . . , j − 1, j + 1, . . . , m} on a αj vi − αi vj ∈ F . Comme J est


de cardinal m − 1 et m − 1 > n − 1, alors d’aprés l’hypothèse de récurrence, on
a {αj vi − αi vj /i ∈ J} est une famille liée. Donc il existe des scalaires λi non
tous nuls tels que
∑ λi (αj vi − αi vj ) = 0,
i∈J

alors
∑ λi αj vi − (∑ λi αi )vj = 0
i∈J i∈J

Comme les scalaires λi αj ne sont pas tous nuls, alors la famille {v1 , . . . , vm }
est liée.
Thoérème 1.6.7. Soit E un K-ev de dimension finie. Alors :
1. De toute famille génératrice de E on peut extraire une base de E.
2. E admet au moins une base.
3. Toutes les bases de E ont le même cardinal.
Démonstration.
1. Soit G = {v1 , . . . , vm } une famille génératrice de E. Si la famille G est libre
alors elle forme une base de G. Si G est liée, ∃vi ∈ G tel que vi ∈ sev⟨Gi ⟩
où Gi = G ∖ {vi }, et dans ce cas on a E = sev⟨G⟩ = sev⟨Gi ⟩. Si la famille
Gi est libre alors elle forme une base de E. Si Gi est liée, ∃vj ∈ Gi tel que
vj ∈ sev⟨Gij ⟩ où Gij = Gi ∖ {vj }, et dans ce cas on a E = sev⟨Gij ⟩. On itère
le procédé jusqu’à obtenir une famille génératrice de E qui libre et donc une
base de E.
2. C’est une conséquence immédiate de 1..
3. Soit B et B ′ deux bases de E. On a B est une famille génératrice de
E et B ′ est une famille libre, donc d’après le lemme 1.6.6 on a card(B’) ≤
card(B). De la même façon on a card(B) ≤ card(B’). En conclusion, card(B’) =
card(B).
Remarque 6.
1) Un espace vectoriel peut avoir plusièures bases.
2) Si K est un corps de caractéristique 0, alors seul le sous-espace vectoriel
nul admet un nombre fini de bases (une seule).
3) Si K est un corps de caractéristique p > 0, alors on peut trouver des sev
non nuls qui on un nombre fini de bases. Prenant par exemple K = Z/2Z,
E = K[X] et F = K.

14
Définition 1.6.8. On appelle dimension de E, et on note dimK (E) ou dim(E),
le cardinal d’une base de E.
Exemples 10.
1) dim({0}) = 0 (∅ est une base de {0}).
2) dim(K) = 1 et dim(K n ) = n.
3) dim(Kn [X]) = n + 1 ((1, X, X 2 , . . . , X n ) est une base de Kn [X]).
4) dimC (C) = 1 et dimR (C) = 2 (car (1, i) est une base du R-espace vectoriel
C).
5) Les sous-espaces vectoriels de dimension 1 sont appelés droites vectorielles
et les sous-espaces vectoriels de dimension 2 sont appelés plans vectorielles.
6) Les sous-espaces vectoriels de dimension n−1 d’un ev de dimension n sont
appelés hyperplans vectoriels.
Thoérème 1.6.9. (Théorème de la base incomplète) Soient E un K-ev de
dimension finie, B une base de E et L = {v1 , . . . , vm } une famille libre. Alors
il existe H ⊆ B ∖ L tel que L ⋃ H est une base de E.

Démonstration. Si B ⊆ sev⟨L⟩ alors L est une famille géneratrice de E et


donc une base de E. Si B ⊈ sev⟨L⟩, alors ∃u ∈ B tel que u ∈/ sev⟨L⟩, et comme
L est libre alors L′ = L ⋃{u} est aussi libre. On itère le procédé jusqu’à
obtenir une famille H ⊆ B ∖ L tel que L ⋃ H est une base de E.

Nous avons le corollaire suivant dit aussi Théorème de la base incomplète.


Corollaire 1.6.10. Toute famille libre d’un K-ev de dimension finie E peut
être complétée en une base de E.

Démonstration. Ce résultat se déduit du théorème précédent et de l’existence


d’une base de E.

Corollaire 1.6.11. Soient E un K-ev de dimension finie et F un sev de E.


Alors
1) F est de dimension finie et on’a dim(F ) ⩽ dim(E).
2) dim(F ) = dim(E) ⇔ F = E.

Démonstration.
1. Supposons par l’absurde que F soit de dimension infinie. Soit L1 est une
famille libre de F . Alors L1 est aussi une famille libre de E et donc card(L1 ) ≤
dim(E). Si F = sev⟨L1 ⟩ alors L1 serait une famille génératrice de F qui
est libre, elle serait donc une base de F et ce dernier serait de dimension
finie, ce qui est absurde. Si F ≠ sev⟨L⟩, alors ∃u ∈ F tel que u ∈/ sev⟨L⟩,
et comme L est libre alors L2 = L1 ⋃{u} est aussi libre. Il est clair que
card(L1 ) < card(L2 ) ≤ dim(E). On peut ainsi construire une suite infinie

15
strictement croissante d’entiers naturels card(Ln ) qui majorée. Absurde. Par
suite F est de dimension finie.
Soit B ′ une base de F et soit B une base de E. Puisque B ′ est libre et B
est une famille génératrice de E alors card(B ′ ) ≤ card(B). Donc dim(F ) ≤
dim(E).
2. On a évidemment F = E Ô⇒ dim(F ) = dim(E).
Réciproquement, Supposons que dim(F ) = dim(E) et soit B ′ une base de F .
Supposons par l’absurde que B ′ n’est pas une base de E. Puisque B ′ est libre
alors, d’après le théorème de la base incomplète, on peut compéter B ′ en une
base de E. Dans ce cas on aura dim(E) > card(B ′ ) et donc dim(E) > dim(F ).
Absurde.
Une autre démonstration : On a B ′ est libre donc d’après le théorème de la
base incomplète il existe une base B de E telle que B ′ ⊆ B. Puisque dim(F ) =
dim(E) alors card(B ′ ) = card(B) et donc B ′ = B. Par suite F = E.

Corollaire 1.6.12. Soit E un K-ev de dimension finie. Tout sev de E admet


au moins un supplémentaire.

Démonstration. Soit F un sev de E et soit B une base de F . Pour avoir


un supplémentaire de F il suffit de compléter B par une famille de vecteurs
C pour obtenir une base de E. Le sous-espace vectoriel G = sev⟨C⟩ est un
supplémentaire de F (C est une base de G).

Proposition 1.6.13. Soient E un K-ev de dimension finie n et A une partie


de E. Alors :
1. A est une famille libre ⇒ card(A) ⩽ n.
2. A engendre E ⇒ card(A) ⩾ n.
3. (A est une famille libre et card(A) = n) ⇔ A est une base de E.
4. (A engendre E et card(A) = n) ⇔ A est une base de E.

Démonstration.
1. et 3. Découlent du théorème de la base incomplète.
2. et 4. Découlent du fait que toute famille génératrice de E contient une
base de E.

Remarques 4. Les contraposées des implications et équivalences de la propo-


sition précédente s’écrivent :
1) Si A contient au moins n + 1 éléments alors A est liée.
2) Si A contient au plus n − 1 éléments alors A n’est pas une famille généra-
trice de E.
3) A n’est pas une base de E ⇐⇒ A n’est pas libre ou card(A) ≠ n
⇐⇒ A n’engendre pas E ou card(A) ≠ n.

16
Corollaire 1.6.14. Soient E un K-ev de dimension finie n et A une partie finie
de E telle que card(A) = n. Alors les propriétés suivantes sont équivalentes :
1. A est une famille libre.
2. A est une famille génératrice de E.
3. A est une base de E.
Thoérème 1.6.15. (Formule de Grassmann) Soient E un K-ev de dimension
finie et F, G deux sev de E. Alors :
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
Démonstration. Soit L = {u1 , . . . , un } une base de F ⋂ G. On a L est une
famille libre de F et aussi une famille libre de G, donc on peut la compléter
en une base {u1 , . . . , un , v1 , . . . , vm } de F et en une base {u1, . . . , un , f1 , . . . , fk }
de G. Alors la famille B = {u1, . . . , un , v1 , . . . , vm , f1 , . . . , fk } est une base de
F + G. En effet, Soit u ∈ F + G, alors
∃α1 , . . . , αn , β1 , . . . , βm , γ1 , . . . , γn , λ1 , . . . , λk ∈ K
tels que
u = (α1 u1 + ⋯ + αn un + β1 v1 + ⋯ + βm vm ) + (γ1 u1 + ⋯ + γn un + λ1 f1 + ⋯ + λk fk )
= (α1 + γ1 )u1 + ⋯ + (αn + γn )un + β1 v1 + ⋯ + βm vm + λ1 f1 + ⋯ + λk fk
et donc B est une famille génératrice de F + G.
Montrons que B est une famille libre. Remarquons d’abord que les sommes
(F ∩ G) + sev⟨v1 , . . . , vm ⟩
et
(F ∩ G) + sev⟨f1 , . . . , fk ⟩
sont directes.
Supposons maintenant que
α1 u1 + ⋯ + αn un + β1 v1 + ⋯ + βm vm + λ1 f1 + ⋯ + λk fk = 0. (1.1)
On a alors
F ∋ β1 v1 + ⋯ + βm vm = −(α1 u1 + ⋯ + αn un + λ1 f1 + ⋯ + λk fk ) ∈ G
Alors β1 v1 + ⋯ + βm vm ∈ F ∩ G et β1 v1 + ⋯ + βm vm ∈ sev⟨v1 , . . . , vm ⟩, donc
β1 v1 + ⋯ + βm vm = 0, D’où β1 = ⋯ = βm = 0. De la même façon on montre que
λ1 = ⋯ = λk = 0. De l’égalité (1.1) on déduit que α1 u1 + ⋯ + αn un = 0 et donc
α1 = ⋯ = αn = 0. En conclusion, B est libre et donc c’est une base de F + G.
Donc dim(F + G) = n + m + k = (n + m) + (n + k) − n = dim(F ) + dim(G) −
dim(F ∩ G).

17
Corollaire 1.6.16. Soit E un K-ev de dimension finie et soit F un sev de E.
Tout les supplémentaires de F ont pour dimension dim(E) − dim(F ).
Démonstration. Soit G un supplémentaire de F , c’est-à-dire, E = F + G et
F ∩G = {0}. On a dim(E) = dim(F +G) = dim(F )+dim(G)−dim(F ∩G). Donc
dim(E) = dim(F ) + dim(G) et par suite dim(G) = dim(E) − dim(E).
Corollaire 1.6.17. Soient E un K-ev de dimension finie et E et G deux sev
de E. Alors les propriétés suivantes sont équivalentes :
1) E = F ⊕ G.
2) dim(E) = dim(F ) + dim(G) = dim(F + G).
3) dim(E) = dim(F ) + dim(G) et F ∩ G = 0.
4) dim(E) = dim(F ) + dim(G) et F + G = E.
Démonstration. La démonstration découle facilement de la formule de Grass-
mann.

1.7 Rang d’une famille de vecteurs


Définition 1.7.1. Soit A une partie d’un K-ev E de dimension finie. On
appelle rang de A, et on note rg(A), l’entier naturel : rg(A) = dim(sev⟨A⟩).
Proposition 1.7.2. Soient A et A′ deux parties d’un K-ev E de dimension
finie. Alors :
1. rg(A) ⩽ card(A).
2. A ⊆ A′ ⇒ rg(A) ⩽ rg(A′ ).
3. max(rg(A), rg(A′ )) ⩽ rg(A ∪ A′ ) ⩽ rg(A) + rg(A′ ).
4. rg(A) = max{rg(A′ )/A′ ⊆ A, A′ libre}.
Démonstration. Posons F = sev⟨A⟩ et F ′ = sev⟨A′ ⟩.
1. On a A est une famille génératrice de F , donc rg(A) = dim(F ) ⩽ card(A).
2. Si A ⊆ A′ , alors F ⊆ F ′ et donc dim(F ) ⩽ dim(F ′ ), par suite rg(A) ⩽ rg(A′ ).
3. On a A ⊆ A∪A′ et A′ ⊆ A∪A′ , donc rg(A) ⩽ rg(A∪A′ ) et rg(A′ ) ⩽ rg(A∪A′ ),
alors max(rg(A), rg(A′ )) ⩽ rg(A∪A′ ). D’autre part, on a A∪A′ est une famille
génératrice de F + F ′ . Donc rg(A ∪ A′ ) = dim(F + F ′ ). Or d’après la formule
de Grassmann, on a

dim(F +F ′ ) = dim(F )+dim(F ′ )−dim(F ∪F ′ ) ≤ dim(F )+dim(F ′ ) = rg(A)+rg(A′ ).

Par suite rg(A ∪ A′ ) ⩽ rg(A) + rg(A′ ).


4. Si A′ est libre alors c’est une base de F ′ et donc rg(A′ ) = card(A′ ). D’autre
part, puisque A engendre F , alors A contient une base B de F , et on a donc
rg(A) = dim(F ) = card(B) = rg(B). Si A′ est une partie de A qui est libre,

18
alors card(A′ ) ≤ card(B) et donc rg(A′ ) ≤ rg(B). Par suite rg(A′ ) ≤ rg(A)
et ceci pour toute partie libre A′ de A. D’où le résultat.
Une autre démonstration : Si A′ est libre et A′ ⊆ A, alors A′ est une famille
libre de F , donc rg(A′ ) ≤ dim(F ) = rg(A). On a de plus A est une famille
génératrice de F , donc A contient une base B de F . On a donc B ⊆ A et
rg(B) = dim(F ) = rg(A). D’où le résultat.
Proposition 1.7.3. Soit A une partie d’un K-ev E de dimension finie. Alors :
1. A est une famille génératrice de E ⇔ rg(A) = dim E.
2. A est une famille libre de E ⇔ rg(A) = card(A)
3. A est une base de E ⇔ rg(A) = card(A) = dim E.
Démonstration. Posons F = sev⟨A⟩.
1. on a

A est une famille génératrice de E ⇔ F = E


⇔ dim(F ) = dim(E)
⇔ rg(A) = dim(E)

2. On a

A est une famille libre ⇔ A est une base de F


⇔ dim(F ) = card(A)
⇔ rg(A) = card(A)

3. Se déduit immédiatement de 1. et 2..

19
20
Chapitre 2

Espaces affines

2.1 Espaces affines


Ð→
Soit E un ensemble non vide et E un sous-espace vectoriel de Rn . On dit
Ð

que E est un espace affine de direction E ssi il existe une application :
Ð

φ ∶ E × E Ð→ E
Ð→
(A, B) z→ AB
telle que :
Ð→ Ð→ Ð→
1.∀A, B, C ∈ E, AB + BC = AC relation de Chasles
Ð→ ÐÐ→ →
u ∈ E , ∃!M ∈ E, ΩM = Ð
2.∀Ω ∈ E, ∀Ð
→ u
Les éléments de E seront appelés des points et ceux de E 2 seront nommés
bipoints. La dimension de l’espace affine E est par définition celle de l’espace
Ð

vectoriel sous-jacent E .
Plus généralement, Soient E un ensemble non vide et K un corps commutatif
Ð→
quelconque. On dit que E est un K-espace affine s’il existe un K-ev E et une
application :
Ð

φ ∶ E × E Ð→ E
Ð→
(A, B) z→ AB
telle que :
Ð→ Ð→ Ð→
1.∀A, B, C ∈ E, AB + BC = AC relation de Chasles
Ð→ ÐÐ→ →
2.∀Ω ∈ E, ∀Ð

u ∈ E , ∃!M ∈ E, ΩM = Ð u
Ð

Dans ce cas on dit que E est la direction de l’espace affine E.

21
Remarque 7. Il y a deux types d’objets en jeu : les éléments de E (appe-
Ð

lés points et notés A, B, X, Y, ...) et ceux de E (appelés vecteurs et notés
Ð→
a ,Ð→
u , ...).

Exemples 11.
1. L’ensemble E des (x, y, z) de R3 tels que x + y + z = 1 est un espace affine
Ð

de direction l’espace vectoriel E = {(x, y, z) ∈ R3 /x + y + z = 0}.
2. Généralement : L’ensemble E des (x1 , ..., xn ) de Rn tels que a1 x1 + ... +
Ð→
an xn = b est un espace affine de direction l’espace vectoriel E = {(x1 , ..., xn ) ∈
Rn /a1 x1 + ... + an xn = 0} (a1 , ...an , b sont des réels donnés).
3. Exemple important :On peut munir un sous-espace vectoriel E de Rn d’une
structure d’espace affine, de direction lui-même, dite structure affine cano-
nique, en considérons l’addition comme une loi externe. Dans ce cas le vecteur
Ð
Ð
→Ð→→ Ð
uÐ v =→ v −Ð →
u.
Ici, il faut faire bien attention. Sur l’ensemble E, on considère deux struc-
tures différentes : la structure (canonique) d’espace vectoriel et la structure
(canonique) d’espace affine. Ainsi, un élément de l’ensemble E (c’est-à-dire
un n-uplet (x1 , ..., xn ) de nombres réels) peut être considéré tantôt comme
un vecteur, tantôt comme un point : tout dépend de la structure qu’on veut
considérer à ce moment là.

2.2 VECTORIALISATION D’UN ESPACE AFFINE


Nous avons vu que tout espace vectoriel donne naissance à un espace af-
fine (exemple 3.). Mais cet espace possède un point particulier : le vecteur
Ð→
0 . Au contraire, dans un espace affine général E aucun point n’est privilégié
par rapport aux autres : on pourrait dire que la géométrie affine est de la
géométrie vectorielle sans origine a priori. Cependant on peut quand même
selon les besoins de la cause choisir un point O comme origine de E. Cela
permet de vectorialiser E en O, c’est-à-dire d’identifier le point A de E avec
Ð→
le vecteur OA.

Vectorialiser un espace affine E en une origine convenablement choisie per-


Ð

met de ramener un problème affine à un problème équivalent dans E , où
l’on dispose de tous les outils de l’algèbre linéaire : c’est une méthode très
fréquemment utilisée.

22
2.3 Translations et homothéties
Notation 3. D’après la propriété (2) de la structure d’espace affine, pour
Ð→
tout point A de E et tout vecteur Ð→
v de E , il existe un unique point B de E
Ð→ →
tel que AB = Ð
v . On note A+ Ð →
v ce point B, c’est-à-dire qu’on a : B = A+ Ð

v,
Ð→ Ð → Ð→
AB = v . On peut donc écrire : A + AB = B.
Remarque 8.
Attension : On a défini la somme d’un point et d’un vecteur comme un certain
point : le +, ici, est une notation et n’est pas le + de l’espace vectoriel.
Ð

Définition 2.3.1. Soit E un espace affine d’espace vectoriel sous-jacent E et
Ð
→ Ð

v un vecteur de E ; on appelle translation de vecteur Ð →
v l’application tÐ→
v de
E dans E définie par tÐ→ (A) = A + v .
v
Ð

Définition 2.3.2. Soient A un point de E et k ∈ R un scalaire non nul. On


appelle homothétie de centre A et de rapport k l’application hk,A de E dans
ÐÐ→
E définie par hk,A (M) = A + k AM .

2.4 SOUS-ESPACES AFFINES


Une partie non vide F d’un espace affine E est un sous-espace affine de
Ð
→ ÐÐ→
E si et seulement si pour tout point A de F , l’ensemble F = {AM /M ∈ F }
Ð→
est un sous-espace vectoriel de E (qui ne dépent pas du point A). L’espace
Ð

vectoriel F est alors la direction de F . On dit alors que F est le sous-espace
Ð

affine passant par A et de direction F
Donc une partie F d’un espace affine E est un sous-espace affine de E si et
seulement si F est un espace affine de direction un sous-espace vectoriel de
Ð

E.
Ð

Proposition 2.4.1. Soient F un sous espace affine de E de direction F et A
un point de F . Alors :
ÐÐ→ Ð →
1) M ∈ F si et seulement si AM ∈ F .
Ð
→ Ð→
2) F = A + F = {A + Ð →u /Ð
u ∈ F }.

Exemples 12.
1. Un point est un sous-espace affine de E de direction {0}.
2. L’ensemble {(x1 , ..., xn ) ∈ Rn /a1 x1 + ... + an xn = b} (a1 , ...an sont des réels
donnés non tous nuls et b un réel quelconque) est un sous-espace affine de
Rn (muni de sa structure canonique d’espace affine).

23
3. Tout sous espace vectoriel de Rn est un sous-espace affine de l’espace affine
Rn .

2.5 INTERSECTION DE SOUS-ESPACES AFFINES


Proposition 2.5.1. Une intersection quelconque de sous-espaces affines Fi ,
(i ∈ I), est ou bien vide ou un sous-espace affine dont la direction est l’inter-
section des directions :
ÐÐ→ Ð→
⋂ Fi = ⋂ Fi
i∈I i∈I

2.6 PARALLELISME
Définitions 2.6.1. Soient F et G deux sous-espaces affines de E. On dit que
Ð
→ Ð →
F et G sont parallèles s’ils ont même direction, i.e., si on a F = G . On
note F ∥ G.
Ð→ Ð→
On dit que F est faiblement parallèle à G si F est contenu dans G .
Proposition 2.6.2.
i) Si F et G sont parallèles, alors F et G sont confondus ou bien leur inter-
section est vide.
ii) Si F est faiblement parallèle à G, alors F est contenu dans G ou F ne
rencontre pas G.

2.7 REPERES CARTESIENS


Soit E un espace affine de dimension n. On appelle repère cartésien de E
un (n + 1)-uplet R = (O, Ð →e 1 , ..., Ð
→e n ) où O est un point de E et (Ð → e n)
e 1 , ..., Ð

Ð

une base de l’espace vectoriel E .
Pour tout point M de E il existe une unique famille (x1 , ..., xn ) de réels telle
ÐÐ→
que OM = x1 Ð → e n . On appelle (xi ) la famille des coordonnées de
e 1 + ... + xn Ð

M dans le repère cartésien (O, Ð → e n ), et on écrit M = (x1 , ..., xn )R
e 1 , ..., Ð

Exemples 13. Dans l’espace affine R3 on considère le sous-espace affine

P = {(x, y, z) ∈ R3 /x + y + z = 1}

1. Prenons pour origine de P le point O = (0, 1, 0) et prenons pour base de


Ð
→ →Ð
P , {Ð
u, →v }} où Ð
u = (1, 0, −1) et Ð
→ v = (0, 1, −1). Le point M = (3, 2, −4)

ÐÐ→
appartient à P et on a OM = (3, 1, −4) = 3Ð →
u +Ð →
v . Ainsi, dans le repère

24
cartésien R = (O, Ð →
u ,Ð
→v ) de P, le point M = (3, 2, −4) à pour coordonnées
(3, 1), c’est à dire M = (3, 1)R .
2. Prenons maintenant comme origine de P le point O ′ = (1, 1, −1), et pour
Ð→ Ð → Ð→ Ð
→ Ð

base de P , { u′ , v ′ }} où u′ = (1, 1, −2) et v ′ = (2, −1, −1). Pour le point
ÐÐ→ Ð
→ Ð

M = (3, 2, −4) (le même que celui considéré en 1. ) on a O ′ M = x u′ + y v ′ ,

c’est à dire :



x + 2y = 2
⎨ x − y = 1



⎩ −2x − y = −3
4 1
donc x = et y = .
3 3
Ð
→ Ð →
Ainsi, dans le nouveau repère cartésien R′ = (O ′ , u′ , v ′ ) de P, le point M =
(3, 2, −4) à pour coordonnées ( , ), c’est à dire M = ( , )R′ .
4 1 4 1
3 3 3 3
La Proposition suivante fournie une famille d’exemples d’espaces affines :
Proposition 2.7.1. Soit E un espace affine de dimension n, R = (A, B) un
repère cartésien et (S) un système d’équations linéaires à p équations et n in-
connues. Alors l’ensemble F des points M = (x1 , . . . , xn )R tels que (x1 , . . . , xn ) ∈
Ð

S est un sous espace affine de E de direction F = {(x1 , . . . , xn )B /(x1 , . . . , xn ) ∈
S0 }.

2.8 Points alignés, points coplanaires


Définitions 2.8.1.
1. Un espace vectoriel est dit un plan vectoriel si sa dimension est égale à 2.
2. Un espace vectoriel est dit une droite vectorielle si sa dimension est égale
à 1.
3. On appelle plan affine tout espace affine de direction un plan vectoriel.
4. On appelle droite affine tout espace affine de direction une droite vecto-
rielle.
Remarque 9. Soit D une droite affine, soit Ð →v un vecteur non nul quelconque
Ð→ Ð→ Ð

de D , alors { v } est une base de D car dim ( D ) = 1. Soit A0 un point
Ð

queconque de D, alors (A , Ð v ) est un repère cartésien de D. On dit que Ð

0

v
est un vecteur directeur de D ou que D est la droite affine passant par le
point A0 est de vecteur directeur Ð
→ v ).
v et on note D = D(A0 , Ð

Définition 2.8.2. On dit que Trois points A, B et C sont alignés, s’ils ap-
partienent à une même droite, et on dit que quatre points A, B, C et D sont
coplanaires s’ils appartienent à un même plan.

25
Proposition 2.8.3.
Ð→ Ð→
1) les points A, B et C sont alignés si et seulement si la famille {AB, AC}
est liée.
2) les points A, B, C et D sont coplanaires si et seulement si la famille
Ð→ Ð→ Ð→
{AB, AC, AD} est liée.
Remarque 10. Deux points sont toujours alignés, et trois points sont toujours
coplanaires.

2.9 BARYCENTRES
Proposition et Définition 2.9.1. Un point pondéré est un couple (A, λ) avec
A ∈ E et λ ∈ R.
Soit (Ai , λi )1⩽i⩽k avec ∑ki=1 λi ≠ 0 alors il existe un unique G ∈ E, appelé
ÐÐ→ Ð →
barycentre de (Ai , λi )1⩽i⩽k , tel que ∑ki=1 λi GAi = 0 .
Si λ1 = ... = λk , on appelle G l’isobarycentre (ou centre de gravité) des Ai , et
ÐÐ→ Ð →
on a : ∑ki=1 GAi = 0 .
Proposition 2.9.2. le barycentre de (Ai , λi )1⩽i⩽k est caractérisé par
ÐÐ→
Ð→ ∑ki=1 λi OAi
OG = k
.
∑i=1 λi
O est un point quelconque.
Remarque 11. l’isobarycentre de Ai est caractérisé par
ÐÐ→
Ð→ ∑ki=1 OAi
OG = .
k

2.10 Droites dans un plan


Dans cette partie on considère le plan affine R2 muni d’un repère cartésien
Ð→
(O, Ð
e , f ).

2.10.1 Représentation d’une droite dans un plan affine


Représentation paramétrique d’une droite dans
le plan affine R2 .
Ð

Soit Ð→ e + α2 f un vecteur non nul de R2 , (α1 , α2 ) sont les coordonnées
v = α1 Ð

Ð→
de Ðv dans la base (Ð
→ →e , f ) de l’espace vectoriel R2 . Soient A0 et B les points

26
Ð→
de R2 de coordonnées (x0 , y0 ) et (x, y) dans le repère cartésien (O, Ð →e , f ).
ÐÐ→
On a B ∈ D(A0 , Ð v ) ssi A0 B et Ð
→ →v sont liées, c’est-à-dire il existe t ∈ R tel que
ÐÐ→ Ð →
A0 B = t v , ce qui est équivalent au système

{
x = x0 + tα1 où t ∈ R
y = y0 + tα2
Ces relations constituent une représentation paramétrique de la droite D(A0 , Ð v)

Équation cartésienne de la droite D(A0 , v )Ð

Ð

Soit Ð

v = α1 Ð
→e + α2 f un vecteur non nul de R2 , (α1 , α2 ) sont les coordonnées
Ð→
de Ð
→v dans la base (Ð e , f ) de l’espace vectoriel R2 . Soit A0 le point de R2 de

Ð→
coordonnées (x0 , y0 ) dans le repère cartésien (O, Ðe , f ).

Ð→
Dans le repère (O, Ð e , f ) la droite D(A0 , Ð
→ v ) à pour équation cartésienne

α2 (x − x0 ) − α1 (y − y0 ) = 0
Remarque 12. L’équation cartésienne ce n’est que

x − x0 α1
=0
y − y 0 α2

Une autre forme de l’équation cartésienne


d’une droite
On a α2 (x − x0 ) − α1 (y − y0 ) = 0, donc
α2 x − α1 y − (α2 x0 − α1 y0 ) = 0
Posant : α2 = a, −α1 = b et α2 x0 − α1 y0 = −c il vient :
ax + by + c = 0
C’est l’équation cartésienne de la droite D passant par le point A0 (x0 , y0 )
est de vecteur directeur Ð →v = (−b, a).
● Si a = 0 , b ≠ 0 cette droite est parallèle à l’axe Ox, l’équation cartésienne
est
−c
y=
b
● Si a ≠ 0 , b = 0 cette droite est parallèle à l’axe Oy, l’équation cartésienne
est
−c
x=
a
Équation explicite d’une droite
−a −c
Si b ≠ 0, l’équation cartésienne précédente donne : y = x− ou, en posant
b b
−a −c
α= ,β=
b b

27
y = αx + β
C’est l’équation explicite d’une droite.
α est appelé coefficient directeur ou la pente de cette droite il est égal à la
tangente de l’angle orienté de l’axe Ox à la droite D ; deux droites parallèles
ont le même coefficient directeur.
Droite définie par deux points distincts
Soit A = (a1 , a2 ) et B = (b1 , b2 ) deux points distincts d’une droite D, le
Ð→
vecteur AB = (b1 − a1 , b2 − a2 ) est un vecteur directeur de cette droite et donc
Ð→
D = D(A, AB).
Alors :

x = a1 + t(b1 − a1 ) où t ∈ R,
{
y = a2 + t(b2 − a2 )
est une représentation paramétrique de D.
L’équation cartésienne de cette droite est
(b2 − a2 )(x − a1 ) − (b1 − a1 )(y − a2 ) = 0

2.11 Représentation d’une droite dans un espace


affine de dimension 3
Ð→ → Ð→ →
R3 muni d’un repère cartésien R = (O, Ð→ g ) où B = (Ð
e , f ,Ð → g ) est
e , f ,Ð
une base de l’espace vectoriel R3 .
Représentation paramétrique d’une droite dans
l’espace affine R3 .
On obtient les mêmes résultats que dans le cas de l’espace affine R2 il suffit
de remplacer deux coordonnées par trois.
Équation cartésienne d’une droite dans
l’espace affine R3 .

Équation cartésienne de la droite D(A0 , Ð v)



Soient v = (α1 , α2 , α3 )B un vecteur non nul de R3 , A0 et M les points de
Ð→
R3 de coordonnées (x0 , y0 , z0 ) et (x, y, z) dans le repère cartésien R. Consi-
ÐÐ→ Ð
AM →0 v
⎛ x − x0 α1 ⎞ ÐÐ→ →
dérons la matrice ⎜ y − y0 α2 ⎟. La famille {A0 M , Ð
v } est liée si et seule-
⎝ z − z0 α3 ⎠
x − x0 α1 x − x0 α1
ment si les détrminants ∆1 = = 0, ∆2 = = 0 et
y − y 0 α2 z − z0 α3

28
y − y 0 α2
∆3 = = 0.
z − z0 α3
v ).
C’est l’équation cartésienne, Dans le repère R, de la droite D(A0 , Ð

On peut montrer que si αi est non nul, alors les deux déterminants qui ont en
commun le coefficient αi entrainent la troisième. Donc on a en réalité deux
équations et pas trois.
Généralement, l’équation cartésienne d’une droite dans un espace affine de
dimension 3 est donnée sous forme d’intersection de deux plans sécants, c’est
à dire :
Ð
→ ax + by + cz +d = 0 ∶ (P)
D ∶{ ′
a x + b′ y + c′ z +d′ = 0 ∶ (P ′ )

où P et P ′ sont sécants.


Exemple : D = D(A, Ð v ) où A = (1, 4, 3) et Ð
→ v = (0, 2, 1). On a la composante

y−4 2
2 de Ð
→v est non nulle, donc l’équation cartésienne de D est = 0 et
z−3 1
y−4 2
= 0, ce qui donne :
x−1 0

D∶{
y − 2z = −2
x = 1

2.12 Plan affine dans un espace affine de dimen-


sion 3
Dans cette partie on considère l’espace affine R3 muni d’un repère carté-
Ð→ → Ð→ →
sien R = (O, Ð→ g ) où B = (Ð
e , f ,Ð → g ) est une base de l’espace vectoriel
e , f ,Ð
R3 .

2.12.1 Représentation d’un plan dans l’espace affine R3


Représentation paramétrique d’un plan dans
l’espace affine R3 .
Soit Ðu = (α1 , α2 , α3 )B et Ð
→ v = (β1 , β2 , β3 )B deux vecteurs de R3 linéairement

indépendants. Soient A0 et B les points de R3 de coordonnées (x0 , y0 , z0 ) et
(x, y, z) dans le repère cartésien R.
ÐÐ→ Ð →
On a B ∈ P(A0 , Ð →
u ,Ðv ) ssi A0 B ∈ P , c’est-à-dire il existe t1 , t2 ∈ R tel que

ÐÐ→
A0 B = t1 Ð
→u + t2 Ð

v , ce qui est équivalent au système

29




x = x0 + t1 α1 + t2 β1
⎨ y = y0 + t1 α2 + t2 β2
où t1 , t2 ∈ R,



⎩ z = z0 + t1 α3 + t2 β3
Ces relations constituent une représentation paramétrique du plan P(A0 , Ð
→ v)
u ,Ð

Équation cartésienne du plan P(A0 , Ð→
u ,Ðv)

Dans le repère R le plan P(A0 , Ð

u ,Ðv ) à pour équation cartésienne

(x − x0 ) − 1 1 (y − y0 ) + 1 1 (z − z0 ) = 0
α2 β2 α β α β
α3 β3 α3 β3 α2 β2
Remarques 5.
1) L’équation cartésienne ce n’est que

+ x − x0 α1 β1
− y − y0 α2 β2 = 0
+ z − z0 α3 β3
.
2) Rappelons la définition du determinant d’ordre 3. Soient λ1 , λ2 , λ3 , α1 , α2 , α3 , β1 , β2 , β3 ∈
R alors :
+ λ1 α1 β1
α β α β α β
− λ2 α2 β2 = λ1 2 2 − λ2 1 1 + λ3 1 1
α3 β3 α3 β3 α2 β2
+ λ3 α3 β3

Une autre forme de l’équation cartésienne


d’un plan
α β α β α β α β α β
Posant : a = 2 2 , b = − 1 1 et c = 1 1 et 2 2 x0 − 1 1 y0 +
α3 β3 α3 β3 α2 β2 α3 β3 α3 β3
α1 β1
z = −d, il vient :
α2 β2 0
ax + by + cz + d = 0
où a, b et c ne sont pas tous nuls.
C’est l’équation cartésienne du plan P passant par le point A0 (x0 , y0 , z0 ) est
Ð

de direction P ∶ ax + by + cz = 0.
● Si a = b = 0 ; ce plan est parallèle au plan xoy, si a = c = 0 ; ce plan est
parallèle au plan xoz et si b = c = 0 ; ce plan est parallèle au plan yoz.
Plan défini par trois points non alignés
Soit A = (a1 , a2 , a3 ), B = (b1 , b2 , b3 ) C = (c1 , c2 , c3 ) trois points non alignés,
Ð→ Ð→
c’est-à-dire, les vecteurs AB et AC sont linéairement indépendants. Donc par
Ð→ Ð→
ces trois points passe un et un seul plan, c’est la plan P = A + sev ⟨AB, AC⟩.

30
Alors :


⎪ x = a1 + t1 (b1 − a1 ) + t2 (c1 − a1 )


⎨ y = a2 + t1 (b2 − a2 ) + t2 (c2 − a2 )
où t1 , t2 ∈ R,



⎩ z = a3 + t1 (b3 − a3 ) + t2 (c3 − a3 )
est une représentation paramétrique de P.
L’équation cartésienne de ce plan est

+ x − x0 b1 − a1 c1 − a1
− y − y0 b2 − a2 c2 − a2 = 0
+ z − z0 b3 − a3 c3 − a3

2.13 Parallèlisme
2.13.1 Une droite définie par une équation cartésienne et
l’autre par un repère cartésien
Dans un plan affine (par exemple R2 )
Considérons les deux droites suivantes :
Ð→
D∶ ax + by + c = 0 et D′ = A′ + sev ⟨ u′ ⟩.

Alors on a la proposition suivante :


Proposition 2.13.1.
→ Ð
Ð →
Si u′ ∈ D , alors D et D′ sont parallèles.
→ Ð
Ð →
Si u′ ∈ D et A′ ∈ D, alors D et D′ sont confondues.
→ Ð
Ð →
Si u′ ∈ D et A′ ∈/ D, alors D et D′ sont strictement parallèles.
→ Ð
Ð →
Si u′ ∈/ D , alors D et D′ sont sécantes.

2.13.2 Deux droites définies par des équations cartésiennes


Dans un plan affine (par exemple R2 )
Soit deux droites D et D′ d’équations

D ∶ ax + by + c = 0 et D′ ∶ a′ x + b′ y + c′ = 0.

Alors on a la proposition suivante :


Proposition 2.13.2.
a b
Si ′ = ′ , alors D et D′ sont parallèles.
a b

31
a b c
Si = = , alors D et D′ sont confondues.
a′ b′ c′
a b c
Si ′ = ′ ≠ ′ , alors D et D′ sont strictement parallèles.
a b c
a b
Si ′ ≠ ′ , alors D et D′ sont sécantes.
a b
0
Remarque 13. On ne considère pas la forme car elle n’a aucun effet..
0
Exemples 14.
15 3
D1 ∶ 2x + 5y + 1 = 0, D2 ∶ 3x + y + = 0
2 2
D3 ∶ 2x + 5y + 2 = 0, D4 ∶ 2x + 5y = 0
D5 ∶ 3x + 152 y = 0, D6 ∶ 5y + 1 = 0
2
D7 ∶ 2y + 5 = 0. D8 ∶ 3y + 2 = 0
On D1 = D2 , D4 = D5 , D6 = D7 , D1 ∥ D3 ∥ D4 , D6 ∥ D8 , D1 et D6 sont
sécantes.
Dans un espace affine de dimension 3 (par exemple R3 )
Soient D et D′ les droites d’équations

D∶{
ax + by + cz + d = 0
a′ x + b′ y + c′ z + d′ = 0

et
D′ ∶ {
ex + f y + gz + h = 0
e′ x + f ′ y + g ′ z + h′ = 0
Ð→ Ð→
Pour comparer D et D′ , on cherche un vecteur directeur Ð →
u de D (ou de D′ )
Ð

et un point A de D (ou de D′ ). Pour trouver Ð →
u ∈ D , il suffit de donner à x, y
et z des valeurs de telles sorte que (x, y, z) soit une solution non nulle de

Ð

D ∶{ ′
ax + by + cz = 0
a x + b′ y + c′ z = 0

ou de résoudre ce système et trouver une solution non nulle, et pour trouver


A ∈ D, il suffit de donner à x, y et z des valeurs de telles sorte que (x, y, z)
soit une solution de

D∶{
ax + by + cz + d = 0
a′ x + b′ y + c′ z + d′ = 0

ou de résoudre ce système et trouver une solution. Dans ce cas, D = A +


sev ⟨Ð
u ⟩, et on a la Proposition suivante :

32
Proposition 2.13.3.
Ð

Si Ð

u ∈ D′ , alors D et D′ sont parallèles.
Ð

Si Ð

u ∈ D′ et A ∈ D′ , alors D et D′ sont confondues.
Ð

u ∈ D′ et A ∈/ D′ , alors D et D′ sont strictement parallèles.
Si Ð

Ð

u ∈/ D′ , alors D et D′ ne sont pas parallèles (pas nécessairement sécantes).
Si Ð

Remarque 14. Pour montrer que D et D′ sont parallèles ou qu’elles sont


sécantes, on cherche le vecteur Ð

u et ce n’est pas la peine de chercher le point
A.

2.13.3 Deux droites définies par des repères cartésiens


Dans un espace affine quelconque
Considérons les deux droites suivantes :
Ð→
D = A + sev ⟨Ðu ⟩ et D′ = A′ + sev ⟨ u′ ⟩.

Alors on a la proposition suivante :


Proposition 2.13.4.
Ð→ →
u ) = 1, alors D et D′ sont parallèles.
Si rg( u′ , Ð
Ð→′ Ð ÐÐ→ →
Si rg( u , →u ) = rg(AA′ , Ð
u ) = 1, alors D et D′ sont confondues.
Ð→′ Ð ÐÐ→ →
Si rg( u , → u ) = 2, alors D et D′ sont strictement parallèles.
u ) = 1 et rg(AA′ , Ð
Ð
→′ Ð
Si rg( u , →u ) = 2, alors D et D′ ne sont pas parallèle, et donc si on travail
dans un plan affine, D et D′ seront sécantes.

2.13.4 Deux plans définis par des équations cartésiennes


Dans un espace affine de dimension 3 (par exemple R3 )
Soient P et P ′ les plans d’équations
P ∶ ax + by + cz + d = 0 et P ′ ∶ a′ x + b′ y + c′ z + d′ = 0.
Alors on a la proposition suivante :
Proposition 2.13.5.
a b c
Si = = , alors P et P ′ sont parallèles.
a′ b′ c′
a b c d
Si ′ = ′ = ′ = ′ , alors P et P ′ sont confondus.
a b c d
a b c d
Si ′ = ′ = ′ ≠ ′ , alors P et P ′ sont strictement parallèles.
a b c d
a b a c b d
Si ′ ≠ ′ ou ′
≠ ′ ou ≠ , alors P et P ′ sont sécants.
a b a c b′ d′

33
0
Remarque 15. On ne considère pas la forme car elle n’a aucun effet.
0

2.13.5 Un plan défini par une équation cartésienne et l’autre


par un repère cartésien
Dans un espace affine de dimension 3 (par exemple R3 )
Considérons les deux plans suivants :
Ð→ Ð →
P∶ ax + by + cz + d = 0 et P ′ = A′ + sev ⟨ u′ , v ′ ⟩.

Alors on a la proposition suivante :


Proposition 2.13.6.
→ Ð
Ð → Ð → Ð →
Si u′ ∈ P et v ′ ∈ P , alors P et P ′ sont parallèles.
→ Ð
Ð → Ð→ Ð →
Si u′ ∈ P , v ′ ∈ P et A′ ∈ P, alors P et P ′ sont confondus.
→ Ð
Ð → Ð→ Ð →
Si u′ ∈ P , v ′ ∈ P et A′ ∈/ P, alors P et P ′ sont strictement parallèles.
→ Ð
Ð → Ð→ Ð →
Si u′ ∈/ P ou v ′ ∈/ P , alors P et P ′ sont sécants.

2.13.6 Deux plans définis par des repères cartésiens


Dans un espace affine quelconque
Considérons les deux plans suivants :
Ð→ Ð →
P = A + sev ⟨Ð
→ v ⟩ et P ′ = A′ + sev ⟨ u′ , v ′ ⟩.
u ,Ð

Alors on a la proposition suivante :


Proposition 2.13.7.
Ð
→ → Ð Ð→ → Ð
Si rg( u′ , Ð v ) = rg( v ′ , Ð
u, → u, →v ) = 2, alors P et P ′ sont parallèles.
Ð
→′ Ð Ð→ ÐÐ→ → Ð
Si rg( u , →u ,Ð
→v ) = rg( v ′ , Ð
→u ,Ð
→v ) = rg(AA′ , Ð v ) = 2, alors P et P ′ sont
u, →
confondus.
Ð
→ → Ð Ð
→ → Ð ÐÐ→ → Ð
Si rg( u′ , Ð v ) = rg( v ′ , Ð
u, → u, →v ) = 2 et rg(AA′ , Ð
u, →v ) = 3, alors P et P ′ sont
strictement parallèles.
Ð
→ → Ð Ð
→ → Ð
Si rg( u′ , Ð v ) = 3 ou rg( v ′ , Ð
u, → v ) = 3, alors P et P ′ ne sont pas pa-
u, →
rallèles, et donc si on travail dans un espace affine de dimension 3, P et P ′
seront sécants.
Remarque 16. Le rang de (Ð →, Ð
w → v ) ne peut pas être égal à 1, car cette
u ,Ð

famille contient au moins deux vecteurs linéairement indépendants, donc il
est ou bien égal à 2 ou bien égal à 3.

34
2.13.7 Un plan défini par une équation cartésienne et une
droite définie par un repère cartésien
Dans un espace affine de dimension 3 (par exemple R3 )
Soient P et D le plan et la droite suivants :
P ∶ ax + by + cz + d = 0 et D = A + sev ⟨Ð
u ⟩.

Alors on a la proposition suivante :


Proposition 2.13.8.
Ð

Si Ð
→u ∈ P ∶ ax + by + cz = 0, alors D et faiblement parallèle à P.
Ð

Si Ð
→u ∈ P et A ∈ P, alors D et contenue dans P (D ⊆ P).
Ð

Si Ð
→u ∈ P et A ∈/ P, alors D et strictement faiblement parallèle à P (D ∩ P =
∅).
Ð

Si Ð
→u ∈/ P , alors D et P sont sécants.

2.13.8 Un plan et une droite définis par des équations carté-


siennes
Dans un espace affine de dimension 3 (par exemple R3 )
Soient P et D le plan et la droite d’équations
P ∶ ax + by + cz + d = 0 et D ∶ { ′
ex + f y + gz + h = 0
e x + f ′ y + g ′ z + h′ = 0
Ð→
Pour comparer D et P, on cherche un vecteur directeur Ð →
u de D et un point
A de D et on applique la proposition précédente. Pour trouver Ð →
u , il suffit
de donner à x, y et z des valeurs de telles sorte que (x, y, z) soit une solution
non nulle de
Ð

D ∶{ ′
ex + f y + gz = 0
e x + f ′y + g ′z = 0
ou de résoudre ce système et trouver une solution non nulle, et pour trouver
A, il suffit de donner à x, y et z des valeurs de telles sorte que (x, y, z) soit
une solution de

D∶{
ex + f y + gz + h = 0
′ ′ ′ ′
ex + f y + gz + h = 0
ou de résoudre ce système et trouver une solution.
Remarque 17. Pour montrer que D et faiblement parallèle à P ou qu’ils sont
sécants, on cherche le vecteur Ð

u et ce n’est pas la peine de chercher le point
A.

35
2.13.9 Un plan et une droite définis par des repères cartésiens
Dans un espace affine quelconque
Soient P et D le plan et la droite suivants :

P ∶ = A + sev ⟨Ð
→ v ⟩ et D = B + sev ⟨Ð
u, Ð
→ →⟩.
w

Alors on a la proposition suivante :


Proposition 2.13.9.
Si rg(Ð→, Ð
w → v ) = 2, alors D et faiblement parallèle à P.
u ,Ð

Ð→ → Ð
Si rg( w , u , v ) = rg(AB, Ð
Ð→ Ð
→ Ð
→ v ) = 2, alors D et contenue dans P (D ⊆ P).
u, →
Ð→ Ð
Si rg( w , u , v ) = 2 et rg(AB, →
Ð
→ Ð→ Ð
→ u ,Ðv ) = 3, alors D et strictement faiblement

parallèle à P (D ∩ P = ∅).
Si rg(Ð→, Ð
w →
u ,Ðv ) = 3 , alors D n’est pas faiblement parallèle à P, et donc si on

travail dans un espace affine de dimension 3, D et P seront sécants.
Ð→ → Ð
Remarque 18. On peut remplacer dans la Proposition précédente rg(AB, Ð v)=
u, →
Ð→ Ð
2 qui veut dire B ∈ P par rg(AB, w ) = 1 qui veut dire A ∈ D. De la

Ð→ → Ð
même façon, On peut remplacer rg(AB, Ð v ) = 3 qui veut dire B ∈/ P par
u, →
Ð→ Ð
rg(AB, w ) = 2 qui veut dire A ∈/ D.

On a le résultat général suivant :


Proposition 2.13.10. Soient H un hyperplan d’un espace affine E et F un
sous espace affine quelconque de E. Alors F est ou bien faiblement parallèle
à H ou bien F et H sont sécants.
Remarque 19. Donc le fait que le sous espace affine F n’est pas faiblement
prallèle au sous espace affine G n’entraine pas nécessairement qu’ils sont
sécants.

2.14 Produit scalaire


2.14.1 Produit scalaire usuel et angle dans R2 et R3
On muni R2 du repère orthonormé (O, Ð → e 2 ) avec Ð
e 1, Ð
→ e 1 = (1, 0) et Ð
→ →
e2=
(0, 1).
Soit Ðu = (x, y) et Ð
→ v = (x′ , y ′ ), on appelle produit scalaire (usuel) de Ð
→ →
u et Ð →
v
Ð→ Ð→
la valeur réel noté u . v
Ð

u .Ð

v = xx′ +yy ′
Dans R3 muni du repère orthonormé (O, Ð →e 1, Ð

e 2, Ðe 3 ) avec Ð
→ →e 1 = (1, 0, 0),
Ðe 2 = (0, 1, 0) et e 3 = (0, 0, 1), pour u = (x, y, z) et v = (x , y ′ , z ′ )
→ Ð
→ Ð
→ Ð
→ ′

36
Ð
→ Ð
→ Ð →
u .Ð

v = xx′ + yy ′ + zz ′ c’est le produit scalaire (usuel) de u et v .
On a Ð

u .Ð

u = x2 + y 2 + z 2 , on l’écrit Ð

u .Ð

u =Ð

u2

Propriétés 1. Pour tous vecteurs Ð



u ,Ð

v ,Ð
→ et α un scalaire on a :
w
u .( v + w ) = u . v + u . w
Ð
→ Ð
→ Ð
→ Ð
→ Ð
→ Ð
→ Ð

(Ð→
v +Ð →).Ð
w →u =Ð→
v .Ð
→u +Ð →.Ð
w →
u
(α u ). v = α( u . v )
Ð→ Ð→ Ð
→ Ð→
Ð

u .(αÐ→v ) = α(Ð

u .Ðv)

Ð
→ Ð
→ Ð

u.v = v .u Ð→
Ð
→Ð Ð→
0 .→
u =Ð →
u.0 =0
Ð

u2 ⩾0
Ð
→ Ð→
u2 =0↔Ð →
u = 0
(Ð→
u +Ð v )2 = Ð
→ →
u 2 + 2Ð
→u .Ð

v +Ð→
v2
(Ð→
u −Ð v )2 = Ð
→ →
u 2 − 2Ð
→u .Ð

v +Ð→
v2
( u + v )( u − v ) = u 2 − v 2
Ð→ Ð→ Ð→ Ð
→ Ð
→ Ð

● On dit que deux vecteurs Ð →


u et Ð

v sont orthogonaux si leur produit
scalaire est nul. On écrit :
Ð
→ Ð

u ⊥Ð→
v ⇔Ð →
u .Ð

v = 0
Exemples 15.
1. Les vecteurs u = (1, −2, 3) et Ð
Ð
→ v = (−1, 1, 1) sont orthogonaux.

2. Les vecteurs u = (4, 2) et v = (−3, 6) sont orthogonaux.
Ð
→ Ð

Norme d’un vecteur √


La norme de Ð u se note ∣∣Ð
→ u ∣∣. C’est un réel positif

√ et il est égal à Ð→
u 2.
Dans R3 la norme de u = (x, y, z) est égal à √x2 + y 2 + z 2 .
Ð

Dans R2 la norme √ u = (x, y) est égal à x2 + y [Link] R la norme de
de Ð

u = (x) est égal à x2 = ∣x∣.
Ð

Ð

Propriétés 2. ∣∣Ð
u ∣∣ = 0 ⇔ Ð
→ →
u = 0
∀α ∈ R on a ∣∣αÐ u ∣∣ = ∣α∣∣∣Ð
→ u ∣∣

Ð

u ⊥Ð v ⇔ ∣∣Ð
→ →
u +Ð v ∣∣2 = ∣∣Ð
→ u ∣∣2 + ∣∣Ð
→ v ∣∣2 (théorème de pythagore)

Distance entre deux points


Ð→
On appelle distance de deux points A et B la norme du vecteur AB.
Ð→
On la note : d(A, B) = ∣∣AB∣∣.

Angle entre deux vecteurs


On note (̂ Ð

u ,Ðv ) l’angle non orienté entre les deux vecteurs Ð
→ →
u et Ð→
v , c’est à
̂
dire l’angle tel que 0 ⩽ ( u , v ) ⩽ 180. On a alors la proposition suivante :
Ð→ Ð→

37
Proposition 2.14.1. Soit Ð
→u et Ð

v deux vecteurs quelconques. Alors :
Ð→ v = ∣∣Ð
u .Ð
→ u ∣∣ ∣∣Ð
→ → ̂
v ∣∣ cos(Ð

u v)


√ √ ̂
Exemple 2. Ð u = (2, 3) et Ð
→ v = (1, −1), on a :−1 = 13 2 cos(Ð
→ →
u ,Ð
→v ). On
Ð̂
détermine ( u , v ) = arccos(− √ ) ≃ 101, 31 (en °).
→ Ð→ 1
26
Angle entre deux droites
Par convension, on choisit toujours comme angle entre deux droites, l’angle
compris entre 0 et 90. Pour trouver cet angle, on prend un vecteur directeur
de chaque droite et on cherche l’angle entre les deux vecteurs. Si on trouve
un angle compris entre 0 et 90, il s’agit de l’angle entre les droites ; si l’angle
θ obtenu est situé entre 90 et 180, on chosit son supplément (180 − θ).
On dit que deux droites D1 et D2 sont perpendiculaires, D1 ⊥ D2 , si l’angle
entre les deux droites égales à 90.
Exemple 3. On considère les droites D1 ∶ y = 4x − 6 et D2 ∶ y = −x + 8.
Cherchons l’angle formé par ces deux droites.
Le vecteur (1, 4) est un vecteur directeur de D1 , tandis que (1, −1) est un de
D2 . D’où cos(θ) = √ √ .
−3
17 2
On détermine alors θ :
arccos( √ √ ) ≃ 120, 96 (en °).
−3
17 2
π
Comme θ est compris entre et π, l’angle ϕ cherché est le supplément de
2
θ:
ϕ = 180 − θ ≃ 59, 04 (en °).

2.15 Cas général


2.15.1 Produit scalaire
Définition 2.15.1. Soit E un espace vectoriel sur R. On appelle produit sca-
laire sur E toute application . ∶ E × E Ð→ R satisfaisant les conditions sui-
vantes :
Pour tous vecteurs Ð →
u ,Ð

v ,Ð→ de E et α un scalaire on a :
w
Ðu .( v + w ) = u . v + u . w
→ Ð
→ Ð
→ Ð
→ Ð→ Ð→ Ð

(Ð→
v +Ð →).Ð
w →
u =Ð →
v .Ð

u +Ð →.Ð
w →
u
α u . v = u .α v = α( u . v )
Ð
→ Ð
→ Ð
→ Ð
→ Ð→ Ð→
Ð→
u .Ð
→v =Ð→
v .Ð

u
Ð→ Ð

u.u ⩾0
Ð→ Ð→
u .Ð

u = 0 ⇐⇒ Ð →u = 0.

38
Définition 2.15.2.
1) Un espace vectoriel de dimension finie muni d’un produit scalaire est appelé
espace euclidien.
2) Un espace affine est dit euclidien si sa direction est un espace euclidien.
Définition 2.15.3.
1) Les vecteurs Ð→
u et Ð→
v sont dits orthogonaux si on a Ð →
u .Ð

v = 0.
2) On dit que le vecteur u est orthogonal à un sous espace vectoriel F si Ð
Ð→ →
u
est orthogonal à chaque vecteur de F .
3) les sous espaces vectoriels F et G sont dits orthogonaux (F ⊥ G) si tout
vecteur de l’un est orthogonal à l’autre, c’est à dire :
Ð

u ∈ F Ô⇒ Ð

u ⊥ G et Ð

v ∈ G Ô⇒ Ð

v ⊥ F.

Proposition 2.15.4. Soient F et F ′ deux sev d’un espace vectoriel E de bases


B et B ′ . Alors F et G sont orthogonaux si et seulement si

Pour tout Ð

u ∈F et tout Ð

v ∈ F′ on a Ð

u .Ð

v =0

Notation 4. L’ensemble des vecteurs orthogonaux à un espace vectoriel est


noté F ⊥ .
Proposition 2.15.5. Si F un sous espace vectoriel d’un espace vectoriel eucli-
dien E, alors F ⊥ est aussi un sous espace vectoriel de E.
Proposition 2.15.6. Soient E un espace vectoriel euclidien et F un sous es-
pace vectoriel de E. Alors F et F ⊥ sont supplémentaires dans E, c’est-à-dire,

F ⊕ F ⊥ = E.

Définition 2.15.7.
1) Une base B = (Ð u→n ) d’un espace vectoriel est dite orthonormée si
u→1 , . . . , Ð

u→j = {
Ð 0 si i ≠ j
u→i .Ð
1 si i = j

2) On dit qu’un repère cartésien R = (A, B) d’un espace affine est orthonormé
si B est une base orthonormée de sa direction.
Proposition 2.15.8. Soient E un espace vectoriel euclidien muni d’une base
orthonormée B = (Ð u→n ), Ð
u→1 , . . . , Ð u = (x1 , . . . , xn )B et Ð
→ v = (y1 , . . . , yn )B deux

vecteurs de E. Alors
Ð→
u .Ð→
v = x1 y1 + ⋯ + xn yn .

39
2.15.2 Vecteur normal
Définition 2.15.9. Soient E un espace affine euclidien, F et G deux sous
espaces affines de E. On dit que les sous espaces affines F et G sont perpen-
Ð
→ Ð

diculaires si les espaces vectoriels F ⊥ et G ⊥ sont orthogonaux.

Proposition 2.15.10. Soient E un espace affine euclidien, F et G deux sous


Ð
→ Ð

espaces affines de E. soient B une base de F ⊥ et B ′ une base de G ⊥ . Alors
F et G sont perpendiculaires si et seulement si

Pour tout Ð

u ∈B et tout Ð

v ∈ B′ on a Ð

u .Ð

v = 0.

Définition 2.15.11. Soit H un hyperplan affine d’un espace affine euclidien


E. On appelle vecteur normal de H tout vecteur Ð →
v vérifiant Ð

v .Ð

u = 0 pour
Ð→ Ð
→ Ð
→ Ð

tout u ∈ H, c’est à dire v ⊥ H.

Proposition 2.15.12. Deux vecteurs normaux d’un même hyperplan sont co-
linéaires (c’est à dire linéairement dépendants).
Ð

Remarque 20. La Proposition précédentes veut dire que H ⊥ est une droite
vectoriel.

Proposition 2.15.13. Soit H un hyperplan affine d’un espace affine euclidien


E ayant Ð
→v comme un vecteur normal et F un sous espaces affine quelconque
de E. Alors on a les assertions suivantes :
Ð

1) F est faiblement parallèle à H ⇐⇒ Ð →
v ⊥ F.
Ð

2) F est perpendiculaire à H ⇐⇒ Ð →v ∈ F.

Proposition 2.15.14. Soit H et H′ deux hyperplans affine d’un espace affine


euclidien E ayant Ð

v et Ð →v ′ comme vecteurs normaux. Alors :
1) H et H′ sont parallèles si et seulement si Ð

v et Ð

v ′ sont colinéaires.
2) H et H sont perpendiculaires si et seulement si v et Ð
′ Ð
→ →
v ′ sont orthogonaux.
3) Deux hyperplans de E sont ou bien parallèles ou bien sécants.

Remarque 21. les hyperplans d’un plan affine sont les droites, et ceux d’un
espaces affine de dimension 3 sont les plans. Donc, dans un plan, deux droites
sont ou bien parallèles ou bien sécantes, et dans un espace affine de dimension
3, deux plans sont ou bien parallèles ou bien sécants.
Ð

Proposition 2.15.15. soient E un espace affine euclidien, Ð→
v un vecteur de E
ÐÐ→ →
et A un point de E. Alors l’équation AM .Ðv = 0 est l’équation du hyperplan
Ð

passant par A est de vecteur normal v .

40
Cas particuliers
Soient E un plan affine euclidien muni d’un repère orthonormé R, D la droite
affine d’équation : D ∶ ax + by = c et Ð

v le vecteur de coordonnéesn(a, b).
Ð

Si R est orthonormé, alors v est un vecteur normal de D, en effet, on a
Ð

D ∶ ax + by = 0, et puisque R est orthonormé, on a Ð →v .(x, y) = ax + by pour
Ð→
tout vecteur (x, y) de E , et par suite v .(x, y) = 0 pour tout vecteur (x, y)
Ð

Ð

de D , c’est à dire, Ð

v est un vecteur normal de D.
On a le même résultat pour un plan d’un espace affine de dmension 3.
Remarque 22. On n’a plus ce résultat en général si le repère R n’est pas
orthonormé.
Dans un plan affine euclidien
Dans un plan affine euclidien E, on considère une droite D de vecteur normal
Ð

v et une droite D′ de vecteur normal Ð →
v ′ , alors :
1) D et D sont parallèles si et seulement si Ð
′ →
v et Ð→
v ′ sont colinéaires.
2) D et D′ sont perpendiculaires si et seulement si Ð →
v et Ð→
v ′ sont orthogonaux.
Cas particulier
Supposons, maintenant que E est muni d’un repère orthonormé, et que D et
D′ sont les droites d’équations ax + by = c et a′ x + b′ y = c′ . Alors :
D et D′ sont perpendiculaires si et seulement si aa′ + bb′ = 0.
Dans un espace affine euclidien de dimension 3
Dans un espace affine euclidien E de dimension 3, on considère un plan P
de vecteur normal Ð →v , un plan P ′ de vecteur normal Ð →
v ′ et une droite D de
Ð

vecteur directeur u . Alors :
1) P et P ′ sont parallèles si et seulement si Ð →
v et Ð→
v ′ sont colinéaires.
2) P et P ′ sont perpendiculaires si et seulement si Ð →
v et Ð→
v ′ sont orthogonaux.
3) D est faiblement parallèle à P si et seulement si v et Ð
Ð
→ →
u sont orthogonaux.
4) D et P sont perpendiculaires si et seulement si Ð →
v et Ð →
u sont colinéaires.
Ð→
5) D et P sont perpendiculaires si et seulement si u est orthogonal à une
Ð

base de P .
Cas particulier
Supposons, maintenant que E est muni d’un repère orthonormé, et que P et
P ′ sont les plans d’équations ax + by + cz = d et a′ x + b′ y + c′ z = d′ , et une
droite D de vecteur directeur Ð u de coordonnées (α, β γ). Alors :

1) P et P ′ sont perpendiculaires si et seulement si aa′ + bb′ + cc′ = 0.
2) D est faiblement parallèle à P si et seulement si aα + bβ + cγ = 0.
Ð

3) D et P sont perpendiculaires si et seulement si P est parallèle au plan
αx + βy + γz = 0.
4) D et P sont perpendiculaires si et seulement si rg(Ð →
v,Ð u ) = 1.

Ð

5) Si (u1 , u2 ) est une base de P tel que u1 à pour coordonnées (t1 , t2 , t3 ) et

41
u2 à pour coordonnées (s1 , s2 , s3 ), alors :
D et P sont perpendiculaires si et seulement si αt1 + βt2 + γt3 = 0 et αs1 +
βs2 + γs3 = 0.

42
Chapitre 3

Les applications linéaires

Dans tous ce chapitre et dans les suivants, K désignera un corps commu-


tatif quelconque (le plus souvent K = R ou C).

3.1 Généralités
Définition 3.1.1. Soient E et F deux K-ev et f ∶ E Ð→ F une application.
On dit que f linéaire (ou K-linéaire) si pour tous vecteurs u, v ∈ E et tous
scalaires α, β ∈ K, on a :

f (αu + βv) = αf (u) + βf (v).

Vocabulaire et notations.
● L’ensemble des applications linéaires de E dans F est noté L (E, F ).
● Une application linéaire de E dans E est appelée endomorphisme de E.
● L’ensemble des endomorphismes de E est noté L (E).
● Une application linéaire bijective de E dans F est appelée isomorphisme
de E dans F .
● Un endomorphisme bijectif de E est appelé automorphisme de E.
● L’ensemble des automorphismes de E est noté Gl(E) ou Aut(E).
● Une application linéaire de E dans K est appelée forme linéaire sur E.

Remarque 23. Dans la définition des applications linéaires, on voit claire-


ment que les espaces vectoriels de départ et d’arrivée E et F doivent néces-
sairement être définis sur le même corps K.

Remarque 24. Soient E et F deux K-ev et f ∶ E Ð→ F une application


linéaire. Alors f (0E ) = 0F . En effet, f (0E ) = f (0K .0E ) = 0K .f (0E ) = 0F .

43
Proposition 3.1.2. Soient E et F deux K-ev et f ∶ E Ð→ F une application.
Alors f est linéaire si et seulement si pour tous vecteurs u, v ∈ E et tout
scalaire α ∈ K, on a :
1. f (u + v) = f (u) + f (v) ;
2. f (αu) = αf (u).

Démonstration.
Supposons que f est linéaire. Alors pour avoir 1. il suffit de prendre α = β = 1
dans l’égalité f (αu + βv) = αf (u) + βf (v), et pour avoir 2. il suffit de prendre
β = 0.
Réciproquement, Supposons qu’on a 1. et 2.. Soit u, v ∈ E et α, β ∈ K. On a
alors d’aprés 1. on a f (αu + βv) = αf (u) + f (βv) et d’après 2. on a αf (u) +
f (βv) = αf (u) + βf (v). D’où le résulta.

Proposition 3.1.3. Soient E et F deux K-ev et f ∶ E Ð→ F une application.


Alors f est linéaire si et seulement si pour tous vecteurs u, v ∈ E et tout
scalaire α ∈ K, on a :

f (αu + v) = αf (u) + f (v).

Démonstration. Facile.

Proposition 3.1.4. Soient E et F deux K-ev et f ∶ E Ð→ F une application


linéaire. Pour tout n ∈ N∗ , pour tous scalaires α1 , . . . , αn dans K et pour tous
vecteurs u1, . . . , un dans E, on a :

f (α1 u1 + ⋯ + αn un ) = α1 f (u1 ) + ⋯ + αn f (un ).

Démonstration. La démonstration se fait par récurrence sur n. L’affirmation


est vrai pour n = 1. Supposons lre résultat est vraie pour n. Posons w =
α1 u1 + ⋯ + αn un , alors f (α1 u1 + ⋯ + αn un + αn+1 un+1 ) = f (w + αn+1 un+1 ) =
f (w)+αn+1 f (un+1 ). D’après l’hypothèse de récurrence, on a f (w) = α1 f (u1 )+
⋯+αn f (un ). Par suite, f (α1 u1 +⋯+αn un +αn+1 un+1) = α1 f (u1 )+⋯+αn f (un )+
αn+1 f (un+1 ). Donc le résultat est vraie pour n + 1, donc pour tout n ∈ N∗ .

Exemple 4. L’application

f ∶ E Ð→ F
u z→ 0F

est linéaire. f est dite l’application nulle.

44
Exemple 5. L’application

idE ∶ E Ð→ E
u z→ u

est un endomorphisme. idE est dite l’application identité de E.


Exemple 6. Soit H un sev de E. L’application

f ∶ H Ð→ E
u z→ u

est linéaire et injective. f est dite l’injection canonique.


Exemple 7. Soit H un sev de E et soit

f ∶ E Ð→ F
u z→ f (u)

une application linéaire.


L’application

f∣H ∶ H Ð→ F
u z→ f (u)

est linéaire. f∣H est dite la restriction de f à H.


Exemple 8. Soit H un sev de E et soit G un sev de F . Soit f ∶ E Ð→ F une
application linéaire.
Si f (H) ⊆ G, alors

f ∶ H Ð→ G
u z→ f (u)

est aussi une application linéaire appelée l’application induite par f de H


dans G.
Cas particulier : Soit f ∶ E Ð→ E un endomorphisme de E et soit H un
sev de E stable par f , c’est-à-dire, f (H) ⊆ H. L’application

f ∶ H Ð→ H
u z→ f (u)

est un endomorphisme de H appelé l’endomorphisme induit par f sur H.

45
Exemple 9. Soit λ ∈ K un scalaire fixé. L’application
hλ ∶ E Ð→ E
u z→ λu
est un endomorphisme. hλ est dite l’homothétie de rapport λ.
Exemple 10. Soientt H et G deux sev de E tels quie E = H ⊕ G.
L’application
p1 ∶ E Ð→ H
u = u1 + u2 z→ u1
et
p2 ∶ E Ð→ G
u = u1 + u2 z→ u2
u1 ∈ H et u2 ∈ G, sont des applications linéaires. p1 est appelée la projection
de E sur H parallèlement à G. p2 est la projection de E sur G parallèlement
à H
Exemple 11. Soit K[X] le K-ev des polynômes. L’application
D ∶ K[X] Ð→ K[X]
P z→ P ′
est un endomorphisme. D est dite l’application dérivée (ou de différentia-
tion).
Voici quelques exemples d’applications non linéaires :
Exemple 12. Soit w un vecteur non nul fixé de E et soit
tw ∶ E Ð→ E
u z→ u + w
la translation de vecteur w. On a tw (0E ) = w donc tw (0E ) ≠ 0E et par suite
tw n’est pas linéaire.
Exemple 13. L’application
f ∶ R2 Ð→ R
(x, y) z→ xy
n’est pas linéaire. En effet, on a f (2(4, 3)) = f (8, 6) = 48 et 2f (4, 3) = 2×12 =
24. Donc f (2(4, 3)) ≠ 2f (4, 3).

46
Exemple 14. L’application

f ∶ R2 Ð→ R
(x, y) z→ x + y + 1

n’est pas linéaire. En effet, on a f (0, 0) = 1 ≠ 0.

3.2 Image directe et Image réciproque d’un sous-


espace vectoriel
Thoérème 3.2.1. Soient E et F deux K-ev et f ∶ E Ð→ F une application
linéaire.
1. Si H est un sev de E, son image directe f (H) = {f (u)/u ∈ H} est un sev
de F .
2. Si T est un sev de F , son image réciproque f −1 (T ) = {u ∈ E/f (u) ∈ T } est
un sev de E.

Démonstration.
1. On a 0E ∈ H, donc f (0E ) = 0F ∈ f (H) et par suite f (H) est non vide.
Soient u, v ∈ f (H) et α ∈ K. Soient u′ , v ′ ∈ H tels que f (u′ ) = u et f (v ′ ) = v.
On a αu + v = αf (u′ ) + f (v ′ ) = f (αu′ + v ′ ). Comme H est un sev de E, alors
αu′ + v ′ ∈ H et donc αu + v ∈ f (H). Par suite f (H) est un sev de F .
2. On a f (0E ) = 0F ∈ T , donc 0E ∈ f −1 (T ) et par suite f −1 (T ) est non vide.
Soient u, v ∈ f −1 (T ) et α ∈ K. On a f (u) ∈ T et f (v) ∈ T . Comme T est un sev
de F , alors αf (u)+f (v) ∈ T , donc f (αu+v) ∈ T , c’est-à-dire, αu+v ∈ f −1 (T ).
Par suite f −1 (T ) est un sev de E.

En particulier on a :
● f (E) est un sev de F .
● f −1 (0F ) est un sev de E.

Définition 3.2.2.
● Le sev f (E) est appelé l’image de f et noté Im(f ).
● Le sev f −1 (0F ) est appelé noyau de f et noté ker(f ).

Remarque 25. L’image réciproque f −1 (A) de A est définie même si l’ap-


plication f n’est pas bijective. Par suite, il ne faut pas confondre l’image
réciproque f −1 (A) de A et l’image de A par f −1 , car peut être f −1 n’existe
pas. Cependant, si f −1 existe, c’est-à-dire si f est bijective, alors on peut
faire la confusion sans problème.

47
Remarque 26.
● v ∈ f (H) ⇐⇒ ∃u ∈ H ∶ f (u) = v.
● v ∈ Im(f ) ⇐⇒ ∃u ∈ E ∶ f (u) = v.
● u ∈ f −1 (T ) ⇐⇒ ∃v ∈ T ∶ f (u) = v ⇐⇒ f (u) ∈ T .
● u ∈ ker(f ) ⇐⇒ f (u) = 0F .
Exercice 6. Soit E un K-ev et soit F un ensemble quelconque muni d’une loi
interne ⋆ et d’une loi externe △. Soit f ∶ E Ð→ F une application vérifiant

∀α, β ∈ K, ∀u, v ∈ E ∶ f (αu + βv) = (α △ f (u)) ⋆ (β △ f (v)).

1. Montrer que (Im(f ), ⋆, △) est un K-ev.


2. En déduire que si f est surjective alors (F, ⋆, △) est un K-ev.
Conclusion : Si f est surjective, la structure d’espace vectoriel de E peut
être transférer à F via f .
Proposition 3.2.3. Soient E et F deux K-ev et f ∶ E Ð→ F une application
linéaire. Alors :
1. f est injective si et seulement si ker(f ) = {0E }.
2. f est surjective si et seulement si Im(f ) = F .
Démonstration.
1. Supposons que f est injective. On sait que 0E ∈ ker(f ) puisque ker(f )
est un sev de E. Soit u ∈ ker(f ), alors f (u) = 0F , donc f (u) = f (0E ) et
comme f est injective, on a u = 0E . Par suite ker(f ) = {0E }. Réciproquement,
Supposons que ker(f ) = {0E }. Soient u, v ∈ E tels que f (u) = f (v). On a
f (u) − f (v) = 0F , donc f (u − v) ∈ ker(f ) d’où f (u − v) = 0F , alors u − v = 0E ,
c’est-à-dire, u = v. ce qui veut dire que f est injective.
2. On a

f est surjective ⇐⇒ f (E) = F


⇐⇒ Im(f ) = F.

Exemple 15. Soit K un corps de caractéristique 0 et soit D ∶ K[X] Ð→ K[X]


l’application dérivation. On a ker(D) = K et Im(D) = K[X]. Par suite D
est surjective mais n’est pas injective.
Exemple 16. Soit α ∈ K, α ≠ 0, et soit hα ∶ E Ð→ E l’homothétie de rapport
α. On a ker(hα ) = {0E } et Im(hα ) = E. Par suite hα est à la fois surjective
et injective et donc hα est un automorphisme de E.
Exemple 17. Soit E = F ⊕ H et soit p la projection de E sur F parallèlement
à H. On a ker(p) = H et Im(p) = F .

48
Proposition 3.2.4. Soit f ∶ E Ð→ F une application linéaire injective. Alors
on a :
1. Si A est une famille finie libre de E alors la famille f (A) est libre dans
F.
2. Si A est une famille quelconque libre de E alors la famille f (A) est libre
dans F .
Démonstration.
1. Supposons que A = {u1 , . . . , un } est une famille libre.
Soient α1 , . . . , αn ∈ K. On a

α1 f (u1 ) + ⋯ + αn f (un ) = 0F Ô⇒ f (α1 u1 + ⋯ + αn un ) = 0F


Ô⇒ α1 u1 + ⋯ + αn un = 0E car f est injective
Ô⇒ α1 = ⋯ = αn = 0 car A est libre

Par suite A est une famille libre.


2. On sait que par définition A est une famille libre veut dire que toute partie
finie de A est libre. L’assertion découle donc imméditement de 1..
Proposition 3.2.5. Soit f ∶ E Ð→ F une application linéaire et soit A une
partie de E. Alors on a :
1. A est une famille liée de E Ô⇒ f (A) est une famille liée de F .
2. f (A) est une famille libre de F Ô⇒ A est une famille libre de E.
Démonstration.
1. Si A est liée alors il existe une famille finie d’éléments u1 , . . . , un de A
et ∃α1 , . . . , αn ∈ K non tous nuls tels que α1 u1 + ⋯ + αn un = 0E . Puisque
f (α1 u1 + ⋯ + αn un ) = α1 f (u1 ) + ⋯ + αn f (un ), on a α1 f (u1 ) + ⋯ + αn f (un ) = 0F
et donc f (A) est une famille liée de F .
2. N’est autre que la contraposée de 1..
Proposition 3.2.6. Soit f ∶ E Ð→ F une application linéaire et soit H un sev
de E. Si A est une famille génératrice de H alors la famille f (A) engendre
f (H).
Démonstration. On veut montrer que

H = sev⟨A⟩ Ô⇒ f (H) = sev⟨f (A)⟩.

On a A ⊆ H, donc f (A) ⊆ f (H), alors sev⟨f (A)⟩ ⊆ f (H).


Inversement, Soit u ∈ f (H). Alors u = f (v) avec v ∈ H. Comme H est engen-
dré par A, il existe une famille finie d’éléments u1 , . . . , un ∈ A et α1 , . . . , αn ∈ K
tels que que v = α1 u1 +⋯+αn un . Donc u = f (α1 u1 +⋯+αn un ) = α1 f (u1 )+⋯+

49
αn f (un ), ce qui veut dire que u est une combinaison linéaire finie d’éléments
de f (A). Par suite u ∈ sev⟨f (A)⟩ et donc f (H) ⊆ sev⟨f (A)⟩. En conclusion,
f (H) = sev⟨f (A)⟩.

Corollaire 3.2.7. Soit f ∶ E Ð→ F une application linéaire et soit A une


famille génératrice de E. Alors Im(f ) = sev⟨f (A)⟩.

Démonstration. D’après la proposition 3.2.6 on a f (E) = sev⟨f (A)⟩. Or


f (E) = Im(f ), donc Im(f ) = sev⟨f (A)⟩.

Corollaire 3.2.8. Soit f ∶ E Ð→ F une application linéaire surjective et soit


A une famille génératrice de E. Alors f (A) est une famille génératrice de F .

Démonstration. Il suffit d’appliquer le corollaire 3.2.7 et d’utliser le fait que


f est surjective signifie que Im(f ) = F .

Thoérème 3.2.9. Soient f ∶ E Ð→ F une application linéaire et B une base


de E. Alors On a les équivalences suivantes :
1. f est injective ⇐⇒ f (B) est libre dans F .
2. f est surjective ⇐⇒ f (B) engendre F .
3. f est bijective ⇐⇒ f (B) est une base de F .

Démonstration.
1. Si f est injective alors, d’après la proposition 3.2.4, f (B) est libre dans
F puisque B l’est dans E. Réciproquement, supposons que f (B) est libre
dans F . Soit u ∈ E tel que f (u) = 0. Puisque B est une base de E, il existe
une famille finie d’éléments u1 , . . . , un ∈ B et α1 , . . . , αn ∈ K tels que que
u = α1 u1 + ⋯ + αn un . Donc

f (u) = f (α1 u1 + ⋯ + αn un ) = α1 f (u1 ) + ⋯ + αn f (un ),

alors
α1 f (u1 ) + ⋯ + αn f (un ) = 0.
Comme f (B) = {f (u1), . . . , f (un )} est libre, on a α1 = ⋯ = αn = 0 et donc
u = 0. Par suite f est injective.
2. Si f est surjective alors, d’après le corollaire 3.2.8, f (B) engendre F
puisque B engendre E. Réciproquement, supposons que f (B) est une fa-
mille génératrice de F . Alors F = sev⟨f (B)⟩ et puisque Im(f ) = sev⟨f (B)⟩,
alors F = Im(f ) et donc f est surjective.
3. Découle de 1. et 2..

50
3.3 Structure des endomorphismes
Proposition 3.3.1. Soient E et F deux K-ev. Alors L (E, F ) muni des lois :
∀f, g ∈ L (E, F ), ∀u ∈ E, ∀α ∈ K

(f + g)(u) = f (u) + g(u)

et
(αf )(u) = αf (u)

est un K-ev.

Démonstration. Soit F (E, F ) l’ensemble de toutes les application de E dans


F . Il est clair que L (E, F ) est un sous-ensemble de F (E, F ). Il suffit donc
de montrer que L (E, F ) est un sev de F (E, F ).
On a L (E, F ) ≠ ∅ car il contient l’application nulle.
Soit f, g ∈ L (E, F ) et α ∈ K. Montrons que h = αf + g ∈ L (E, F ). Pour cela
soit u, v ∈ E et λ ∈ K. Alors

h(λu + v) = (αf )(λu + v) + g(λu + v)


= αf (λu + v) + g(λu + v)
= α(λf (u) + f (v)) + λg(u) + g(v)
= αλf (u) + αf (v) + λg(u) + g(v)
= λ(αf + g)(u) + (αf + g)(v)
= λh(u) + h(v).

Donc h ∶ E Ð→ F est une application linéaire. On a montré alors que ∀λ ∈ K,


∀f, g ∈ L (E, F ) : αf + g ∈ L (E, F ). Ceci montre bien que L (E, F ) est un
sev de F (E, F ) et donc un espace vectoriel.

Proposition 3.3.2. Soient E, F et G des K-ev. Alors


1. Si f ∈ L (E, F ) et g ∈ L (F, G), alors g ○ f ∈ L (E, G).
2. Pour tout f, g ∈ L (E, F ), h, k ∈ L (F, G) et ∀α ∈ K :
(i) h ○ (f + g) = h ○ f + h ○ g.
(ii) (h + k) ○ f = h ○ f + k ○ f .
(iii) h ○ (αf ) = (αh) ○ f = α(h ○ f ).
3. Si f est bijective alors f −1 ∈ L (F, E), c’est-à-dire f −1 est linéaire.

Démonstration.

51
1. Soit α ∈ K et u, v ∈ E. On a

(g ○ f )(αu + v) = g ○ f (αu + v)
= g(f (αu + v))
= g(αf (u) + f (v)) car f est linéaire
= αg(f (u)) + g(f (v)) car g est linéaire
= α(g ○ f )(u) + (g ○ f )(v).

Donc g ○ f ∈ L (E, G).


2. Soient u ∈ E et α ∈ K.
(i) On a

(h ○ (f + g))(u) = h ○ (f + g)(u)
= h((f + g)(u))
= h(f (u) + g(u))
= h(f (u)) + h(g(u)) car h est linéaire
= h ○ f (u) + h ○ g(u)
= (h ○ f + h ○ g)(u).

Donc h ○ (f + g) = h ○ f + h ○ g.
(ii) Cette égalité est vraie même pour des applications qui ne sont pas li-
néaires, et sa preuve est évidente.
(iii) On a

(h ○ (αf ))(u) = h((αf )(u))


= h(αf (u))
= αh(f (u)) car h est linéaire
= (αh) ○ f (u)
= (αh ○ f )(u)
= α(h ○ f )(u).

Donc h ○ (αf ) = (αh) ○ f = α(h ○ f ).


3. Soit f ∈ L (E, F ) une application linéaire bijective. Soient α ∈ K et u, v ∈
F . Posons w = f −1 (αu + v), f −1 (u) = u′ et f −1 (v) = v ′ . On a alors

f (w) = αu + v = αf (u′ ) + f (v ′ ) = f (αu′ + v ′ ),

comme f est injective, on a w = αu′ +v ′ = αf −1 (u)+f −1 (v). Par suite f −1 (αu+


v) = αf −1 (u) + f −1 (v). En conclusion f −1 est une application linéaire.

52
Proposition 3.3.3. Soit E un K-ev. On muni l’ensemble L (E) des endo-
morphismes de E des deux opérations :

(f, g) Ð→ f + g

et
(f, g) Ð→ f ○ g
Alors (L (E), +, ○) est un anneau unitaire (en général n’est pas commutatif ).

Démonstration. On vérifie tous les points de la définition d’un anneau uni-


taire.
1. Il est évident que (L (E), +) est un groupe abélien et que son élément
neutre est l’endomorphisme nul

θE ∶ E Ð→ E
u z→ 0E

2. On sait que ∀f, g, h ∈ L (E), on a f ○ (g ○ h) = (f ○ g) ○ h. Donc la loi ○ est


associative.
3. Les points 2. (i) et 2. (ii) de la proposition 3.3.2 montre bien que la loi ○
est distributive par rapport à la loi +.
4. La loi ○ possède un élément neutre, qui est l’application identité.
Ansi (L (E), +, ○) est un anneau unitaire.

D’après ce qui précède on a le résultat suivant


Proposition 3.3.4. Soit E un K-ev. On muni l’ensemble L (E) des endo-
morphismes de E des opérations :

(f, g) Ð→ f + g

(α, f ) Ð→ α.f = αf
(f, g) Ð→ f ○ g
On a
● (L (E), +, .) est un K-ev ;
● (L (E), +, ○) est un anneau unitaire ;
● h ○ (αf ) = (αh) ○ f = α(h ○ f ) pour tous h, f ∈ L (E) et pour tout α ∈ K.
On dit que (L (E), +, ., ○) est une algèbre unitaire sur K (ou une K-algèbre
unitaire).
Rappelons la définition plus générale suivante

53
Définition 3.3.5. Soit A un ensemble. On dit que A est une algèbre sur K
(ou une K-algèbre) si A est muni de deux lois de composition internes, noté
habituellement + et ×, et d’une lois externe . sur K telle que :
1. (A, +, .) est un K-ev ;
2. (A, +, ×) est un anneau ;
3. α.(a × b) = (α.a) × b = a × (α.b) pour tous a, b ∈ A et tout α ∈ K.
On dit aussi dans ce cas que (A, +, ., ×) est une algèbre sur K (ou une K-
algèbre).
De plus :
● Si (A, +, ×) est unitaire, i.e la loi × admet un élément neutre, on dit que
(A, +, ., ×) est une algèbre unitaire.
● Si la loi × est commutative, on dit que (A, +, ., ×) est une algèbre commu-
tative.
Proposition 3.3.6. Soit E un K-ev et soit Gl(E) l’ensemble des automor-
phismes de E. Alors (Gl(E), ○) est un groupe (en général n’est pas commu-
tatif ), appelé groupe linéaire de E.

Démonstration. D’après la proposition 3.3.3, (Gl(E), ○) est un monoı̈de et


d’après le point 3. de la proposition 3.3.2, tout élément de Gl(E) est inver-
sible. En conclusion, (Gl(E), ○) est un groupe.

3.4 Applications linéaires en dimension finie


On sait que l’injectivité ou la surjectivité d’une application a une infulence
sur les cardinaux de ses ensembles de départ et d’arrivée. La proposition
suivante montre que dans le cas d’une application linéaire, l’injectivité ou la
surjectivité de cette application a aussi une infulence sur les dimensions de
ses ensembles de départ et d’arrivée.
Proposition 3.4.1. Soient E et F deux espaces vectoriels de dimensions finies
et soit f ∶ E Ð→ F une application linéaire. Alors :
1. f est injective Ô⇒ dim(E) ≤ dim(F ).
2. f est surjective Ô⇒ dim(F ) ≤ dim(E).
3. f est bijective Ô⇒ dim(E) = dim(F ).

Démonstration.
1. Soit B une base de E. f est injective entraine que f (B) est une famille
libre de F et par suite card(f (B)) ≤ dim(F ), or card(f (B)) = card(B) car
f est injective. Donc dim(E) ≤ dim(F ).
2. Soit B une base de E. f est surjective entraine que f (B) est une fa-
mille génératrice de F et par suite card(f (B)) ≥ dim(F ). Puisque card(B) ≥

54
card(f (B)), alors dim(E) ≥ dim(F ).
2. Découle de 1. et 2..

Remarque 27. Soient C et D deux ensembles quelconques et f ∶ C Ð→ D une


application. Soit A une partie quelconque de C. Alors on a :
1. card(f (A)) ≤ card(A).
2. Si f est injective alors card(f (A)) = card(A).
Remarque 28. Soient E et F deux espaces vectoriels de dimensions finies et
soit f ∶ E Ð→ F une application linéaire. Les contraposées des propositions
1., 2. et 3. de la proposition 3.4.1 s’écrivent :
1. dim(E) > dim(F ) Ô⇒ f n’est pas injective.
2. dim(E) < dim(F ) Ô⇒ f n’est pas surjective.
3. dim(E) ≠ dim(F ) Ô⇒ f n’est pas bijective.
Dans le cas particuler où E et F ont même dimension, on obtient le
résultat suivant :
Proposition 3.4.2. Soient E et F deux K-ev de dimensions finies et soit
f ∶ E Ð→ F une application linéaire. On suppose que dim(E) = dim(F ).
Alors les conditions suivantes sont équivalentes :
1. f est injective.
2. f est surjective.
3. f est bijective.

Démonstration.
1. ⇐⇒ 3. Supposons que f est injective et soit B une base de E. Alors f (B)
est une famille libre de F qui engendre Im(f ). Ce qui signifie que f (B) est une
base de Im(f ), donc dim(Im(f )) = card(f (B)), or card(f (B)) = card(B)
car f est injective. Donc dim(Im(f )) = dim(E), alors dim(Im(f )) = dim(F ).
Comme Im(f ) est un sev de F , on a Im(f ) = F , c’est-à-dire, f est surjective
et par suite bijective.
2. ⇐⇒ 3. Supposons que f est surjective et soit B une base de E. Alors
f (B) est une famille génératrice de F , donc dim(F ) ≤ card(f (B)). Comme
card(f (B)) ≤ card(B) = dim(E) = dim(F ), alors card(f (B)) ≤ dim(F ), il
s’ensuit que card(f (B)) = dim(F ). Par suite f (B) est une base de F et donc
d’après le théorème 5.2.1, on a f est bijective.

Remarque 29. La proposition 3.4.2 ne reste pas valable on dimension infinie.


Par exemple, si K est un corps de caractéristique 0, l’endomorphisme dérivé
D ∶ K[X] Ð→ K[X] est surjectifmais n’est pas injectif.
On a le corollaire suivant :

55
Corollaire 3.4.3. Soit f un endomorphisme d’un espace vectoriel de dimen-
sion finie E. Alors

f est injective ⇐⇒ f est surjective ⇐⇒ f est bijective

Définition 3.4.4. On appelle rang d’une application linéaire f la dimension


de Im(f ). On écrit rg(f ) = dim(Im(f )).
Remarque. Soit f ∶ E Ð→ F une application linéaire. Si F est de dimension
finie alors rg(f ) est aussi fini. Si E est dimension finie, alors on a aussi
rg(f ) est fini, car si B est une famille génératrice finie de E alors f (B) est
une famille génératrice finie de Im(f ).
Thoérème 3.4.5. (Théorème du rang) Soit E un K-ev de dimension finie et
F un K-ev quelconque. Soit f ∶ E Ð→ F une application linéaire. Alors

dim(E) = dim(ker(f )) + rg(f ).

Démonstration. Posons dim(E) = n et dim(ker(f )) = p. Considérons une


base (u1 , . . . , up ) de ker(f ) et complétons la en une base B = (u1 , . . . , up , v1 , . . . , vn−p )
de E. Montrons que L = (f (v1 ), . . . , f (vn−p )) est une base de Im(f ). On sait
que f (B) engendre Im(f ), or f (B) = {0, f (v1 ), . . . , f (vn−p )} et donc L en-
gendre Im(f ). Montrons que L est libre. On a α1 f (v1 )+⋯+αn−p f (vn−p ) = 0 en-
traı̂ne f (α1 v1 +⋯+αn−p vn−p ) = 0 et donc α1 v1 +⋯+αn−p vn−p ∈ ker(f ). Par suite,
α1 v1 +⋯+αn−p vn−p = β1 u1 +⋯+βp up et donc α1 v1 +⋯+αn−p vn−p −β1 u1 −⋯−βp up =
0 et puisque B est libre, alors α1 = ⋯ = αn−p = 0. D’où L est libre et donc une
base de Im(f ). En conclusion, dim(Im(f)) = n − p = dim(E) − dim(ker(f )) et
donc dim(E) = dim(ker(f )) + rg(f ).
Propriétés 3. Soit E un K-ev de dimension n et F un K-ev de dimension
m. Soit f ∶ E Ð→ F une application linéaire. Alors
1. rg(f ) ≤ n avec égalité si et seulement si f est injective.
2. rg(f ) ≤ m avec égalité si et seulement si f est surjective.
3. Soit α ∈ K, α ≠ 0. On a rg(αf ) = rg(f ).
Démonstration. Voir TD.
Propriétés 4. Soit E un K-ev de dimension finie et soient f et g deux
endomorphismes de E. Alors
1. ∣rg(f ) − rg(g)∣ ≤ rg(f + g) ≤ rg(f ) + rg(g).
2. rg(f ○ g) ≤ min(rg(f ); rg(g))
3. Si f est injectif alors rg(f ○ g) = rg(g).
4. Si g est surjectif alors rg(f ○ g) = rg(f ).
Démonstration. Voir TD.

56
Le théorème suivant montre qu’une application linéaire est complètement
déterminée par les données des images des éléments d’une base.
Thoérème 3.4.6. Soient E et F deux K-ev et B = {u1 , . . . , un } une base de E.
Soient v1 , . . . , vn n vecteurs quelconque de F . Alors il existe alors une unique
application linéaire f ∶ E Ð→ F telle que

f (u1 ) = v1 , . . . , f (un ) = vn .

Démonstration. Existence de f : Soit v ∈ E. Puisque B est une base de E,


le vecteur v s’écrit de façon unique sous la forme v = α1 u1 + ⋯ + αn un où
α1 , . . . , αn ∈ K. On pose alors f (v) = α1 v1 + ⋯ + αn vn . IL est clair que f est
bien définie et ceci est dû à l’unicité des scalaires α1 , . . . , αn . Montrons que
f est linéaire. Pour cela soit v = α1 u1 + ⋯ + αn un ey w = β1 u1 + ⋯ + βn un deux
vecteurs de E et soit λ ∈ K. On a

λv + w = (λα1 + β1 )u1 + ⋯ + (λαn + βn )un ,

donc

f (λv + w) = (λα1 + β1 )v1 + ⋯ + (λαn + βn )vn


= λ(α1 v1 + ⋯ + αn vn ) + (β1 v1 + ⋯ + βn vn )
= λf (v) + f (w).

En conclusion, f est linéaire. De plus il est clair que f (u1 ) = v1 , . . . , f (un ) =


vn .
Unicité de f : Soit g ∶ E Ð→ F une application linéaire telle que

g(u1 ) = v1 , . . . , g(un ) = vn .

On a (f − g)(u1 ) = 0F , . . . , (f − g)(un ) = 0F , donc (f − g)(B) = {0F }, alors


Im(f − g) = sev⟨{0F }⟩ = {0F }, d’où (f − g)(u) = 0F , ∀u ∈ E. Par suite
f = g.
Remarque 30.
1. Le théorème précédent fournit un outil important pour construire des ap-
plications linéaires
2. Dans le théorème précédent, On peut remplacer une base de E par une
famille génératrice de E. Dans ce cas, on a l’unicité si on a l’existence.
3. Le théorème précédent reste valable même si E n’est pas de dimension
finie.
On a les deux corollaires suivants qui sont des conséquences immédiates
du théorème 3.4.6.

57
Corollaire 3.4.7. Soient f ∶ E Ð→ F et g ∶ E Ð→ F deux applications linéaires
et B = {u1 , . . . , un } une base de E. Alors

f = g ⇐⇒ f (u1 ) = g(u1), . . . , f (un ) = g(un ).

Corollaire 3.4.8. Soient f ∶ E Ð→ F une applications linéaires et B = {u1, . . . , un }


une base de E. Alors

f est identiquement nulle ⇐⇒ f (u1 ) = ⋯ = f (un ) = 0F .

Exercice 7. Démontrer le théorème 3.4.6 en utilisant les projections pi ∶ E Ð→


kui .
Exemple 18. On considère les R-ev R2 et R3 . Déterminer l’unique applica-
tion linéaire f ∶ R2 Ð→ R3 telle que

f (1, 0) = (1, −1, 1), f (0, 1) = (1, 0, 1)

Comme {(1, 0), (0, 1)} est une base de R2 , le théorème 3.4.6 assure l’existence
et l’unicité de l’application f . Soit u = (x, y) ∈ R2 . On a u = x(1, 0) + y(0, 1),
donc f (u) = x(1, −1, 1) + y(1, 0, 1) = (x + y, −x, x + y). Par suite f est défini
par
f (x, y) = (x + y, −x, x + y)
Exercice 8. Soit K un corps commutatif quelconque et n ∈ N∗ .
1. Soient a1 , . . . , an des éléments non tous nuls de K. En utilisant le théo-
rème 3.4.6, montrer que l’ensemble S des solutions du système homogène

(S) ∶ a1 x1 + ⋯ + an xn = 0

est un sev de dimension n − 1 de K n , c’est-à-dire S est un hyperplan de K n .


2. Réciproquement, Soit H un hyperplan quelconque de K n .
(i) Montrer l’existence d’une application linéaire f ∶ K n Ð→ K telle que
H = ker(f ).
(ii) En déduire l’existence d’une famille d’éléments a1 , . . . , an non tous nuls
de K tels que H est l’ensemble des solutions du système homogène

a1 x1 + ⋯ + an xn = 0.

3.5 Isomorphismes
Rappelons qu’on dit que deux ensembles ont la même cardinalité s’il existe
une bijection entre eux. Dans ce qui suit nous allons considérer des espaces

58
vectoriels et nous allons remplacer la cardinalité par l’isomorphisme. On va
voir par la suite, que l’isomorphisme joue le même rôle dans la théorie de
espaces vectoriels (généralement dans la théorie des structures algébriques)
que la cardinalité dans la théorie des ensembles.
On considère l’ensemble de tous les espaces vectoriels sur un corps commutatif
K Donné. On définit sur cet ensemble la relation suivante :

E RF ⇐⇒ il existe un isomorphisme f ∶ E Ð→ F

Alors R est une relation d’équivalence. En effet :


● On a IdE ∶ E Ð→ E est un isomorphisme. Donc E R E, c’est-à-dire, R est
réflixive.
● Si f ∶ E Ð→ F est un isomorphisme, alors f −1 ∶ F Ð→ E est aussi un iso-
morphisme. Donc R est symétrique.
● Si f ∶ E Ð→ F et g ∶ F Ð→ G sont des isomorphismes, alors g ○ f ∶ E Ð→ G
est aussi un isomorphisme. Donc R est transitive.
La relation d’équivalence R ainsi défini sera par la suite noté ≃. Il est ainsi
légitime, puisque ≃ est symétrique, de dire que deux K-ev E et F sont iso-
morphes lorsque E ≃ F .
Puisque ≃ est une relation d’équivalence, il est naturel de se demander quelles
sont les classes d’équivalences modulo ≃.

Thoérème 3.5.1. Soit E un K-espace vectoriel non nul de dimension finie.


Alors on a
dim(E) = n ⇐⇒ E ≃ K n

Démonstration.
Ô⇒) Supposons que dim(E) = n et soit B = {u1 , . . . , un } une base de
E. Soit C = {e1 , . . . , en } une base quelconque de K n . On sait d’après le
théorème 3.4.6 qu’il existe une application linéaire f ∶ E Ð→ K n telle que
f (u1 ) = e1 , . . . , f (un ) = en . Puisque f (B) = C, alors f (B) est une base de
K n . Donc d’après la proposition 3.4.2, f est un isomorphisme, d’où E ≃ K n .
⇐Ô) Supposons que E ≃ K n . Soit B une base de E. Alors d’après la pro-
position 3.4.2, f (B) est une base de K n . Donc card(f (B)) = dim(K n ) = n.
Comme card(B) = card(f (B)), alors dim(E) = n.

Comme conséquence, nous avons le corollaire suivant :

Corollaire 3.5.2. Soient E et F deux K-espaces vectoriels de dimensions


finies. Alors on a
dim(E) = dim(F ) ⇐⇒ E ≃ F

59
Démonstration. On suppose que E et F sont tous les deux non nuls (dans
le cas contraire, le résultat est évident). Posons n = dim(E), alors d’apès le
théorème 3.5.1 on a E ≃ K n .
Si dim(E) = dim(F ) alors F ≃ K n et donc par transitivité E ≃ F . Réci-
proquement, Si E ≃ F , alors F ≃ K n et donc d’apès le théorème 3.5.1 on a
dim(F ) = n. D’où le résultat.
Exercice 9. Monter que l’application

f ∶ R2 Ð→ C
(x, y) z→ x + iy

est un isomorphisme et en déduire que dimR (C) = 2.

60
Chapitre 4

Matrices

4.1 Généralités
Définition 4.1.1. Soient n et m deux entiers naturels non nuls. On appelle
matrice d’ordre (ou de type, ou de taille) n×m à coefficient dans K un tableau
de scalaires à n lignes et m colonnes de la forme

⎛ a11 a12 ⋯ a1m ⎞


⎜a ⋯ a2m ⎟
A = ⎜ 21 22 ⎟
a
⎜. . . . . . . . . . . . . . . . . . ⎟
⎝an1 an2 ⋯ anm ⎠

où les aij ∈ K s’appellent les coefficients (ou les éléments) de la matrice A.
Si n = m on dit que A est une matrice carrée d’ordre n.
Notations 1.
1. On note par Mn,m (K) l’ensemble des matrices d’ordre n×m à coefficients
dans K.
2. On note par Mn (K) l’ensemble des matrices carrées d’ordre n à coeffi-
cients dans K.
3. La matrice A pourra être écrite de façon abrégée :

A = (aij ) 1≤i≤n Si A est une matrice d’ordre n × m,


1≤j≤m

A = (aij )1≤i,j≤n Si A est une matrice carrée d’ordre n,


ou tout simplement
A = (aij )
s’il n’y a pas de confusion sur l’ordre.
4. Pour une matrice A = (aij ) le premier indice i correspond au numéro de

61
la ligne et le second indice j au numéro de la colonne. Ainsi le coefficient aij
est situé à l’intersection de la ligne numéro i avec la colonne numéro j.
5. Parfois on note Aij le coefficient aij de la matrice A.
6. On note par Li (A) la ligne i de A et Cj (A) la colonne j de A. Avec ces
notations on a
⎛ L1 (A) ⎞
⎜ L (A) ⎟
A=⎜ 2 ⎟
⎜ ⋮ ⎟
⎝Ln (A)⎠

et
A = (C1 (A) C2 (A) . . . Cm (A))
Encore quelques définitions et notations :
• La diagonale d’une matrice carrée A = (aij )1≤i,j≤n est constituée des
éléments situés sur la diagonale de la matrice A. Les éléments a11 , . . . , ann
de la diagonale de A sont dits les coefficients diagonaux.
Soit
⎛ 1 √0 2⎞
A=⎜2 3 4⎟ ,
⎝−1 4 7⎠

les oefficients diagonaux de A sont 1, 3 et 7.
• On appelle matrice colonne toute matrice d’ordre n × 1. On dit aussi
que c’est un vecteur colonne et elle de la forme

⎛ a1 ⎞
⎜ a2 ⎟
⎜ ⎟
⎜⋮⎟
⎝an ⎠

• On appelle matrice ligne toute matrice d’ordre 1 × n. On dit aussi que


c’est un vecteur ligne et elle de la forme

(a1 a2 . . . an )

• On dit que la matrice carrée A est diagonale si ∀i, j tels que i ≠ j on


a Aij = 0. Par suite une matrice diagonale est de la forme

⎛a1 0 ⋯ 0 ⎞
⎜ 0 a2 ⋱ ⋮ ⎟
A=⎜ ⎟
⎜ ⋮ ⋱ ⋱ 0⎟
⎝ 0 ⋯ 0 an ⎠

62
On la note A = diag(a1 , . . . , an ).

⎛1 √0 0⎞
A = ⎜0 2 0⎟ ,
⎝0 0 3 ⎠

est une matrice diagonale d’ordre 3.


• La matrice In = diag(1, . . . , 1) d’ordre n est appelée la matrice identité
d’ordre n.
⎛1 0 0 0⎞
⎜0 1 0 0⎟
I4 = ⎜ ⎟,
⎜0 0 1 0⎟
⎝0 0 0 1⎠
est la matrice identité d’ordre 4.
• La matrice carrée diag(λ, . . . , λ) d’ordre n est appelée matrice scalaire.

⎛ i 0 0⎞
A = ⎜0 i 0 ⎟ ,
⎝0 0 i ⎠
est une matrice scalaire.
• La matrice d’ordre n × m dont tous les coefficients sont des zéros est
appelée la matrice nulle et est notée 0n,m . Donc la matrice 0n est la
matrice scalaire d’ordre n : 0n = diag(0, . . . , 0).

⎛0 0⎞
03,2 = ⎜0 0⎟ ,
⎝0 0⎠

⎛0 0 0⎞
03 = ⎜0 0 0⎟ ,
⎝0 0 0⎠
• Une matrice triangulaire supérieure est une matrice carrée A = (aij )1≤i,j≤n
telle que aij = 0 si i > j, donc A est de la forme

⎛a11 a12 ⋯ a1n ⎞


⎜ 0 a22 ⋱ ⋮ ⎟
⎜ ⎟
⎜ ⋮ ⋱ ⋱ an−1n ⎟
⎝ 0 ⋯ 0 ann ⎠

⎛1 √0 5⎞
A = ⎜0 2 −1⎟ ,
⎝0 0 3⎠
est une matrice triangulaire supérieure.

63
• Une matrice triangulaire inférieure est une matrice carrée A = (aij )1≤i,j≤n
telle que aij = 0 si i < j, donc A est de la forme

⎛ a11 0 ⋯ 0 ⎞
⎜ a21 a22 ⋮ ⎟
⎜ ⎟

⎜ ⋮ ⋱ ⋱ 0 ⎟
⎝an1 ⋯ ann−1 ann ⎠

⎛1 √0 0⎞
A = ⎜2 2 0 ⎟,
⎝4 0 −7⎠

est une matrice triangulaire inférieure.

Définition 4.1.2. Soit A une matrice d’ordre n × m. La transposée de A est


la matrice notée AT dont les lignes sont les colonnes de A.

Remarques 6.
1. Si A = (aij ) 1≤i≤n alors AT = (bji )1≤j≤m avec bji = aij .
1≤j≤m 1≤i≤n
2. Si A est d’ordre n × m alors AT est d’ordre m × n.
3. Si A est une matrice carrée d’ordre n alors AT est aussi une matrice car-
rée d’ordre n.
4. On a Li (A) = Ci (AT et Li (AT ) = Ci (A).
5. Le transposée d’une matrice triangulaire supérieure est une matrice trian-
gulaire inférieure.
6. Le transposée d’une matrice triangulaire inférieure est une matrice trian-
gulaire supérieure.

Exemples 16.
⎛1 5 ⎞
[Link] A = ( ) alors A = ⎜2 7 ⎟.
1 2 3 T
5 7 6 ⎝3 6 ⎠
T T T
2. In = In , 0n = 0n et 0n,m = 0m,n .
3 (αA)T = αAT .
4. Si A est une matrice scalaire alors AT = A.
5. On peut avoir AT = A sans que soit une matrice scalaire. En effet, consi-
dérons la matrice
⎛1 2 3 ⎞
A = ⎜2 7 6 ⎟
⎝3 6 7 ⎠

Il est clair que AT = A. On dit que A est une matrice symétrique.

64
6. On peut avoir AT = −A. Par exemple

⎛ 0 2 −3⎞
A = ⎜−2 0 6 ⎟
⎝ 3 −6 0 ⎠

On a
⎛ 0 −2 3 ⎞ ⎛ 0 2 −3⎞
A = ⎜ 2 0 −6⎟ = − ⎜−2 0 6 ⎟ = −A
T

⎝−3 6 0 ⎠ ⎝ 3 −6 0 ⎠
On dit que A est une matrice antisymétrique.
Définition 4.1.3. Soient A et B deux matrices de même ordre. On dit que
A = B si Aij = Bij pour tout i et j.

4.2 L’espace vectoriel Mn,m (K)


L’ensemble Mn,m (K) des matrices d’ordre n × m à coefficients dans K
est un K-espace vectoriel. Les lois sont définies par :
(ai,j ) + (bi,j ) = (ai,j + bi,j ) et λ(ai,j ) = (λai,j )
Exemples 17. Soient

A=( ) et B = ( )
1 2 3 −1 2 3
1
5 −2 6 1 3 3
alors √
2A = ( ) et A + B = ( )
2 4 6 0 2+ 2 6
−5
10 −4 12 6 3 9
Cherchons une base et la dimension du K-ev Mn,m (K). Pour cela on
considère le cas où n = 2 et m = 3. Soit

A=( ).
a11 a12 a13
a21 a22 a23
Décomposans A sous la forme

⎛1 0 0⎞ ⎛0 1 0 ⎞ ⎛0 0 1⎞
A = a11 ⎜0 0 0⎟ + a12 ⎜0 0 0⎟ + a13 ⎜0 0 0⎟
⎝0 0 0⎠ ⎝0 0 0 ⎠ ⎝0 0 0⎠
⎛0 0 0⎞ ⎛0 0 0 ⎞ ⎛0 0 0⎞
+ a21 ⎜1 0 0⎟ + a22 ⎜0 1 0⎟ + a23 ⎜0 0 1⎟
⎝0 0 0⎠ ⎝0 0 0 ⎠ ⎝0 0 0⎠

65
Soit Eij la matrice d’ordre 2 × 3 dont tous les coefficients sont des zéro sauf
celui en position (i, j) qui vaut 1. On a montré alors que toute matrice de
M2,3 (K) s’écrit de manière unique comme combinaison linéaire des matrices
Eij . Par suite la famille
{Eij /1 ≤ i ≤ 2, 1 ≤ j ≤ 3}
est une base du K-ev M2,3 (K). On a alors dimK (M2,3 (K)) = 2 × 3 = 6.
De la même façon on montre toute matrice A = (aij ) 1≤i≤n de Mn,m (K) s’écrit
1≤j≤m
de manière unique comme combinaison linéaire des matrices Eij . Plus péci-
sement on a n m
A = ∑ ∑ aij Eij = ∑ aij Eij .
i=1 j=1 1≤i≤n
1≤j≤m
Donc la famille
{Eij /1 ≤ i ≤ n, 1 ≤ j ≤ m}
est une base du K-ev Mn,m (K) On a alors dimK (Mn,m (K)) = nm.
Définition 4.2.1. Les matrices Eij défini ci-dessus constituent une base de
l’espace vectoriel Mn,m (K) appelée la base canonique de l’espace vectoriel
Mn,m (K).

4.3 Produit matriciel


Soient A = (a1 . . . am ) ∈ M1,m (K) une matrice ligne qui a m colonnes
⎛ b1 ⎞
et B = ⎜ ⋮ ⎟ ∈ Mm,1 (K) une matrice colonne qui a m lignes. On appelle
⎝bm ⎠
produit AB la matrice (a1 b1 + ⋯ + am bm ) ∈ M1,1 (K) qui est constituée par un
seul coefficient.
Par exemple

⎛ 5⎞ √ √
(−4 2 3) ⎜ 4 ⎟ = ((−4 × 5) + (2 × 4) + (3 × 7)) = (29 − 4 5)
⎝ 7 ⎠
Soient maintenant A ∈ Mn,m (K) et B ∈ Mm,p (K). On appelle produit AB la
matrice C ∈ Mn,p (K) dont les coefficients sont définis par Cij = Li (A)Cj (B).
Par suite
⎛ L1 (A)C1 (B) L1 (A)C2 (B) . . . L1 (A)Cp (B) ⎞
⎜ L (A)C1 (B) L2 (A)C2 (B) . . . L2 (A)Cp (B) ⎟
AB = ⎜ 2 ⎟
⎜ ⋮ ⋮ ... ⋮ ⎟
⎝Ln (A)C1 (B) Ln (A)C2 (B) . . . Ln (A)Cp (B)⎠

66
On utilisant les coefficients des deux matrices on obtient :
Si A = (aij ) 1≤i≤n et B = (Bij )1≤i≤m , alors C = (cij )1≤i≤n avec
1≤j≤m 1≤j≤p 1≤j≤p

⎛ b1j ⎞
cij = (ai1 . . . aim ) ⎜ ⋮ ⎟
⎝bmj ⎠
=ai1 b1j + ⋯ + aik bkj + ⋯ + aim bmj
m
= ∑ aik bkj .
k=1

Remarques 7.
1. Le produit de deux matrice n’est défini que si le nombre de colonnes de la
première matrice est égal au nombre de lignes de la deuxième matrice et le
produit d’une matrice d’ordre n × m par une matrice d’ordre m × p est une
matrice d’ordre n × p.
2. En particulier :
● Si A est d’ordre n × m et B est d’ordre m × n, alors AB est une matrice
carrée d’ordre n.
● Si A est d’ordre n × m et B est une matrice colonne d’ordre m × 1, alors
AB est une matrice colonne d’ordre n × 1.
● Si A est une matrice ligne d’ordre 1 × m et B est d’ordre m × n, alors AB
est une matrice ligne d’ordre 1 × n.
Exemples 18.
1.
⎛ 1 3 −1⎞ ⎛ 2 ⎞ ⎛−5⎞
⎜ 2 −2 0 ⎟ ⎜−1⎟ = ⎜ 6 ⎟
⎝−1 4 5 ⎠ ⎝ 4 ⎠ ⎝ 14 ⎠

2.
⎛ 1 3 −1⎞
(2 −1 4) ⎜ 2 −2 0 ⎟ = (−4 24 18)
⎝−1 4 5 ⎠

3.
⎛1⎞
(2 −1 4) ⎜2⎟ = (12)
⎝3⎠

4.
⎛1⎞ ⎛2 −1 4 ⎞
⎜2⎟ (2 −1 4) = ⎜4 −2 8 ⎟
⎝3⎠ ⎝6 −3 12⎠

67
5.
⎛ 1 3 −1⎞ ⎛1⎞ ⎛1 ⎞
(2 −1 4) ⎜ 2 −2 0 ⎟ ⎜2⎟ = (−4 24 18) ⎜2⎟ = (106)
⎝−1 4 5 ⎠ ⎝3⎠ ⎝3 ⎠

6. Si A est une matrice d’ordre n × m, alors A × 0m,p = 0n,p et 0p,n × A = 0p,m .


7. Si A est une matrice carrée d’ordre n, alors A × 0n = 0n × A = 0n et
A × In = In × A = A.
Proposition 4.3.1. Pour toutes matrices A, B et C, si les opérations indiquées
existent, on a les égalités suivantes :
1. A(B + C) = AB + AC
2. (B + C)A = BA + CA
3. (AB)C = A(BC)

Démonstration.
1. Soient A ∈ Mn,m (K) et B, C ∈ Mm,p (K). On a

B + C = (Bij + Cij )

Posons D = A(B + C), U = AB et V = AC. Alors


m
Uij = ∑ Aik Bkj
k=1

m
Vij = ∑ Aik Ckj
k=1

Dij = ∑ Aik (Bkj + Ckj ) = ∑ Aik Bkj + ∑ Aik Ckj


m m m

k=1 k=1 k=1

Il est clair que Dij = Uij + Vij et donc A(B + C) = AB + AC.


2. Soient A ∈ Mm,n (K) et B, C ∈ Mn,m (K). On a

B + C = (Bij + Cij )

Posons D = (B + C)A, BA = U et CA = V . Alors


m
Uij = ∑ Bik Akj
k=1

m
Vij = ∑ Cik Akj
k=1

68
Dij = ∑ (Bik + Cik )Akj = ∑ Bik Akj + ∑ Cik Akj
m m m

k=1 k=1 k=1

Il est clair que Dij = Uij + Vij et donc (B + C)A = BA + CA.


3. Soient A ∈ Mn,m (K) et B ∈ Mm,p (K) et C ∈ Mp,q (K).
Posons D = AB ∈ Mn,p (K), U = DC ∈ Mn,q (K), V = BC ∈ Mm,q (K) et
W = AV ∈ Mn,q (K). Alors
m
Dij = ∑ Aik Bkj
k=1

p
Uij = ∑ Dik Ckj
k=1

p
Vij = ∑ Bik Ckj
k=1

m
Wij = ∑ Aik Vkj
k=1

On veut montrer que U = W . On a Dik = ∑m


s=1 Ais Bsk , donc

p p p
Uij = ∑ Dik Ckj = ∑ (∑ Ais Bsk )Ckj = ∑ ∑ Ais Bsk Ckj
m m

k=1 k=1 s=1 k=1 s=1

et
p p
Wij = ∑ Ais Vsj = ∑ Ais ( ∑ Bsk Ckj ) = ∑ Ais ∑ Bsk Ckj
m m m

s=1 s=1 k=1 k=1 s=1

Donc
m p
Wij = ∑ ∑ Ais Bsk Ckj
k=1 s=1

Puisque les indices k et s sont indépendantes, alors on peut échanger l’ordre


p
des sommations ∑m k=1 et ∑s=1 pour obtenir

p m
Wij = ∑ ∑ Ais Bsk Ckj = Uij
s=1 k=1

En conclusion U = W et donc (AB)C = A(BC).

Thoérème 4.3.2. (Mn (K), +, ., ×) est une algèbre unitaire sur K (en général
n’est pas commutatif ).

69
Démonstration. On a (Mn (K), +, .) est un K-ev.
D’après la proposition 4.3.1, (Mn (K), +, ×) est un anneau.
Mn (K) est unitaire et In son unité.
Soient α ∈ K et A, B ∈ Mn (K). On vérifie facilement que α(AB) = (αA)B =
A(αB).
En conclusion, (Mn (K), +, ., ×) est une algèbre unitaire sur K.

Remarque 31. La loi × n’est pas commutative. En effet considérons

A=( ) et B = ( )
−1 3 1 3
2 −2 2 −2

On a
AB = ( )
5 −9
−2 10

BA = ( )
5 −3
−2 10
On a alors AB ≠ BA.
Remarque 32. Le produit de deux matrices non nulles peut être nul, c’est-à-
dire,
AB = 0 ⇏ A = 0 ou B = 0.
En effet considérons
A=( ) et B = ( )
−1 1 1 1
−1 1 1 1
On a
AB = ( )
0 0
0 0
On a alors AB = 0.
Remarque 33. Soit A et B deux matrices carrées de même ordre. Alors

(A + B)2 = A2 + AB + BA + B 2

(A − B)2 = A2 − AB − BA + B 2
(A + B)(A − B) = A2 − AB + BA − B 2
En général on n’a pas (A+B)2 = A2 +2AB +B 2 , mais d’après la remarque
précédente, si on suppose que A et B commutent, c’est-à-dire, AB = BA,
alors on a l’identité (A + B)2 = A2 + 2AB + B 2 . D’une façon général on le
Résultat suivant dit formule de binôme de Newton :

70
Proposition 4.3.3. Soient A, B ∈ Mn (K) où K est un corps de caractéristique
0. On suppose que AB = BA. Alors pour tout p ∈ N on a

(A + B) = ∑ ( )Ak B p−k où ( ) =


m
m p m m!
.
k=0 k k k!(m − k)!
Démonstration. Voir la fiches d’exercices N°3.
Rappels.
1. Soit R un anneau commutatif unitaire d’unité 1R et soit
IR = {n ∈ N⋆ /n1R = 0} où n1R = 1R + 1R + ⋯ + 1R .
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¶
n fois

Si IR ≠ ∅, alors IR admet un plus petit élément q. L’entier q est appelé La


caractéristique de R et se note car(R) = q.
Si IR ≠ ∅, alors on dit que La caractéristique de R est nulle, c’est-à-dire,
car(R) = 0.
2. Si R est un anneau intègre et si car(R) ≠ 0, alors on montre facilement
que car(R) = p est un nombre premier. En particulier, si R = K est un corps,
alors car(K) = p est un nombre premier.
Exemples : car(Z) = car(Q) = car(R) = car(C) = 0 et car(Z/5Z) = 5.
Exercice 10.
1. On sait que si p est un nombre premier alors on a
p divise k! ⇐⇒ k ≥ p.
On suppose que K est un corps de carctéristique p (un nombre premier).
m!
Dans ce cas si k ≥ p, alors k! est un multiple de p, donc k! = 0 et k!(m−k)! n’est
pas défini. Cela signifie que le résultat de la proposition précédente n’est pas
valide.
m!
Cependant dans le cas où m < p, k!(m−k)! est bien défini car k! ≠ 0 et (m−k)! ≠
0 puisque k! ≤ m < p et (m − k)! ≤ m < p. Donc on peut dans ce cas utiliser la
formule du binôme.
2. Montrer que le résultat de la proposition précédente reste valide dans un
corps K quelconque à condition de définir les coefficients binomiaux par la
relation de récurrence suivante :
( ) = 1, ( ) = 1, ( ) = m
m m m
0 m 1
et

( )=( )+( )
m m−1 m−1
k k k−1
dite formule de Pascal.

71
Exercice 11.
1. Montrer que (A + B)T = AT + B T et (αA)T = αAT . Par suite l’application

f ∶ Mn,m (K) Ð→ Mm,n (K)


A z→ AT

est linéaire. En particulier, l’application

g ∶ Mn (K) Ð→ Mn (K)
A z→ AT

est un endomorphisme.
3. Montrer que g est un automorphisme de ∶ Mn (K).
4. Montrer que (AT )T = A et en déduire que g −1 = g.
2. Montrer que (AB)T = B T AT .
3. Montrer que AAT et AT A sont des matrice carrées.
4. On dit que A est une matrice symétrique si AT = A.
(i) Montrer que si A est symétrique alors A est une matrice carrée.
(ii) Montrer que AAT et AT A sont deux matrices symétriques.
Définition 4.3.4. (puissance d’une matrice)
Soit A une matrice carrée d’ordre m et n un entier naturel non nul. La nième
puissance de A est donné par

An = A × A × ⋯ × A
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶
n fois

Remarque 34. Par convention on pose A0 = Im si A est une matrice carrée


quelconque d’ordre m.
Exercice 12. Montrer que (An )m = Anm et An Am = An+m .
Exercice 13.
1. Montrer que (An )T = (AT )n .
2. Montrer que si A est une matrice triangulaire (supérieure ou inférieure)
à diagonale nulle d’ordre m alors Am = 0.
3. Soit A = diag(a1 , . . . , am ) une matrice diagonale. Montrer An = diag(an1 , . . . , anm ).
4. Soit A = ( ). Montrer par récurrence que pour tout n ∈ N :
0 1
−2 3

An = ( ).
2 − 2n 2n − 1
2 − 2n+1 2n+1 − 1

72
⎛2 0 1 ⎞ ⎛0 0 1⎞
5. Soient B = ⎜0 2 1⎟ et N = ⎜0 0 1⎟.
⎝0 0 2 ⎠ ⎝0 0 0⎠
2
(i) Montrer que N = 0 et que B − N = 2I3 .
(ii) Déterminer B n en remarquons que B = 2I3 + N et N × (2I3 ) = (2I3 ) × N.

Définition 4.3.5. Une matrice carrée A de Mn (K) est dite inversible, s’il
existe une matrice B ∈ Mn (K) telle que

AB = In et BA = In .

On dit que B est l’inverse de A et on la note A−1 .


L’ensemble des matrices inversibles de Mn (K) est noté GLn (K).

Remarque 35. Une matrice carrée non inversible est dite singulière.

Propriétés 5. Soient A, B ∈ Mn (K). Alors on a les


1. Montrer que l’inverse de A s’il existe elle est unique.
2. Montrer que (A−1 )−1 = A et que In−1 = In .
2. Montrer que AB = In ⇐⇒ BA = In .
3. Montrer que si A et B sont inversible alors la matrice AB est inversible
et on a (AB)−1 = B −1 A−1 .
4. Montrer que si A est inversible alors la matrice AT est inversible et on a
(AT )−1 = (A−1 )T .
5. Montrer que si A est inversible alors la matrice Am est inversible pour
tout m ∈ N et on a (Am )−1 = (A−1 )m .

Démonstration. Voir la fiche d’exercices N°3.

Proposition 4.3.6. L’ensemble GLn (K) muni de la multiplication est un


groupe appelé le groupe linéaire des matrices d’ordre n.

Démonstration.
In est l’élément neutre de GLn (K) car AIn = In A = A.
On a A(BC) = (AB)C donc × est associative.
tout élément A de GLn (K) est inversible. Par suite (GLn (K), ×) est un
groupe.

73
4.4 Écriture matricielle d’un système d’équations
linéaires
Considérons le système d’équations linéaires suivant





a1,1 x1 + ⋯ + a1,n xn = b1





a2,1 x1 + ⋯ + a2,n xn = b2

⎪ .
(S) ⎨
. . .




. . . .




. . . .


⎩ ap,1 x1 + ⋯ + ap,n xn = bp

On vérifie facilement que que le système (S) peut être présenté sous la forme
matricielle suivante
AX = B
où
⎛a1,1 a1,2 ⋯ a1,n ⎞ ⎛ x1 ⎞ ⎛b1 ⎞
⎜a ⋯ a2,n ⎟ ⎜x ⎟ ⎜b ⎟
A = ⎜ 2,1 2,2 ⎟, X = ⎜ 2⎟ et B = ⎜ 2 ⎟ .
a
⎜ ⋮ ⋮ ⋯ ⋮ ⎟ ⎜ ⋮ ⎟ ⎜⋮⎟
⎝ap,1 ap,2 ⋯ ap,n ⎠ ⎝xn ⎠ ⎝ bb ⎠

On remarque que A est la matrice des coefficients du système (S) et B son


second membre.
Par exemple, considérons le système suivant

(S) {
2x − 3y + 5z = 1
3x + 2z = 4

Posons
⎛x⎞
A=( ), X = ⎜y ⎟ et B = ( )
2 −3 5 1
3 0 2 ⎝z ⎠ 4

On a
AX == ( )
2x − 3y + 5z
3x + 2z
et donc

AX = B ⇐⇒ { ⇐⇒ (x, y, z) ∈ S.
2x − 3y + 5z = 1
3x + 2z = 4

74
4.4.1 Calcul de l’inverse
Si A est une matrice inversible, alors l’équation AX = B admet une unique
solution X = A−1 B. En effet, on a AX = A(A−1 B) = AA−1 B = In B = B. Donc
X = A−1 B est une solution de l’équation AX = B. Supposons maintenat que
X et X ′ sont des solutions de l’équation AX = B. Alors AX = AX ′ , donc
A − 1(AX) = A−1 (AX ′ ), d’où A−1 AX = A−1 AX ′ , par suite In X = In X ′ et
donc X = X ′ .
⎛ y1 ⎞
⎜y ⎟
Supposons maintenant que A est d’ordre n et soit Y = ⎜ 2 ⎟. Soit (S) le
⎜⋮⎟
⎝yn ⎠
système d’équation dont l’écriture matricielle est AX = Y et le système (H)
d’équation dont l’écriture matricielle A−1 Y = X. On a évidemment
AX = Y ⇐⇒ X = A−1 Y
et donc
(x1 , . . . , xn ) ∈ S ⇐⇒ (y1 , . . . , yn ) ∈ H.
Comme application de ces résultats on a la proposition suivante
Proposition 4.4.1. Soit A une matrice inversible d’ordre n et soit (S) le
système d’équation dont l’écriture matricielle est AX = Y . La resolution
du système (S) donne naissance à une matrice carrée B d’ordre n telle que
BY = X. La matrice B ainsi obtenue est l’inverse de A, c’est-à-dire B = A−1 .
Exemple 19. Soit la matrice
⎛ 1 2 −2⎞
A = ⎜−1 3 0 ⎟
⎝ 0 −2 1 ⎠
Montrer que A est inversible et calculer son inverse.
Soient
⎛x1 ⎞ ⎛y 1 ⎞
X = ⎜x2 ⎟ et Y = ⎜y2 ⎟
⎝x3 ⎠ ⎝y 3 ⎠
On a
⎛ 1 2 −2⎞ ⎛x1 ⎞ ⎛y1 ⎞
AX = Y ⇐⇒ ⎜−1 3 0 ⎟ ⎜x2 ⎟ = ⎜y2 ⎟
⎝ 0 −2 1 ⎠ ⎝x3 ⎠ ⎝y3 ⎠

⎪ x1 + 2x2 −2x3 = y1


⇐⇒(S) ⎨ −x1 + 3x2

= y2


⎩ −2x2 +x3 = y3

75
On résout le système (S), on obtient que (S) est un système de Cramer
et donc A est une matrice inversible. On trouve x1 = 3y1 + 2y2 + 6y3, x2 =
y1 + y2 + 2y3 et x3 = 2y1 + 2y2 + 5y3 . On obtient alors le nouveau système
suivant



⎪ 1
3y + 2y2 + 6y3 = x1
⎨ y1 + y2 + 2y3 = x2



⎩ 2y1 + 2y2 + 5y3 = x3
Ce dernier système peut s’écrire matriciellement

⎛3 2 6⎞ ⎛y1 ⎞ ⎛x1 ⎞
⎜1 1 2⎟ ⎜y2 ⎟ = ⎜x2 ⎟
⎝2 2 5⎠ ⎝y3 ⎠ ⎝x3 ⎠

La matrice inverse de A est donc

⎛3 2 6 ⎞
A−1 = ⎜1 1 2⎟ .
⎝2 2 5 ⎠

4.5 Matrices d’applications linéaires


4.5.1 Matrice d’une famille de vecteurs
Soit E une espace vectoriel et soit B = (u1 , . . . , un ) une base de E. Soit
v un vecteur de E et considérons les coordonnées de v dans la base B, vB =
(a1 , . . . , an ). On appelle matrice du vecteur v dans la base B, la matrice
colonne MatB (v) = vBT , c’est-à-dire,

⎛ a1 ⎞
MatB (v) = ⎜ ⋮ ⎟
⎝an ⎠

Soit H = (v1 , . . . , vm ) une famille de vecteurs de E. On appelle matrice


de H dans la base B, la matrice colonne MatB (H) dont les colonnes sont
Ci (MatB (H)) = MatB (vi ). Donc si viB = (a1i , . . . , ani ), alors

⎛ a11 a12 ⋯ a1m ⎞


⎜a ⋯ a2m ⎟
MatB (H) = ⎜ 21 22 ⎟
a
⎜ ⋮ ⋮ ⋯ ⋮ ⎟
⎝an1 an2 ⋯ anm ⎠

76
Exemple 20. Soit B la base canonique de R2 [X].
Soient P1 = 6X 2 − 1, P2 = (X + 1)2 , P3 = 4 − X, P4 = 3X 2 + 5X, P5 = 0. Alors

⎛−1 1⎞ ⎛1 −1⎞ ⎛−1 −1⎞


MatB (P1 , P2 ) = ⎜ 0 2⎟ , MatB (P2 , P1 ) = ⎜2 0 ⎟ MatB (P1 , P1 ) = ⎜ 0 0 ⎟
⎝ 6 1⎠ ⎝1 6 ⎠ ⎝6 6⎠

⎛−1 0 4 0⎞
MatB (P1 , P5 , P3 , P4 ) = ⎜ 0 0 −1 5⎟
⎝ 6 0 0 3⎠

4.5.2 Matrice d’une application linéaire


Dans ce qui suit
● E et F désignent deux K-ev de dimensions finies, supposés non nuls.
● B = (u1 , . . . , un ) désigne une base de E et B ′ = (v1 , . . . , vm ) une base de F .
● f ∶ E Ð→ F une application linéaire.
Définition 4.5.1. La matrice de f dans les bases B et B ′ est la matrice de la
famille (f (u1 ), . . . , f (un )) dans la base B ′ . Cette matrice est notée

MatB,B′ (f ) ∈ Mm,n (K).

Par suite,
MatB,B′ (f ) = MatB′ (f (u1 ), . . . , f (un )).
Notation 5. Si E = F et B = B ′ , la matrice MatB,B (f ) est notée tout
simplement MatB (f ).
Proposition 4.5.2. Soit w un vecteur quelconque de E. Alors

MatB′ (f (w)) = MatB,B′ (f )MatB (w).

Donc la connaissance de la matrice MatB,B′ (f ) permet de de calculer f (w)


pour tout w ∈ E, c’est-à-dire, de retrouver f .

Démonstration. Posons

wB = (a1 , . . . , an ), c’est-à-dire, w = a1 u1 + ⋯ + an un

f (w)B′ = (b1 , . . . , bm ), c’est-à-dire, f (w) = b1 v1 + ⋯ + bm vm


MatB,B′ (f ) = (cij )1≤i≤m
1≤j≤n

77
On a alors
⎛ ⎞
n

⎛ c11 c12 ⋯ c1n ⎞ ⎛ a1 ⎞ ⎜ ∑ c1j aj ⎟


⎜c c22 ⋯ c2n ⎟ ⎜ a2 ⎟ ⎜ ⎟
MatB,B′ (f )MatB (w) = ⎜ 21 ⎟⎜ ⎟ = ⎜ ⎟.
j=1

⎜. . . . . . . . . . . . . . . . . . ⎟ ⎜ ⋮ ⎟ ⎜ ⎟
n

⎜ j=1 ⋮ ⎟
c 2j aj
⎝cm1 cm2 ⋯ cmn ⎠ ⎝an ⎠ ⎜ ⎟
⎝∑nj=1 cmj aj ⎠

D’autre part, par défintion de la matrice MatB,B′ (f ), on a

f (u1 ) = ∑ ci1 vi , f (u2 ) = ∑ ci2 vi , f (un ) = ∑ cin vi .


m m m
...,
i=1 i=1 i=1

Puisque w = a1 u1 + a2 u2 + ⋯ + an un , alors
f (w) =a1 f (u1 ) + a2 f (u2 ) + ⋯ + an f (un )
m m m
=a1 ∑ ci1 vi + a2 ∑ ci2 vi + ⋯ + an ∑ cin vi
i=1 i=1 i=1
m m m
= ∑ ci1 a1 vi + ∑ ci2 a2 vi + ⋯ + ∑ cin an vi
i=1 i=1 i=1
=(c11 a1 v1 + c12 a2 v1 + ⋯ + c1n an v1 ) + (c21 a1 v2 + c22 a2 v2 + ⋯ + c2n an v2 )+
⋯⋯ + (cm1 a1 vm + cm2 a2 vm + ⋯ + cmn an vm )
=(c11 a1 + c12 a2 + ⋯ + c1n an )v1 + (c21 a1 + c22 a2 + ⋯ + c2n an )v2 +
⋯⋯ + (cm1 a1 + cm2 a2 + ⋯ + cmn an )vm

=(∑ c1j aj )v1 + (∑ c2j aj )v2 + ⋯ + (∑ cmj aj )vm


n n n

j=1 j=1 j=1

Par suite
f (w)B′ = (∑ c1j aj , ∑ c2j aj , . . . , ∑ cmj aj )
n n n

j=1 j=1 j=1

En conclusion,
MatB′ (f (w)) = MatB,B′ (f )MatB (w)
.
Remarque 36.
1. Soit Ci (MatB,B′ (f )) la i-ième colonne de la matrice MatB,B′ (f ).
On a Ci (MatB,B′ (f )) = MatB′ (f (ui )). Puisque MatB′ (f (ui )) = MatB,B′ (f )MatB (ui ),
alors
MatB,B′ (f )MatB (ui ) = Ci (MatB,B′ (f )).

2. On a u1 = 1 × u1 + 0u2 + ⋯ + 0u0 , u2 = 0u1 + 1 × u2 + ⋯ + 0un , . . ..

78
Donc u1B = (1, 0, . . . , 0), u2 = (0, 1, 0, . . . , 0), . . . , unB = (0, . . . , 0, 1).
Par suite
MatB′ (f (u1 )) =MatB,B′ (f )MatB (u1 )
⎛ c11 c12 ⋯ c1n ⎞ ⎛1⎞ ⎛ c11 ⎞
⎜c c22 ⋯ c2n ⎟ ⎜0⎟ ⎜ c21 ⎟
= ⎜ 21 ⎟ ⎜ ⎟ = ⎜ ⎟ = C1 (MatB,B′ (f ))
⎜. . . . . . . . . . . . . . . . . .⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎝cm1 cm2 ⋯ cmn ⎠ ⎝0⎠ ⎝cm1 ⎠

MatB′ (f (u2 )) =MatB,B′ (f )MatB (u2 )


⎛0 ⎞
⎛ c11 c12 ⋯ c1n ⎞ ⎜1⎟ ⎛ c12 ⎞
⎜c c22 ⋯ c2n ⎟ ⎜ ⎟ ⎜ c22 ⎟
= ⎜ 21 ⎟⎜ 0⎟ = ⎜ ⎟ = C2 (MatB,B′ (f ))
⎜. . . . . . . . . . . . . . . . . .⎟ ⎜ ⎟

⎟ ⎜ ⋮ ⎟
⎝cm1 cm2 ⋯ cmn ⎠ ⎜ ⋮ ⎟ ⎝cm2 ⎠
⎝0 ⎠

Plus généralement on a
MatB′ (f (ui )) =MatB,B′ (f )MatB (ui )
⎛0 ⎞
⎜⋮⎟
⎛ c11 c12 ⋯ c1n ⎞ ⎜ ⎟
⎜0⎟ ⎛ 1i ⎞
c
⎜ c21 c22 ⋯ c2n ⎟ ⎜ ⎟ ⎜ c2i ⎟
=⎜ ⎟ ⎜1 ⎟
⎟ = ⎜ ⎟ = Ci (MatB,B′ (f ))
⎜. . . . . . . . . . . . . . . . . . ⎟ ⎜
⎜0 ⎟ ⎜ ⋮ ⎟
⎝cm1 cm2 ⋯ cmn ⎠ ⎜ ⎟
⎜ ⎟ ⎝cmi ⎠
⎜⋮⎟
⎝0 ⎠

On retrouve alors le résultat de 1.


Exemple 21.
1. On considère l’application identique de E. On a
idE (u1 )B = (1, 0 . . . , 0), idE (u2 )B = (0, 1, 0 . . . , 0), . . . , idE (un )B = (0, . . . , 0, 1).

Donc MatB (idE ) = In .


2. si f = 0 est l’application nulle, alors MatB (f ) = 0m,n .
3. Soient E = K 3 , F = K 2 et soient B et B ′ les bases canoniques de E et de F .
Soit f ∶ E Ð→ F l’application linéaire définie par f (x, y, z) = (x−2y, x+y−3z).
on a f (1, 0, 0) = (1, 1), f (0, 1, 0) = (−2, 1) et f (0, 0, 1) = (0, −3), alors

MatB,B′ (f ) = ( )
1 −2 0
1 1 −3

79
1 −2 0 ⎛ ⎞
x
On a ( ) ⎜y ⎟ = ( ).
x − 2y
1 1 −3 ⎝ ⎠ x + y − 3z
z
Pousons u = (x, y), alors MatB′ (f (u)) = MatB,B′ (f )MatB (u).
3. Soient E = K4 [X] et F = K2 [X] et soient B et B ′ les bases canoniques de
E et de F . Soit f ∶ E Ð→ F l’application linéaire définie par (f (P ) = P ′′.
on a f (1) = 0, f (X) = 0, f (X 2 ) = 2, f (X 3 ) = 6X, f (X 4 ) = 12X 2 ,
donc f (1)B′ = (0, 0, 0), f (X)B′ = (0, 0, 0), f (X 2 )B′ = (2, 0, 0), f (X 3 )B′ = (0, 6, 0),
f (X 4 )B′ = (0, 0, 12).

⎛0 0 2 0 0 ⎞
MatB,B′ (f ) = ⎜0 0 0 6 0 ⎟
⎝0 0 0 0 12⎠

Considérons P = 2X 4 + X 3 − X 2 + 3X + 5 Déterminer P ′′ .
On a PB = (5, 3, −1, 1, 2). Alors

⎛5⎞
⎛0 0 2 0 0 ⎞ ⎜ ⎟
⎜ 3 ⎟ ⎛−2⎞
MatB′ (P ”) = MatB′ (f (P )) = ⎜0 0 0 6 0 ⎟ ⎜−1⎟

⎟=⎜6⎟
⎝0 0 0 0 12⎠ ⎜ ⎟
⎜ 1 ⎟ ⎝ 24 ⎠
⎝2⎠

Donc P ′′(X) = −2 + 6X + 24X 2 .


4. Soient E = F = K 3 et soit B = (e1 , e2 , e3 ) sa base canonique. Posons
B ′ = (v1 , v2 , v3 ) où v1 = (1, 1, 1), v2 = (1, 1, 0), v3 = (1, 0, 0). Il est clair que
B ′ est une famille échelonnée qui ne contient pas (0, 0, 0), donc B ′ est libre.
Comme card(B ′ ) = 3 = dim(E), alors B ′ est une base de E. Soit f ∶ E Ð→ F
l’application linéaire définie par f (x, y, z) = (x − 2y + z, y − 3z, 2x + y + z).
on a f (e1 ) = (1, 0, 2), f (e2 ) = (−2, 1, 1) et f (e3 ) = (1, −3, 1), alors

⎛1 −2 1 ⎞
MatB (f ) = ⎜0 1 −3⎟ .
⎝2 1 1 ⎠

On a
v1 = e1 + e2 + e3 , donc

f (v1 ) = f (e1 ) + f (e2 ) + f (e3 ) = (1, 0, 2) + (−2, 1, 1) + (1, −3, 1) = (0, −2, 4)

v2 = e1 + e2 , donc f (v1 ) = f (e1 ) + f (e2 ) = (1, 0, 2) + (−2, 1, 1) = (−1, 1, 3)

80
v3 = e1 , donc f (v3 ) = (1, 0, 2), alors

⎛ 0 −1 1⎞
MatB′ ,B (f ) = ⎜−2 1 0⎟ .
⎝ 4 3 2⎠

On a

(0, −2, 4) = av1 + bv2 + cv3 ⇐⇒(a + b + c, a + b, a) = (0, −2, 4)


⇐⇒a = 4, b = −6, c = 2
⇐⇒f (v1 )B′ = (4, −6, 2)

(−1, 1, 3) = av1 + bv2 + cv3 ⇐⇒(a + b + c, a + b, a) = (−1, 1, 3)


⇐⇒a = 3, b = −2, c = −2
⇐⇒f (v1 )B′ = (3, −2, −2)

(1, 0, 2) = av1 + bv2 + cv3 ⇐⇒(a + b + c, a + b, a) = (1, 0, 2)


⇐⇒a = 2, b = −2, c = 1
⇐⇒f (v1 )B′ = (2, −2, 1)

Donc
⎛4 3 2⎞
MatB′ (f ) = ⎜−6 −2 −2⎟ .
⎝ 2 −2 1 ⎠
On a e1 = v3 , donc f (e1 )B′ = f (v3 )B′ = (2, −2, 1)

(−2, 1, 1) = av1 + bv2 + cv3 ⇐⇒(a + b + c, a + b, a) = (−2, 1, 1)


⇐⇒a = 1, b = 0, c = −3
⇐⇒f (e2 )B′ = (1, 0, −3)

(1, −3, 1) = av1 + bv2 + cv3 ⇐⇒(a + b + c, a + b, a) = (1, −3, 1)


⇐⇒a = 1, b = −4, c = 4
⇐⇒f (e3 )B′ = (1, −4, 4)

Donc
⎛2 1 1⎞
MatB,B′ (f ) = ⎜−2 0 −4⎟ .
⎝ 1 −3 4 ⎠

81
Proposition 4.5.3. L’application
Mat ∶ L (E, F ) Ð→ Mm,n (K)
f z→ MatB,B′ (f )
est un isomorphisme de K-espaces vectoriels. En particuler, dim(Mm,n (K)) =
mn.
Démonstration. Voir TD
Remarque 37. Prenons E = K n et F = K m et B et B ′ les bases canoniques
de E et F . Alors pour toute matrice A ∈ Mm,n (K) il existe une unique ap-
plication lineaire f ∶ K n Ð→ K m telle que MatB,B′ (f ) = A. On dit que f est
canoniquement associée à la matrice A.
Remarque 38. Soit g un endomorphisme de E. Alors
1.
MatB,B′ (f ) = 0m,n ⇐⇒ f = 0 l’application nulle

2.
MatB (g) = In ⇐⇒ g = idE
Remarque 39. On a dim(Mm,n (K)) = mn et dim(Mn,m (K)) = nm, donc
dim(Mm,n (K)) = dim(Mnm (K)), alors Mm,n (K) ≃ Mm,n (K).
Il est facile de montrer que l’application
Mm,n (K) Ð→ Mn,m (K)
M z→ M T
est un isomorphisme de K-espaces vectoriels.
Proposition 4.5.4. Soient G un K-ev et B ′′ = (w1 , . . . , wq ) une base de G.
Soit g ∶ F Ð→ G une application linéaire. Alors
MatB,B′′ (g ○ f ) = MatB′ ,B′′ (g) × MatB,B′ (f )
Démonstration. Posons A = MatB′ ,B′′ (g) × MatB,B′ (f ) et B = MatB,B′′ (g ○ f )
et montrons que Cj (A) = Cj (B) ∀j ∈ {1, . . . , n}. On a
Cj (A) =MatB′ ,B′′ (g) × MatB,B′ (f ) × MatB (uj )
=MatB′ ,B′′ (g) × MatB′ (f (uj ))
=MatB′′ (g(f (uj )))
=MatB′′ ((g ○ f )(uj ))
=Cj (B)
En conclusion, les matrices A et B ont les mêmes colonnes, donc A = B.

82
Proposition 4.5.5. On suppose que n = m, c’est-à-dire, dim(E) = dim(F ).
Alors
L’application f est bijective si et seulement si MatB,B′ (f ) est inversible. Dans
ce cas on
MatB′ ,B (f −1 ) = MatB,B′ (f )−1 .
Démonstration. Si f est bijective, alors on a f ○ f −1 = idF et f −1 ○ f = idE ,
donc MatB′ (f ○ f −1 ) = In et MatB (f −1 ○ f ) = In . Par suite MatB,B′ (f ) ×
MatB′ ,B (f −1 ) = MatB′ ,B (f −1 ) × MatB,B′ (f ) = In . Donc MatB,B′ (f ) est inver-
sible et on a
MatB′ ,B (f −1 ) = MatB,B′ (f )−1 .
Réciproquement, supposons que la matrice MatB,B′ (f ) est inversible. Puisque
MatB,B′ (f )−1 ∈ Mn,m (K), alors d’après la proposition 4.5.3, ∃g ∈ L (F, E)
telle que MatB′ ,B (g) = MatB,B′ (f )−1 . On a

MatB′ ,B (g) × MatB,B′ (f ) = MatB,B′ (f )−1 × MatB,B′ (f ) = In

donc
MatB (g ○ f ) = In
alors g ○ f = idE . De la même façon on montre que f ○ g = idF . En conclusion,
g = f −1 et donc f est inversible.
Corollaire 4.5.6. Soient g et f deux endomorphismes de E. Alors
1.
MatB (g ○ f ) = MatB (g) × MatB (f )

2. g est bijective si et seulement si MatB (g) est inversible. Dans ce cas on a

MatB (g −1 ) = MatB (g)−1

4.6 Changement de bases


4.6.1 Matrices de passage
Soient B = (u1 , . . . , un ) et B ′ = (v1 , . . . , vn ) deux bases de E.
Définition 4.6.1. On appelle matrice de passage de B à B ′ la matrice MatB (B ′ )
de la famille B ′ dans la base B.
Exemple 22. Si B = (u1 , u2 ) et B ′ = (2u1 − u2 , u1 + u2 ), alors

MatB (B ′ ) = ( )
2 1
−1 1

83
Thoérème 4.6.2. On a les résultats suivants :
1. MatB (B ′ ) est une matrice carrée d’ordre n.
2. MatB (B ′ ) = MatB′ ,B (idE ).
3. MatB (B ′ ) est inversible et on a MatB (B ′ )−1 = MatB′ (B).

Démonstration.
1. On sait que MatB (B ′ ) est une matrice d’ordre s × t où s = card(B) et t =
card(B ′ ). Puisque card(B) = card(B ′ ) = n, alors MatB (B ′ ) est une matrice
carrée d’ordre n.
2. On considère idE de E muni de B ′ dans E muni de B :

idE ∶ (E, B ′ ) Ð→ (E, B)

Pour tout vj ∈ B ′ on a idE (vj ) = vj , donc la jième colonne de la matrice


MatB′ ,B (idE ) est la même que la jième colonne de la matrice MatB (B ′ ). Par
suite, MatB (B ′ ) = MatB′ ,B (idE ).
3. L’application
idE ∶ (E, B ′ ) Ð→ (E, B)
est bijective et on a

E = idE ∶ (E, B) Ð→ (E, B ).


id−1 ′

E ) =
Donc MatB′ ,B (idE ) est inversible et on a MatB′ ,B (idE )−1 = MatB,B′ (id−1
MatB,B′ (idE ). D’où le résultat.

Proposition 4.6.3. Soit w ∈ E. Soient MatB (w) la matrice colonne des coor-
données de w dans la base B et MatB′ (w) la matrice colonne des coordonnées
de w dans la base B ′ . Alors

MatB′ (w) = MatB′ (B)MatB (w).

Démonstration. Considérons l’application

idE ∶ (E, B) Ð→ (E, B ′ )

On a
MatB,B′ (idE )MatB (w) = MatB′ (idE (w)).
Donc
MatB′ (B)MatB (w) = MatB′ (w).

84
Exemple 23. Dans E = R2 soit B = (e1 , e2 ) la base canonique. Considérons
la base B ′ = (v1 , v2 ) où v1 = e1 − 2e2 , v2 = 3e1 + e2 .
1. On a
MatB (B ′ ) = ( ).
1 3
−2 1
−3
2. On a e1 = 71 v1 + 27 v2 et e2 = 7 v1 + 71 v2 . Donc

MatB′ (B) = ( ).
1 1 −3
7 2 1

3. Soit W = (3, 5). On a MatB (w) = (3, 5)T . On a

MatB′ (w) = MatB′ (B)MatB (w).

Alors
MatB′ (w) = ( )( ) = ( ).
1 1 −3 3 1 −12
7 2 1 5 7 11
−12
Par suite, w = 7 v1 + 11
7 v2 .

Thoérème 4.6.4. Soient E et F deux K-ev de dimensions finies et f ∶ E Ð→ F


une application linéaire. Soient B, C deux bases de E et B ′ , C ′ deux bases de
F . Alors

MatC,C ′ (f ) = MatB′ (C ′ )−1 × MatB,B′ (f ) × MatB (C).

Démonstration. Cosidérons le diagramme commutatif suivant

(E, B) (F, B ′ )
f
/

idE ↺ idF

(E, C) (F, C ′ )
 f

/

Ce diagramme est commutatif car f ○ idE = idF ○ f . On a

MatB,C ′ (f ○ idE ) = MatC,C ′ (f ) × MatB,C (idE ) = MatC,C ′ (f ) × MatC (B)

et

MatB,C ′ (idF ○ f ) = MatB′ ,C ′ (idF ) × MatB,B′ (f ) = MatC ′ (B ′ ) × MatB,B′ (f ).

Donc
MatC,C ′ (f ) × MatC (B) = MatC ′ (B ′ ) × MatB,B′ (f )

85
alors
MatC,C ′ (f ) = MatC ′ (B ′ ) × MatB,B′ (f ) × MatC (B)−1
ou
MatC,C ′ (f ) = MatB′ (C ′ )−1 × MatB,B′ (f ) × MatB (C).

Corollaire 4.6.5. Soit f ∶ E Ð→ E un endomorphisme de E, B et B ′ deux


bases de E. Alors

MatB′ (f ) = MatB (B ′ )−1 × MatB (f ) × MatB (B ′ ).

Démonstration. Dans le théorème 4.6.4, on remplace C et C ′ par B ′ et on


remplace B et B ′ par B.
Exemple 24. Soit B = (e1 , e2 ) la base canonique de R2 et soit B ′ = (v1 , v2 )
où v1 = e1 − 2e2 , v2 = 3e1 + e2 . B ′ est une base de R2 .
Soit f ∶ R2 Ð→ R2 l’application linéaire telle que

MatB (f ) = ( ).
3 1
2 0

On a
MatB (B ′ ) = ( )
1 3
−2 1
et
MatB′ (B) = ( ).
1 1 −3
7 2 1
On a
MatB′ (f ) = ( )( )( ).
1 1 −3 3 1 1 3
7 2 1 2 0 −2 1

4.6.2 Rang d’une matrice


Définition 4.6.6. Soit A = (C1 (A) . . . Cm (A)) une matrice de Matn,m (K).
On appelle rang de A, noté rg(A), le rang de la famille constituée par les
vecteurs colonnes C1 (A), . . . , Cm (A). On écrit

rg(A) = rg(C1 (A), . . . , Cm (A)).

Proposition 4.6.7. Soient E de dimension n et de base B et F de dimension


m et de base B ′ . Soit f ∶ E Ð→ F une application linéaire. Posons A =
MatB,B′ (f ) ∈ Matm,n (K). Alors rg(A) = rg(f ).

86
Démonstration. L’application

MatB′ ∶ F Ð→ Matm,1 (K)


w z→ MatB′ (w)

est un isomorphisme. Donc rg(w1 , . . . , wq ) = rg(MatB′ (w1 ), . . . , MatB′ (wq )).


Posons B = (u1 , . . . , un ). On a MatB′ (f (ui )) = Ci (A). Donc

rg(A) =rg(C1 (A), . . . , Cn (A))


=rg(MatB′ (f (u1 )), . . . , MatB′ (f (un )))
=rg(f (u1 ), . . . , f (un ))
=rg(f )

car sev⟨f (u1 ), . . . , f (un )⟩ = Im(f ).


Proposition 4.6.8. Le rang d’une matrice A est égal à celui du système ho-
mogène associé.
Démonstration. Voir la fiche d’exercices N°3.
Remarque 40. La proposition4.6.8 montre que le rang d’une matrice peut
être calculer en utilisant la méthode de Gauss utilisée pour la résolution des
systèmes d’équations linéaires.
Corollaire 4.6.9. Soit A ∈ Matn,m (K). Alors

rg(A) = rg(L1 (A), . . . , L(n)(A)),

c’est-à-dire, rg(A) = rg(AT ).


Démonstration. Voir la fiche d’exercices N°4.

87
88
Chapitre 5

Déterminants de matrices et
applications

5.1 Définition récursive du déterminant


Notation 6. Soit A une matrice carrée d’ordre n et soit i, j ∈ {1, . . . , n}. On
notera A(i, j) la matrice obtenue en supprimant la ligne Li et la colonne Cj
de la matrice A.
Définition 5.1.1. Le déterminant de matrices est une application

det ∶ Mn (K) Ð→ K

qui est défini par récurrence sur l’entier n comme suit :


● Pour n = 1 on a det(a) = a.
● Pour n ≥ 2, on a

det(A) = ∑ (−1)m+1 A1m det(A(1, m))


n
(5.1)
m=1

Remarque 41. La formule (5.1) a été obtenue en développant le déterminant


de A suivant la première ligne, on peut montrer que le scalaire det(A) est
indépendante du choix de la ligne ou de la colonne.
● Si on développe le déterminant de A suivant la ième ligne on trouve

det(A) = ∑ (−1)m+1 Aim det(A(i, m))


n

m=1

● Si on développe le déterminant de A suivant la ième colonne on trouve

det(A) = ∑ (−1)m+1 Ami det(A(m, i))


n

m=1

89
Notation 7. Si
⎛ a11 a12 ⋯ a1m ⎞
⎜a ⋯ a2m ⎟
A = ⎜ 21 22 ⎟
a
⎜. . . . . . . . . . . . . . . . . . ⎟
⎝an1 an2 ⋯ anm ⎠

On note aussi
RR a11 a12 ⋯ a1m RR
RR RR
RRR RRR
det(A) = RR R
R RR
RR
a 21 a 22 ⋯ a 2m

RRR. . . . . . . . . . . . . . . . . .RRR
RRRa R
R n1 an2 ⋯ anm RRR
Exemple 25. On a det(0n ) = 0 et det(In ) = 1.

Exemples 19.
1. A = (−5) alors det(A) = −5.
2. Si A = ( ), alors
a b
c d

det(A) = ∣ ∣ = ad − bc
a b
c d

Par exemple ! ∣ ∣ = (2 × 4) − (5 × (−3)) = 8 + 15 = 23.


2 −3
5 4
⎛2 0 1⎞
3. A = ⎜−1 2 0 ⎟.
⎝ 3 4 −2⎠
On développe det(A) suivant la 1ère ligne :
RR 2 0 1 RR
RRR R
RR−1 2 0 RRRR =2 ∣2 0 ∣ − 0 ∣−1 0 ∣ + 1 ∣−1 2∣
RR RR
RR R
RR 3 4 −2RRR
4 −2 3 −2 3 4
R R
= − 8 − 10 = −18

On développe det(A) suivant la 2ème ligne :


RR 2 0 1 RR
RRR R
RR−1 2 0 RRRR = − (−1) ∣0 1 ∣ + 2 ∣2 1 ∣ − 0 ∣2 0∣
RR RR
RR RR
RRR 3 4 −2RRR
4 −2 3 −2 3 4

= − 4 − 14 = −18

90
On développe det(A) suivant la 2ème colonne :
RR 2 0 1 RR
RR RR
RR R
RR−1 2 0 RRR = − (0) ∣−1 0 ∣ + 2 ∣2 1 ∣ − 4 ∣ 2 1∣
RRR RR
RR 3 4 −2RRR
3 −2 3 −2 −1 0
R R
= − 14 − 4 = −18

Remarques 8.
Régle de Sarrus
1. La régle de Sarrus consiste à écrire les trois colonnes du déterminant, puis
à répéter les deux premières. On calcule la somme des produits des éléments
des trois diagonales principales moins la somme des produits des éléments
des trois diagonales non principales.
⎛a11 a12 a13 ⎞
A = ⎜a21 a22 a23 ⎟.
⎝a31 a32 a33 ⎠

a11 a12 a13 a11 a12


det(A) = a21 a22 a23 a21 a22
a31 a32 a33 a31 a32
=(a11 a22 a33 + a12 a23 a31 + a13 a21 a32 ) − (a31 a22 a13 + a32 a23 a11 + a33 a21 a12 )

⎛2 0 1⎞
Exemple : Soit A = ⎜−1 2 0 ⎟. Alors
⎝ 3 4 −2⎠

2 0 1 2 0
det(A) = −1 2 0 −1 2
3 4 −2 3 4
=(−8 + 0 − 4) − (6 + 0 + 0)
= − 18

2. La régle de Sarrus n’est valable que pour des matrices carrées d’ordre 3.
Exercice 14. Montrer que si A est une matrice triangulaire (supérieure ou
inférieure) d’ordre n, alors le déterminant de A est égal au produit des coef-
ficients de la diagonale, c’est-à-dire,
n
det(A) = ∏ Aii .
i=1

91
5.2 Propriétés des déterminants
Thoérème 5.2.1. Notons Ci la colonne i d’une matrice. On a alors

det (C1 . . . Cm−1 Cm + Cm


′ Cm+1 . . . Cn ) =
det (C1 . . . Cm−1 Cm Cm+1 . . . Cn ) +
det (C1 . . . Cm−1 Cm
′ Cm+1 . . . Cn )

Démonstration. Il suffit de développer le premier déterminant suivant la co-


lonne Cm + Cm′ et le deuxième et le troisième suivant les colonnes C ′
m et Cm
respectivement.

Lemme 5.2.2. Si deux lignes ou deux colonnes de A sont égales alors det(A) =
0.

Démonstration. Voir devoir N°3.

Soit A ∈ Mn (K). On considère les transformations suivantes

Ci ↔ Cj
A ÐÐÐÐÐÐÐ→ M, i ≠ j
λCi → Ci
A ÐÐÐÐÐÐÐ→ N,
Ci + αCj → Ci
A ÐÐÐÐÐÐÐ→ P, i≠j
Ci + ∑ αj Cj → Ci
j≠i
A ÐÐÐÐÐÐÐÐ→ Y,

Alors on a le théorème suivant

Thoérème 5.2.3. On a
1. det(M) = − det(A).
2. det(N) = λ det(A).
3. det(P ) = det(A).
4. det(Y ) = det(A).

Démonstration.
1. On a

det (C1 (A) . . . Ci (A) + Cj (A) . . . Ci (A) + Cj (A) . . . Cn (A)) = 0

92
car deux colonnes sont égales. Donc

0 = det (C1 (A) . . . Ci (A) + Cj (A) . . . Ci (A) . . . Cn (A)) +


det (C1 (A) . . . Ci (A) + Cj (A) . . . Cj (A) . . . Cn (A))
= det (C1 (A) . . . Ci (A) . . . Ci (A) . . . Cn (A)) +
det (C1 (A) . . . Cj (A) . . . Ci (A) . . . Cn (A)) +
det (C1 (A) . . . Ci (A) . . . Cj (A) . . . Cn (A)) +
det (C1 (A) . . . Cj (A) . . . Cj (A) . . . Cn (A))
= det (C1 (A) . . . Cj (A) . . . Ci (A) . . . Cn (A)) +
det (C1 (A) . . . Ci (A) . . . Cj (A) . . . Cn (A))
= det(M) + det(A)

Donc det(M) = − det(A).


2. On développe le déterminant suivant la ligne i, on trouve

det(N) = ∑ (−1)m+1 N1m det(N(1, m))


n

m=1

or N1m = λA1m et N(1, m) = A(1, m). Donc

det(N) = ∑ (−1)m+1 λA1m det(A(1, m)) = λ ∑ (−1)m+1 A1m det(A(1, m)) = λ det(A).
n n

m=1 m=1

3. On a

det(P ) = det (C1 (A) . . . Ci−1 (A) Ci (A) + αCj (A) Ci+1 (A) . . . Cn (A))
= det (C1 (A) . . . Ci−1 (A) Ci (A) Ci+1 (A) . . . Cn (A)) +
det (C1 (A) . . . Ci−1 (A) αCj (A) Ci+1 (A) . . . Cn (A))
= det (C1 (A) . . . Ci−1 (A) Ci (A) Ci+1 (A) . . . Cn (A)) +
α det (C1 (A) . . . Ci−1 (A) Cj (A) Ci+1 (A) . . . Cn (A))

Le déterminant det (C1 (A) . . . Ci−1 (A) Cj (A) Ci+1 (A) . . . Cn (A)) est
nul car il a deux colonnes égales qui sont la colonne i et la colonne j. Donc

det(P ) = det (C1 (A) . . . Ci−1 (A) Ci (A) Ci+1 (A) . . . Cn (A)) = det(A).

4. C’est une conséquence directe de la question 3. et du fait que l’opération


Ci + ∑ αj Cj → Ci
j≠i
ÐÐÐÐÐÐÐÐ→

93
est une succession d’opérations élémentaires de la forme

Ci +λCj → Ci
ÐÐÐÐÐÐ→, j ≠ i.

Remarque 42. D’après Théorème 5.2.1 et la propriété 2. du Théorème 5.2.5,


on voit que l’application

Cm z→ det (C1 . . . Cm−1 Cm Cm+1 . . . Cn )

est linéaire, pour tout m ∈ {1, . . . , n}.

On a des résultats analogue pour les opérations sur les lignes.

Thoérème 5.2.4. On a

⎛ L1 ⎞ ⎛ L1 ⎞ ⎛ L1 ⎞
⎜ ⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟

⎜ Lm−1 ⎟ ⎜Lm−1 ⎟ ⎜Lm−1 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
det ⎜ ′ ⎟ ⎜ ⎟ ⎜ ′ ⎟
⎜Lm + Lm ⎟ = det ⎜ Lm ⎟ + det ⎜ Lm ⎟
⎜ L ⎟ ⎜L ⎟ ⎜L ⎟
⎜ m+1 ⎟ ⎜ m+1 ⎟ ⎜ m+1 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ ... ⎟ ⎜ ... ⎟ ⎜ ... ⎟
⎝ Ln ⎠ ⎝ Ln ⎠ ⎝ Ln ⎠

Soit A ∈ Mn (K). On considère les transformations suivantes

Li ↔ Lj
A ÐÐÐÐÐÐÐ→ H, i ≠ j
λLi → Li
A ÐÐÐÐÐÐÐ→ F,
Li + αLj → Li
A ÐÐÐÐÐÐ→ Z, i ≠ j
Li + ∑ αj Lj → Li
j≠i
A ÐÐÐÐÐÐÐÐ→ S,

Alors on a le théorème suivant

Thoérème 5.2.5. On a
1. det(H) = − det(A).
2. det(F ) = λ det(A).
3. det(Z) = det(A).
4. det(S) = det(A).

94
Remarque 43. L’application

⎛ L1 ⎞
⎜ ⋮ ⎟
⎜ ⎟
⎜Lm−1 ⎟
⎜ ⎟
Lm z→ det ⎜
⎜ Lm ⎟

⎜L ⎟
⎜ m+1 ⎟
⎜ ⎟
⎜ ... ⎟
⎝ Ln ⎠

est linéaire, pour tout m ∈ {1, . . . , n}.


Remarque 44. Le meilleur choix de la ligne ( ou la colonne ) par rapport à
laquelle sera développé le calcul d’un déterminant, est celui qui contient le
maximum de coefficients nuls. Il est donc commode de créer des zéros dans
ce déterminant sans lui changer sa valeur.
Exemple 26. Dans le corps des réels on a :
RR2 4RRRR RR1 2RRRR
RR R
RR RR 1 L1 → L1 RRR R L3 −2 L1 → L3
4 0 2 0
RR0 0RRR 2 R0 0RRRR L4 − L1 → L4
RRR ÐÐÐÐÐ→ RRRR
4RRRR 4RRRR
5 1 5 1
ÐÐÐÐÐÐÐ→
RR2 R2
RR RR Facteur ∶ 2 RRR RR Facteur ∶ 1
9 0 9 0
RR1 1RRR RR1 1RRR Facteur ∶ 1
R 2 0 R 2 0
RR1 0 2 RRRR RR1 2 0 2 RRRR
RRR 2
RR RRR R
RR0 1 0 RRR L3 − L2 → L1 RRRR0 5 1 0 RRRR
RR = 1 × 5 × (−1) × (−1) = 5
RR0 0 0 RRRR
ÐÐÐÐÐÐ→ RR
0 −1 0 RRRR
5
RR R0
RRR RRR Facteur ∶ 1 RRRR RRR
5
RR0 0 0 −1RR RR0 0 0 −1RR

RR2 4RRRR
Donc
RR
RR R
4 0
RRRR0 0RRRR
4RRRR
5 1
RR2 = 2 × 1 × 1 × 1 × 5 = 10
RR 9 0
RR
RR1 1RRR
RR 2 0

5.3 Les formules de Cramer


On rappelle qu’un système d’équations linéaires (S) à n équations et n
inconues est dit de Cramer si (S) est compatible et admet une seule solution.
⎛ x1 ⎞ ⎛ b1 ⎞
Soit A une matrice carrée d’ordre n et Soit X = ⎜ ⋮ ⎟ et B = ⎜ ⋮ ⎟
⎝xn ⎠ ⎝bn ⎠
Soit Di la matrice obtenue en remplaçant la colonne i de A par B.
Soit (S) le système AX = B. Alors On a le résultat suivant

95
Thoérème 5.3.1. Si det(A) est non nul, alors le système (S) est de Cramer
et on a
∆xi
xi =
det(A)
où ∆xi = det(Di )
Remarque 45. Le système (S) n’est pas de Cramer si A n’est pas carrée ou
A est carrée avec det(A) = 0. Dans ce cas on peut aussi appliquer la méthode
de Cramer pour résoudre (S), mais on doit appliquer le théorème5.3.1 à une
matrice extraite de A de déterminant non nul et d’ordre maximum. Pour plus
de détail voir devoir N°3.

5.4 Déterminant d’une famille de vecteurs


Définition 5.4.1. Soient E un espace vectoriel de dimension n et soit B
une base de E. Soit G = (v1 , . . . , vn ) une famille quelconque de vecteurs de
E de cardinal n. On appelle déterminant de G dans la base B le scalaire
det(MatB (G)).
Thoérème 5.4.2. Soient E un espace vectoriel de dimension n et soit B une
base de E. Soit G = (v1 , . . . , vn ) une famille quelconque de vecteurs de E de
cardinal n. Alors G est une base de E si et seulement si det(MatB (G)) ≠ 0.

Démonstration. Posons A = MatB (G) et Soit T une matrice échelonnée obte-


nue en effectuant des opérations élémentaires sur les colonnes de A. Puisque
T est une matrice carrée d’ordre n, alors T est une matrice triangulaire et
donc det(T ) = T11 × ⋯ × Tnn . Donc

rg(T ) = n ⇐⇒ Tii ≠ 0, 1 ≤ i ≤ n ⇐⇒ det(T ) ≠ 0

Or rg(A) = rg(T ) et det(A) = α det(T ) où α est un scalaire non nul. Donc

det(A) ≠ 0 ⇐⇒α det(T ) ≠ 0


⇐⇒rg(T ) = n
⇐⇒rg(A) = n
⇐⇒rg(G) = n
⇐⇒G est une base de E

Le déterminant d’une famille de vecteurs dépend bien de la base B.

96
Proposition 5.4.3. Soient E un espace vectoriel de dimension n et soit B une
base de E. Soit G = (v1 , . . . , vn ) une famille quelconque de vecteurs de E de
cardinal n. Si B ′ est une autre base de E, alors

det(MatB′ (G)) = det(MatB′ (B)) × det(MatB (G)).

Démonstration. Posons B = (u1 , . . . , un ) et G = ((w1 , . . . , wn ) et soit f l’en-


domorphisme de E tel que f (ui ) = wi . On alors

MatB (f ) = MatB (f (u1 ), . . . , f (un )) = MatB (w1 , . . . , wn ) = MatB (G).

Soit B ′ une autre base de E. On a

MatB′ (G) = MatB′ (f (u1 ), . . . , f (un )) = MatB,B′ (f ).

D’après le diagramme commutatif suivant

(E, B) / (E, B)
f


■■
■■
■■
■■ idE
f
■■
■■

(E, B ′ )
■$ 

On déduit que
MatB,B′ (f ) = MatB′ (B) × MatB (f )
donc
MatB′ (G) = MatB′ (B) × MatB (G)
par suite

det(MatB′ (G)) = det(MatB′ (B)) × det(MatB (G)).

5.5 Formule explicite du déterminant d’une ma-


trice
Thoérème 5.5.1. (Formule de Leibniz) Soit A une matrice carrée d’ordre n.
Alors
det(A) = ∑ ε(σ)Aσ(1)1 Aσ(2)2 ⋯Aσ(n)n
σ∈Sn

où Sn est le groupe des permutations de {1, . . . , n} et pour σ ∈ Sn , ε(σ)


désigne la signature de σ.

97
Remarque 46. On a aussi

det(A) = ∑ ε(σ)A1σ(1) A2σ(2) ⋯A2σ(n)


σ∈Sn

Exemple 27. Soit


RRRa RR
RR 11 a12 a13 RRR
A = RRRa21 a22 a23 RRRR
R
RRR RRR
RRa31 a32 a33 RR
On a S3 = {1, τ1 , τ2 , τ3 , σ1 , σ2 } où τ1 = (23), τ2 = (12), τ3 = (13), σ1 = (123), σ2 =
(132).
Alors

det(A) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 + a12 a23 a31 + a13 a21 a32 .

Le résultat suivant se démontre en utilisant la formule de Leibniz


Proposition 5.5.2. Soient A et B deux matrices carrées d’ordre n. Alors
1. det(A) = det(AT ).
2. det(AB) = det(A) × det(B).

Démonstration. Voir devoir N°3.

Proposition 5.5.3. Soit A une matrice carrée d’ordre n. Alors A est inversible
si et seulement si det(A) ≠ 0. Dans ce cas on a det(A−1 ) = det(A)−1 .

Démonstration. Supposons que A est inversible. On a A × A−1 = In , donc


det(A × A−1 ) = 1, alors det(A) × det(A−1 ) = 1. Par suite det(A) ≠ 0 et on a
det(A−1 ) = det(A)−1 .
Réciproquement, supposons que det(A) ≠ 0. Soit = (e1 , . . . , en ) la base cano-
nique de K n et Soit f ∶ K n Ð→ K n l’endomorphisme tel que MatB (f ) = A.
Puisque det(A) ≠ 0, alors d’après Théorème 5.4.2, la famille C1 (A), . . . , Cn (A)
forment une base de K n , c’est-à-dire G = (f (e1 ), . . . , f (en )) est une base
de K n . Par suite f est bijective et donc A est inversible et on a A−1 =
MatB (f −1 ) = MatG (B).

5.6 Déterminant d’un endomorphisme


Définition 5.6.1. Soient E un espace vectoriel de dimension n et soit B une
base de E. Soit f un endomorphisme de E. On appelle déterminant de f
dans la base B le scalaire det(MatB (f )).

98
Proposition 5.6.2. Soient E un espace vectoriel de dimension n et soit B une
base de E. Soit f un endomorphisme de E. Alors
1. f est bijective si et seulement si det(MatB (f )) ≠ 0.
2. Le déterminant de f ne dépend pas de la base B.
Démonstration.
1. Est une conséquence directe du fait que f est bijective si et seulement si
la matrice MatB (f ) est inversible.
2. On sait que MatB′ (f ) = MatB (B ′ )−1 × MatB (f ) × MatB (B ′ ), donc

det(MatB′ (f )) = det(MatB (B ′ ))−1 × det(MatB (f )) × det(MatB (B ′ ))


= det(MatB (f )) × det(MatB (B ′ )) × det(MatB (B ′ ))−1
= det(MatB (f )).

5.7 Calcul de l’inverse d’une matrice


Définition 5.7.1. Soit A une matrice carrée d’ordre n. On appelle cofacteur
du coefficient Aij le scalaire

cof(Aij ) = (−1)i+j det(A(i, j)).

On appelle comatrice de A la matrice notée Com(A), définie par

Com(A)ij = cof(Aij ).

Exemple 28. Considérons la matrice

⎛ 1 3 −1⎞
A=⎜2 3 5⎟
⎝−1 1 2 ⎠

Alors

cof(A11 ) = ∣ ∣ = 1, cof(A12 ) = − ∣ ∣ = 9, cof(A13 ) = ∣ ∣=5


3 5 2 5 2 3
1 2 −1 2 −1 1

cof(A21 ) = ∣ ∣ = 7, cof(A22 ) = ∣ ∣ = 1, cof(A23 ) = ∣ ∣=4


3 −1 1 −1 1 3
1 2 −1 2 −1 1

cof(A31 ) = ∣ ∣ = 18, cof(A32 ) = ∣ ∣ = 7, cof(A33 ) = ∣ ∣ = −3


3 −1 1 −1 1 3
3 5 2 5 2 3

99
Par suite,
⎛1 9 5⎞
Com(A) = ⎜ 7 1 4 ⎟
⎝18 7 −3⎠
Proposition 5.7.2. On a

det(A) = ∑ Aij cof(Aij )


n
(5.2)
j=1

et
det(A) = ∑ Aij cof(Aij )
n

i=1

Démonstration.
Si on dévelope det(A) suivant la ligne i on trouve la première égalité.
Si on dévelope det(A) suivant la colonne j on trouve la deuxième égalité.
Thoérème 5.7.3. Soit A une matrice carrée d’ordre n. Alors
(i) ACom(A)T = Com(A)T A = det(A)In .
(ii) Si A est une matrice inversible, On a
1
A−1 = Com(A)T
det(A)
Démonstration.
(i) On a

(ACom(A)T )ij = ∑ Aik (Com(A)T )kj = ∑ Aik (Com(A))jk = ∑ Aik cof(Ajk ).


n n n

k=1 k=1 k=1

D’après la relation5.2, on a pour tout i ∈ {1, . . . , n},


(ACom(A)T )ii = det(A).
D’autre part, Soit i, j ∈ {1, . . . , n} avec i ≠ j. Soit B la matrice obtenue en
remplaçant la ligne j de A par la ligne i. On a d’une part, det(B) = 0 car B
a deux lignes égales. D’autre part, on a Bjk = Aik et on a aussi cof(Bjk ) =
cof(Ajk ). On développant det(B) suivant la ligne j, on trouve

0 = det(B) = ∑ Bjk cof(Bjk ) = ∑ Aik cof(Ajk ),


n n

k=1 k=1

donc (ACom(A)T )ij = 0. En conclusion, ACom(A)T = det(A)In .


De la même façon on montre que Com(A)T A = det(A)In .
1
(ii) Si det(A) ≠ 0, alors A( det(A) Com(A)T ) = In , donc A est inversible et
1
A−1 = Com(A)T .
det(A)

100
Exemple 29. Reprenons la matrice de l’exemple 28. On a

det(A) = A11 cof(A11 ) − A12 cof(A12 ) + A13 cof(A13 ) = 1 − 27 − 5 = −31.

On suppose que K est un corps de caractéristique différente de 31. Dans ce


cas on a det(A) ≠ 0 et donc A est inversible. On a

⎛1 9 5⎞
Com(A) = ⎜ 7 1 4 ⎟
⎝18 7 −3⎠

donc
⎛1 7 18 ⎞
Com(A) ) = ⎜9 1 7 ⎟
T

⎝5 4 −3⎠
alors
−1 ⎛
1 7 18 ⎞
A −1
= ⎜9 1 7⎟
31 ⎝
5 4 −3⎠

101
102
Chapitre 6

Diagonalisation des matrices

6.1 Polynôme caractéristique d’une matrice


Soit A = (aij )1≤i,j≤p une matrice carée d’ordre p. on a

⎛a11 a12 ⋯ a1p ⎞ ⎛X 0 ⋯ 0 ⎞


⎜a a2p ⎟ ⎜ 0 ⋱ ⋱ ⋮ ⎟
= ⎜ 21 22 ⎟−⎜ ⎟
a ⋯
⎜ ⋮ ⋮ ⎟ ⎜ ⋮ ⋱ ⋱ 0⎟
A − XIp
⎝ap1 ⋯ ap,p−1 app ⎠ ⎝ 0 ⋯ 0 X ⎠

⎛a11 − X a12 ⋯ a1p ⎞


⎜ a a2p ⎟
= ⎜ 21 ⎟
a22 − X ⋯
⎜ ⋮ ⋮ ⋱ ⋮ ⎟
⎝ ap1 ap2 ⋯ app − X ⎠

Définition 6.1.1. Le polynôme caractéristique de la matrice A ∈ Mp (K) est


le polynôme χA défini par χA (X) = det(A − XIp ).
Exemples 20.
1. Soit a ∈ K et posons A = (a) ∈ M1 (K). Alors χA (X) = a − X.
2. Soit A = ( ). Alors
2 1
3 5

χA (X) = ∣ ∣ = −X 2 − 7X + 7
2−X 1
3 5−X

Proposition 6.1.2. Le polynôme caractéristique de A ∈ Mp (K) est un poly-


nôme de degré p de la forme

χA (X) = (−1)p X p + (−1)p−1 tr(A)X p−1 + ⋯ + det(A).

103
Démonstration. Posons A − XIp = (bij )1≤i,j≤p . D’après la définition du déter-
minant d’une matrice, on a d’après la formule de Leibniz
p
χA (X) = det(A − XIp ) = ∑ sign(σ) ∏ biσ(i) ,
σ∈Sp i=1

où Sp est l’ensemble des permutations de l’ensemble {1, . . . , p} et sign(σ) le


signe de la permutation σ.
Puisque bij = aij si i ≠ j et bii = aii − X, alors les coefficients bij sont des
polynômes en X de degré au plus 1. Donc les termes sign(σ) ∏pi=1 biσ(i) sont
des polynômes en X de degré au plus p. Par conséquent, χA (X) est aussi un
p
polynôme en X de degré au plus p. On a de plus, si ∏ biσ(i) ≠ 0,
i=1

p
deg(sign(σ) ∏ biσ(i) ) = ∑ deg(biσ(i) ) = pσ ,
i=1 i∈{j/σ(j)=j}

où pσ = card{j/σ(j) = j}. Il est clair que pσ = p si et seulement si σ = Id.


Supposons que pσ ≥ p−1. Alors on a néssairement pσ = p. En effet, si pσ = p−1
alors {j/σ(j) = j} = {1, . . . , p}/{l}. Dans ce cas on a σ(l) = i ≠ l, et donc
i ∈ {j/σ(j) = j}, c’est-à-dire, σ(i) = i. Donc σ(i) = σ(l), alors i = l, ce qui est
absurde. Par conséquent, pσ = p est donc σ = Id.
En conclusion, le terme de degré p et celui de degré p − 1 s’obtiennent uni-
quement pour σ = Id. Or le terme correspondant à σ = Id est
p p p
Id(σ) ∏ bii = ∏(aii − X) = (−1)p X p + (−1)p−1 (∑ aii )X p−1 + ⋯
i=1 i=1 i=1

Par conséquent, le monôme de degré p et celui de degré p − 1 de χA (X) sont


(−1)p X p et (−1)p−1 tr(A)X p−1 . Enfin, il est évident que le terme constant de
χA (X) est égal à χA (0) = det(A).
Exemple 30. Supposons que la matrice A est triangulaire supérieure

⎛a11 a12 ⋯ a1n ⎞


⎜ 0 a22 ⋯ a2n ⎟
A=⎜ ⎟.
⎜ ⋮ ⋱ ⋱ ⋮ ⎟
⎝ 0 ⋯ 0 ann ⎠

Alors χA (X) = ∏ni=1 (aii − X).


Définition 6.1.3. (Matrice compagnon ou matrice de Frobenius) La matrice
compagnon d’un polynôme unitaire P (X) = X p −ap−1 X p−1 −⋯−a0 ∈ K[X], p ≥

104
1 est la matrice
⎛0 ⋯ ⋯ 0 a0 ⎞
⎜1 ⋮ a1 ⎟
⎜ ⋱ ⎟
CP = ⎜
⎜0 ⋱ ⋮ a2 ⎟ ⎟
⎜⋮ ⋮ ⎟

⎜ ⋱ ⋱ 0 ⎟
⎝0 ⋯ 0 1 ap−1 ⎠
Exemples 21. Soient P1 (X) = X + a, P2 (X) = X 2 , P3 (X) = X 2 − 3X + 2 et
P3 (X) = X 3 + 3X − 2. Alors

⎛0 0 2 ⎞
CP1 = (−a) , CP2 =( ) , CP3 = ( ) , CP4 ⎜1 0 −3⎟
0 0 0 −2
1 0 1 3 ⎝0 1 0 ⎠

Proposition 6.1.4. Soit P ∈ K[X] un polynôme unitaire de degré p ≥ 1. Alors


χCP (X) = (−1)p P (X).
Démonstration. Posons P (X) == X p − ap−1 X p−1 − ⋯ − a0 . Alors on a

⎛−X 0 ⋯ 0 a0 ⎞
⎜ 1 a1 ⎟
⎜ ⋱ ⋱ ⋮ ⎟
χCP (X) = ⎜
⎜ 0 ⋱ 0 ⎟.

⎜ ⋮ ap−2 ⎟
⋱ ⋮
⎜ ⋱ ⋱ −X ⎟
⎝ 0 ⋯ 0 1 ap−1 − X ⎠
Notons les lignes de cette dernière matrice par L0 , L1 , . . . , Lp−1 et ajoutons à
la première ligne la combinaison linéaire suivante des autres lignes :
XL1 + X 2 L2 + ⋯ + X p−1 Lp−1
Ceci ne change pas le déterminant et la première ligne de la matrice résultante
devient : (0 ⋯ 0 b1p ) où
b1p = a0 + Xa1 + X 2 a2 + ⋯ + X p−1(ap−1 − X) = −P (X).
En développant le déterminat par rapport à la première ligne on obtient
χCP (X) = (−1)p+1 (−P (X)) = (−1)p P (X).

Définition 6.1.5. Soit f ∈ End(E). On appelle polynôme caractéristique de


f , noté χf (X) = det(f − XId), le polynôme caractéristique d’une matrice
quelconque de f .
Remarque 47. On a f − αId est un endomorphisme de E pour tout α ∈ K,
alors que f − XId ne l’est pas (c’est seulement une notation). D’ailleurs la
matrice A − XIp n’appartient pas à Mp (K).

105
6.2 Théorème de Cayley-Hamilton
Nous allons maintenant énoncer l’un des théorèmes les plus importants
de l’algèbre linéaire.
Thoérème 6.2.1. (Cayley-Hamilton) Soit f ∈ End(E). Alors χf (f ) = 0.

Démonstration. Admit

Remarque 48. Voici la version matricielle de ce théorème : Si A est une


matrice carrée à coefficients dans un corps, alors χA (A) = 0.

6.3 Eléments propres d’un endomorphisme


Définition 6.3.1. Soit E un K-ev et soit f ∈ End(E).
1. On dit que λ ∈ K est une valeur propre de f si et seulement si il existe
u ∈ E tel que u ≠ 0 et f (u) = λu.
2. On dit que u ∈ E est un vecteur propre de f si et seulement si u ≠ 0 et il
existe λ ∈ K tel que et f (u) = λu.
3. Si u ∈ E, ≠ 0 et λ ∈ K tels que f (u) = λu, alors on dit que u est un vecteur
propre associé à la valeur propre λ. on dit aussi que λ est la valeur propre
associée au vecteur propre u.
4. L’ensemble des valeurs propre de f est appelé spectre de f et est noté
spK (f ) ou simplement sp(f ).
5. Si λ ∈ sp(f ), alors le sev E(λ) = ker(f − λId) de E est appelé sous-espace
propre associé à λ.
Remarques 9.
1. On a u ∈ E(λ) ⇐⇒ (f − λId)(u) = 0 ⇐⇒ f (u) = λu.
Donc u ∈ E(λ) ⇐⇒ u = 0 ou u est un vecteur propre associé à λ
2. Si u est un vecteur propre associé à λ alors, pour tout scalaire non-nul α,
αu est vecteur propre associé à λ.
3. λ ∈ sp(f ) ⇐⇒ ker(f − λId) ≠ 0 ⇐⇒ f − λId n’est pas injectif.
Donc 0 est une valeur propre de f si et seulement si f n’est pas injectif.
4. Si λ ∈ sp(f ) alors dim(E(λ)) ≥ 1.
Proposition 6.3.2. Soit λ ∈ K. Alors λ est une valeur propre de f si et
seulement si χf (λ) = 0.

Démonstration. On a λ est une valeur propre de f si et seulement si f − λId


n’est pas injectif. Donc λ est une valeur propre de f si et seulement si det(f −
λId) = 0, c’est-à-dire, χf (λ) = 0.

106
Définition 6.3.3. (Multiplicités algébrique et géométrique)
Soit λ ∈ sp(f ). Alors
(i) la multiplicité de λ en tant que racine de χf est appelée multiplicité algé-
brique de λ et notée ma (λ).
(ii) La multiplicité géométrique de λ, notée mg (λ), est la dimension de E(λ),
c’est-à-dire, mg (λ) = dim(E(λ)).
Proposition 6.3.4.
1. Soit f ∈ End(E) et µ, λ ∈ sp(f ). Si λ ≠ µ alors E(λ) ⋂ E(µ) = {0}.
2. Des vecteurs propres associés à des valeurs propres distinctes sont linéai-
rement indépendants.
3. Si dim(E) = n alors f admet au plus n valeurs propres distinctes.
Démonstration.
1. Soit u ∈ E(λ) ⋂ E(µ). on a f (u) = λu = µu, donc (λ − µ)u = 0. Comme
λ − µ ≠ 0, alors u = 0.
2. Soit {λ1 , . . . , λp } ⊆ sp(f ) et supposons que λi ≠ λj si i ≠ j. Soit ui un
vecteur propre associé à λi , 1 ≤ i ≤ p.
Faisons une démonstration par récurrence sur p. Pour p = 1, on a Soit αu1 = 0
entraine α = 0 car u1 ≠ 0.
H.R : Supposons que u1 , . . . , up−1 sont linéairement indépendants. Soient
α1 , . . . , αp ∈ K tels que α1 u1 + ⋯ + αp up = 0. On a α1 u1 + ⋯ + αp−1 up−1 =
−αp up ∈ E(λp ). Donc f (α1 u1 + ⋯ + αp−1 up−1) = λp (α1 u1 + ⋯ + αp−1 up−1) =
λp α1 u1 +⋯+λp αp−1 up−1 . Or f (α1 u1 +⋯+αp−1 up−1) = λ1 α1 u1 +⋯+λp−1 αp−1 up−1 .
Donc λp α1 u1 + ⋯ + λp αp−1 up−1 = λ1 α1 u1 + ⋯ + λp−1 αp−1 up−1 . par suite, λp α1 =
λ1 α1 , . . . , λp αp−1 = λp−1 αp−1 . En conclusion, α1 = ⋯ = αp−1 = 0 et donc αp up = 0
et alors αp = 0. en conclusion, u1, . . . , up sont linéairement indépendants.
3. Supposons que sp(f ) = {λ1 , . . . , λp } avec λi ≠ λj si i ≠ j. Soit ui un vecteur
propre associé à λi , 1 ≤ i ≤ p. d’après 2., on a {u1, . . . , up } est une famille libre
de E, donc p ≤ n.
Corollaire 6.3.5. Soit λ1 , . . . , λm des valeurs propres de f deux à deux dis-
tinctes. Alors

E(λ1 ) + ⋯ + E(λm ) = E(λ1 ) ⊕ ⋯ ⊕ E(λm ).

Démonstration. Soit ui ∈ E(λi ), 1 ≤ i ≤ m. Si u1 + ⋯ + um = 0, alors d’après le


corollaire 6.3.5, chaque ui est nul. En effet, soit L = {ui /ui ≠ 0} et supposons
que L ≠ ∅. On a ∑ui ∈L ui = 0 ce qui est impossible d’après la proposition 6.3.4.
Par suite L = ∅ et donc u1 = ⋯ = um = 0.
Exemples 22.
1. Soit E = C(R) le R-ev des fonctions de classe C ∞ . Soit ∂ ∶ E Ð→ E qui

107
à une fonction f associe sa dérivée f ′ . On a ∂(eλx ) = λeλx . Donc eλx est un
vecteur propre de ∂ associé à la valeur propre λ.
2. On suppose que E = F ⊕ G. et soit π la projection sur F parallèlement à
G. Alors F = E(1), G = E(0).
3. On suppose que E = F ⊕ G. et soit s la symétrie par rapport à F parallè-
lement à G. Alors F = E(1) et G = E(−1).
Proposition 6.3.6. Si λ est une valeur propre de f alors E(λ) est sev stable
par f , c’est-à-dire, f (E(λ)) ⊆ E(λ).
Démonstration. Soit u ∈ E(λ). On a f (f (u)) = f (λu) = λf (u), donc f (u) ∈
E(λ).

6.4 Cas des matrices


Définition 6.4.1. Soit A ∈ Mp (K) et Z ∈ K p un vecteur non nul.
1. On dit que Z est un vecteur propre de A si AZ = λZ pour un certain
λ ∈ K. Dans ce cas on dit que λ est la valeur propre de A associée au vecteur
propre Z. On dit aussi que Z est un vecteur propre de A associé à la valeur
propre λ.
2. Le spectre de A, noté spK (A) ou simplement sp(A), est l’ensemble des
valeurs propres de A.
3. Soit λ ∈ sp(A). L’espace propre de A associé à λ est le sev de K p défini
par E(λ) = {Z ∈ K p /AZ = λZ} = {Z ∈ K p /(A − λIp )Z = 0}.
Remarques 10.
1. λ ∈ sp(A) ⇐⇒ det(A − λIp ) = 0 ⇐⇒ χA (λ) = 0.
2. Posons p = dim(E) et Soit f ∈ End(E). Soit B une base de E et posons
A = MB (f ). On a :
(i) sp(f ) = sp(A).
(ii) Soit λ ∈ sp(f ) et soit E(λ, f ) et E(λ, A) les sous espaces propres de f et
de A associés à λ. Alors
u ∈ E(λ, f ) ⇐⇒ uB ∈ E(λ, A).
En effet,
f (u)λu ⇐⇒ AuB = λuB .
Exemples 23.
1. Si A est une matrice triangulaire
⎛a11 a12 ⋯ a1p ⎞
⎜ 0 a22 ⋱ ⋮ ⎟
A=⎜ ⎟
⎜ ⋮ ⋱ ⋱ ap−1p ⎟
⎝ 0 ⋯ 0 app ⎠

108
alors sp(A) = {aii /1 ≤ i ≤ p}.
2. Soit A ∈ M3 (R) tel que χA (X) = −(X − 1)(X 2 + 1). Alors spR (A) = {1} et
spC (A) = {1, i, −i}.
3.
A=( )
0 1
−1 0
On a χA (X) = X 2 + 1. Donc spR (A) = ∅, spC (A) = {−i, i}, spZ/2Z (A) = {1}
et spZ/5Z (A) = {2, 3}.
Définition 6.4.2. Soit P ∈ K[X]. On dit que P est scindé sur K si P à toutes
ses racines dans K, c’est-à-dire, P est de la forme

P = a(X − a1 )m1 ⋯(X − as )ms

où a, a1 , . . . , as ∈ K.
Exemples 24.
1. (X 2 − 1)3 = (X − 1)3 (X + 1)3 est scindé sur R.
2. X 2 + 1 n’est pas scindé sur R et il est scindé sur C.
3. X 2 + 1 est scindé sur Z/5Z car X 2 + 1 = (X − 2)(X − 3).

6.5 Diagonalisation des endomorphismes et des ma-


trices
On rappelle que deux matrices A et B sont dites semblables s’il existe une
matrice inversible P telle que A = P −1 BP . On dit aussi que A est semblable
à B.
Définition 6.5.1. Un endomorphisme f de E est diagonalisable s’il existe une
base B de E telle que MB (f ) est une matrice diagonale. On dit dans ce cas
que B est une base de diagonalisation pour f .
Une matrice carrée est diagonalisable sur K si elle est semblable à une ma-
trice diagonale.
Remarque 49. Soit B = (e1 , . . . , en ) une base de E telle que MB (f ) = diag(λ1 , . . . , λn )
est une matrice diagonale (les scalaires λi ne sont pas nécessairement dis-
tincts). Alors f (ei ) = λi ei et donc e1 , . . . , en sont des vecteurs propres de f .
Réciproquement, s’il existe une base B = (e1 , . . . , en ) de E qui est constituée
de vecteurs propres de f , alors ∃µ1 , . . . , µn ∈ K tels que f (ei ) = µi ei et donc
MB (f ) = diag(µ1 , . . . , µn ) est une matrice diagonale.
De la même façon, si A est une matrice diagonalisable alors il existe une
matrice inversible P et une matrice diagonale D = diag(λ1 , . . . , λn ) telles que

109
P −1 AP = D. Dans ce cas on a χA = χD et donc sp(A) = sp(D) = {λ1 , . . . , λn }.
D’autre part, supposons que f est diagonalisable. Alors il existe une base B de
E telle que MB (f ) = D est une matrice diagonale. Soit B ′ une autre base de
E et P la matrice de passage de B à B ′ . On sait que MB′ (f ) = P −1 MB (f )P =
P −1 DP . Par suite, les matrice de f sont toutes diagonalisables. En conclu-
sion, on peut diagonaliser un endomorphisme en travaillant sur l’une de ses
matrices.
La réciproque est aussi vraie. Soit A ∈ Mp (K) et considérons une base quel-
conque de K p , par exemple la base canonique C. Soit f l’endomorphisme
de K p défini par f (Z) = AZ pour tout vecteur colonne Z de K p . On a
MC (f ) = A. Donc diagonaliser A revient à chercher une base B de vecteurs
propres de f , c’est-à-dire, chercher une matrice inversible P et une matrice
diagonale D telles que P −1 AP = D.
Définition 6.5.2. On dit qu’un endomorphisme d’un K-ev E est scindé si son
polynôme caractéristique est sindé sur K. On dit qu’une matrice A ∈ Mp (K)
est scindée si son polynôme caractéristique est sindé sur K.
Proposition 6.5.3. Soit λ1 , . . . , λs les valeurs propres distinctes de f . Alors f
est diagonalisable si et seulement si f est scindé et

E = E(λ1 ) ⊕ ⋯ ⊕ E(λs ).

Démonstration. Supposons que f est diagonalisable. Alors il existe une base


de E qui constitue de vecteurs propres de f . Donc chaque vecteur de B est
contenu dans un certain E(λi ). Par suite, E ⊆ E(λ1 ) + ⋯ + E(λs ) et donc
E = E(λ1 ) + ⋯ + E(λs ). Comme E(λ1 ) + ⋯ + E(λs ) = E(λ1 ) ⊕ ⋯ ⊕ E(λs ), alors
E = (λ1 ) ⊕ ⋯ ⊕ E(λs ).
Réciproquement, supposons que E = E(λ1 ) ⊕ ⋯ ⊕ E(λs ). Soit Bi une base
de E(λi ). Alors B = (B1 , . . . , Bs ) est une base de E qui est constituée de
vecteurs propres de f . Par suite, f est diagonalisable.
Remarque 50. Il y a des endomorphismes qui ne sont pas diagonalisable.
Par exemple un endomorphisme nilpotent non-nul n’est jamais diagonalisable
(voir TD).
Proposition 6.5.4. Soit f ∈ End(E). Si χf est scindé à racines simples alors
f est diagonalisable.
Démonstration. Posons dim(E) = n. Par hypothèse on a χf (X) = (−1)n (X −
λ1 )⋯(X − λn ) où les λi sont des scalaires deux à deux distincts. Soit ui un
vecteur propres associé à λi . On sait que la famille (u1 , . . . , un ) est libre et
donc c’est une base puisqu’elle contient n vecteurs de E. Comme cette famille
est constituée de vecteurs propres de f , alors f est diagonalisable.

110
Thoérème 6.5.5. Soit f un endomorphisme d’un K-ev E. Alors f est diago-
nalisable si et seulement si
(i) χf est scindé sur K
{
(ii) mg (λ) = ma (λ) pour toute valeurs propres λ de f

Démonstration. χf (X) = (−1)n (X −λ1 )m1 ⋯(X −λs )ms où les λi sont des sca-
laires deux à deux distincts et n = dim(E). Par hypothèse on a mi = ma (λi ) =
mg (λi ) pour tout i ∈ {1, . . . , s}. Il est clair que m1 +⋯+ms = deg(χf (X)) = n.
Puisque dim(E(λi )) = mg (λi ) = ma (λi ) = mi , alors dim(E(λ1 )⊕⋯⊕E(λs )) =
m1 + ⋯ + ms = n, donc E(λ1 ) ⊕ ⋯ ⊕ E(λs ) = E. En conclusion, f est diagona-
lisable.
Réciproquement, supposons que f est diagonalisable. Alors E = E(λ1 ) ⊕
⋯ ⊕ E(λs ) où λ1 , . . . , λs sont les valeurs propres distinctes de f . On sait que
f = fE(λ1 ) ⊕ ⋯ ⊕ fE(λs ) . D’après Proposition ?? on a χfE(λi ) = (−1)mg (λi ) (X −
λi )mg (λi ) , 1 ≤ i ≤ s, Donc χf (X) = ∏si=1 χfE(λi ) = (−1)∑i=1 mg (λi ) ∏si=1 (X −
s

λi )mg (λi ) . par suite χf est scindé sur K et on a ma (λi ) = mg (λi ).


Remarques 11.
1. On a mg (λ) = dim(ker(f − λId)) = n − rg(f − λId). Donc

mg (λ) = ma (λ) ⇐⇒ n − rg(f − λId) = ma (λ).

2. Soit λ ∈ sp(f ), alors E(λ) ≠ 0 et donc 1 ≤ mg (λ). Comme mg (λ) ≤ ma (λ),


alors 1 ≤ mg (λ) ≤ ma (λ).
Par suite, si λ est une racine simple de χf , alors mg (λ) = ma (λ) = 1.

Pratique de la diagonalisation
Soit f un endomorphisme d’un K-ev E de dimension n.
• On détermine χf
• Si f n’est pas scindé sur K alors f n’est pas diagonalisable
• Si f est scindé sur K, on cherche si mg (λ) = ma (λ) pour toute valeur
propre λ de f
• Si oui, on cherche une base Bi de E(λi ) avec sp(f ) = {λ1 , . . . , λs }. On
a alors B = (B1 , . . . , Bs ) est une base de diagonalisation pour f
• Dans le cas contraire, f n’est pas diagonalisable.
Soit A ∈ Mp (K).
• On détermine χA
• Si A n’est pas scindé sur K alors A n’est pas diagonalisable
• Si A est scindé sur K, on cherche si mg (λ) = ma (λ) pour toute valeur
propre λ de A

111
• Si oui, on cherche une base Bi de E(λi ) avec sp(f ) = {λ1 , . . . , λs }. On
peut par exemple chercher les familles Bi en résolvant les systèmes
homogènes d’inconnue Z :

(A − λi Ip )Z = 0.

• Si P est la matrice de passage de la base canonique C de K p à la base


B = (B1 , . . . , Bs ), c’est-à-dire, P = MC (B) alors

P −1 AP = D

est une matrice diagonale


• Dans le cas contraire, A n’est pas diagonalisable.

112

Vous aimerez peut-être aussi