Cours (MIP)
Cours (MIP)
1 Espaces Vectoriels 1
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Familles génératrices. . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Famille liées, famille libres. . . . . . . . . . . . . . . . . . . . . . 7
1.5 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . 8
1.6 Espaces vectoriels de dimensions finies . . . . . . . . . . . . . . 11
1.6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . 18
2 Espaces affines 21
2.1 Espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 VECTORIALISATION D’UN ESPACE AFFINE . . . . . . . 22
2.3 Translations et homothéties . . . . . . . . . . . . . . . . . . . . 23
2.4 SOUS-ESPACES AFFINES . . . . . . . . . . . . . . . . . . . . 23
2.5 INTERSECTION DE SOUS-ESPACES AFFINES . . . . . . . 24
2.6 PARALLELISME . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.7 REPERES CARTESIENS . . . . . . . . . . . . . . . . . . . . . 24
2.8 Points alignés, points coplanaires . . . . . . . . . . . . . . . . . 25
2.9 BARYCENTRES . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.10 Droites dans un plan . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.10.1 Représentation d’une droite dans un plan affine . . . . 26
2.11 Représentation d’une droite dans un espace affine de dimen-
sion 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.12 Plan affine dans un espace affine de dimension 3 . . . . . . . . 29
2.12.1 Représentation d’un plan dans l’espace affine R3 . . . 29
2.13 Parallèlisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.13.1 Une droite définie par une équation cartésienne et l’autre
par un repère cartésien . . . . . . . . . . . . . . . . . . . 31
2.13.2 Deux droites définies par des équations cartésiennes . 31
i
2.13.3 Deux droites définies par des repères cartésiens . . . . 33
2.13.4 Deux plans définis par des équations cartésiennes . . . 33
2.13.5 Un plan défini par une équation cartésienne et l’autre
par un repère cartésien . . . . . . . . . . . . . . . . . . . 34
2.13.6 Deux plans définis par des repères cartésiens . . . . . . 34
2.13.7 Un plan défini par une équation cartésienne et une
droite définie par un repère cartésien . . . . . . . . . . 35
2.13.8 Un plan et une droite définis par des équations carté-
siennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.13.9 Un plan et une droite définis par des repères cartésiens 36
2.14 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.14.1 Produit scalaire usuel et angle dans R2 et R3 . . . . . 36
2.15 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.15.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . 38
2.15.2 Vecteur normal . . . . . . . . . . . . . . . . . . . . . . . 40
4 Matrices 61
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2 L’espace vectoriel Mn,m (K) . . . . . . . . . . . . . . . . . . . . 65
4.3 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.4 Écriture matricielle d’un système d’équations linéaires . . . . 74
4.4.1 Calcul de l’inverse . . . . . . . . . . . . . . . . . . . . . . 75
4.5 Matrices d’applications linéaires . . . . . . . . . . . . . . . . . . 76
4.5.1 Matrice d’une famille de vecteurs . . . . . . . . . . . . . 76
4.5.2 Matrice d’une application linéaire . . . . . . . . . . . . 77
4.6 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . 83
4.6.1 Matrices de passage . . . . . . . . . . . . . . . . . . . . . 83
4.6.2 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . 86
ii
5.5 Formule explicite du déterminant d’une matrice . . . . . . . . 97
Introduction 1
iii
Chapitre 1
Espaces Vectoriels
1.1 Généralités
Définition 1.1.1. On appelle espace vectoriel sur K (ev sur K) ou K-espace
vectoriel (K-ev) un ensemble non vide E muni
d’une loi interne + ∶ E × E Ð→ E
(u, v) z→ u + v
et d’une loi externe ⋅ ∶ K × E Ð→ E
(α, u) z→ α.u = αu
telles que :
1) (E, +) est un groupe commutatif :
(i) ∀u, v, w ∈ E ∶ u + (v + w) = (u + v) + w = u + v + w (sans parenthèses),
(ii) ∃0E ∈ E, ∀u ∈ E ∶ 0E + u = u + 0E = u,
(iii) ∀u ∈ E, ∃ − u ∈ E ∶
u + (−u) = (−u) + u = 0E ,
(iv) ∀u, v ∈ E ∶ u + v = v + u.
2)∀(u, v) ∈ E 2 , ∀(α, β) ∈ K 2 :
a) α(u + v) = αu + αv. c) (αβ)u = α(βu) = αβu (sans parenthèses).
b) (α + β)u = αu + βu. d) 1u = u.
Les éléments de K sont appelés des scalaires, ceux de E sont appelés des
vecteurs et on les note parfois par Ð
→
u (une lettre surmentée d’une flèche).
Exemples 1.
1) R est un R-ev.
1
2) C est un C-ev et un R-ev.
3) On muni K n des deux lois suivantes :
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
et
α(x1 , . . . , xn ) = (αx1 , . . . , αxn )
(K n , +, .) est alors un K-ev.
4) Généralement, Si E1 , E2 , . . . , En sont des espaces vectoriels sur K, on peut
munir E1 × E2 × ⋯ × En d’une structure naturelle de K-espace vectoriel, en
définissant ainsi les opérations :
∀(x1 , . . . , xn ), (y1 , . . . , yn ) ∈ E1 × E2 × ⋯ × En ∶
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
∀(x1 , . . . , xn ) ∈ E1 × E2 × ⋯ × En et ∀λ ∈ K ∶
λ(x1 , . . . , xn ) = (λx1 , . . . , λxn )
2
Démonstration. 1) On a α(u) = α(u − v + v) = α(u − v) + αv donc α(u − v) =
αu − αv. 2) On fait u = v dans 1). 3) On fait u = 0E dans 1). 4) On a
αu = (α − β + β)u = (α − β)u + βu donc (α − β)u = αu − βu. 5) On fait α = 0
dans 4). 6) On fait α = β dans 4). 7) Si α ≠ 0K alors α est inversible dans K.
On a alors
Démonstration. Il est clair que si F est un sev de E alors les conditions 1),2)
et 3) sont vérifiées. Inversement, on a −1 ∈ K, donc, d’après 3), −u = (−1)u ∈ F
∀u ∈ F . Comme F est stable par la loi +, alors (F, +) est un sous-groupe de
(E, +). Puisque on a 3) alors F est un espace vectoriel.
F est un sev de E ⇔ {
F ≠∅
∀(u, v) ∈ F 2 , ∀α ∈ K ∶ αu + v ∈ F
3
Démonstration. Facile.
Remarques 1.
1) Soient E un K-ev et F une partie non vide de E. F est un sev de E veut
dire que F est un K-ev pour les lois induites par celles de E :
4
+ ∶ E × E Ð→ E et . ∶ K × E Ð→ E
(u, v) z→ u + v (α, u) z→ αu.
2) Pour montrer qu’un ensemble E est un espace vectoriel il suffit de montrer
que E est un sev d’un autre ev bien connu.
3) Un sous espace vectoriel contient toujours le vecteur nul. Donc pour mon-
trer que F est une partie non vide de E, on se contente de vérifier que le
vecteur nul 0 de E est dans F . En effet, si 0 /∈ F alors F n’est pas un sev de
E ; et si 0 ∈ F alors F est non vide.
4) Si F est un sev de E et si E est un sev de G alors F est un sev de G.
Exemples 2.
1) Si E est un K-ev alors {0} et E sont des sev de E. On les appelle les
deux sous-espaces vectoriels triviaux.
2) Soit Kn [X] = {P ∈ K[X]/deg(P ) ⩽ n} (on convient que −∞ < n). Alors
Kn [X] est un sev de K[X].
Si n ⩽ m alors Kn [X] est un sev de Km [X].
3) E = R2 est un R-ev, F1 = {0} × R et F2 = R × {0} sont des sev de E.
4) soit I un intervalle de R. L’ensemble des fonctions numériques définies
et dérivables sur I est un sev de l’ensemble des fonctions numériques défi-
nies et continues sur I et ce dernier est un sev de l’ensemble des fonctions
numériques définies sur I.
Proposition 1.2.5. Soient E un K-ev, (Fi )i∈I une famille de sev de E, alors
F = ⋂ Fi est un sev de E.
i∈I
Exemples 3.
1) On sait que F = R2 × {0} et G = R × {0} × R sont des sev de R3 .
On a u ∈ F ⋂ G ⇐⇒ ∃x, x′ , y, z ∈ R ∶ u = (x, y, 0) = (x′ , 0, z) ⇐⇒ x = x′ et
y = z = 0 donc F ∩ G = {(x, 0, 0)/x ∈ R} = R × {0} × {0}.
2) F = {(x, y) ∈ R2 /x + y = 0} et G = {(x, y) ∈ R2 /2x + y = 0} sont deux
sous espaces vectoriels de R2 . On a (1, −1) ∈ F et (1, −2) ∈ G mais (1, −1) +
(1, −2) = (2, −3) ∈/ F et ∈/ G, donc (1, −1) + (1, −2) ∈/ F ∪ G, alors F ∪ G n’est
pas un sous espace vectoriel de R2 .
5
1.3 Familles génératrices.
Définition 1.3.1. Soient u1 , . . . , un une famille finie de vecteurs d’un K-ev
E. Un vecteur u ∈ E est dit combinaison linéaire des vecteurs u1 , . . . , un s’il
existe des scalaires α1 , . . . , αn ∈ K, tel que
n
u = α1 u 1 + ⋯ + αn u n = ∑ αi u i
i=1
Exemples 4.
1) Tout polynôme P ∈ Kn [X] est combinaison linéaire des vecteurs 1, X, X 2 , . . . , X n .
2) Dans le C-ev C2 , tout vecteur (z, z ′ ) est combinaison linéaire des vecteurs
(1, 0) et (0, 1) :
(z, z ′ ) = z(1, 0) + z ′ (0, 1).
3) Dans le R-ev C2 , tout vecteur (z, z ′ ) est combinaison linéaire des vecteurs
(1, 0), (0, 1), (i, 0) et (0, i). Si z = x + iy, x, y ∈ R et z ′ = x′ + iy ′ , x′ , y ′ ∈ R,
alors on a :
(z, z ′ ) = x(1, 0) + x′ (0, 1) + y(i, 0) + y ′ (0, i).
Thoérème 1.3.2. Soit {u1 , . . . , un } une famille finie de vecteurs d’un K-ev E.
Alors :
1) L’ensemble F des combinaisons linéaires des vecteurs u1 , . . . , un est un sev
de E.
2) F est le plus petit ( au sens de l’inclusion) sev de E contenant u1, . . . , un .
Démonstration.
1) On a 0 = 0u1 + ⋯ + 0un ∈ F , donc F ≠ ∅. Soient α ∈ K, u, v ∈ F . alors
∃α1 , . . . , αn ∈ K et ∃β1 , . . . , βn ∈ K tels que u = α1 u1 + ⋯ + αn un et v =
β1 u1 + ⋯ + βn un . On a alors αu + v = (αα1 u1 + ⋯ + ααn un ) + β1 u1 + ⋯ + βn un =
(αα1 + β1 )u1 + ⋯ + (ααn + βn )un ∈ F , par suite F est un sev de E.
2) Soit G un sev de E qui contient la famille {u1 , . . . , un }. Puisque G est un
sev de E alors α1 u1 + ⋯ + αn un ∈ G et ceci ∀α1 , . . . , αn ∈ K, donc F ⊆ G.
Définition 1.3.3. Soient E un K-ev et A = {u1, . . . , un } une famille finie
de vecteurs de E. On appelle sev engendré par A l’ensemble F = {α1 u1 +
⋯ + αn un /α1 , . . . , αn ∈ K} des combinaisons linéaires des vecteurs u1 , . . . , un
(c’est à dire des éléments de A).
On dit aussi que A engendre F (ou une famille génératrice de F ).
Notation 1. On note
F = sev⟨u1 , . . . , un ⟩ = sev⟨A⟩
ou
F = vect⟨u1 , . . . , un ⟩ = vect⟨A⟩
6
Remarque 2. Par convention on pose sev⟨∅⟩ = {0}.
Exemples 5.
1) K n = sev⟨(1, 0, . . . , 0), . . . , (0, . . . , 0, 1)⟩.
2) Kn [X] = sev⟨1, X, X 2 , . . . , X n ⟩.
3) Dans R3 , soient v1 = (2, 1, 0), v2 = (0, −1, 0), v3 = (2, −1, 0) et soit F =
sev⟨v1 , v2 , v3 ⟩. On montre que F = sev⟨v1 , v2 ⟩ = sev⟨v1 , v3 ⟩ = sev⟨v2 , v3 ⟩, et
donc un ev peut avoir plusieurs familles génératrices. D’une façcon générale,
le sev nul {0} possède exactement deux familles génératrices ∅ et {0}.
4) Si K est un corps de caractéristique 0, alors tout sev non nul possède une
infinité de familles génératrices. Par exemple, considérons le R-ev R (chaque
réel est à la fois scalaire et vecteur). On a α = α.1, donc R = sev⟨1⟩. En
général, si d est un réel non nul, alors on a α = αd .d, et donc R = sev⟨d⟩.
5) Soit u, v ∈ E, alors sev⟨u⟩ = {αu/α ∈ K} = Ku et sev⟨u, v⟩ = {αu+βv/α, β ∈
K} = Ku + Kv.
Thoérème 1.3.4. Soit A une partie quelconque d’un K-ev E. L’ensemble
H = {α1 u1 + ⋯ + αn un /n ∈ N∗ , α1 , . . . , αn ∈ K, u1 , . . . , un ∈ A}
7
Les vecteurs u1 , . . . , un sont dits linéairement dépendants.
2) On dit que {u1 , . . . , un } est une famille libre si elle n’est pas liée. Ce qui
revient à dire que :
α1 u1 + ⋯ + αn un = 0 ⇒ α1 = ⋯ = αn = 0.
8
Définition 1.5.1. Soient F et G deux sev d’un K-ev E. On note F + G l’en-
semble {u + v/u ∈ F et v ∈ G}. F + G est appelé la somme de F et G.
Remarque 3. F + G = {w ∈ E/∃u ∈ F, ∃v ∈ G, w = u + v}
Consequences :
a) sev⟨u1 , . . . , um ⟩ = sev⟨u1⟩ + ⋯ + sev⟨um ⟩ = Ku1 + ⋯ + Kum
b) Si A est une famille génératrice de F1 et B est une famille génératrice de
F2 , alors A ⋃ B est une famille génératrice de F1 + F2 .
Définition 1.5.4. Soient F et G deux sev d’un K-ev E. On dit que la somme
F + G est directe si tout élément de F + G s’écrit d’une manière unique sous
la forme u + v avec u ∈ F et v ∈ G. Dans ce cas F + G est noté F ⊕ G.
9
Définition 1.5.5. Soient F1 , . . . , Fn des sev de E. On dit que la somme F1 +
⋯ + Fn est directe si tout élément de F1 + ⋯ + Fn s’écrit d’une manière unique
sous la forme u1 + ⋯ + un avec u1 ∈ F1 , . . . , un ∈ Fn . Dans ce cas F1 + ⋯ + Fn
est noté F1 ⊕ ⋯ ⊕ Fn .
Proposition 1.5.6. Soient F et G deux sev d’un K-ev E. Les propositions
suivantes sont équivalentes :
1. La somme F + G est directe.
2. F ⋂ G = {0}.
3. ∀u ∈ F , ∀v ∈ G : u + v = 0 Ô⇒ u = v = 0.
Démonstration.
1. Ô⇒ 2. : Soit u ∈ F ⋂ G. On a u = u + 0 ∈ F + G et u = 0 + u ∈ F + G, donc
u = 0 et 0 = u, c’est-à-dire, u = 0. Alors F ⋂ G = {0}.
2. Ô⇒ 3. : Soient u ∈ F et v ∈ G. Supposons que u + v = 0. Alors u = −v ∈ G,
donc u ∈ F ⋂ G, Il est clair que nous avons aussi v = 0.
3. Ô⇒ 1. : Soient u, w ∈ F et v, z ∈ G. Supposons que u + v = w + z. On a dans
ce cas (u − w) + (v − z) = 0. Comme u − w ∈ F et v − z ∈ G, alors u − w = 0 et
v − z = 0, et donc u = w et v = z.
10
unique en somme d’un éléments de F et d’un élément de G. càd :
E = F ⊕ G ⇔ ∀w ∈ E, il existe et unique (u, v) ∈ F × G tel que w = u + v.
Exemples 8.
1) K = sev⟨1⟩ est de dimension finie.
2) Kn = sev⟨e1 , . . . , en ⟩ est de dimension finie, où e1 = (1, 0, . . . , 0), e2 =
(0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1). En particulier, Rn et Cn sont des es-
paces vectoriels de dimensions finies.
3) {0} = sev⟨∅⟩ = sev⟨0⟩ est de dimension finie.
4) Kn [X] = sev⟨1, X, . . . , X n ⟩ est de dimension finie.
11
1.6.2 Bases
Définition 1.6.2. On dit qu’une famille finie B = (u1 , . . . , un ) d’éléments d’un
K-ev E est une base de E si B est une famille libre et génératrice de E.
Exemples 9.
1) {∅} est, par convention, une base de {0}.
2) E = K n , soient e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).
Alors (e1 , . . . , en ) est une base du K-ev E, appelée base canonique (ou stan-
dard) de E.
3) (1, X, . . . , X n ) est une base de Kn [X], appelée base canonique de Kn [X].
4) Si E et F sont deux K-ev de bases respectives (u1 , . . . , un ) et (v1 , . . . , vm ),
alors ((u1 , 0F ), . . . , (un , 0F ), (0E , v1 ), . . . , (0E , vm )) est une base du K-ev E ×
F.
Proposition 1.6.3. Soit B = (u1 , . . . , un ) une famille finie d’un K-ev E. Alors
les propriétés suivantes sont équivalentes :
1. B est une base de E.
2. ∀u ∈ E, u s’écrit de manière unique sous la forme : u = α1 u1 + ⋯ +
αn un , α1 , . . . , αn ∈ K.
Démonstration.
1. Ô⇒ 2. : Soit u ∈ E. Comme B est une famille génératrice de E, ∃α1 , . . . , αn ∈
K tels que u = α1 u1 + ⋯ + αn un .
Supposons que u = α1 u1 + ⋯ + αn un et u = β1 u1 + ⋯ + βn un avec α1 , . . . , αn ∈ K
et β1 , . . . , βn ∈ K. On a u − u = (α1 − β1 )u1 + ⋯ + (αn − βn )un = 0, comme B est
une famille libre, on a α1 − β1 = 0, . . . , αn − βn = 0, donc α1 = β1 , . . . , αn = βn .
2. Ô⇒ 1. : Il est clair que 2. entraine que B est une famille génératrice de
E. Soient α1 , . . . , αn ∈ K et supposons que α1 u1 + ⋯ + αn un = 0. Comme
0 = 0u1 + ⋯ + 0un , on a nécessairement α1 = 0, . . . , αn = 0. Ceci entraine que
B est une famille libre et donc c’est une base de E.
12
Remarques 3.
1. Si B = (u1 , . . . , un ) est une base de E, alors en changeant l’ordre des
vecteurs ui on aura une autre base de E. C’est pour cette raison qu’on note
souvent les bases avec des parenthèses et non avec des accolades.
Par exemple : B1 = ((1, 0), (0, 1)) et B2 = ((0, 1), (1, 0)) sont deux bases du
K-ev K 2 , et on a (x, y) = (x, y)B1 = (y, x)B2 .
2. Ce sont les coordonnées des vecteurs qui dépendent des bases et pas les
vecteurs.
Proposition 1.6.5. Soient E un K-ev et B = (v1 , . . . , vn ) une famille de vec-
teurs de E. Alors B est une base de E si et seulement si E = sev⟨v1 ⟩ ⊕ ⋯ ⊕
sev⟨vn ⟩
Démonstration.
Ô⇒) Supposons que B est une base de E. On évidemment sev⟨v1 ⟩ + ⋯ +
sev⟨vn ⟩ ⊆ E. Inversement, Soit u ∈ E. Alors ∃α1 , . . . , αn ∈ K tels que u =
α1 u1 + ⋯ + αn un ∈ sev⟨v1 ⟩ + ⋯ + sev⟨vn ⟩. Donc E ⊆ sev⟨v1 ⟩ + ⋯ + sev⟨vn ⟩. Par
suite E = sev⟨v1 ⟩ + ⋯ + sev⟨vn ⟩.
Soient u1 = α1 v1 ∈ sev⟨v1 ⟩, . . . , un = αn v1 ∈ sev⟨v1 ⟩. Si u1 + ⋯ + un = 0, alors
α1 v1 + ⋯ + αn vn = 0 et comme B est une base, on aura α1 = ⋯ = αn = 0 et
donc u1 = ⋯ = un = 0. Par suite E = sev⟨v1 ⟩ ⊕ ⋯ ⊕ sev⟨vn ⟩.
⇐Ô) Facile.
Lemme 1.6.6. Soit (v1 , . . . , vm ) une famille d’un K-ev E et soit (u1 , . . . , un )
une famille génératrice de E. Si m > n alors (v1 , . . . , vm ) est liée.
E = sev⟨u1 ⟩ + sev⟨u2 , . . . , un ⟩,
alors
vi = αi u1 + wi , 1 ≤ i ≤ m.
avec α1 , . . . , αm ∈ K et w1 , . . . , wm ∈ F = sev⟨u2 , . . . , un ⟩.
Si αi = 0, 1 ≤ i ≤ m, alors vi ∈ F, 1 ≤ i ≤ m. Or F est engendré par
n − 1 éléments et m > n − 1, alors d’aprés l’hypothèse de récurrence, on a
13
(v1 , . . . , vm ) est une famille liée.
Supposons que αj ≠ 0 pour un certain j. Dans ce cas on a
αj vi − αi vj = αj αi u1 + αj wi − αi αj u1 − αi wj = αj wi − αi wj ∈ F,
alors
∑ λi αj vi − (∑ λi αi )vj = 0
i∈J i∈J
Comme les scalaires λi αj ne sont pas tous nuls, alors la famille {v1 , . . . , vm }
est liée.
Thoérème 1.6.7. Soit E un K-ev de dimension finie. Alors :
1. De toute famille génératrice de E on peut extraire une base de E.
2. E admet au moins une base.
3. Toutes les bases de E ont le même cardinal.
Démonstration.
1. Soit G = {v1 , . . . , vm } une famille génératrice de E. Si la famille G est libre
alors elle forme une base de G. Si G est liée, ∃vi ∈ G tel que vi ∈ sev⟨Gi ⟩
où Gi = G ∖ {vi }, et dans ce cas on a E = sev⟨G⟩ = sev⟨Gi ⟩. Si la famille
Gi est libre alors elle forme une base de E. Si Gi est liée, ∃vj ∈ Gi tel que
vj ∈ sev⟨Gij ⟩ où Gij = Gi ∖ {vj }, et dans ce cas on a E = sev⟨Gij ⟩. On itère
le procédé jusqu’à obtenir une famille génératrice de E qui libre et donc une
base de E.
2. C’est une conséquence immédiate de 1..
3. Soit B et B ′ deux bases de E. On a B est une famille génératrice de
E et B ′ est une famille libre, donc d’après le lemme 1.6.6 on a card(B’) ≤
card(B). De la même façon on a card(B) ≤ card(B’). En conclusion, card(B’) =
card(B).
Remarque 6.
1) Un espace vectoriel peut avoir plusièures bases.
2) Si K est un corps de caractéristique 0, alors seul le sous-espace vectoriel
nul admet un nombre fini de bases (une seule).
3) Si K est un corps de caractéristique p > 0, alors on peut trouver des sev
non nuls qui on un nombre fini de bases. Prenant par exemple K = Z/2Z,
E = K[X] et F = K.
14
Définition 1.6.8. On appelle dimension de E, et on note dimK (E) ou dim(E),
le cardinal d’une base de E.
Exemples 10.
1) dim({0}) = 0 (∅ est une base de {0}).
2) dim(K) = 1 et dim(K n ) = n.
3) dim(Kn [X]) = n + 1 ((1, X, X 2 , . . . , X n ) est une base de Kn [X]).
4) dimC (C) = 1 et dimR (C) = 2 (car (1, i) est une base du R-espace vectoriel
C).
5) Les sous-espaces vectoriels de dimension 1 sont appelés droites vectorielles
et les sous-espaces vectoriels de dimension 2 sont appelés plans vectorielles.
6) Les sous-espaces vectoriels de dimension n−1 d’un ev de dimension n sont
appelés hyperplans vectoriels.
Thoérème 1.6.9. (Théorème de la base incomplète) Soient E un K-ev de
dimension finie, B une base de E et L = {v1 , . . . , vm } une famille libre. Alors
il existe H ⊆ B ∖ L tel que L ⋃ H est une base de E.
Démonstration.
1. Supposons par l’absurde que F soit de dimension infinie. Soit L1 est une
famille libre de F . Alors L1 est aussi une famille libre de E et donc card(L1 ) ≤
dim(E). Si F = sev⟨L1 ⟩ alors L1 serait une famille génératrice de F qui
est libre, elle serait donc une base de F et ce dernier serait de dimension
finie, ce qui est absurde. Si F ≠ sev⟨L⟩, alors ∃u ∈ F tel que u ∈/ sev⟨L⟩,
et comme L est libre alors L2 = L1 ⋃{u} est aussi libre. Il est clair que
card(L1 ) < card(L2 ) ≤ dim(E). On peut ainsi construire une suite infinie
15
strictement croissante d’entiers naturels card(Ln ) qui majorée. Absurde. Par
suite F est de dimension finie.
Soit B ′ une base de F et soit B une base de E. Puisque B ′ est libre et B
est une famille génératrice de E alors card(B ′ ) ≤ card(B). Donc dim(F ) ≤
dim(E).
2. On a évidemment F = E Ô⇒ dim(F ) = dim(E).
Réciproquement, Supposons que dim(F ) = dim(E) et soit B ′ une base de F .
Supposons par l’absurde que B ′ n’est pas une base de E. Puisque B ′ est libre
alors, d’après le théorème de la base incomplète, on peut compéter B ′ en une
base de E. Dans ce cas on aura dim(E) > card(B ′ ) et donc dim(E) > dim(F ).
Absurde.
Une autre démonstration : On a B ′ est libre donc d’après le théorème de la
base incomplète il existe une base B de E telle que B ′ ⊆ B. Puisque dim(F ) =
dim(E) alors card(B ′ ) = card(B) et donc B ′ = B. Par suite F = E.
Démonstration.
1. et 3. Découlent du théorème de la base incomplète.
2. et 4. Découlent du fait que toute famille génératrice de E contient une
base de E.
16
Corollaire 1.6.14. Soient E un K-ev de dimension finie n et A une partie finie
de E telle que card(A) = n. Alors les propriétés suivantes sont équivalentes :
1. A est une famille libre.
2. A est une famille génératrice de E.
3. A est une base de E.
Thoérème 1.6.15. (Formule de Grassmann) Soient E un K-ev de dimension
finie et F, G deux sev de E. Alors :
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
Démonstration. Soit L = {u1 , . . . , un } une base de F ⋂ G. On a L est une
famille libre de F et aussi une famille libre de G, donc on peut la compléter
en une base {u1 , . . . , un , v1 , . . . , vm } de F et en une base {u1, . . . , un , f1 , . . . , fk }
de G. Alors la famille B = {u1, . . . , un , v1 , . . . , vm , f1 , . . . , fk } est une base de
F + G. En effet, Soit u ∈ F + G, alors
∃α1 , . . . , αn , β1 , . . . , βm , γ1 , . . . , γn , λ1 , . . . , λk ∈ K
tels que
u = (α1 u1 + ⋯ + αn un + β1 v1 + ⋯ + βm vm ) + (γ1 u1 + ⋯ + γn un + λ1 f1 + ⋯ + λk fk )
= (α1 + γ1 )u1 + ⋯ + (αn + γn )un + β1 v1 + ⋯ + βm vm + λ1 f1 + ⋯ + λk fk
et donc B est une famille génératrice de F + G.
Montrons que B est une famille libre. Remarquons d’abord que les sommes
(F ∩ G) + sev⟨v1 , . . . , vm ⟩
et
(F ∩ G) + sev⟨f1 , . . . , fk ⟩
sont directes.
Supposons maintenant que
α1 u1 + ⋯ + αn un + β1 v1 + ⋯ + βm vm + λ1 f1 + ⋯ + λk fk = 0. (1.1)
On a alors
F ∋ β1 v1 + ⋯ + βm vm = −(α1 u1 + ⋯ + αn un + λ1 f1 + ⋯ + λk fk ) ∈ G
Alors β1 v1 + ⋯ + βm vm ∈ F ∩ G et β1 v1 + ⋯ + βm vm ∈ sev⟨v1 , . . . , vm ⟩, donc
β1 v1 + ⋯ + βm vm = 0, D’où β1 = ⋯ = βm = 0. De la même façon on montre que
λ1 = ⋯ = λk = 0. De l’égalité (1.1) on déduit que α1 u1 + ⋯ + αn un = 0 et donc
α1 = ⋯ = αn = 0. En conclusion, B est libre et donc c’est une base de F + G.
Donc dim(F + G) = n + m + k = (n + m) + (n + k) − n = dim(F ) + dim(G) −
dim(F ∩ G).
17
Corollaire 1.6.16. Soit E un K-ev de dimension finie et soit F un sev de E.
Tout les supplémentaires de F ont pour dimension dim(E) − dim(F ).
Démonstration. Soit G un supplémentaire de F , c’est-à-dire, E = F + G et
F ∩G = {0}. On a dim(E) = dim(F +G) = dim(F )+dim(G)−dim(F ∩G). Donc
dim(E) = dim(F ) + dim(G) et par suite dim(G) = dim(E) − dim(E).
Corollaire 1.6.17. Soient E un K-ev de dimension finie et E et G deux sev
de E. Alors les propriétés suivantes sont équivalentes :
1) E = F ⊕ G.
2) dim(E) = dim(F ) + dim(G) = dim(F + G).
3) dim(E) = dim(F ) + dim(G) et F ∩ G = 0.
4) dim(E) = dim(F ) + dim(G) et F + G = E.
Démonstration. La démonstration découle facilement de la formule de Grass-
mann.
18
alors card(A′ ) ≤ card(B) et donc rg(A′ ) ≤ rg(B). Par suite rg(A′ ) ≤ rg(A)
et ceci pour toute partie libre A′ de A. D’où le résultat.
Une autre démonstration : Si A′ est libre et A′ ⊆ A, alors A′ est une famille
libre de F , donc rg(A′ ) ≤ dim(F ) = rg(A). On a de plus A est une famille
génératrice de F , donc A contient une base B de F . On a donc B ⊆ A et
rg(B) = dim(F ) = rg(A). D’où le résultat.
Proposition 1.7.3. Soit A une partie d’un K-ev E de dimension finie. Alors :
1. A est une famille génératrice de E ⇔ rg(A) = dim E.
2. A est une famille libre de E ⇔ rg(A) = card(A)
3. A est une base de E ⇔ rg(A) = card(A) = dim E.
Démonstration. Posons F = sev⟨A⟩.
1. on a
2. On a
19
20
Chapitre 2
Espaces affines
21
Remarque 7. Il y a deux types d’objets en jeu : les éléments de E (appe-
Ð
→
lés points et notés A, B, X, Y, ...) et ceux de E (appelés vecteurs et notés
Ð→
a ,Ð→
u , ...).
Exemples 11.
1. L’ensemble E des (x, y, z) de R3 tels que x + y + z = 1 est un espace affine
Ð
→
de direction l’espace vectoriel E = {(x, y, z) ∈ R3 /x + y + z = 0}.
2. Généralement : L’ensemble E des (x1 , ..., xn ) de Rn tels que a1 x1 + ... +
Ð→
an xn = b est un espace affine de direction l’espace vectoriel E = {(x1 , ..., xn ) ∈
Rn /a1 x1 + ... + an xn = 0} (a1 , ...an , b sont des réels donnés).
3. Exemple important :On peut munir un sous-espace vectoriel E de Rn d’une
structure d’espace affine, de direction lui-même, dite structure affine cano-
nique, en considérons l’addition comme une loi externe. Dans ce cas le vecteur
Ð
Ð
→Ð→→ Ð
uÐ v =→ v −Ð →
u.
Ici, il faut faire bien attention. Sur l’ensemble E, on considère deux struc-
tures différentes : la structure (canonique) d’espace vectoriel et la structure
(canonique) d’espace affine. Ainsi, un élément de l’ensemble E (c’est-à-dire
un n-uplet (x1 , ..., xn ) de nombres réels) peut être considéré tantôt comme
un vecteur, tantôt comme un point : tout dépend de la structure qu’on veut
considérer à ce moment là.
22
2.3 Translations et homothéties
Notation 3. D’après la propriété (2) de la structure d’espace affine, pour
Ð→
tout point A de E et tout vecteur Ð→
v de E , il existe un unique point B de E
Ð→ →
tel que AB = Ð
v . On note A+ Ð →
v ce point B, c’est-à-dire qu’on a : B = A+ Ð
→
v,
Ð→ Ð → Ð→
AB = v . On peut donc écrire : A + AB = B.
Remarque 8.
Attension : On a défini la somme d’un point et d’un vecteur comme un certain
point : le +, ici, est une notation et n’est pas le + de l’espace vectoriel.
Ð
→
Définition 2.3.1. Soit E un espace affine d’espace vectoriel sous-jacent E et
Ð
→ Ð
→
v un vecteur de E ; on appelle translation de vecteur Ð →
v l’application tÐ→
v de
E dans E définie par tÐ→ (A) = A + v .
v
Ð
→
Exemples 12.
1. Un point est un sous-espace affine de E de direction {0}.
2. L’ensemble {(x1 , ..., xn ) ∈ Rn /a1 x1 + ... + an xn = b} (a1 , ...an sont des réels
donnés non tous nuls et b un réel quelconque) est un sous-espace affine de
Rn (muni de sa structure canonique d’espace affine).
23
3. Tout sous espace vectoriel de Rn est un sous-espace affine de l’espace affine
Rn .
2.6 PARALLELISME
Définitions 2.6.1. Soient F et G deux sous-espaces affines de E. On dit que
Ð
→ Ð →
F et G sont parallèles s’ils ont même direction, i.e., si on a F = G . On
note F ∥ G.
Ð→ Ð→
On dit que F est faiblement parallèle à G si F est contenu dans G .
Proposition 2.6.2.
i) Si F et G sont parallèles, alors F et G sont confondus ou bien leur inter-
section est vide.
ii) Si F est faiblement parallèle à G, alors F est contenu dans G ou F ne
rencontre pas G.
P = {(x, y, z) ∈ R3 /x + y + z = 1}
24
cartésien R = (O, Ð →
u ,Ð
→v ) de P, le point M = (3, 2, −4) à pour coordonnées
(3, 1), c’est à dire M = (3, 1)R .
2. Prenons maintenant comme origine de P le point O ′ = (1, 1, −1), et pour
Ð→ Ð → Ð→ Ð
→ Ð
→
base de P , { u′ , v ′ }} où u′ = (1, 1, −2) et v ′ = (2, −1, −1). Pour le point
ÐÐ→ Ð
→ Ð
→
M = (3, 2, −4) (le même que celui considéré en 1. ) on a O ′ M = x u′ + y v ′ ,
⎧
c’est à dire :
⎪
⎪
⎪
x + 2y = 2
⎨ x − y = 1
⎪
⎪
⎪
⎩ −2x − y = −3
4 1
donc x = et y = .
3 3
Ð
→ Ð →
Ainsi, dans le nouveau repère cartésien R′ = (O ′ , u′ , v ′ ) de P, le point M =
(3, 2, −4) à pour coordonnées ( , ), c’est à dire M = ( , )R′ .
4 1 4 1
3 3 3 3
La Proposition suivante fournie une famille d’exemples d’espaces affines :
Proposition 2.7.1. Soit E un espace affine de dimension n, R = (A, B) un
repère cartésien et (S) un système d’équations linéaires à p équations et n in-
connues. Alors l’ensemble F des points M = (x1 , . . . , xn )R tels que (x1 , . . . , xn ) ∈
Ð
→
S est un sous espace affine de E de direction F = {(x1 , . . . , xn )B /(x1 , . . . , xn ) ∈
S0 }.
Définition 2.8.2. On dit que Trois points A, B et C sont alignés, s’ils ap-
partienent à une même droite, et on dit que quatre points A, B, C et D sont
coplanaires s’ils appartienent à un même plan.
25
Proposition 2.8.3.
Ð→ Ð→
1) les points A, B et C sont alignés si et seulement si la famille {AB, AC}
est liée.
2) les points A, B, C et D sont coplanaires si et seulement si la famille
Ð→ Ð→ Ð→
{AB, AC, AD} est liée.
Remarque 10. Deux points sont toujours alignés, et trois points sont toujours
coplanaires.
2.9 BARYCENTRES
Proposition et Définition 2.9.1. Un point pondéré est un couple (A, λ) avec
A ∈ E et λ ∈ R.
Soit (Ai , λi )1⩽i⩽k avec ∑ki=1 λi ≠ 0 alors il existe un unique G ∈ E, appelé
ÐÐ→ Ð →
barycentre de (Ai , λi )1⩽i⩽k , tel que ∑ki=1 λi GAi = 0 .
Si λ1 = ... = λk , on appelle G l’isobarycentre (ou centre de gravité) des Ai , et
ÐÐ→ Ð →
on a : ∑ki=1 GAi = 0 .
Proposition 2.9.2. le barycentre de (Ai , λi )1⩽i⩽k est caractérisé par
ÐÐ→
Ð→ ∑ki=1 λi OAi
OG = k
.
∑i=1 λi
O est un point quelconque.
Remarque 11. l’isobarycentre de Ai est caractérisé par
ÐÐ→
Ð→ ∑ki=1 OAi
OG = .
k
26
Ð→
de R2 de coordonnées (x0 , y0 ) et (x, y) dans le repère cartésien (O, Ð →e , f ).
ÐÐ→
On a B ∈ D(A0 , Ð v ) ssi A0 B et Ð
→ →v sont liées, c’est-à-dire il existe t ∈ R tel que
ÐÐ→ Ð →
A0 B = t v , ce qui est équivalent au système
{
x = x0 + tα1 où t ∈ R
y = y0 + tα2
Ces relations constituent une représentation paramétrique de la droite D(A0 , Ð v)
→
Équation cartésienne de la droite D(A0 , v )Ð
→
Ð
→
Soit Ð
→
v = α1 Ð
→e + α2 f un vecteur non nul de R2 , (α1 , α2 ) sont les coordonnées
Ð→
de Ð
→v dans la base (Ð e , f ) de l’espace vectoriel R2 . Soit A0 le point de R2 de
→
Ð→
coordonnées (x0 , y0 ) dans le repère cartésien (O, Ðe , f ).
→
Ð→
Dans le repère (O, Ð e , f ) la droite D(A0 , Ð
→ v ) à pour équation cartésienne
→
α2 (x − x0 ) − α1 (y − y0 ) = 0
Remarque 12. L’équation cartésienne ce n’est que
x − x0 α1
=0
y − y 0 α2
27
y = αx + β
C’est l’équation explicite d’une droite.
α est appelé coefficient directeur ou la pente de cette droite il est égal à la
tangente de l’angle orienté de l’axe Ox à la droite D ; deux droites parallèles
ont le même coefficient directeur.
Droite définie par deux points distincts
Soit A = (a1 , a2 ) et B = (b1 , b2 ) deux points distincts d’une droite D, le
Ð→
vecteur AB = (b1 − a1 , b2 − a2 ) est un vecteur directeur de cette droite et donc
Ð→
D = D(A, AB).
Alors :
x = a1 + t(b1 − a1 ) où t ∈ R,
{
y = a2 + t(b2 − a2 )
est une représentation paramétrique de D.
L’équation cartésienne de cette droite est
(b2 − a2 )(x − a1 ) − (b1 − a1 )(y − a2 ) = 0
28
y − y 0 α2
∆3 = = 0.
z − z0 α3
v ).
C’est l’équation cartésienne, Dans le repère R, de la droite D(A0 , Ð
→
On peut montrer que si αi est non nul, alors les deux déterminants qui ont en
commun le coefficient αi entrainent la troisième. Donc on a en réalité deux
équations et pas trois.
Généralement, l’équation cartésienne d’une droite dans un espace affine de
dimension 3 est donnée sous forme d’intersection de deux plans sécants, c’est
à dire :
Ð
→ ax + by + cz +d = 0 ∶ (P)
D ∶{ ′
a x + b′ y + c′ z +d′ = 0 ∶ (P ′ )
D∶{
y − 2z = −2
x = 1
29
⎧
⎪
⎪
⎪
x = x0 + t1 α1 + t2 β1
⎨ y = y0 + t1 α2 + t2 β2
où t1 , t2 ∈ R,
⎪
⎪
⎪
⎩ z = z0 + t1 α3 + t2 β3
Ces relations constituent une représentation paramétrique du plan P(A0 , Ð
→ v)
u ,Ð
→
Équation cartésienne du plan P(A0 , Ð→
u ,Ðv)
→
Dans le repère R le plan P(A0 , Ð
→
u ,Ðv ) à pour équation cartésienne
→
(x − x0 ) − 1 1 (y − y0 ) + 1 1 (z − z0 ) = 0
α2 β2 α β α β
α3 β3 α3 β3 α2 β2
Remarques 5.
1) L’équation cartésienne ce n’est que
+ x − x0 α1 β1
− y − y0 α2 β2 = 0
+ z − z0 α3 β3
.
2) Rappelons la définition du determinant d’ordre 3. Soient λ1 , λ2 , λ3 , α1 , α2 , α3 , β1 , β2 , β3 ∈
R alors :
+ λ1 α1 β1
α β α β α β
− λ2 α2 β2 = λ1 2 2 − λ2 1 1 + λ3 1 1
α3 β3 α3 β3 α2 β2
+ λ3 α3 β3
30
Alors :
⎧
⎪ x = a1 + t1 (b1 − a1 ) + t2 (c1 − a1 )
⎪
⎪
⎨ y = a2 + t1 (b2 − a2 ) + t2 (c2 − a2 )
où t1 , t2 ∈ R,
⎪
⎪
⎪
⎩ z = a3 + t1 (b3 − a3 ) + t2 (c3 − a3 )
est une représentation paramétrique de P.
L’équation cartésienne de ce plan est
+ x − x0 b1 − a1 c1 − a1
− y − y0 b2 − a2 c2 − a2 = 0
+ z − z0 b3 − a3 c3 − a3
2.13 Parallèlisme
2.13.1 Une droite définie par une équation cartésienne et
l’autre par un repère cartésien
Dans un plan affine (par exemple R2 )
Considérons les deux droites suivantes :
Ð→
D∶ ax + by + c = 0 et D′ = A′ + sev ⟨ u′ ⟩.
D ∶ ax + by + c = 0 et D′ ∶ a′ x + b′ y + c′ = 0.
31
a b c
Si = = , alors D et D′ sont confondues.
a′ b′ c′
a b c
Si ′ = ′ ≠ ′ , alors D et D′ sont strictement parallèles.
a b c
a b
Si ′ ≠ ′ , alors D et D′ sont sécantes.
a b
0
Remarque 13. On ne considère pas la forme car elle n’a aucun effet..
0
Exemples 14.
15 3
D1 ∶ 2x + 5y + 1 = 0, D2 ∶ 3x + y + = 0
2 2
D3 ∶ 2x + 5y + 2 = 0, D4 ∶ 2x + 5y = 0
D5 ∶ 3x + 152 y = 0, D6 ∶ 5y + 1 = 0
2
D7 ∶ 2y + 5 = 0. D8 ∶ 3y + 2 = 0
On D1 = D2 , D4 = D5 , D6 = D7 , D1 ∥ D3 ∥ D4 , D6 ∥ D8 , D1 et D6 sont
sécantes.
Dans un espace affine de dimension 3 (par exemple R3 )
Soient D et D′ les droites d’équations
D∶{
ax + by + cz + d = 0
a′ x + b′ y + c′ z + d′ = 0
et
D′ ∶ {
ex + f y + gz + h = 0
e′ x + f ′ y + g ′ z + h′ = 0
Ð→ Ð→
Pour comparer D et D′ , on cherche un vecteur directeur Ð →
u de D (ou de D′ )
Ð
→
et un point A de D (ou de D′ ). Pour trouver Ð →
u ∈ D , il suffit de donner à x, y
et z des valeurs de telles sorte que (x, y, z) soit une solution non nulle de
Ð
→
D ∶{ ′
ax + by + cz = 0
a x + b′ y + c′ z = 0
D∶{
ax + by + cz + d = 0
a′ x + b′ y + c′ z + d′ = 0
32
Proposition 2.13.3.
Ð
→
Si Ð
→
u ∈ D′ , alors D et D′ sont parallèles.
Ð
→
Si Ð
→
u ∈ D′ et A ∈ D′ , alors D et D′ sont confondues.
Ð
→
u ∈ D′ et A ∈/ D′ , alors D et D′ sont strictement parallèles.
Si Ð
→
Ð
→
u ∈/ D′ , alors D et D′ ne sont pas parallèles (pas nécessairement sécantes).
Si Ð
→
33
0
Remarque 15. On ne considère pas la forme car elle n’a aucun effet.
0
34
2.13.7 Un plan défini par une équation cartésienne et une
droite définie par un repère cartésien
Dans un espace affine de dimension 3 (par exemple R3 )
Soient P et D le plan et la droite suivants :
P ∶ ax + by + cz + d = 0 et D = A + sev ⟨Ð
u ⟩.
→
D∶{
ex + f y + gz + h = 0
′ ′ ′ ′
ex + f y + gz + h = 0
ou de résoudre ce système et trouver une solution.
Remarque 17. Pour montrer que D et faiblement parallèle à P ou qu’ils sont
sécants, on cherche le vecteur Ð
→
u et ce n’est pas la peine de chercher le point
A.
35
2.13.9 Un plan et une droite définis par des repères cartésiens
Dans un espace affine quelconque
Soient P et D le plan et la droite suivants :
P ∶ = A + sev ⟨Ð
→ v ⟩ et D = B + sev ⟨Ð
u, Ð
→ →⟩.
w
36
Ð
→ Ð
→ Ð →
u .Ð
→
v = xx′ + yy ′ + zz ′ c’est le produit scalaire (usuel) de u et v .
On a Ð
→
u .Ð
→
u = x2 + y 2 + z 2 , on l’écrit Ð
→
u .Ð
→
u =Ð
→
u2
37
Proposition 2.14.1. Soit Ð
→u et Ð
→
v deux vecteurs quelconques. Alors :
Ð→ v = ∣∣Ð
u .Ð
→ u ∣∣ ∣∣Ð
→ → ̂
v ∣∣ cos(Ð
→
u v)
,Ð
→
√ √ ̂
Exemple 2. Ð u = (2, 3) et Ð
→ v = (1, −1), on a :−1 = 13 2 cos(Ð
→ →
u ,Ð
→v ). On
Ð̂
détermine ( u , v ) = arccos(− √ ) ≃ 101, 31 (en °).
→ Ð→ 1
26
Angle entre deux droites
Par convension, on choisit toujours comme angle entre deux droites, l’angle
compris entre 0 et 90. Pour trouver cet angle, on prend un vecteur directeur
de chaque droite et on cherche l’angle entre les deux vecteurs. Si on trouve
un angle compris entre 0 et 90, il s’agit de l’angle entre les droites ; si l’angle
θ obtenu est situé entre 90 et 180, on chosit son supplément (180 − θ).
On dit que deux droites D1 et D2 sont perpendiculaires, D1 ⊥ D2 , si l’angle
entre les deux droites égales à 90.
Exemple 3. On considère les droites D1 ∶ y = 4x − 6 et D2 ∶ y = −x + 8.
Cherchons l’angle formé par ces deux droites.
Le vecteur (1, 4) est un vecteur directeur de D1 , tandis que (1, −1) est un de
D2 . D’où cos(θ) = √ √ .
−3
17 2
On détermine alors θ :
arccos( √ √ ) ≃ 120, 96 (en °).
−3
17 2
π
Comme θ est compris entre et π, l’angle ϕ cherché est le supplément de
2
θ:
ϕ = 180 − θ ≃ 59, 04 (en °).
38
Définition 2.15.2.
1) Un espace vectoriel de dimension finie muni d’un produit scalaire est appelé
espace euclidien.
2) Un espace affine est dit euclidien si sa direction est un espace euclidien.
Définition 2.15.3.
1) Les vecteurs Ð→
u et Ð→
v sont dits orthogonaux si on a Ð →
u .Ð
→
v = 0.
2) On dit que le vecteur u est orthogonal à un sous espace vectoriel F si Ð
Ð→ →
u
est orthogonal à chaque vecteur de F .
3) les sous espaces vectoriels F et G sont dits orthogonaux (F ⊥ G) si tout
vecteur de l’un est orthogonal à l’autre, c’est à dire :
Ð
→
u ∈ F Ô⇒ Ð
→
u ⊥ G et Ð
→
v ∈ G Ô⇒ Ð
→
v ⊥ F.
Pour tout Ð
→
u ∈F et tout Ð
→
v ∈ F′ on a Ð
→
u .Ð
→
v =0
F ⊕ F ⊥ = E.
Définition 2.15.7.
1) Une base B = (Ð u→n ) d’un espace vectoriel est dite orthonormée si
u→1 , . . . , Ð
u→j = {
Ð 0 si i ≠ j
u→i .Ð
1 si i = j
2) On dit qu’un repère cartésien R = (A, B) d’un espace affine est orthonormé
si B est une base orthonormée de sa direction.
Proposition 2.15.8. Soient E un espace vectoriel euclidien muni d’une base
orthonormée B = (Ð u→n ), Ð
u→1 , . . . , Ð u = (x1 , . . . , xn )B et Ð
→ v = (y1 , . . . , yn )B deux
→
vecteurs de E. Alors
Ð→
u .Ð→
v = x1 y1 + ⋯ + xn yn .
39
2.15.2 Vecteur normal
Définition 2.15.9. Soient E un espace affine euclidien, F et G deux sous
espaces affines de E. On dit que les sous espaces affines F et G sont perpen-
Ð
→ Ð
→
diculaires si les espaces vectoriels F ⊥ et G ⊥ sont orthogonaux.
Pour tout Ð
→
u ∈B et tout Ð
→
v ∈ B′ on a Ð
→
u .Ð
→
v = 0.
Proposition 2.15.12. Deux vecteurs normaux d’un même hyperplan sont co-
linéaires (c’est à dire linéairement dépendants).
Ð
→
Remarque 20. La Proposition précédentes veut dire que H ⊥ est une droite
vectoriel.
Remarque 21. les hyperplans d’un plan affine sont les droites, et ceux d’un
espaces affine de dimension 3 sont les plans. Donc, dans un plan, deux droites
sont ou bien parallèles ou bien sécantes, et dans un espace affine de dimension
3, deux plans sont ou bien parallèles ou bien sécants.
Ð
→
Proposition 2.15.15. soient E un espace affine euclidien, Ð→
v un vecteur de E
ÐÐ→ →
et A un point de E. Alors l’équation AM .Ðv = 0 est l’équation du hyperplan
Ð
→
passant par A est de vecteur normal v .
40
Cas particuliers
Soient E un plan affine euclidien muni d’un repère orthonormé R, D la droite
affine d’équation : D ∶ ax + by = c et Ð
→
v le vecteur de coordonnéesn(a, b).
Ð
→
Si R est orthonormé, alors v est un vecteur normal de D, en effet, on a
Ð
→
D ∶ ax + by = 0, et puisque R est orthonormé, on a Ð →v .(x, y) = ax + by pour
Ð→
tout vecteur (x, y) de E , et par suite v .(x, y) = 0 pour tout vecteur (x, y)
Ð
→
Ð
→
de D , c’est à dire, Ð
→
v est un vecteur normal de D.
On a le même résultat pour un plan d’un espace affine de dmension 3.
Remarque 22. On n’a plus ce résultat en général si le repère R n’est pas
orthonormé.
Dans un plan affine euclidien
Dans un plan affine euclidien E, on considère une droite D de vecteur normal
Ð
→
v et une droite D′ de vecteur normal Ð →
v ′ , alors :
1) D et D sont parallèles si et seulement si Ð
′ →
v et Ð→
v ′ sont colinéaires.
2) D et D′ sont perpendiculaires si et seulement si Ð →
v et Ð→
v ′ sont orthogonaux.
Cas particulier
Supposons, maintenant que E est muni d’un repère orthonormé, et que D et
D′ sont les droites d’équations ax + by = c et a′ x + b′ y = c′ . Alors :
D et D′ sont perpendiculaires si et seulement si aa′ + bb′ = 0.
Dans un espace affine euclidien de dimension 3
Dans un espace affine euclidien E de dimension 3, on considère un plan P
de vecteur normal Ð →v , un plan P ′ de vecteur normal Ð →
v ′ et une droite D de
Ð
→
vecteur directeur u . Alors :
1) P et P ′ sont parallèles si et seulement si Ð →
v et Ð→
v ′ sont colinéaires.
2) P et P ′ sont perpendiculaires si et seulement si Ð →
v et Ð→
v ′ sont orthogonaux.
3) D est faiblement parallèle à P si et seulement si v et Ð
Ð
→ →
u sont orthogonaux.
4) D et P sont perpendiculaires si et seulement si Ð →
v et Ð →
u sont colinéaires.
Ð→
5) D et P sont perpendiculaires si et seulement si u est orthogonal à une
Ð
→
base de P .
Cas particulier
Supposons, maintenant que E est muni d’un repère orthonormé, et que P et
P ′ sont les plans d’équations ax + by + cz = d et a′ x + b′ y + c′ z = d′ , et une
droite D de vecteur directeur Ð u de coordonnées (α, β γ). Alors :
→
1) P et P ′ sont perpendiculaires si et seulement si aa′ + bb′ + cc′ = 0.
2) D est faiblement parallèle à P si et seulement si aα + bβ + cγ = 0.
Ð
→
3) D et P sont perpendiculaires si et seulement si P est parallèle au plan
αx + βy + γz = 0.
4) D et P sont perpendiculaires si et seulement si rg(Ð →
v,Ð u ) = 1.
→
Ð
→
5) Si (u1 , u2 ) est une base de P tel que u1 à pour coordonnées (t1 , t2 , t3 ) et
41
u2 à pour coordonnées (s1 , s2 , s3 ), alors :
D et P sont perpendiculaires si et seulement si αt1 + βt2 + γt3 = 0 et αs1 +
βs2 + γs3 = 0.
42
Chapitre 3
3.1 Généralités
Définition 3.1.1. Soient E et F deux K-ev et f ∶ E Ð→ F une application.
On dit que f linéaire (ou K-linéaire) si pour tous vecteurs u, v ∈ E et tous
scalaires α, β ∈ K, on a :
Vocabulaire et notations.
● L’ensemble des applications linéaires de E dans F est noté L (E, F ).
● Une application linéaire de E dans E est appelée endomorphisme de E.
● L’ensemble des endomorphismes de E est noté L (E).
● Une application linéaire bijective de E dans F est appelée isomorphisme
de E dans F .
● Un endomorphisme bijectif de E est appelé automorphisme de E.
● L’ensemble des automorphismes de E est noté Gl(E) ou Aut(E).
● Une application linéaire de E dans K est appelée forme linéaire sur E.
43
Proposition 3.1.2. Soient E et F deux K-ev et f ∶ E Ð→ F une application.
Alors f est linéaire si et seulement si pour tous vecteurs u, v ∈ E et tout
scalaire α ∈ K, on a :
1. f (u + v) = f (u) + f (v) ;
2. f (αu) = αf (u).
Démonstration.
Supposons que f est linéaire. Alors pour avoir 1. il suffit de prendre α = β = 1
dans l’égalité f (αu + βv) = αf (u) + βf (v), et pour avoir 2. il suffit de prendre
β = 0.
Réciproquement, Supposons qu’on a 1. et 2.. Soit u, v ∈ E et α, β ∈ K. On a
alors d’aprés 1. on a f (αu + βv) = αf (u) + f (βv) et d’après 2. on a αf (u) +
f (βv) = αf (u) + βf (v). D’où le résulta.
Démonstration. Facile.
Exemple 4. L’application
f ∶ E Ð→ F
u z→ 0F
44
Exemple 5. L’application
idE ∶ E Ð→ E
u z→ u
f ∶ H Ð→ E
u z→ u
f ∶ E Ð→ F
u z→ f (u)
f∣H ∶ H Ð→ F
u z→ f (u)
f ∶ H Ð→ G
u z→ f (u)
f ∶ H Ð→ H
u z→ f (u)
45
Exemple 9. Soit λ ∈ K un scalaire fixé. L’application
hλ ∶ E Ð→ E
u z→ λu
est un endomorphisme. hλ est dite l’homothétie de rapport λ.
Exemple 10. Soientt H et G deux sev de E tels quie E = H ⊕ G.
L’application
p1 ∶ E Ð→ H
u = u1 + u2 z→ u1
et
p2 ∶ E Ð→ G
u = u1 + u2 z→ u2
u1 ∈ H et u2 ∈ G, sont des applications linéaires. p1 est appelée la projection
de E sur H parallèlement à G. p2 est la projection de E sur G parallèlement
à H
Exemple 11. Soit K[X] le K-ev des polynômes. L’application
D ∶ K[X] Ð→ K[X]
P z→ P ′
est un endomorphisme. D est dite l’application dérivée (ou de différentia-
tion).
Voici quelques exemples d’applications non linéaires :
Exemple 12. Soit w un vecteur non nul fixé de E et soit
tw ∶ E Ð→ E
u z→ u + w
la translation de vecteur w. On a tw (0E ) = w donc tw (0E ) ≠ 0E et par suite
tw n’est pas linéaire.
Exemple 13. L’application
f ∶ R2 Ð→ R
(x, y) z→ xy
n’est pas linéaire. En effet, on a f (2(4, 3)) = f (8, 6) = 48 et 2f (4, 3) = 2×12 =
24. Donc f (2(4, 3)) ≠ 2f (4, 3).
46
Exemple 14. L’application
f ∶ R2 Ð→ R
(x, y) z→ x + y + 1
Démonstration.
1. On a 0E ∈ H, donc f (0E ) = 0F ∈ f (H) et par suite f (H) est non vide.
Soient u, v ∈ f (H) et α ∈ K. Soient u′ , v ′ ∈ H tels que f (u′ ) = u et f (v ′ ) = v.
On a αu + v = αf (u′ ) + f (v ′ ) = f (αu′ + v ′ ). Comme H est un sev de E, alors
αu′ + v ′ ∈ H et donc αu + v ∈ f (H). Par suite f (H) est un sev de F .
2. On a f (0E ) = 0F ∈ T , donc 0E ∈ f −1 (T ) et par suite f −1 (T ) est non vide.
Soient u, v ∈ f −1 (T ) et α ∈ K. On a f (u) ∈ T et f (v) ∈ T . Comme T est un sev
de F , alors αf (u)+f (v) ∈ T , donc f (αu+v) ∈ T , c’est-à-dire, αu+v ∈ f −1 (T ).
Par suite f −1 (T ) est un sev de E.
En particulier on a :
● f (E) est un sev de F .
● f −1 (0F ) est un sev de E.
Définition 3.2.2.
● Le sev f (E) est appelé l’image de f et noté Im(f ).
● Le sev f −1 (0F ) est appelé noyau de f et noté ker(f ).
47
Remarque 26.
● v ∈ f (H) ⇐⇒ ∃u ∈ H ∶ f (u) = v.
● v ∈ Im(f ) ⇐⇒ ∃u ∈ E ∶ f (u) = v.
● u ∈ f −1 (T ) ⇐⇒ ∃v ∈ T ∶ f (u) = v ⇐⇒ f (u) ∈ T .
● u ∈ ker(f ) ⇐⇒ f (u) = 0F .
Exercice 6. Soit E un K-ev et soit F un ensemble quelconque muni d’une loi
interne ⋆ et d’une loi externe △. Soit f ∶ E Ð→ F une application vérifiant
48
Proposition 3.2.4. Soit f ∶ E Ð→ F une application linéaire injective. Alors
on a :
1. Si A est une famille finie libre de E alors la famille f (A) est libre dans
F.
2. Si A est une famille quelconque libre de E alors la famille f (A) est libre
dans F .
Démonstration.
1. Supposons que A = {u1 , . . . , un } est une famille libre.
Soient α1 , . . . , αn ∈ K. On a
49
αn f (un ), ce qui veut dire que u est une combinaison linéaire finie d’éléments
de f (A). Par suite u ∈ sev⟨f (A)⟩ et donc f (H) ⊆ sev⟨f (A)⟩. En conclusion,
f (H) = sev⟨f (A)⟩.
Démonstration.
1. Si f est injective alors, d’après la proposition 3.2.4, f (B) est libre dans
F puisque B l’est dans E. Réciproquement, supposons que f (B) est libre
dans F . Soit u ∈ E tel que f (u) = 0. Puisque B est une base de E, il existe
une famille finie d’éléments u1 , . . . , un ∈ B et α1 , . . . , αn ∈ K tels que que
u = α1 u1 + ⋯ + αn un . Donc
alors
α1 f (u1 ) + ⋯ + αn f (un ) = 0.
Comme f (B) = {f (u1), . . . , f (un )} est libre, on a α1 = ⋯ = αn = 0 et donc
u = 0. Par suite f est injective.
2. Si f est surjective alors, d’après le corollaire 3.2.8, f (B) engendre F
puisque B engendre E. Réciproquement, supposons que f (B) est une fa-
mille génératrice de F . Alors F = sev⟨f (B)⟩ et puisque Im(f ) = sev⟨f (B)⟩,
alors F = Im(f ) et donc f est surjective.
3. Découle de 1. et 2..
50
3.3 Structure des endomorphismes
Proposition 3.3.1. Soient E et F deux K-ev. Alors L (E, F ) muni des lois :
∀f, g ∈ L (E, F ), ∀u ∈ E, ∀α ∈ K
et
(αf )(u) = αf (u)
est un K-ev.
Démonstration.
51
1. Soit α ∈ K et u, v ∈ E. On a
(g ○ f )(αu + v) = g ○ f (αu + v)
= g(f (αu + v))
= g(αf (u) + f (v)) car f est linéaire
= αg(f (u)) + g(f (v)) car g est linéaire
= α(g ○ f )(u) + (g ○ f )(v).
(h ○ (f + g))(u) = h ○ (f + g)(u)
= h((f + g)(u))
= h(f (u) + g(u))
= h(f (u)) + h(g(u)) car h est linéaire
= h ○ f (u) + h ○ g(u)
= (h ○ f + h ○ g)(u).
Donc h ○ (f + g) = h ○ f + h ○ g.
(ii) Cette égalité est vraie même pour des applications qui ne sont pas li-
néaires, et sa preuve est évidente.
(iii) On a
52
Proposition 3.3.3. Soit E un K-ev. On muni l’ensemble L (E) des endo-
morphismes de E des deux opérations :
(f, g) Ð→ f + g
et
(f, g) Ð→ f ○ g
Alors (L (E), +, ○) est un anneau unitaire (en général n’est pas commutatif ).
θE ∶ E Ð→ E
u z→ 0E
(f, g) Ð→ f + g
(α, f ) Ð→ α.f = αf
(f, g) Ð→ f ○ g
On a
● (L (E), +, .) est un K-ev ;
● (L (E), +, ○) est un anneau unitaire ;
● h ○ (αf ) = (αh) ○ f = α(h ○ f ) pour tous h, f ∈ L (E) et pour tout α ∈ K.
On dit que (L (E), +, ., ○) est une algèbre unitaire sur K (ou une K-algèbre
unitaire).
Rappelons la définition plus générale suivante
53
Définition 3.3.5. Soit A un ensemble. On dit que A est une algèbre sur K
(ou une K-algèbre) si A est muni de deux lois de composition internes, noté
habituellement + et ×, et d’une lois externe . sur K telle que :
1. (A, +, .) est un K-ev ;
2. (A, +, ×) est un anneau ;
3. α.(a × b) = (α.a) × b = a × (α.b) pour tous a, b ∈ A et tout α ∈ K.
On dit aussi dans ce cas que (A, +, ., ×) est une algèbre sur K (ou une K-
algèbre).
De plus :
● Si (A, +, ×) est unitaire, i.e la loi × admet un élément neutre, on dit que
(A, +, ., ×) est une algèbre unitaire.
● Si la loi × est commutative, on dit que (A, +, ., ×) est une algèbre commu-
tative.
Proposition 3.3.6. Soit E un K-ev et soit Gl(E) l’ensemble des automor-
phismes de E. Alors (Gl(E), ○) est un groupe (en général n’est pas commu-
tatif ), appelé groupe linéaire de E.
Démonstration.
1. Soit B une base de E. f est injective entraine que f (B) est une famille
libre de F et par suite card(f (B)) ≤ dim(F ), or card(f (B)) = card(B) car
f est injective. Donc dim(E) ≤ dim(F ).
2. Soit B une base de E. f est surjective entraine que f (B) est une fa-
mille génératrice de F et par suite card(f (B)) ≥ dim(F ). Puisque card(B) ≥
54
card(f (B)), alors dim(E) ≥ dim(F ).
2. Découle de 1. et 2..
Démonstration.
1. ⇐⇒ 3. Supposons que f est injective et soit B une base de E. Alors f (B)
est une famille libre de F qui engendre Im(f ). Ce qui signifie que f (B) est une
base de Im(f ), donc dim(Im(f )) = card(f (B)), or card(f (B)) = card(B)
car f est injective. Donc dim(Im(f )) = dim(E), alors dim(Im(f )) = dim(F ).
Comme Im(f ) est un sev de F , on a Im(f ) = F , c’est-à-dire, f est surjective
et par suite bijective.
2. ⇐⇒ 3. Supposons que f est surjective et soit B une base de E. Alors
f (B) est une famille génératrice de F , donc dim(F ) ≤ card(f (B)). Comme
card(f (B)) ≤ card(B) = dim(E) = dim(F ), alors card(f (B)) ≤ dim(F ), il
s’ensuit que card(f (B)) = dim(F ). Par suite f (B) est une base de F et donc
d’après le théorème 5.2.1, on a f est bijective.
55
Corollaire 3.4.3. Soit f un endomorphisme d’un espace vectoriel de dimen-
sion finie E. Alors
56
Le théorème suivant montre qu’une application linéaire est complètement
déterminée par les données des images des éléments d’une base.
Thoérème 3.4.6. Soient E et F deux K-ev et B = {u1 , . . . , un } une base de E.
Soient v1 , . . . , vn n vecteurs quelconque de F . Alors il existe alors une unique
application linéaire f ∶ E Ð→ F telle que
f (u1 ) = v1 , . . . , f (un ) = vn .
donc
g(u1 ) = v1 , . . . , g(un ) = vn .
57
Corollaire 3.4.7. Soient f ∶ E Ð→ F et g ∶ E Ð→ F deux applications linéaires
et B = {u1 , . . . , un } une base de E. Alors
Comme {(1, 0), (0, 1)} est une base de R2 , le théorème 3.4.6 assure l’existence
et l’unicité de l’application f . Soit u = (x, y) ∈ R2 . On a u = x(1, 0) + y(0, 1),
donc f (u) = x(1, −1, 1) + y(1, 0, 1) = (x + y, −x, x + y). Par suite f est défini
par
f (x, y) = (x + y, −x, x + y)
Exercice 8. Soit K un corps commutatif quelconque et n ∈ N∗ .
1. Soient a1 , . . . , an des éléments non tous nuls de K. En utilisant le théo-
rème 3.4.6, montrer que l’ensemble S des solutions du système homogène
(S) ∶ a1 x1 + ⋯ + an xn = 0
a1 x1 + ⋯ + an xn = 0.
3.5 Isomorphismes
Rappelons qu’on dit que deux ensembles ont la même cardinalité s’il existe
une bijection entre eux. Dans ce qui suit nous allons considérer des espaces
58
vectoriels et nous allons remplacer la cardinalité par l’isomorphisme. On va
voir par la suite, que l’isomorphisme joue le même rôle dans la théorie de
espaces vectoriels (généralement dans la théorie des structures algébriques)
que la cardinalité dans la théorie des ensembles.
On considère l’ensemble de tous les espaces vectoriels sur un corps commutatif
K Donné. On définit sur cet ensemble la relation suivante :
E RF ⇐⇒ il existe un isomorphisme f ∶ E Ð→ F
Démonstration.
Ô⇒) Supposons que dim(E) = n et soit B = {u1 , . . . , un } une base de
E. Soit C = {e1 , . . . , en } une base quelconque de K n . On sait d’après le
théorème 3.4.6 qu’il existe une application linéaire f ∶ E Ð→ K n telle que
f (u1 ) = e1 , . . . , f (un ) = en . Puisque f (B) = C, alors f (B) est une base de
K n . Donc d’après la proposition 3.4.2, f est un isomorphisme, d’où E ≃ K n .
⇐Ô) Supposons que E ≃ K n . Soit B une base de E. Alors d’après la pro-
position 3.4.2, f (B) est une base de K n . Donc card(f (B)) = dim(K n ) = n.
Comme card(B) = card(f (B)), alors dim(E) = n.
59
Démonstration. On suppose que E et F sont tous les deux non nuls (dans
le cas contraire, le résultat est évident). Posons n = dim(E), alors d’apès le
théorème 3.5.1 on a E ≃ K n .
Si dim(E) = dim(F ) alors F ≃ K n et donc par transitivité E ≃ F . Réci-
proquement, Si E ≃ F , alors F ≃ K n et donc d’apès le théorème 3.5.1 on a
dim(F ) = n. D’où le résultat.
Exercice 9. Monter que l’application
f ∶ R2 Ð→ C
(x, y) z→ x + iy
60
Chapitre 4
Matrices
4.1 Généralités
Définition 4.1.1. Soient n et m deux entiers naturels non nuls. On appelle
matrice d’ordre (ou de type, ou de taille) n×m à coefficient dans K un tableau
de scalaires à n lignes et m colonnes de la forme
où les aij ∈ K s’appellent les coefficients (ou les éléments) de la matrice A.
Si n = m on dit que A est une matrice carrée d’ordre n.
Notations 1.
1. On note par Mn,m (K) l’ensemble des matrices d’ordre n×m à coefficients
dans K.
2. On note par Mn (K) l’ensemble des matrices carrées d’ordre n à coeffi-
cients dans K.
3. La matrice A pourra être écrite de façon abrégée :
61
la ligne et le second indice j au numéro de la colonne. Ainsi le coefficient aij
est situé à l’intersection de la ligne numéro i avec la colonne numéro j.
5. Parfois on note Aij le coefficient aij de la matrice A.
6. On note par Li (A) la ligne i de A et Cj (A) la colonne j de A. Avec ces
notations on a
⎛ L1 (A) ⎞
⎜ L (A) ⎟
A=⎜ 2 ⎟
⎜ ⋮ ⎟
⎝Ln (A)⎠
et
A = (C1 (A) C2 (A) . . . Cm (A))
Encore quelques définitions et notations :
• La diagonale d’une matrice carrée A = (aij )1≤i,j≤n est constituée des
éléments situés sur la diagonale de la matrice A. Les éléments a11 , . . . , ann
de la diagonale de A sont dits les coefficients diagonaux.
Soit
⎛ 1 √0 2⎞
A=⎜2 3 4⎟ ,
⎝−1 4 7⎠
√
les oefficients diagonaux de A sont 1, 3 et 7.
• On appelle matrice colonne toute matrice d’ordre n × 1. On dit aussi
que c’est un vecteur colonne et elle de la forme
⎛ a1 ⎞
⎜ a2 ⎟
⎜ ⎟
⎜⋮⎟
⎝an ⎠
(a1 a2 . . . an )
⎛a1 0 ⋯ 0 ⎞
⎜ 0 a2 ⋱ ⋮ ⎟
A=⎜ ⎟
⎜ ⋮ ⋱ ⋱ 0⎟
⎝ 0 ⋯ 0 an ⎠
62
On la note A = diag(a1 , . . . , an ).
⎛1 √0 0⎞
A = ⎜0 2 0⎟ ,
⎝0 0 3 ⎠
⎛ i 0 0⎞
A = ⎜0 i 0 ⎟ ,
⎝0 0 i ⎠
est une matrice scalaire.
• La matrice d’ordre n × m dont tous les coefficients sont des zéros est
appelée la matrice nulle et est notée 0n,m . Donc la matrice 0n est la
matrice scalaire d’ordre n : 0n = diag(0, . . . , 0).
⎛0 0⎞
03,2 = ⎜0 0⎟ ,
⎝0 0⎠
⎛0 0 0⎞
03 = ⎜0 0 0⎟ ,
⎝0 0 0⎠
• Une matrice triangulaire supérieure est une matrice carrée A = (aij )1≤i,j≤n
telle que aij = 0 si i > j, donc A est de la forme
⎛1 √0 5⎞
A = ⎜0 2 −1⎟ ,
⎝0 0 3⎠
est une matrice triangulaire supérieure.
63
• Une matrice triangulaire inférieure est une matrice carrée A = (aij )1≤i,j≤n
telle que aij = 0 si i < j, donc A est de la forme
⎛ a11 0 ⋯ 0 ⎞
⎜ a21 a22 ⋮ ⎟
⎜ ⎟
⋱
⎜ ⋮ ⋱ ⋱ 0 ⎟
⎝an1 ⋯ ann−1 ann ⎠
⎛1 √0 0⎞
A = ⎜2 2 0 ⎟,
⎝4 0 −7⎠
Remarques 6.
1. Si A = (aij ) 1≤i≤n alors AT = (bji )1≤j≤m avec bji = aij .
1≤j≤m 1≤i≤n
2. Si A est d’ordre n × m alors AT est d’ordre m × n.
3. Si A est une matrice carrée d’ordre n alors AT est aussi une matrice car-
rée d’ordre n.
4. On a Li (A) = Ci (AT et Li (AT ) = Ci (A).
5. Le transposée d’une matrice triangulaire supérieure est une matrice trian-
gulaire inférieure.
6. Le transposée d’une matrice triangulaire inférieure est une matrice trian-
gulaire supérieure.
Exemples 16.
⎛1 5 ⎞
[Link] A = ( ) alors A = ⎜2 7 ⎟.
1 2 3 T
5 7 6 ⎝3 6 ⎠
T T T
2. In = In , 0n = 0n et 0n,m = 0m,n .
3 (αA)T = αAT .
4. Si A est une matrice scalaire alors AT = A.
5. On peut avoir AT = A sans que soit une matrice scalaire. En effet, consi-
dérons la matrice
⎛1 2 3 ⎞
A = ⎜2 7 6 ⎟
⎝3 6 7 ⎠
64
6. On peut avoir AT = −A. Par exemple
⎛ 0 2 −3⎞
A = ⎜−2 0 6 ⎟
⎝ 3 −6 0 ⎠
On a
⎛ 0 −2 3 ⎞ ⎛ 0 2 −3⎞
A = ⎜ 2 0 −6⎟ = − ⎜−2 0 6 ⎟ = −A
T
⎝−3 6 0 ⎠ ⎝ 3 −6 0 ⎠
On dit que A est une matrice antisymétrique.
Définition 4.1.3. Soient A et B deux matrices de même ordre. On dit que
A = B si Aij = Bij pour tout i et j.
A=( ).
a11 a12 a13
a21 a22 a23
Décomposans A sous la forme
⎛1 0 0⎞ ⎛0 1 0 ⎞ ⎛0 0 1⎞
A = a11 ⎜0 0 0⎟ + a12 ⎜0 0 0⎟ + a13 ⎜0 0 0⎟
⎝0 0 0⎠ ⎝0 0 0 ⎠ ⎝0 0 0⎠
⎛0 0 0⎞ ⎛0 0 0 ⎞ ⎛0 0 0⎞
+ a21 ⎜1 0 0⎟ + a22 ⎜0 1 0⎟ + a23 ⎜0 0 1⎟
⎝0 0 0⎠ ⎝0 0 0 ⎠ ⎝0 0 0⎠
65
Soit Eij la matrice d’ordre 2 × 3 dont tous les coefficients sont des zéro sauf
celui en position (i, j) qui vaut 1. On a montré alors que toute matrice de
M2,3 (K) s’écrit de manière unique comme combinaison linéaire des matrices
Eij . Par suite la famille
{Eij /1 ≤ i ≤ 2, 1 ≤ j ≤ 3}
est une base du K-ev M2,3 (K). On a alors dimK (M2,3 (K)) = 2 × 3 = 6.
De la même façon on montre toute matrice A = (aij ) 1≤i≤n de Mn,m (K) s’écrit
1≤j≤m
de manière unique comme combinaison linéaire des matrices Eij . Plus péci-
sement on a n m
A = ∑ ∑ aij Eij = ∑ aij Eij .
i=1 j=1 1≤i≤n
1≤j≤m
Donc la famille
{Eij /1 ≤ i ≤ n, 1 ≤ j ≤ m}
est une base du K-ev Mn,m (K) On a alors dimK (Mn,m (K)) = nm.
Définition 4.2.1. Les matrices Eij défini ci-dessus constituent une base de
l’espace vectoriel Mn,m (K) appelée la base canonique de l’espace vectoriel
Mn,m (K).
66
On utilisant les coefficients des deux matrices on obtient :
Si A = (aij ) 1≤i≤n et B = (Bij )1≤i≤m , alors C = (cij )1≤i≤n avec
1≤j≤m 1≤j≤p 1≤j≤p
⎛ b1j ⎞
cij = (ai1 . . . aim ) ⎜ ⋮ ⎟
⎝bmj ⎠
=ai1 b1j + ⋯ + aik bkj + ⋯ + aim bmj
m
= ∑ aik bkj .
k=1
Remarques 7.
1. Le produit de deux matrice n’est défini que si le nombre de colonnes de la
première matrice est égal au nombre de lignes de la deuxième matrice et le
produit d’une matrice d’ordre n × m par une matrice d’ordre m × p est une
matrice d’ordre n × p.
2. En particulier :
● Si A est d’ordre n × m et B est d’ordre m × n, alors AB est une matrice
carrée d’ordre n.
● Si A est d’ordre n × m et B est une matrice colonne d’ordre m × 1, alors
AB est une matrice colonne d’ordre n × 1.
● Si A est une matrice ligne d’ordre 1 × m et B est d’ordre m × n, alors AB
est une matrice ligne d’ordre 1 × n.
Exemples 18.
1.
⎛ 1 3 −1⎞ ⎛ 2 ⎞ ⎛−5⎞
⎜ 2 −2 0 ⎟ ⎜−1⎟ = ⎜ 6 ⎟
⎝−1 4 5 ⎠ ⎝ 4 ⎠ ⎝ 14 ⎠
2.
⎛ 1 3 −1⎞
(2 −1 4) ⎜ 2 −2 0 ⎟ = (−4 24 18)
⎝−1 4 5 ⎠
3.
⎛1⎞
(2 −1 4) ⎜2⎟ = (12)
⎝3⎠
4.
⎛1⎞ ⎛2 −1 4 ⎞
⎜2⎟ (2 −1 4) = ⎜4 −2 8 ⎟
⎝3⎠ ⎝6 −3 12⎠
67
5.
⎛ 1 3 −1⎞ ⎛1⎞ ⎛1 ⎞
(2 −1 4) ⎜ 2 −2 0 ⎟ ⎜2⎟ = (−4 24 18) ⎜2⎟ = (106)
⎝−1 4 5 ⎠ ⎝3⎠ ⎝3 ⎠
Démonstration.
1. Soient A ∈ Mn,m (K) et B, C ∈ Mm,p (K). On a
B + C = (Bij + Cij )
m
Vij = ∑ Aik Ckj
k=1
B + C = (Bij + Cij )
m
Vij = ∑ Cik Akj
k=1
68
Dij = ∑ (Bik + Cik )Akj = ∑ Bik Akj + ∑ Cik Akj
m m m
p
Uij = ∑ Dik Ckj
k=1
p
Vij = ∑ Bik Ckj
k=1
m
Wij = ∑ Aik Vkj
k=1
p p p
Uij = ∑ Dik Ckj = ∑ (∑ Ais Bsk )Ckj = ∑ ∑ Ais Bsk Ckj
m m
et
p p
Wij = ∑ Ais Vsj = ∑ Ais ( ∑ Bsk Ckj ) = ∑ Ais ∑ Bsk Ckj
m m m
Donc
m p
Wij = ∑ ∑ Ais Bsk Ckj
k=1 s=1
p m
Wij = ∑ ∑ Ais Bsk Ckj = Uij
s=1 k=1
Thoérème 4.3.2. (Mn (K), +, ., ×) est une algèbre unitaire sur K (en général
n’est pas commutatif ).
69
Démonstration. On a (Mn (K), +, .) est un K-ev.
D’après la proposition 4.3.1, (Mn (K), +, ×) est un anneau.
Mn (K) est unitaire et In son unité.
Soient α ∈ K et A, B ∈ Mn (K). On vérifie facilement que α(AB) = (αA)B =
A(αB).
En conclusion, (Mn (K), +, ., ×) est une algèbre unitaire sur K.
A=( ) et B = ( )
−1 3 1 3
2 −2 2 −2
On a
AB = ( )
5 −9
−2 10
BA = ( )
5 −3
−2 10
On a alors AB ≠ BA.
Remarque 32. Le produit de deux matrices non nulles peut être nul, c’est-à-
dire,
AB = 0 ⇏ A = 0 ou B = 0.
En effet considérons
A=( ) et B = ( )
−1 1 1 1
−1 1 1 1
On a
AB = ( )
0 0
0 0
On a alors AB = 0.
Remarque 33. Soit A et B deux matrices carrées de même ordre. Alors
(A + B)2 = A2 + AB + BA + B 2
(A − B)2 = A2 − AB − BA + B 2
(A + B)(A − B) = A2 − AB + BA − B 2
En général on n’a pas (A+B)2 = A2 +2AB +B 2 , mais d’après la remarque
précédente, si on suppose que A et B commutent, c’est-à-dire, AB = BA,
alors on a l’identité (A + B)2 = A2 + 2AB + B 2 . D’une façon général on le
Résultat suivant dit formule de binôme de Newton :
70
Proposition 4.3.3. Soient A, B ∈ Mn (K) où K est un corps de caractéristique
0. On suppose que AB = BA. Alors pour tout p ∈ N on a
( )=( )+( )
m m−1 m−1
k k k−1
dite formule de Pascal.
71
Exercice 11.
1. Montrer que (A + B)T = AT + B T et (αA)T = αAT . Par suite l’application
g ∶ Mn (K) Ð→ Mn (K)
A z→ AT
est un endomorphisme.
3. Montrer que g est un automorphisme de ∶ Mn (K).
4. Montrer que (AT )T = A et en déduire que g −1 = g.
2. Montrer que (AB)T = B T AT .
3. Montrer que AAT et AT A sont des matrice carrées.
4. On dit que A est une matrice symétrique si AT = A.
(i) Montrer que si A est symétrique alors A est une matrice carrée.
(ii) Montrer que AAT et AT A sont deux matrices symétriques.
Définition 4.3.4. (puissance d’une matrice)
Soit A une matrice carrée d’ordre m et n un entier naturel non nul. La nième
puissance de A est donné par
An = A × A × ⋯ × A
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶
n fois
An = ( ).
2 − 2n 2n − 1
2 − 2n+1 2n+1 − 1
72
⎛2 0 1 ⎞ ⎛0 0 1⎞
5. Soient B = ⎜0 2 1⎟ et N = ⎜0 0 1⎟.
⎝0 0 2 ⎠ ⎝0 0 0⎠
2
(i) Montrer que N = 0 et que B − N = 2I3 .
(ii) Déterminer B n en remarquons que B = 2I3 + N et N × (2I3 ) = (2I3 ) × N.
Définition 4.3.5. Une matrice carrée A de Mn (K) est dite inversible, s’il
existe une matrice B ∈ Mn (K) telle que
AB = In et BA = In .
Remarque 35. Une matrice carrée non inversible est dite singulière.
Démonstration.
In est l’élément neutre de GLn (K) car AIn = In A = A.
On a A(BC) = (AB)C donc × est associative.
tout élément A de GLn (K) est inversible. Par suite (GLn (K), ×) est un
groupe.
73
4.4 Écriture matricielle d’un système d’équations
linéaires
Considérons le système d’équations linéaires suivant
⎧
⎪
⎪
⎪
a1,1 x1 + ⋯ + a1,n xn = b1
⎪
⎪
⎪
⎪
⎪
a2,1 x1 + ⋯ + a2,n xn = b2
⎪
⎪ .
(S) ⎨
. . .
⎪
⎪
⎪
⎪
. . . .
⎪
⎪
⎪
⎪
. . . .
⎪
⎪
⎩ ap,1 x1 + ⋯ + ap,n xn = bp
On vérifie facilement que que le système (S) peut être présenté sous la forme
matricielle suivante
AX = B
où
⎛a1,1 a1,2 ⋯ a1,n ⎞ ⎛ x1 ⎞ ⎛b1 ⎞
⎜a ⋯ a2,n ⎟ ⎜x ⎟ ⎜b ⎟
A = ⎜ 2,1 2,2 ⎟, X = ⎜ 2⎟ et B = ⎜ 2 ⎟ .
a
⎜ ⋮ ⋮ ⋯ ⋮ ⎟ ⎜ ⋮ ⎟ ⎜⋮⎟
⎝ap,1 ap,2 ⋯ ap,n ⎠ ⎝xn ⎠ ⎝ bb ⎠
(S) {
2x − 3y + 5z = 1
3x + 2z = 4
Posons
⎛x⎞
A=( ), X = ⎜y ⎟ et B = ( )
2 −3 5 1
3 0 2 ⎝z ⎠ 4
On a
AX == ( )
2x − 3y + 5z
3x + 2z
et donc
AX = B ⇐⇒ { ⇐⇒ (x, y, z) ∈ S.
2x − 3y + 5z = 1
3x + 2z = 4
74
4.4.1 Calcul de l’inverse
Si A est une matrice inversible, alors l’équation AX = B admet une unique
solution X = A−1 B. En effet, on a AX = A(A−1 B) = AA−1 B = In B = B. Donc
X = A−1 B est une solution de l’équation AX = B. Supposons maintenat que
X et X ′ sont des solutions de l’équation AX = B. Alors AX = AX ′ , donc
A − 1(AX) = A−1 (AX ′ ), d’où A−1 AX = A−1 AX ′ , par suite In X = In X ′ et
donc X = X ′ .
⎛ y1 ⎞
⎜y ⎟
Supposons maintenant que A est d’ordre n et soit Y = ⎜ 2 ⎟. Soit (S) le
⎜⋮⎟
⎝yn ⎠
système d’équation dont l’écriture matricielle est AX = Y et le système (H)
d’équation dont l’écriture matricielle A−1 Y = X. On a évidemment
AX = Y ⇐⇒ X = A−1 Y
et donc
(x1 , . . . , xn ) ∈ S ⇐⇒ (y1 , . . . , yn ) ∈ H.
Comme application de ces résultats on a la proposition suivante
Proposition 4.4.1. Soit A une matrice inversible d’ordre n et soit (S) le
système d’équation dont l’écriture matricielle est AX = Y . La resolution
du système (S) donne naissance à une matrice carrée B d’ordre n telle que
BY = X. La matrice B ainsi obtenue est l’inverse de A, c’est-à-dire B = A−1 .
Exemple 19. Soit la matrice
⎛ 1 2 −2⎞
A = ⎜−1 3 0 ⎟
⎝ 0 −2 1 ⎠
Montrer que A est inversible et calculer son inverse.
Soient
⎛x1 ⎞ ⎛y 1 ⎞
X = ⎜x2 ⎟ et Y = ⎜y2 ⎟
⎝x3 ⎠ ⎝y 3 ⎠
On a
⎛ 1 2 −2⎞ ⎛x1 ⎞ ⎛y1 ⎞
AX = Y ⇐⇒ ⎜−1 3 0 ⎟ ⎜x2 ⎟ = ⎜y2 ⎟
⎝ 0 −2 1 ⎠ ⎝x3 ⎠ ⎝y3 ⎠
⎧
⎪ x1 + 2x2 −2x3 = y1
⎪
⎪
⇐⇒(S) ⎨ −x1 + 3x2
⎪
= y2
⎪
⎪
⎩ −2x2 +x3 = y3
75
On résout le système (S), on obtient que (S) est un système de Cramer
et donc A est une matrice inversible. On trouve x1 = 3y1 + 2y2 + 6y3, x2 =
y1 + y2 + 2y3 et x3 = 2y1 + 2y2 + 5y3 . On obtient alors le nouveau système
suivant
⎧
⎪
⎪
⎪ 1
3y + 2y2 + 6y3 = x1
⎨ y1 + y2 + 2y3 = x2
⎪
⎪
⎪
⎩ 2y1 + 2y2 + 5y3 = x3
Ce dernier système peut s’écrire matriciellement
⎛3 2 6⎞ ⎛y1 ⎞ ⎛x1 ⎞
⎜1 1 2⎟ ⎜y2 ⎟ = ⎜x2 ⎟
⎝2 2 5⎠ ⎝y3 ⎠ ⎝x3 ⎠
⎛3 2 6 ⎞
A−1 = ⎜1 1 2⎟ .
⎝2 2 5 ⎠
⎛ a1 ⎞
MatB (v) = ⎜ ⋮ ⎟
⎝an ⎠
76
Exemple 20. Soit B la base canonique de R2 [X].
Soient P1 = 6X 2 − 1, P2 = (X + 1)2 , P3 = 4 − X, P4 = 3X 2 + 5X, P5 = 0. Alors
⎛−1 0 4 0⎞
MatB (P1 , P5 , P3 , P4 ) = ⎜ 0 0 −1 5⎟
⎝ 6 0 0 3⎠
Par suite,
MatB,B′ (f ) = MatB′ (f (u1 ), . . . , f (un )).
Notation 5. Si E = F et B = B ′ , la matrice MatB,B (f ) est notée tout
simplement MatB (f ).
Proposition 4.5.2. Soit w un vecteur quelconque de E. Alors
Démonstration. Posons
wB = (a1 , . . . , an ), c’est-à-dire, w = a1 u1 + ⋯ + an un
77
On a alors
⎛ ⎞
n
⎜. . . . . . . . . . . . . . . . . . ⎟ ⎜ ⋮ ⎟ ⎜ ⎟
n
∑
⎜ j=1 ⋮ ⎟
c 2j aj
⎝cm1 cm2 ⋯ cmn ⎠ ⎝an ⎠ ⎜ ⎟
⎝∑nj=1 cmj aj ⎠
Puisque w = a1 u1 + a2 u2 + ⋯ + an un , alors
f (w) =a1 f (u1 ) + a2 f (u2 ) + ⋯ + an f (un )
m m m
=a1 ∑ ci1 vi + a2 ∑ ci2 vi + ⋯ + an ∑ cin vi
i=1 i=1 i=1
m m m
= ∑ ci1 a1 vi + ∑ ci2 a2 vi + ⋯ + ∑ cin an vi
i=1 i=1 i=1
=(c11 a1 v1 + c12 a2 v1 + ⋯ + c1n an v1 ) + (c21 a1 v2 + c22 a2 v2 + ⋯ + c2n an v2 )+
⋯⋯ + (cm1 a1 vm + cm2 a2 vm + ⋯ + cmn an vm )
=(c11 a1 + c12 a2 + ⋯ + c1n an )v1 + (c21 a1 + c22 a2 + ⋯ + c2n an )v2 +
⋯⋯ + (cm1 a1 + cm2 a2 + ⋯ + cmn an )vm
Par suite
f (w)B′ = (∑ c1j aj , ∑ c2j aj , . . . , ∑ cmj aj )
n n n
En conclusion,
MatB′ (f (w)) = MatB,B′ (f )MatB (w)
.
Remarque 36.
1. Soit Ci (MatB,B′ (f )) la i-ième colonne de la matrice MatB,B′ (f ).
On a Ci (MatB,B′ (f )) = MatB′ (f (ui )). Puisque MatB′ (f (ui )) = MatB,B′ (f )MatB (ui ),
alors
MatB,B′ (f )MatB (ui ) = Ci (MatB,B′ (f )).
78
Donc u1B = (1, 0, . . . , 0), u2 = (0, 1, 0, . . . , 0), . . . , unB = (0, . . . , 0, 1).
Par suite
MatB′ (f (u1 )) =MatB,B′ (f )MatB (u1 )
⎛ c11 c12 ⋯ c1n ⎞ ⎛1⎞ ⎛ c11 ⎞
⎜c c22 ⋯ c2n ⎟ ⎜0⎟ ⎜ c21 ⎟
= ⎜ 21 ⎟ ⎜ ⎟ = ⎜ ⎟ = C1 (MatB,B′ (f ))
⎜. . . . . . . . . . . . . . . . . .⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎝cm1 cm2 ⋯ cmn ⎠ ⎝0⎠ ⎝cm1 ⎠
Plus généralement on a
MatB′ (f (ui )) =MatB,B′ (f )MatB (ui )
⎛0 ⎞
⎜⋮⎟
⎛ c11 c12 ⋯ c1n ⎞ ⎜ ⎟
⎜0⎟ ⎛ 1i ⎞
c
⎜ c21 c22 ⋯ c2n ⎟ ⎜ ⎟ ⎜ c2i ⎟
=⎜ ⎟ ⎜1 ⎟
⎟ = ⎜ ⎟ = Ci (MatB,B′ (f ))
⎜. . . . . . . . . . . . . . . . . . ⎟ ⎜
⎜0 ⎟ ⎜ ⋮ ⎟
⎝cm1 cm2 ⋯ cmn ⎠ ⎜ ⎟
⎜ ⎟ ⎝cmi ⎠
⎜⋮⎟
⎝0 ⎠
MatB,B′ (f ) = ( )
1 −2 0
1 1 −3
79
1 −2 0 ⎛ ⎞
x
On a ( ) ⎜y ⎟ = ( ).
x − 2y
1 1 −3 ⎝ ⎠ x + y − 3z
z
Pousons u = (x, y), alors MatB′ (f (u)) = MatB,B′ (f )MatB (u).
3. Soient E = K4 [X] et F = K2 [X] et soient B et B ′ les bases canoniques de
E et de F . Soit f ∶ E Ð→ F l’application linéaire définie par (f (P ) = P ′′.
on a f (1) = 0, f (X) = 0, f (X 2 ) = 2, f (X 3 ) = 6X, f (X 4 ) = 12X 2 ,
donc f (1)B′ = (0, 0, 0), f (X)B′ = (0, 0, 0), f (X 2 )B′ = (2, 0, 0), f (X 3 )B′ = (0, 6, 0),
f (X 4 )B′ = (0, 0, 12).
⎛0 0 2 0 0 ⎞
MatB,B′ (f ) = ⎜0 0 0 6 0 ⎟
⎝0 0 0 0 12⎠
Considérons P = 2X 4 + X 3 − X 2 + 3X + 5 Déterminer P ′′ .
On a PB = (5, 3, −1, 1, 2). Alors
⎛5⎞
⎛0 0 2 0 0 ⎞ ⎜ ⎟
⎜ 3 ⎟ ⎛−2⎞
MatB′ (P ”) = MatB′ (f (P )) = ⎜0 0 0 6 0 ⎟ ⎜−1⎟
⎜
⎟=⎜6⎟
⎝0 0 0 0 12⎠ ⎜ ⎟
⎜ 1 ⎟ ⎝ 24 ⎠
⎝2⎠
⎛1 −2 1 ⎞
MatB (f ) = ⎜0 1 −3⎟ .
⎝2 1 1 ⎠
On a
v1 = e1 + e2 + e3 , donc
f (v1 ) = f (e1 ) + f (e2 ) + f (e3 ) = (1, 0, 2) + (−2, 1, 1) + (1, −3, 1) = (0, −2, 4)
80
v3 = e1 , donc f (v3 ) = (1, 0, 2), alors
⎛ 0 −1 1⎞
MatB′ ,B (f ) = ⎜−2 1 0⎟ .
⎝ 4 3 2⎠
On a
Donc
⎛4 3 2⎞
MatB′ (f ) = ⎜−6 −2 −2⎟ .
⎝ 2 −2 1 ⎠
On a e1 = v3 , donc f (e1 )B′ = f (v3 )B′ = (2, −2, 1)
Donc
⎛2 1 1⎞
MatB,B′ (f ) = ⎜−2 0 −4⎟ .
⎝ 1 −3 4 ⎠
81
Proposition 4.5.3. L’application
Mat ∶ L (E, F ) Ð→ Mm,n (K)
f z→ MatB,B′ (f )
est un isomorphisme de K-espaces vectoriels. En particuler, dim(Mm,n (K)) =
mn.
Démonstration. Voir TD
Remarque 37. Prenons E = K n et F = K m et B et B ′ les bases canoniques
de E et F . Alors pour toute matrice A ∈ Mm,n (K) il existe une unique ap-
plication lineaire f ∶ K n Ð→ K m telle que MatB,B′ (f ) = A. On dit que f est
canoniquement associée à la matrice A.
Remarque 38. Soit g un endomorphisme de E. Alors
1.
MatB,B′ (f ) = 0m,n ⇐⇒ f = 0 l’application nulle
2.
MatB (g) = In ⇐⇒ g = idE
Remarque 39. On a dim(Mm,n (K)) = mn et dim(Mn,m (K)) = nm, donc
dim(Mm,n (K)) = dim(Mnm (K)), alors Mm,n (K) ≃ Mm,n (K).
Il est facile de montrer que l’application
Mm,n (K) Ð→ Mn,m (K)
M z→ M T
est un isomorphisme de K-espaces vectoriels.
Proposition 4.5.4. Soient G un K-ev et B ′′ = (w1 , . . . , wq ) une base de G.
Soit g ∶ F Ð→ G une application linéaire. Alors
MatB,B′′ (g ○ f ) = MatB′ ,B′′ (g) × MatB,B′ (f )
Démonstration. Posons A = MatB′ ,B′′ (g) × MatB,B′ (f ) et B = MatB,B′′ (g ○ f )
et montrons que Cj (A) = Cj (B) ∀j ∈ {1, . . . , n}. On a
Cj (A) =MatB′ ,B′′ (g) × MatB,B′ (f ) × MatB (uj )
=MatB′ ,B′′ (g) × MatB′ (f (uj ))
=MatB′′ (g(f (uj )))
=MatB′′ ((g ○ f )(uj ))
=Cj (B)
En conclusion, les matrices A et B ont les mêmes colonnes, donc A = B.
82
Proposition 4.5.5. On suppose que n = m, c’est-à-dire, dim(E) = dim(F ).
Alors
L’application f est bijective si et seulement si MatB,B′ (f ) est inversible. Dans
ce cas on
MatB′ ,B (f −1 ) = MatB,B′ (f )−1 .
Démonstration. Si f est bijective, alors on a f ○ f −1 = idF et f −1 ○ f = idE ,
donc MatB′ (f ○ f −1 ) = In et MatB (f −1 ○ f ) = In . Par suite MatB,B′ (f ) ×
MatB′ ,B (f −1 ) = MatB′ ,B (f −1 ) × MatB,B′ (f ) = In . Donc MatB,B′ (f ) est inver-
sible et on a
MatB′ ,B (f −1 ) = MatB,B′ (f )−1 .
Réciproquement, supposons que la matrice MatB,B′ (f ) est inversible. Puisque
MatB,B′ (f )−1 ∈ Mn,m (K), alors d’après la proposition 4.5.3, ∃g ∈ L (F, E)
telle que MatB′ ,B (g) = MatB,B′ (f )−1 . On a
donc
MatB (g ○ f ) = In
alors g ○ f = idE . De la même façon on montre que f ○ g = idF . En conclusion,
g = f −1 et donc f est inversible.
Corollaire 4.5.6. Soient g et f deux endomorphismes de E. Alors
1.
MatB (g ○ f ) = MatB (g) × MatB (f )
MatB (B ′ ) = ( )
2 1
−1 1
83
Thoérème 4.6.2. On a les résultats suivants :
1. MatB (B ′ ) est une matrice carrée d’ordre n.
2. MatB (B ′ ) = MatB′ ,B (idE ).
3. MatB (B ′ ) est inversible et on a MatB (B ′ )−1 = MatB′ (B).
Démonstration.
1. On sait que MatB (B ′ ) est une matrice d’ordre s × t où s = card(B) et t =
card(B ′ ). Puisque card(B) = card(B ′ ) = n, alors MatB (B ′ ) est une matrice
carrée d’ordre n.
2. On considère idE de E muni de B ′ dans E muni de B :
E ) =
Donc MatB′ ,B (idE ) est inversible et on a MatB′ ,B (idE )−1 = MatB,B′ (id−1
MatB,B′ (idE ). D’où le résultat.
Proposition 4.6.3. Soit w ∈ E. Soient MatB (w) la matrice colonne des coor-
données de w dans la base B et MatB′ (w) la matrice colonne des coordonnées
de w dans la base B ′ . Alors
On a
MatB,B′ (idE )MatB (w) = MatB′ (idE (w)).
Donc
MatB′ (B)MatB (w) = MatB′ (w).
84
Exemple 23. Dans E = R2 soit B = (e1 , e2 ) la base canonique. Considérons
la base B ′ = (v1 , v2 ) où v1 = e1 − 2e2 , v2 = 3e1 + e2 .
1. On a
MatB (B ′ ) = ( ).
1 3
−2 1
−3
2. On a e1 = 71 v1 + 27 v2 et e2 = 7 v1 + 71 v2 . Donc
MatB′ (B) = ( ).
1 1 −3
7 2 1
Alors
MatB′ (w) = ( )( ) = ( ).
1 1 −3 3 1 −12
7 2 1 5 7 11
−12
Par suite, w = 7 v1 + 11
7 v2 .
(E, B) (F, B ′ )
f
/
idE ↺ idF
(E, C) (F, C ′ )
f
/
et
Donc
MatC,C ′ (f ) × MatC (B) = MatC ′ (B ′ ) × MatB,B′ (f )
85
alors
MatC,C ′ (f ) = MatC ′ (B ′ ) × MatB,B′ (f ) × MatC (B)−1
ou
MatC,C ′ (f ) = MatB′ (C ′ )−1 × MatB,B′ (f ) × MatB (C).
MatB (f ) = ( ).
3 1
2 0
On a
MatB (B ′ ) = ( )
1 3
−2 1
et
MatB′ (B) = ( ).
1 1 −3
7 2 1
On a
MatB′ (f ) = ( )( )( ).
1 1 −3 3 1 1 3
7 2 1 2 0 −2 1
86
Démonstration. L’application
87
88
Chapitre 5
Déterminants de matrices et
applications
det ∶ Mn (K) Ð→ K
m=1
m=1
89
Notation 7. Si
⎛ a11 a12 ⋯ a1m ⎞
⎜a ⋯ a2m ⎟
A = ⎜ 21 22 ⎟
a
⎜. . . . . . . . . . . . . . . . . . ⎟
⎝an1 an2 ⋯ anm ⎠
On note aussi
RR a11 a12 ⋯ a1m RR
RR RR
RRR RRR
det(A) = RR R
R RR
RR
a 21 a 22 ⋯ a 2m
RRR. . . . . . . . . . . . . . . . . .RRR
RRRa R
R n1 an2 ⋯ anm RRR
Exemple 25. On a det(0n ) = 0 et det(In ) = 1.
Exemples 19.
1. A = (−5) alors det(A) = −5.
2. Si A = ( ), alors
a b
c d
det(A) = ∣ ∣ = ad − bc
a b
c d
= − 4 − 14 = −18
90
On développe det(A) suivant la 2ème colonne :
RR 2 0 1 RR
RR RR
RR R
RR−1 2 0 RRR = − (0) ∣−1 0 ∣ + 2 ∣2 1 ∣ − 4 ∣ 2 1∣
RRR RR
RR 3 4 −2RRR
3 −2 3 −2 −1 0
R R
= − 14 − 4 = −18
Remarques 8.
Régle de Sarrus
1. La régle de Sarrus consiste à écrire les trois colonnes du déterminant, puis
à répéter les deux premières. On calcule la somme des produits des éléments
des trois diagonales principales moins la somme des produits des éléments
des trois diagonales non principales.
⎛a11 a12 a13 ⎞
A = ⎜a21 a22 a23 ⎟.
⎝a31 a32 a33 ⎠
⎛2 0 1⎞
Exemple : Soit A = ⎜−1 2 0 ⎟. Alors
⎝ 3 4 −2⎠
2 0 1 2 0
det(A) = −1 2 0 −1 2
3 4 −2 3 4
=(−8 + 0 − 4) − (6 + 0 + 0)
= − 18
2. La régle de Sarrus n’est valable que pour des matrices carrées d’ordre 3.
Exercice 14. Montrer que si A est une matrice triangulaire (supérieure ou
inférieure) d’ordre n, alors le déterminant de A est égal au produit des coef-
ficients de la diagonale, c’est-à-dire,
n
det(A) = ∏ Aii .
i=1
91
5.2 Propriétés des déterminants
Thoérème 5.2.1. Notons Ci la colonne i d’une matrice. On a alors
Lemme 5.2.2. Si deux lignes ou deux colonnes de A sont égales alors det(A) =
0.
Ci ↔ Cj
A ÐÐÐÐÐÐÐ→ M, i ≠ j
λCi → Ci
A ÐÐÐÐÐÐÐ→ N,
Ci + αCj → Ci
A ÐÐÐÐÐÐÐ→ P, i≠j
Ci + ∑ αj Cj → Ci
j≠i
A ÐÐÐÐÐÐÐÐ→ Y,
Thoérème 5.2.3. On a
1. det(M) = − det(A).
2. det(N) = λ det(A).
3. det(P ) = det(A).
4. det(Y ) = det(A).
Démonstration.
1. On a
92
car deux colonnes sont égales. Donc
m=1
det(N) = ∑ (−1)m+1 λA1m det(A(1, m)) = λ ∑ (−1)m+1 A1m det(A(1, m)) = λ det(A).
n n
m=1 m=1
3. On a
det(P ) = det (C1 (A) . . . Ci−1 (A) Ci (A) + αCj (A) Ci+1 (A) . . . Cn (A))
= det (C1 (A) . . . Ci−1 (A) Ci (A) Ci+1 (A) . . . Cn (A)) +
det (C1 (A) . . . Ci−1 (A) αCj (A) Ci+1 (A) . . . Cn (A))
= det (C1 (A) . . . Ci−1 (A) Ci (A) Ci+1 (A) . . . Cn (A)) +
α det (C1 (A) . . . Ci−1 (A) Cj (A) Ci+1 (A) . . . Cn (A))
Le déterminant det (C1 (A) . . . Ci−1 (A) Cj (A) Ci+1 (A) . . . Cn (A)) est
nul car il a deux colonnes égales qui sont la colonne i et la colonne j. Donc
det(P ) = det (C1 (A) . . . Ci−1 (A) Ci (A) Ci+1 (A) . . . Cn (A)) = det(A).
93
est une succession d’opérations élémentaires de la forme
Ci +λCj → Ci
ÐÐÐÐÐÐ→, j ≠ i.
Thoérème 5.2.4. On a
⎛ L1 ⎞ ⎛ L1 ⎞ ⎛ L1 ⎞
⎜ ⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⋮
⎜ Lm−1 ⎟ ⎜Lm−1 ⎟ ⎜Lm−1 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
det ⎜ ′ ⎟ ⎜ ⎟ ⎜ ′ ⎟
⎜Lm + Lm ⎟ = det ⎜ Lm ⎟ + det ⎜ Lm ⎟
⎜ L ⎟ ⎜L ⎟ ⎜L ⎟
⎜ m+1 ⎟ ⎜ m+1 ⎟ ⎜ m+1 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ ... ⎟ ⎜ ... ⎟ ⎜ ... ⎟
⎝ Ln ⎠ ⎝ Ln ⎠ ⎝ Ln ⎠
Li ↔ Lj
A ÐÐÐÐÐÐÐ→ H, i ≠ j
λLi → Li
A ÐÐÐÐÐÐÐ→ F,
Li + αLj → Li
A ÐÐÐÐÐÐ→ Z, i ≠ j
Li + ∑ αj Lj → Li
j≠i
A ÐÐÐÐÐÐÐÐ→ S,
Thoérème 5.2.5. On a
1. det(H) = − det(A).
2. det(F ) = λ det(A).
3. det(Z) = det(A).
4. det(S) = det(A).
94
Remarque 43. L’application
⎛ L1 ⎞
⎜ ⋮ ⎟
⎜ ⎟
⎜Lm−1 ⎟
⎜ ⎟
Lm z→ det ⎜
⎜ Lm ⎟
⎟
⎜L ⎟
⎜ m+1 ⎟
⎜ ⎟
⎜ ... ⎟
⎝ Ln ⎠
RR2 4RRRR
Donc
RR
RR R
4 0
RRRR0 0RRRR
4RRRR
5 1
RR2 = 2 × 1 × 1 × 1 × 5 = 10
RR 9 0
RR
RR1 1RRR
RR 2 0
95
Thoérème 5.3.1. Si det(A) est non nul, alors le système (S) est de Cramer
et on a
∆xi
xi =
det(A)
où ∆xi = det(Di )
Remarque 45. Le système (S) n’est pas de Cramer si A n’est pas carrée ou
A est carrée avec det(A) = 0. Dans ce cas on peut aussi appliquer la méthode
de Cramer pour résoudre (S), mais on doit appliquer le théorème5.3.1 à une
matrice extraite de A de déterminant non nul et d’ordre maximum. Pour plus
de détail voir devoir N°3.
Or rg(A) = rg(T ) et det(A) = α det(T ) où α est un scalaire non nul. Donc
96
Proposition 5.4.3. Soient E un espace vectoriel de dimension n et soit B une
base de E. Soit G = (v1 , . . . , vn ) une famille quelconque de vecteurs de E de
cardinal n. Si B ′ est une autre base de E, alors
(E, B) / (E, B)
f
↺
■■
■■
■■
■■ idE
f
■■
■■
(E, B ′ )
■$
On déduit que
MatB,B′ (f ) = MatB′ (B) × MatB (f )
donc
MatB′ (G) = MatB′ (B) × MatB (G)
par suite
97
Remarque 46. On a aussi
det(A) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 + a12 a23 a31 + a13 a21 a32 .
Proposition 5.5.3. Soit A une matrice carrée d’ordre n. Alors A est inversible
si et seulement si det(A) ≠ 0. Dans ce cas on a det(A−1 ) = det(A)−1 .
98
Proposition 5.6.2. Soient E un espace vectoriel de dimension n et soit B une
base de E. Soit f un endomorphisme de E. Alors
1. f est bijective si et seulement si det(MatB (f )) ≠ 0.
2. Le déterminant de f ne dépend pas de la base B.
Démonstration.
1. Est une conséquence directe du fait que f est bijective si et seulement si
la matrice MatB (f ) est inversible.
2. On sait que MatB′ (f ) = MatB (B ′ )−1 × MatB (f ) × MatB (B ′ ), donc
Com(A)ij = cof(Aij ).
⎛ 1 3 −1⎞
A=⎜2 3 5⎟
⎝−1 1 2 ⎠
Alors
99
Par suite,
⎛1 9 5⎞
Com(A) = ⎜ 7 1 4 ⎟
⎝18 7 −3⎠
Proposition 5.7.2. On a
et
det(A) = ∑ Aij cof(Aij )
n
i=1
Démonstration.
Si on dévelope det(A) suivant la ligne i on trouve la première égalité.
Si on dévelope det(A) suivant la colonne j on trouve la deuxième égalité.
Thoérème 5.7.3. Soit A une matrice carrée d’ordre n. Alors
(i) ACom(A)T = Com(A)T A = det(A)In .
(ii) Si A est une matrice inversible, On a
1
A−1 = Com(A)T
det(A)
Démonstration.
(i) On a
k=1 k=1
100
Exemple 29. Reprenons la matrice de l’exemple 28. On a
⎛1 9 5⎞
Com(A) = ⎜ 7 1 4 ⎟
⎝18 7 −3⎠
donc
⎛1 7 18 ⎞
Com(A) ) = ⎜9 1 7 ⎟
T
⎝5 4 −3⎠
alors
−1 ⎛
1 7 18 ⎞
A −1
= ⎜9 1 7⎟
31 ⎝
5 4 −3⎠
101
102
Chapitre 6
χA (X) = ∣ ∣ = −X 2 − 7X + 7
2−X 1
3 5−X
103
Démonstration. Posons A − XIp = (bij )1≤i,j≤p . D’après la définition du déter-
minant d’une matrice, on a d’après la formule de Leibniz
p
χA (X) = det(A − XIp ) = ∑ sign(σ) ∏ biσ(i) ,
σ∈Sp i=1
p
deg(sign(σ) ∏ biσ(i) ) = ∑ deg(biσ(i) ) = pσ ,
i=1 i∈{j/σ(j)=j}
104
1 est la matrice
⎛0 ⋯ ⋯ 0 a0 ⎞
⎜1 ⋮ a1 ⎟
⎜ ⋱ ⎟
CP = ⎜
⎜0 ⋱ ⋮ a2 ⎟ ⎟
⎜⋮ ⋮ ⎟
⋱
⎜ ⋱ ⋱ 0 ⎟
⎝0 ⋯ 0 1 ap−1 ⎠
Exemples 21. Soient P1 (X) = X + a, P2 (X) = X 2 , P3 (X) = X 2 − 3X + 2 et
P3 (X) = X 3 + 3X − 2. Alors
⎛0 0 2 ⎞
CP1 = (−a) , CP2 =( ) , CP3 = ( ) , CP4 ⎜1 0 −3⎟
0 0 0 −2
1 0 1 3 ⎝0 1 0 ⎠
⎛−X 0 ⋯ 0 a0 ⎞
⎜ 1 a1 ⎟
⎜ ⋱ ⋱ ⋮ ⎟
χCP (X) = ⎜
⎜ 0 ⋱ 0 ⎟.
⎟
⎜ ⋮ ap−2 ⎟
⋱ ⋮
⎜ ⋱ ⋱ −X ⎟
⎝ 0 ⋯ 0 1 ap−1 − X ⎠
Notons les lignes de cette dernière matrice par L0 , L1 , . . . , Lp−1 et ajoutons à
la première ligne la combinaison linéaire suivante des autres lignes :
XL1 + X 2 L2 + ⋯ + X p−1 Lp−1
Ceci ne change pas le déterminant et la première ligne de la matrice résultante
devient : (0 ⋯ 0 b1p ) où
b1p = a0 + Xa1 + X 2 a2 + ⋯ + X p−1(ap−1 − X) = −P (X).
En développant le déterminat par rapport à la première ligne on obtient
χCP (X) = (−1)p+1 (−P (X)) = (−1)p P (X).
105
6.2 Théorème de Cayley-Hamilton
Nous allons maintenant énoncer l’un des théorèmes les plus importants
de l’algèbre linéaire.
Thoérème 6.2.1. (Cayley-Hamilton) Soit f ∈ End(E). Alors χf (f ) = 0.
Démonstration. Admit
106
Définition 6.3.3. (Multiplicités algébrique et géométrique)
Soit λ ∈ sp(f ). Alors
(i) la multiplicité de λ en tant que racine de χf est appelée multiplicité algé-
brique de λ et notée ma (λ).
(ii) La multiplicité géométrique de λ, notée mg (λ), est la dimension de E(λ),
c’est-à-dire, mg (λ) = dim(E(λ)).
Proposition 6.3.4.
1. Soit f ∈ End(E) et µ, λ ∈ sp(f ). Si λ ≠ µ alors E(λ) ⋂ E(µ) = {0}.
2. Des vecteurs propres associés à des valeurs propres distinctes sont linéai-
rement indépendants.
3. Si dim(E) = n alors f admet au plus n valeurs propres distinctes.
Démonstration.
1. Soit u ∈ E(λ) ⋂ E(µ). on a f (u) = λu = µu, donc (λ − µ)u = 0. Comme
λ − µ ≠ 0, alors u = 0.
2. Soit {λ1 , . . . , λp } ⊆ sp(f ) et supposons que λi ≠ λj si i ≠ j. Soit ui un
vecteur propre associé à λi , 1 ≤ i ≤ p.
Faisons une démonstration par récurrence sur p. Pour p = 1, on a Soit αu1 = 0
entraine α = 0 car u1 ≠ 0.
H.R : Supposons que u1 , . . . , up−1 sont linéairement indépendants. Soient
α1 , . . . , αp ∈ K tels que α1 u1 + ⋯ + αp up = 0. On a α1 u1 + ⋯ + αp−1 up−1 =
−αp up ∈ E(λp ). Donc f (α1 u1 + ⋯ + αp−1 up−1) = λp (α1 u1 + ⋯ + αp−1 up−1) =
λp α1 u1 +⋯+λp αp−1 up−1 . Or f (α1 u1 +⋯+αp−1 up−1) = λ1 α1 u1 +⋯+λp−1 αp−1 up−1 .
Donc λp α1 u1 + ⋯ + λp αp−1 up−1 = λ1 α1 u1 + ⋯ + λp−1 αp−1 up−1 . par suite, λp α1 =
λ1 α1 , . . . , λp αp−1 = λp−1 αp−1 . En conclusion, α1 = ⋯ = αp−1 = 0 et donc αp up = 0
et alors αp = 0. en conclusion, u1, . . . , up sont linéairement indépendants.
3. Supposons que sp(f ) = {λ1 , . . . , λp } avec λi ≠ λj si i ≠ j. Soit ui un vecteur
propre associé à λi , 1 ≤ i ≤ p. d’après 2., on a {u1, . . . , up } est une famille libre
de E, donc p ≤ n.
Corollaire 6.3.5. Soit λ1 , . . . , λm des valeurs propres de f deux à deux dis-
tinctes. Alors
107
à une fonction f associe sa dérivée f ′ . On a ∂(eλx ) = λeλx . Donc eλx est un
vecteur propre de ∂ associé à la valeur propre λ.
2. On suppose que E = F ⊕ G. et soit π la projection sur F parallèlement à
G. Alors F = E(1), G = E(0).
3. On suppose que E = F ⊕ G. et soit s la symétrie par rapport à F parallè-
lement à G. Alors F = E(1) et G = E(−1).
Proposition 6.3.6. Si λ est une valeur propre de f alors E(λ) est sev stable
par f , c’est-à-dire, f (E(λ)) ⊆ E(λ).
Démonstration. Soit u ∈ E(λ). On a f (f (u)) = f (λu) = λf (u), donc f (u) ∈
E(λ).
108
alors sp(A) = {aii /1 ≤ i ≤ p}.
2. Soit A ∈ M3 (R) tel que χA (X) = −(X − 1)(X 2 + 1). Alors spR (A) = {1} et
spC (A) = {1, i, −i}.
3.
A=( )
0 1
−1 0
On a χA (X) = X 2 + 1. Donc spR (A) = ∅, spC (A) = {−i, i}, spZ/2Z (A) = {1}
et spZ/5Z (A) = {2, 3}.
Définition 6.4.2. Soit P ∈ K[X]. On dit que P est scindé sur K si P à toutes
ses racines dans K, c’est-à-dire, P est de la forme
où a, a1 , . . . , as ∈ K.
Exemples 24.
1. (X 2 − 1)3 = (X − 1)3 (X + 1)3 est scindé sur R.
2. X 2 + 1 n’est pas scindé sur R et il est scindé sur C.
3. X 2 + 1 est scindé sur Z/5Z car X 2 + 1 = (X − 2)(X − 3).
109
P −1 AP = D. Dans ce cas on a χA = χD et donc sp(A) = sp(D) = {λ1 , . . . , λn }.
D’autre part, supposons que f est diagonalisable. Alors il existe une base B de
E telle que MB (f ) = D est une matrice diagonale. Soit B ′ une autre base de
E et P la matrice de passage de B à B ′ . On sait que MB′ (f ) = P −1 MB (f )P =
P −1 DP . Par suite, les matrice de f sont toutes diagonalisables. En conclu-
sion, on peut diagonaliser un endomorphisme en travaillant sur l’une de ses
matrices.
La réciproque est aussi vraie. Soit A ∈ Mp (K) et considérons une base quel-
conque de K p , par exemple la base canonique C. Soit f l’endomorphisme
de K p défini par f (Z) = AZ pour tout vecteur colonne Z de K p . On a
MC (f ) = A. Donc diagonaliser A revient à chercher une base B de vecteurs
propres de f , c’est-à-dire, chercher une matrice inversible P et une matrice
diagonale D telles que P −1 AP = D.
Définition 6.5.2. On dit qu’un endomorphisme d’un K-ev E est scindé si son
polynôme caractéristique est sindé sur K. On dit qu’une matrice A ∈ Mp (K)
est scindée si son polynôme caractéristique est sindé sur K.
Proposition 6.5.3. Soit λ1 , . . . , λs les valeurs propres distinctes de f . Alors f
est diagonalisable si et seulement si f est scindé et
E = E(λ1 ) ⊕ ⋯ ⊕ E(λs ).
110
Thoérème 6.5.5. Soit f un endomorphisme d’un K-ev E. Alors f est diago-
nalisable si et seulement si
(i) χf est scindé sur K
{
(ii) mg (λ) = ma (λ) pour toute valeurs propres λ de f
Démonstration. χf (X) = (−1)n (X −λ1 )m1 ⋯(X −λs )ms où les λi sont des sca-
laires deux à deux distincts et n = dim(E). Par hypothèse on a mi = ma (λi ) =
mg (λi ) pour tout i ∈ {1, . . . , s}. Il est clair que m1 +⋯+ms = deg(χf (X)) = n.
Puisque dim(E(λi )) = mg (λi ) = ma (λi ) = mi , alors dim(E(λ1 )⊕⋯⊕E(λs )) =
m1 + ⋯ + ms = n, donc E(λ1 ) ⊕ ⋯ ⊕ E(λs ) = E. En conclusion, f est diagona-
lisable.
Réciproquement, supposons que f est diagonalisable. Alors E = E(λ1 ) ⊕
⋯ ⊕ E(λs ) où λ1 , . . . , λs sont les valeurs propres distinctes de f . On sait que
f = fE(λ1 ) ⊕ ⋯ ⊕ fE(λs ) . D’après Proposition ?? on a χfE(λi ) = (−1)mg (λi ) (X −
λi )mg (λi ) , 1 ≤ i ≤ s, Donc χf (X) = ∏si=1 χfE(λi ) = (−1)∑i=1 mg (λi ) ∏si=1 (X −
s
Pratique de la diagonalisation
Soit f un endomorphisme d’un K-ev E de dimension n.
• On détermine χf
• Si f n’est pas scindé sur K alors f n’est pas diagonalisable
• Si f est scindé sur K, on cherche si mg (λ) = ma (λ) pour toute valeur
propre λ de f
• Si oui, on cherche une base Bi de E(λi ) avec sp(f ) = {λ1 , . . . , λs }. On
a alors B = (B1 , . . . , Bs ) est une base de diagonalisation pour f
• Dans le cas contraire, f n’est pas diagonalisable.
Soit A ∈ Mp (K).
• On détermine χA
• Si A n’est pas scindé sur K alors A n’est pas diagonalisable
• Si A est scindé sur K, on cherche si mg (λ) = ma (λ) pour toute valeur
propre λ de A
111
• Si oui, on cherche une base Bi de E(λi ) avec sp(f ) = {λ1 , . . . , λs }. On
peut par exemple chercher les familles Bi en résolvant les systèmes
homogènes d’inconnue Z :
(A − λi Ip )Z = 0.
P −1 AP = D
112