Cours (IA)
Cours (IA)
1 Espaces Vectoriels 1
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Familles génératrices. . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Famille liées, famille libres. . . . . . . . . . . . . . . . . . . . . . 6
1.5 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . 7
1.6 Espaces vectoriels de dimensions finies . . . . . . . . . . . . . . 9
1.6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . 13
2 Espaces affines 15
2.1 Espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 VECTORIALISATION D’UN ESPACE AFFINE . . . . . . . 16
2.3 Translations et homothéties . . . . . . . . . . . . . . . . . . . . 16
2.4 SOUS-ESPACES AFFINES . . . . . . . . . . . . . . . . . . . . 17
2.5 INTERSECTION DE SOUS-ESPACES AFFINES . . . . . . . 17
2.6 PARALLELISME . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.7 REPERES CARTESIENS . . . . . . . . . . . . . . . . . . . . . 18
2.8 Points alignés, points coplanaires . . . . . . . . . . . . . . . . . 18
2.9 BARYCENTRES . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
i
4 Matrices 35
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Somme de matrices et multiplication d’une matrice par un
scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4 Écriture matricielle d’un système d’équations linéaires . . . . 43
4.4.1 Calcul de l’inverse . . . . . . . . . . . . . . . . . . . . . . 44
4.5 Matrices d’applications linéaires . . . . . . . . . . . . . . . . . . 46
4.5.1 Matrice d’une famille de vecteurs . . . . . . . . . . . . . 46
4.5.2 Matrice d’une application linéaire . . . . . . . . . . . . 46
4.6 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . 51
4.6.1 Matrices de passage . . . . . . . . . . . . . . . . . . . . . 51
4.6.2 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . 54
Introduction 1
ii
Chapitre 1
Espaces Vectoriels
1.1 Généralités
Définition 1.1.1. On appelle espace vectoriel sur K (ev sur K) ou K-espace
vectoriel (K-ev) un ensemble non vide E muni
d’une loi interne + ∶ E × E Ð→ E
(u, v) z→ u + v
et d’une loi externe ⋅ ∶ K × E Ð→ E
(α, u) z→ α.u = αu
telles que :
1) (E, +) est un groupe commutatif :
(i) ∀u, v, w ∈ E ∶ u + (v + w) = (u + v) + w = u + v + w (sans parenthèses),
(ii) ∃0E ∈ E, ∀u ∈ E ∶ 0E + u = u + 0E = u,
(iii) ∀u ∈ E, ∃ − u ∈ E ∶
u + (−u) = (−u) + u = 0E ,
(iv) ∀u, v ∈ E ∶ u + v = v + u.
2)∀(u, v) ∈ E 2 , ∀(α, β) ∈ K 2 :
a) α(u + v) = αu + αv. c) (αβ)u = α(βu) = αβu (sans parenthèses).
b) (α + β)u = αu + βu. d) 1u = u.
Les éléments de K sont appelés des scalaires, ceux de E sont appelés des
vecteurs et on les note parfois par Ð
→
u (une lettre surmentée d’une flèche).
Exemples 1.
1) R est un R-ev.
2) C est un C-ev et un R-ev.
1
3) On muni K n des deux lois suivantes :
et
α(x1 , . . . , xn ) = (αx1 , . . . , αxn )
(K n , +, .) est alors un K-ev.
4) Généralement, Si E1 , E2 , . . . , En sont des espaces vectoriels sur K, on peut
munir E1 × E2 × ⋯ × En d’une structure naturelle de K-espace vectoriel, en
définissant ainsi les opérations :
∀(x1 , . . . , xn ), (y1 , . . . , yn ) ∈ E1 × E2 × ⋯ × En ∶
f + g ∶ x z→ f (x) + g(x)
αf ∶ x z→ αf (x)
On vérifie facilement que (F (A, E), +, .) est alors un K-ev.
2
Démonstration. Il est clair que si F est un sev de E alors les conditions 1),2)
et 3) sont vérifiées. Inversement, on a −u = (−1)u ∈ F ∀u ∈ F . Comme F est
stable par la loi +, alors (F, +) est un sous-groupe de (E, +). Puisque on a 3)
alors F est un espace vectoriel.
Proposition 1.2.3. Soient E un K-ev et F une partie de E. F est un sev de
E si et seulement si :
1) F ≠ ∅,
2) ∀(u, v) ∈ F 2 , ∀(α, β) ∈ K 2 , on a αu + βv ∈ F .
Démonstration. Supposons que F est un sev de E. Soient α, β ∈ K et u, v ∈ F .
d’après 3) de la proposition 1.2.2, on a αu ∈ F et βv ∈ F et d’après 2) de la
même proposition, on a αu + βv ∈ F . Inversement, prenant α = β = 1 dans 2),
alors u ∈ F et v ∈ F entrainent que u + v ∈ F . Prenant ensuite β = 0 dans 2),
alors α ∈ K et u ∈ F entrainent que αu ∈ F .
Proposition 1.2.4. Soit F une partie d’un K-ev E. Alors :
F ≠∅
F est un sev de E ⇔ {
∀(u, v) ∈ F 2 , ∀α ∈ K ∶ αu + v ∈ F
Démonstration. Facile.
Remarques 1.
1) Soient E un K-ev et F une partie non vide de E. F est un sev de E veut
dire que F est un K-ev pour les lois induites par celles de E :
3
+ ∶ E × E Ð→ E et . ∶ K × E Ð→ E
(u, v) z→ u + v (α, u) z→ αu.
2) Pour montrer qu’un ensemble E est un espace vectoriel il suffit de montrer
que E est un sev d’un autre ev bien connu.
3) Un sous espace vectoriel contient toujours le vecteur nul. Donc pour mon-
trer que F est une partie non vide de E, on se contente de vérifier que le
vecteur nul 0 de E est dans F . En effet, si 0 ∈/ F alors F n’est pas un sev de
E ; et si 0 ∈ F alors F est non vide.
4) Si F est un sev de E et si E est un sev de G alors F est un sev de G.
Exemples 2.
1) Si E est un K-ev alors {0} et E sont des sev de E. On les appelle les
deux sous-espaces vectoriels triviaux.
2) Soit Kn [X] = {P ∈ K[X]/deg(P ) ⩽ n} (on convient que −∞ < n). Alors
Kn [X] est un sev de K[X].
Si n ⩽ m alors Kn [X] est un sev de Km [X].
3) E = R2 est un R-ev, F1 = {0} × R et F2 = R × {0} sont des sev de E.
4) soit I un intervalle de R. L’ensemble des fonctions numériques définies
et dérivables sur I est un sev de l’ensemble des fonctions numériques défi-
nies et continues sur I et ce dernier est un sev de l’ensemble des fonctions
numériques définies sur I.
Proposition 1.2.5. Soient E un K-ev, (Fi )i∈I une famille de sev de E, alors
F = ⋂ Fi est un sev de E.
i∈I
Exemples 3.
1) On sait que F = R2 × {0} et G = R × {0} × R sont des sev de R3 .
On a u ∈ F ⋂ G ⇐⇒ ∃x, x′ , y, z ∈ R ∶ u = (x, y, 0) = (x′ , 0, z) ⇐⇒ x = x′ et
y = z = 0 donc F ∩ G = {(x, 0, 0)/x ∈ R} = R × {0} × {0}.
2) F = {(x, y) ∈ R2 /x + y = 0} et G = {(x, y) ∈ R2 /2x + y = 0} sont deux
sous espaces vectoriels de R2 . On a (1, −1) ∈ F et (1, −2) ∈ G mais (1, −1) +
(1, −2) = (2, −3) ∈/ F et ∈/ G, donc (1, −1) + (1, −2) ∈/ F ∪ G, alors F ∪ G n’est
pas un sous espace vectoriel de R2 .
4
1.3 Familles génératrices.
Définition 1.3.1. Soient u1 , . . . , un une famille finie de vecteurs d’un K-ev
E. Un vecteur u ∈ E est dit combinaison linéaire des vecteurs u1 , . . . , un s’il
existe des scalaires α1 , . . . , αn ∈ K, tel que
n
u = α1 u 1 + ⋯ + αn u n = ∑ αi u i
i=1
Exemples 4.
1) Tout polynôme P ∈ Kn [X] est combinaison linéaire des vecteurs 1, X, X 2 , . . . , X n .
2) Dans le C-ev C2 , tout vecteur (z, z ′ ) est combinaison linéaire des vecteurs
(1, 0) et (0, 1) :
(z, z ′ ) = z(1, 0) + z ′ (0, 1).
3) Dans le R-ev C2 , tout vecteur (z, z ′ ) est combinaison linéaire des vecteurs
(1, 0), (0, 1), (i, 0) et (0, i). Si z = x + iy, x, y ∈ R et z ′ = x′ + iy ′ , x′ , y ′ ∈ R,
alors on a :
(z, z ′ ) = x(1, 0) + x′ (0, 1) + y(i, 0) + y ′ (0, i).
Thoérème 1.3.2. Soit {u1 , . . . , un } une famille finie de vecteurs d’un K-ev E.
Alors :
1) L’ensemble F des combinaisons linéaires des vecteurs u1 , . . . , un est un sev
de E.
2) F est le plus petit ( au sens de l’inclusion) sev de E contenant u1 , . . . , un .
Démonstration.
1) On a 0 = 0u1 + ⋯ + 0un ∈ F , donc F ≠ ∅. Soient α ∈ K, u, v ∈ F . alors
∃α1 , . . . , αn ∈ K et ∃β1 , . . . , βn ∈ K tels que u = α1 u1 + ⋯ + αn un et v =
β1 u1 + ⋯ + βn un . On a alors αu + v = (αα1 u1 + ⋯ + ααn un ) + β1 u1 + ⋯ + βn un =
(αα1 + β1 )u1 + ⋯ + (ααn + βn )un ∈ F , par suite F est un sev de E.
2) Soit G un sev de E qui contient la famille {u1, . . . , un }. Puisque G est un
sev de E alors α1 u1 + ⋯ + αn un ∈ G et ceci ∀α1 , . . . , αn ∈ K, donc F ⊆ G.
Définition 1.3.3. Soient E un K-ev et A = {u1 , . . . , un } une famille finie
de vecteurs de E. On appelle sev engendré par A l’ensemble F = {α1 u1 +
⋯ + αn un /α1 , . . . , αn ∈ K} des combinaisons linéaires des vecteurs u1 , . . . , un
(c’est à dire des éléments de A).
On dit aussi que A engendre F (ou une famille génératrice de F ).
Notation 1. On note
F = sev⟨u1 , . . . , un ⟩ = sev⟨A⟩
ou
F = vect⟨u1 , . . . , un ⟩ = vect⟨A⟩
5
Remarque 2. Par convention on pose sev⟨∅⟩ = {0}.
Exemples 5.
1) K n = sev⟨(1, 0, . . . , 0), . . . , (0, . . . , 0, 1)⟩.
2) Kn [X] = sev⟨1, X, X 2 , . . . , X n ⟩.
3) Considérons le R-ev R (chaque réel est à la fois scalaire et vecteur), alors
R = sev⟨d⟩ pour tout réel non nul d.
Thoérème 1.3.4. Soit A une partie quelconque d’un K-ev E. L’ensemble
H = {α1 u1 + ⋯ + αn un /n ∈ N∗ , α1 , . . . , αn ∈ K, u1 , . . . , un ∈ A}
α1 u1 + ⋯ + αn un = 0 ⇒ α1 = ⋯ = αn = 0.
6
Remarques 2.
1) Une famille est libre ssi elle n’est pas liée. Par conséquent, une famille
quelconque est ou bien libre ou bien liée.
2) {u} est libre ssi u ≠ 0.
3) Toute sous-famille d’une famille libre est libre.
4) Toute famille contenant une famille liée est une famille liée. En particu-
lier :
- Une famille qui contient un vecteur nul est une famille liée.
- Une famille qui contient deux vecteurs égaux est une famille liée.
5) La notion de “libre” ou “liée” ne dépends pas de l’ordre dont ses éléments
sont disposés.
Exemples 6.
1) E = R2 : {(1, 0), (0, 1)} et {(1, 2), (3, 1)} sont des familles libres.
2) E = R2 : {(1, −2), (2, 1), (5, 0)} est une famille liée puisque (5, 0) = 2(2, 1)+
(1, −2).
3) E = R2 [X] : {1, X, X 2 } et {2 + 3X, 3X + X 2 , X 2 } sont des familles libres.
Définition 1.4.2. Soit A une partie quelconque d’un K-ev E.
1) On dit que A est liée s’il existe une famille finie d’éléménts de A qui est
liée.
2) On dit que A est libre si elle n’est pas liée. Ce qui revient à dire que toute
sous-famille finie de A est libre.
Exercice 2. Montrer que la famille A = {1, X, X 2 , . . .} du K-ev K[X] est
libre.
7
F + G. Par suite, F + G est un sev de E.
D’autre part, on a ∀u ∈ F : u = u + 0 ∈ F + G, donc F ⊆ F + G. de la même
façon on a G ⊆ F + G. Soit H un sev tel que F ⊆ H et G ⊆ H. De plus si u ∈ F
et v ∈ G, alors u + v ∈ H et ceci montre bien que F + G ⊆ H et donc F + G est
le plus petit sev de E (au sens de l’inclusion) contenant F et G.
Consequences :
a) sev⟨u1 , . . . , um ⟩ = sev⟨u1 ⟩ + ⋯ + sev⟨um ⟩ = Ku1 + ⋯ + Kum
b) Si A est une famille génératrice de F1 et B est une famille génératrice de
F2 , alors A ⋃ B est une famille génératrice de F1 + F2 .
Définition 1.5.4. Soient F et G deux sev d’un K-ev E. On dit que la somme
F + G est directe si tout élément de F + G s’écrit d’une manière unique sous
la forme u + v avec u ∈ F et v ∈ G. Dans ce cas F + G est noté F ⊕ G.
Proposition 1.5.5. Soient F et G deux sev d’un K-ev E. Les propositions
suivantes sont équivalentes :
1. La somme F + G est directe.
2. F ⋂ G = {0}.
3. ∀u ∈ F , ∀v ∈ G : u + v = 0 Ô⇒ u = v = 0.
Démonstration.
1. Ô⇒ 2. : Soit u ∈ F ⋂ G. On a u = u + 0 ∈ F + G et u = 0 + u ∈ F + G, donc
u = 0 et 0 = u, c’est-à-dire, u = 0. Alors F ⋂ G = {0}.
2. Ô⇒ 3. : Soient u ∈ F et v ∈ G. Supposons que u + v = 0. Alors u = −v ∈ G,
donc u ∈ F ⋂ G, Il est clair que nous avons aussi v = 0.
3. Ô⇒ 1. : Soient u, w ∈ F et v, z ∈ G. Supposons que u + v = w + z. On a dans
ce cas (u − w) + (v − z) = 0. Comme u − w ∈ F et v − z ∈ G, alors u − w = 0 et
v − z = 0, et donc u = w et v = z.
8
Définition 1.5.6. Deux sev F et G d’un K-ev E sont dit supplémentaires
dans E si F ⋂ G = {0} (i.e la somme F + G est directe) et E = F + G.
On écrit alors E = F ⊕ G et on dit que E est la somme directe de F et G.
F (resp.G) est dit un supplémentaire de G (resp.F ) dans E.
Exemples 7.
1) On a E = E ⊕ {0}.
2) Soient E = K 2 , F = K × {0}, G = {0} × K. On a E = F ⊕ G. En effet,
∀(x, y) ∈ E on a (x, y) = (x, 0) + (0, y) ∈ F + G. Donc E ⊆ F + G, et puisqu’on
a déjà F + G ⊆ E, on conclut que E = F + G. D’autre part, si (x, y) ∈ F ⋂ G,
alors y = 0 puisque (x, y) ∈ F et x = 0 puisque (x, y) ∈ G. Donc (x, y) = (0, 0),
d’où F ⋂ G = {(0, 0)}. En conclusion, E = F ⊕ G.
Exemples 8.
1) K = sev⟨1⟩ est de dimension finie.
2) Kn = sev⟨e1 , . . . , en ⟩ est de dimension finie, où e1 = (1, 0, . . . , 0), e2 =
(0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1). En particulier, Rn et Cn sont des es-
paces vectoriels de dimensions finies.
3) {0} = sev⟨∅⟩ = sev⟨0⟩ est de dimension finie.
4) Kn [X] = sev⟨1, X, . . . , X n ⟩ est de dimension finie.
9
1.6.2 Bases
Définition 1.6.2. On dit qu’une famille finie B = (u1 , . . . , un ) d’éléments d’un
K-ev E est une base de E si B est une famille libre et génératrice de E.
Remarque 5. Soient (u1 , . . . , un ) une base de E et α1 , . . . , αn une famille de
scalaires non nuls. Alors (α1 u1 , . . . , αn un ) est aussi une base de E.
Exemples 9.
1) {∅} est, par convention, une base de {0}.
2) E = K n , soient e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).
Alors (e1 , . . . , en ) est une base du K-ev E, appelée base canonique (ou stan-
dard) de E.
3) (1, X, . . . , X n ) est une base de Kn [X], appelée base canonique de Kn [X].
Proposition 1.6.3. Soit B = (u1 , . . . , un ) une famille finie d’un K-ev E. Alors
les propriétés suivantes sont équivalentes :
1. B est une base de E.
2. ∀u ∈ E, u s’écrit de manière unique sous la forme : u = α1 u1 + ⋯ +
αn un , α1 , . . . , αn ∈ K.
Démonstration.
1. Ô⇒ 2. : Soit u ∈ E. Comme B est une famille génératrice de E, ∃α1 , . . . , αn ∈
K tels que u = α1 u1 + ⋯ + αn un .
Supposons que u = α1 u1 + ⋯ + αn un et u = β1 u1 + ⋯ + βn un avec α1 , . . . , αn ∈ K
et β1 , . . . , βn ∈ K. On a u − u = (α1 − β1 )u1 + ⋯ + (αn − βn )un = 0, comme B est
une famille libre, on a α1 − β1 = 0, . . . , αn − βn = 0, donc α1 = β1 , . . . , αn = βn .
2. Ô⇒ 1. : Il est clair que 2. entraine que B est une famille génératrice de
E. Soient α1 , . . . , αn ∈ K et supposons que α1 u1 + ⋯ + αn un = 0. Comme
0 = 0u1 + ⋯ + 0un , on a nécessairement α1 = 0, . . . , αn = 0. Ceci entraine que
B est une famille libre et donc c’est une base de E.
Définition 1.6.4. Soit B = (u1 , . . . , un ) une base d’un K-ev E et soit u un
vecteur de E. Les scalaires α1 , . . . , αn tels que u = α1 u1 +⋯+αn un sont appelés
les coordonnées (ou les composantes) de u dans la base B. αi s’appelle la ième
coordonnée (ou composante) de u dans la base B.
Notation 2. On utilise les notations u = (α1 , . . . , αn )B et uB = (α1 , . . . , αn )
pour dire que u = α1 u1 + ⋯ + αn un .
Remarques 3.
1. Si B = (u1 , . . . , un ) est une base de E, alors en changeant l’ordre des
vecteurs ui on aura une autre base de E. C’est pour cette raison qu’on note
souvent les bases avec des parenthèses et non avec des accolades.
Par exemple : B1 = ((1, 0), (0, 1)) et B2 = ((0, 1), (1, 0)) sont deux bases du
10
K-ev K 2 , et on a (x, y) = (x, y)B1 = (y, x)B2 .
2. Ce sont les coordonnées des vecteurs qui dépendent des bases et pas les
vecteurs.
On admet sans démonstration le lemme qui suit.
Lemme 1.6.5. Soit (v1 , . . . , vm ) une famille d’un K-ev E et soit (u1 , . . . , un )
une famille génératrice de E. Si m > n alors (v1 , . . . , vm ) est liée.
On admet sans démonstration le théorème qui suit.
Thoérème 1.6.6. Soit E un K-ev de dimension finie. Alors :
1. De toute famille génératrice de E on peut extraire une base de E.
2. E admet au moins une base.
3. Toutes les bases de E ont le même cardinal.
Remarque 6. Un espace vectoriel peut avoir plusièures bases.
Définition 1.6.7. On appelle dimension de E, et on note dimK (E) ou dim(E),
le cardinal d’une base de E.
Exemples 10.
1) dim({0}) = 0 (∅ est une base de {0}).
2) dim(K) = 1 et dim(K n ) = n.
3) dim(Kn [X]) = n + 1 ((1, X, X 2 , . . . , X n ) est une base de Kn [X]).
4) dimC (C) = 1 et dimR (C) = 2 (car (1, i) est une base du R-espace vectoriel
C).
5) Les sous-espaces vectoriels de dimension 1 sont appelés droites vectorielles
et les sous-espaces vectoriels de dimension 2 sont appelés plans vectorielles.
Thoérème 1.6.8. (Théorème de la base incomplète) Soient E un K-ev de
dimension finie, B une base de E et L = {v1 , . . . , vm } une famille libre. Alors
il existe H ⊆ B ∖ L tel que L ⋃ H est une base de E.
11
On admet sans démonstration le corollaire qui suit
Démonstration.
1. et 3. Découlent du théorème de la base incomplète.
2. et 4. Découlent du fait que toute famille génératrice de E contient une
base de E.
12
Thoérème 1.6.14. (Formule de Grassmann) Soient E un K-ev de dimension
finie et F, G deux sev de E. Alors :
13
Par suite rg(A ∪ A′ ) ⩽ rg(A) + rg(A′ ).
4. Si A′ est libre alors c’est une base de F ′ et donc rg(A′ ) = card(A′ ). D’autre
part, puisque A engendre F , alors A contient une base B de F , et on a donc
rg(A) = dim(F ) = card(B) = rg(B). Si A′ est une partie de A qui est libre,
alors card(A′ ) ≤ card(B) et donc rg(A′ ) ≤ rg(B). Par suite rg(A′ ) ≤ rg(A)
et ceci pour toute partie libre A′ de A. D’où le résultat.
Une autre démonstration : Si A′ est libre et A′ ⊆ A, alors A′ est une famille
libre de F , donc rg(A′ ) ≤ dim(F ) = rg(A). On a de plus A est une famille
génératrice de F , donc A contient une base B de F . On a donc B ⊆ A et
rg(B) = dim(F ) = rg(A). D’où le résultat.
Proposition 1.7.3. Soit A une partie d’un K-ev E de dimension finie. Alors :
1. A est une famille génératrice de E ⇔ rg(A) = dim E.
2. A est une famille libre de E ⇔ rg(A) = card(A)
3. A est une base de E ⇔ rg(A) = card(A) = dim E.
Démonstration. Posons F = sev⟨A⟩.
1. on a
2. On a
14
Chapitre 2
Espaces affines
φ ∶ E × E Ð→ E
Ð
→
(A, B) z→ AB
Ð→
telle que :
2.∀Ω ∈ E, ∀Ð
u ∈ E , ∃!M ∈ E, ΩM = Ð
→ Ð
→ ÐÐ→ →
u
Les éléments de E seront appelés des points et ceux de E 2 seront nommés
bipoints. La dimension de l’espace affine E est par définition celle de l’espace
vectoriel sous-jacent E .
Ð
→
15
Ð
Ð
→Ð→→ Ð
uÐv =→ v −Ð →
u.
Ici, il faut faire bien attention. Sur l’ensemble E, on considère deux struc-
tures différentes : la structure (canonique) d’espace vectoriel et la structure
(canonique) d’espace affine. Ainsi, un élément de l’ensemble E (c’est-à-dire
un n-uplet (x1 , ..., xn ) de nombres réels) peut être considéré tantôt comme
un vecteur, tantôt comme un point : tout dépend de la structure qu’on veut
considérer à ce moment là.
Remarque 8.
Attension : On a défini la somme d’un point et d’un vecteur comme un certain
point : le +, ici, est une notation et n’est pas le + de l’espace vectoriel.
16
Définition 2.3.2. Soient A un point de E et k ∈ R un scalaire non nul. On
appelle homothétie de centre A et de rapport k l’application hk,A de E dans
E définie par hk,A (M) = A + k AM .
ÐÐ→
2) F = A + F = {A + Ð u /Ð
u ∈ F }.
Ð
→ → → Ð
→
Exemples 12.
1. Un point est un sous-espace affine de E de direction {0}.
2. L’ensemble {(x1 , ..., xn ) ∈ Rn /a1 x1 + ... + an xn = b} (a1 , ...an sont des réels
donnés non tous nuls et b un réel quelconque) est un sous-espace affine de
Rn (muni de sa structure canonique d’espace affine).
3. Tout sous espace vectoriel de Rn est un sous-espace affine de l’espace affine
Rn .
17
2.6 PARALLELISME
Définition 2.6.1. Soient F et G deux sous-espaces affines de E. On dit que F
et G sont parallèles s’ils ont même direction, i.e., si on a F = G .
Ð
→ Ð →
H = {(x, y, z) ∈ R3 /x + 2y + z = 3}
18
Définition 2.8.2. On dit que Trois points A, B et C sont alignés, s’ils ap-
partienent à une même droite, et on dit que quatre points A, B, C et D sont
coplanaires s’ils appartienent à un même plan.
Proposition 2.8.3.
1) les points A, B et C sont alignés si et seulement si la famille {AB, AC}
Ð→ Ð→
est liée.
2) les points A, B, C et D sont coplanaires si et seulement si la famille
{AB, AC, AD} est liée.
Ð→ Ð→ Ð→
Remarque 10. Deux points sont toujours alignés, et trois points sont toujours
coplanaires.
2.9 BARYCENTRES
Proposition et Définition 2.9.1. Un point pondéré est un couple (A, λ) avec
A ∈ E et λ ∈ R.
Soit (Ai , λi )1⩽i⩽k avec ∑ki=1 λi ≠ 0 alors il existe un unique G ∈ E, appelé
barycentre de (Ai , λi )1⩽i⩽k , tel que ∑ki=1 λi GAi = 0 .
ÐÐ→ Ð →
Si λ1 = ... = λk , on appelle G l’isobarycentre (ou centre de gravité) des Ai , et
ÐÐ→ Ð →
on a : ∑ki=1 GAi = 0 .
Proposition 2.9.2. le barycentre de (Ai , λi )1⩽i⩽k est caractérisé par
ÐÐ→
Ð→ ∑ki=1 λi OAi
OG = k
.
∑i=1 λi
O est un point quelconque.
Remarque 11. l’isobarycentre de Ai est caractérisé par
ÐÐ→
Ð→ ∑ki=1 OAi
OG = .
k
19
20
Chapitre 3
3.1 Généralités
Définition 3.1.1. Soient E et F deux K-ev et f ∶ E Ð→ F une application.
On dit que f linéaire (ou K-linéaire) si pour tous vecteurs u, v ∈ E et tous
scalaires α, β ∈ K, on a :
Vocabulaire et notations.
● L’ensemble des applications linéaires de E dans F est noté L (E, F ).
● Une application linéaire de E dans E est appelée endomorphisme de E.
● L’ensemble des endomorphismes de E est noté L (E).
● Une application linéaire bijective de E dans F est appelée isomorphisme
de E dans F .
● Un endomorphisme bijectif de E est appelé automorphisme de E.
● L’ensemble des automorphismes de E est noté Gl(E) ou Aut(E).
● Une application linéaire de E dans K est appelée forme linéaire sur E.
Remarque 12. Dans la définition des applications linéaires, on voit claire-
ment que les espaces vectoriels de départ et d’arrivée E et F doivent néces-
sairement être définis sur le même corps K.
Remarque 13. Soient E et F deux K-ev et f ∶ E Ð→ F une application
linéaire. Alors f (0E ) = 0F . En effet, f (0E ) = f (0K .0E ) = 0K .f (0E ) = 0F .
Proposition 3.1.2. Soient E et F deux K-ev et f ∶ E Ð→ F une application.
Alors f est linéaire si et seulement si pour tous vecteurs u, v ∈ E et tout
scalaire α ∈ K, on a :
1. f (u + v) = f (u) + f (v) ;
2. f (αu) = αf (u).
21
Démonstration.
Supposons que f est linéaire. Alors pour avoir 1. il suffit de prendre α = β = 1
dans l’égalité f (αu + βv) = αf (u) + βf (v), et pour avoir 2. il suffit de prendre
β = 0.
Réciproquement, Supposons qu’on a 1. et 2.. Soit u, v ∈ E et α, β ∈ K. On a
alors d’aprés 1. on a f (αu + βv) = αf (u) + f (βv) et d’après 2. on a αf (u) +
f (βv) = αf (u) + βf (v). D’où le résulta.
Démonstration. Facile.
Exemple 1. L’application
f ∶ E Ð→ F
u z→ 0F
idE ∶ E Ð→ E
u z→ u
22
Exemple 3. Soit H un sev de E. L’application
f ∶ H Ð→ E
u z→ u
f ∶ E Ð→ F
u z→ f (u)
f∣H ∶ H Ð→ F
u z→ f (u)
f ∶ H Ð→ G
u z→ f (u)
f ∶ H Ð→ H
u z→ f (u)
hλ ∶ E Ð→ E
u z→ λu
23
Exemple 7. Soientt H et G deux sev de E tels quie E = H ⊕ G.
L’application
p1 ∶ E Ð→ H
u = u1 + u2 z→ u1
et
p2 ∶ E Ð→ G
u = u1 + u2 z→ u2
u1 ∈ H et u2 ∈ G, sont des applications linéaires. p1 est appelée la projection
de E sur H parallèlement à G. p2 est la projection de E sur G parallèlement
à H
Exemple 8. Soit K[X] le K-ev des polynômes. L’application
D ∶ K[X] Ð→ K[X]
P z→ P ′
est un endomorphisme. D est dite l’application dérivée (ou de différentia-
tion).
Voici quelques exemples d’applications non linéaires :
Exemple 9. Soit w un vecteur non nul fixé de E et soit
tw ∶ E Ð→ E
u z→ u + w
la translation de vecteur w. On a tw (0E ) = w donc tw (0E ) ≠ 0E et par suite
tw n’est pas linéaire.
Exemple 10. L’application
f ∶ R2 Ð→ R
(x, y) z→ xy
n’est pas linéaire. En effet, on a f (2(4, 3)) = f (8, 6) = 48 et 2f (4, 3) = 2×12 =
24. Donc f (2(4, 3)) ≠ 2f (4, 3).
Exemple 11. L’application
f ∶ R2 Ð→ R
(x, y) z→ x + y + 1
n’est pas linéaire. En effet, on a f (0, 0) = 1 ≠ 0.
24
3.2 Image directe et Image réciproque d’un sous-
espace vectoriel
Thoérème 3.2.1. Soient E et F deux K-ev et f ∶ E Ð→ F une application
linéaire.
1. Si H est un sev de E, son image directe f (H) = {f (u)/u ∈ H} est un sev
de F .
2. Si T est un sev de F , son image réciproque f −1 (T ) = {u ∈ E/f (u) ∈ T } est
un sev de E.
Démonstration.
1. On a 0E ∈ H, donc f (0E ) = 0F ∈ f (H) et par suite f (H) est non vide.
Soient u, v ∈ f (H) et α ∈ K. Soient u′ , v ′ ∈ H tels que f (u′ ) = u et f (v ′ ) = v.
On a αu + v = αf (u′ ) + f (v ′ ) = f (αu′ + v ′ ). Comme H est un sev de E, alors
αu′ + v ′ ∈ H et donc αu + v ∈ f (H). Par suite f (H) est un sev de F .
2. On a f (0E ) = 0F ∈ T , donc 0E ∈ f −1 (T ) et par suite f −1 (T ) est non vide.
Soient u, v ∈ f −1 (T ) et α ∈ K. On a f (u) ∈ T et f (v) ∈ T . Comme T est un sev
de F , alors αf (u)+f (v) ∈ T , donc f (αu+v) ∈ T , c’est-à-dire, αu+v ∈ f −1 (T ).
Par suite f −1 (T ) est un sev de E.
En particulier on a :
● f (E) est un sev de F .
● f −1 (0F ) est un sev de E.
Définition 3.2.2.
● Le sev f (E) est appelé l’image de f et noté Im(f ).
● Le sev f −1 (0F ) est appelé noyau de f et noté ker(f ).
Remarque 14. L’image réciproque f −1 (A) de A est définie même si l’ap-
plication f n’est pas bijective. Par suite, il ne faut pas confondre l’image
réciproque f −1 (A) de A et l’image de A par f −1 , car peut être f −1 n’existe
pas. Cependant, si f −1 existe, c’est-à-dire si f est bijective, alors on peut
faire la confusion sans problème.
Remarque 15.
● v ∈ f (H) ⇐⇒ ∃u ∈ H ∶ f (u) = v.
● v ∈ Im(f ) ⇐⇒ ∃u ∈ E ∶ f (u) = v.
● u ∈ f −1 (T ) ⇐⇒ ∃v ∈ T ∶ f (u) = v ⇐⇒ f (u) ∈ T .
● u ∈ ker(f ) ⇐⇒ f (u) = 0F .
Proposition 3.2.3. Soient E et F deux K-ev et f ∶ E Ð→ F une application
linéaire. Alors :
1. f est injective si et seulement si ker(f ) = {0E }.
2. f est surjective si et seulement si Im(f ) = F .
25
Démonstration.
1. Supposons que f est injective. On sait que 0E ∈ ker(f ) puisque ker(f )
est un sev de E. Soit u ∈ ker(f ), alors f (u) = 0F , donc f (u) = f (0E ) et
comme f est injective, on a u = 0E . Par suite ker(f ) = {0E }. Réciproquement,
Supposons que ker(f ) = {0E }. Soient u, v ∈ E tels que f (u) = f (v). On a
f (u) − f (v) = 0F , donc f (u − v) ∈ ker(f ) d’où f (u − v) = 0F , alors u − v = 0E ,
c’est-à-dire, u = v. ce qui veut dire que f est injective.
2. On a
Démonstration.
1. Supposons que A = {u1, . . . , un } est une famille libre.
Soient α1 , . . . , αn ∈ K. On a
26
Proposition 3.2.5. Soit f ∶ E Ð→ F une application linéaire et soit A une
partie de E. Alors on a :
1. A est une famille liée de E Ô⇒ f (A) est une famille liée de F .
2. f (A) est une famille libre de F Ô⇒ A est une famille libre de E.
Démonstration.
1. Si A est liée alors il existe une famille finie d’éléments u1 , . . . , un de A
et ∃α1 , . . . , αn ∈ K non tous nuls tels que α1 u1 + ⋯ + αn un = 0E . Puisque
f (α1 u1 + ⋯ + αn un ) = α1 f (u1 ) + ⋯ + αn f (un ), on a α1 f (u1 ) + ⋯ + αn f (un ) = 0F
et donc f (A) est une famille liée de F .
2. N’est autre que la contraposée de 1..
Proposition 3.2.6. Soit f ∶ E Ð→ F une application linéaire et soit H un sev
de E. Si A est une famille génératrice de H alors la famille f (A) engendre
f (H).
Démonstration. On veut montrer que
H = sev⟨A⟩ Ô⇒ f (H) = sev⟨f (A)⟩.
On a A ⊆ H, donc f (A) ⊆ f (H), alors sev⟨f (A)⟩ ⊆ f (H).
Inversement, Soit u ∈ f (H). Alors u = f (v) avec v ∈ H. Comme H est engen-
dré par A, il existe une famille finie d’éléments u1 , . . . , un ∈ A et α1 , . . . , αn ∈ K
tels que que v = α1 u1 +⋯+αn un . Donc u = f (α1 u1 +⋯+αn un ) = α1 f (u1 )+⋯+
αn f (un ), ce qui veut dire que u est une combinaison linéaire finie d’éléments
de f (A). Par suite u ∈ sev⟨f (A)⟩ et donc f (H) ⊆ sev⟨f (A)⟩. En conclusion,
f (H) = sev⟨f (A)⟩.
Corollaire 3.2.7. Soit f ∶ E Ð→ F une application linéaire et soit A une
famille génératrice de E. Alors Im(f ) = sev⟨f (A)⟩.
Démonstration. D’après la proposition 3.2.6 on a f (E) = sev⟨f (A)⟩. Or
f (E) = Im(f ), donc Im(f ) = sev⟨f (A)⟩.
Corollaire 3.2.8. Soit f ∶ E Ð→ F une application linéaire surjective et soit
A une famille génératrice de E. Alors f (A) est une famille génératrice de F .
Démonstration. Il suffit d’appliquer le corollaire 3.2.7 et d’utliser le fait que
f est surjective signifie que Im(f ) = F .
On admet sans démonstration le théoràme suivant.
Thoérème 3.2.9. Soient f ∶ E Ð→ F une application linéaire et B une base
de E. Alors On a les équivalences suivantes :
1. f est injective ⇐⇒ f (B) est libre dans F .
2. f est surjective ⇐⇒ f (B) engendre F .
3. f est bijective ⇐⇒ f (B) est une base de F .
27
3.3 Structure des endomorphismes
Proposition 3.3.1. Soient E et F deux K-ev. Alors L (E, F ) muni des lois :
∀f, g ∈ L (E, F ), ∀u ∈ E, ∀α ∈ K
et
(αf )(u) = αf (u)
est un K-ev.
Démonstration.
28
1. Soit α ∈ K et u, v ∈ E. On a
(g ○ f )(αu + v) = g ○ f (αu + v)
= g(f (αu + v))
= g(αf (u) + f (v)) car f est linéaire
= αg(f (u)) + g(f (v)) car g est linéaire
= α(g ○ f )(u) + (g ○ f )(v).
(h ○ (f + g))(u) = h ○ (f + g)(u)
= h((f + g)(u))
= h(f (u) + g(u))
= h(f (u)) + h(g(u)) car h est linéaire
= h ○ f (u) + h ○ g(u)
= (h ○ f + h ○ g)(u).
Donc h ○ (f + g) = h ○ f + h ○ g.
(ii) Cette égalité est vraie même pour des applications qui ne sont pas li-
néaires, et sa preuve est évidente.
(iii) On a
29
3.4 Applications linéaires en dimension finie
Proposition 3.4.1. Soient E et F deux espaces vectoriels de dimensions finies
et soit f ∶ E Ð→ F une application linéaire. Alors :
1. f est injective Ô⇒ dim(E) ≤ dim(F ).
2. f est surjective Ô⇒ dim(F ) ≤ dim(E).
3. f est bijective Ô⇒ dim(E) = dim(F ).
Démonstration.
1. Soit B une base de E. f est injective entraine que f (B) est une famille
libre de F et par suite card(f (B)) ≤ dim(F ), or card(f (B)) = card(B) car
f est injective. Donc dim(E) ≤ dim(F ).
2. Soit B une base de E. f est surjective entraine que f (B) est une fa-
mille génératrice de F et par suite card(f (B)) ≥ dim(F ). Puisque card(B) ≥
card(f (B)), alors dim(E) ≥ dim(F ).
2. Découle de 1. et 2..
Remarque 16. Soient C et D deux ensembles quelconques et f ∶ C Ð→ D une
application. Soit A une partie quelconque de C. Alors on a :
1. card(f (A)) ≤ card(A).
2. Si f est injective alors card(f (A)) = card(A).
Remarque 17. Soient E et F deux espaces vectoriels de dimensions finies et
soit f ∶ E Ð→ F une application linéaire. Les contraposées des propositions
1., 2. et 3. de la proposition 3.4.1 s’écrivent :
1. dim(E) > dim(F ) Ô⇒ f n’est pas injective.
2. dim(E) < dim(F ) Ô⇒ f n’est pas surjective.
3. dim(E) ≠ dim(F ) Ô⇒ f n’est pas bijective.
Dans le cas particuler où E et F ont même dimension, on obtient le
résultat suivant :
Proposition 3.4.2. Soient E et F deux K-ev de dimensions finies et soit
f ∶ E Ð→ F une application linéaire. On suppose que dim(E) = dim(F ).
Alors les conditions suivantes sont équivalentes :
1. f est injective.
2. f est surjective.
3. f est bijective.
Démonstration.
1. ⇐⇒ 3. Supposons que f est injective et soit B une base de E. Alors f (B)
est une famille libre de F qui engendre Im(f ). Ce qui signifie que f (B) est une
base de Im(f ), donc dim(Im(f )) = card(f (B)), or card(f (B)) = card(B)
car f est injective. Donc dim(Im(f )) = dim(E), alors dim(Im(f )) = dim(F ).
30
Comme Im(f ) est un sev de F , on a Im(f ) = F , c’est-à-dire, f est surjective
et par suite bijective.
2. ⇐⇒ 3. Supposons que f est surjective et soit B une base de E. Alors
f (B) est une famille génératrice de F , donc dim(F ) ≤ card(f (B)). Comme
card(f (B)) ≤ card(B) = dim(E) = dim(F ), alors card(f (B)) ≤ dim(F ), il
s’ensuit que card(f (B)) = dim(F ). Par suite f (B) est une base de F et donc
d’après le théorème 5.2.1, on a f est bijective.
Remarque 18. La proposition 3.4.2 ne reste pas valable on dimension infinie.
Par exemple l’endomorphisme dérivé D ∶ R[X] Ð→ R[X] est surjectif mais
n’est pas injectif.
On a le corollaire suivant :
Corollaire 3.4.3. Soit f un endomorphisme d’un espace vectoriel de dimen-
sion finie E. Alors
31
3. Si f est injectif alors rg(f ○ g) = rg(g).
4. Si g est surjectif alors rg(f ○ g) = rg(f ).
Démonstration. Voir TD.
Le théorème suivant montre qu’une application linéaire est complètement
déterminée par les données des images des éléments d’une base.
Thoérème 3.4.6. Soient E et F deux K-ev et B = {u1 , . . . , un } une base de E.
Soient v1 , . . . , vn n vecteurs quelconque de F . Alors il existe alors une unique
application linéaire f ∶ E Ð→ F telle que
f (u1 ) = v1 , . . . , f (un ) = vn .
Démonstration. Existence de f : Soit v ∈ E. Puisque B est une base de E,
le vecteur v s’écrit de façon unique sous la forme v = α1 u1 + ⋯ + αn un où
α1 , . . . , αn ∈ K. On pose alors f (v) = α1 v1 + ⋯ + αn vn . IL est clair que f est
bien définie et ceci est dû à l’unicité des scalaires α1 , . . . , αn . Montrons que
f est linéaire. Pour cela soit v = α1 u1 + ⋯ + αn un ey w = β1 u1 + ⋯ + βn un deux
vecteurs de E et soit λ ∈ K. On a
λv + w = (λα1 + β1 )u1 + ⋯ + (λαn + βn )un ,
donc
f (λv + w) = (λα1 + β1 )v1 + ⋯ + (λαn + βn )vn
= λ(α1 v1 + ⋯ + αn vn ) + (β1 v1 + ⋯ + βn vn )
= λf (v) + f (w).
En conclusion, f est linéaire. De plus il est clair que f (u1 ) = v1 , . . . , f (un ) =
vn .
Unicité de f : Soit g ∶ E Ð→ F une application linéaire telle que
g(u1) = v1 , . . . , g(un ) = vn .
On a (f − g)(u1 ) = 0F , . . . , (f − g)(un ) = 0F , donc (f − g)(B) = {0F }, alors
Im(f − g) = sev⟨{0F }⟩ = {0F }, d’où (f − g)(u) = 0F , ∀u ∈ E. Par suite
f = g.
Remarque 19.
1. Le théorème précédent fournit un outil important pour construire des ap-
plications linéaires
2. Dans le théorème précédent, On peut remplacer une base de E par une
famille génératrice de E. Dans ce cas, on a l’unicité si on a l’existence.
3. Le théorème précédent reste valable même si E n’est pas de dimension
finie.
32
On a les deux corollaires suivants qui sont des conséquences immédiates
du théorème 3.4.6.
Corollaire 3.4.7. Soient f ∶ E Ð→ F et g ∶ E Ð→ F deux applications linéaires
et B = {u1, . . . , un } une base de E. Alors
f = g ⇐⇒ f (u1 ) = g(u1 ), . . . , f (un ) = g(un ).
Corollaire 3.4.8. Soient f ∶ E Ð→ F une applications linéaires et B = {u1 , . . . , un }
une base de E. Alors
f est identiquement nulle ⇐⇒ f (u1 ) = ⋯ = f (un ) = 0F .
Exercice 6. Démontrer le théorème 3.4.6 en utilisant les projections pi ∶ E Ð→
kui .
Exemple 15. On considère les C-ev C2 et C3 . Déterminer l’unique applica-
tion linéaire Déterminer l’unique application f ∶ C2 Ð→ C3 telle que
f (1, 0) = (i, −1, 1), f (0, 1) = (1, 0, i)
Comme {(1, 0), (0, 1)} est une base de C2 , le théorème 3.4.6 assure l’existence
et l’unicité de l’application f . Soit u = (x, y) ∈ C2 . On a u = x(1, 0) + y(0, 1),
donc f (u) = x(i, −1, 1) + y(1, 0, i) = (xi + y, −x, x + yi). Par suite f est défini
par
f (x, y) = (xi + y, −x, x + yi)
3.5 Isomorphismes
Soient E et F deux K-espaces vectoriels. On dit que E et F sont iso-
morphes s’il existe un isomorphisme f ∶ E Ð→ F . on écrit dans ce cas E ≃ F .
Thoérème 3.5.1. Soit E un K-espace vectoriel non nul de dimension finie.
Alors on a
dim(E) = n ⇐⇒ E ≃ K n
Démonstration.
Ô⇒) Supposons que dim(E) = n et soit B = {u1 , . . . , un } une base de
E. Soit C = {e1 , . . . , en } une base quelconque de K n . On sait d’après le
théorème 3.4.6 qu’il existe une application linéaire f ∶ E Ð→ K n telle que
f (u1 ) = e1 , . . . , f (un ) = en . Puisque f (B) = C, alors f (B) est une base de
K n . Donc d’après la proposition 3.4.2, f est un isomorphisme, d’où E ≃ K n .
⇐Ô) Supposons que E ≃ K n . Soit B une base de E. Alors d’après la pro-
position 3.4.2, f (B) est une base de K n . Donc card(f (B)) = dim(K n ) = n.
Comme card(B) = card(f (B)), alors dim(E) = n.
33
Comme conséquence, nous avons le corollaire suivant :
Corollaire 3.5.2. Soient E et F deux K-espaces vectoriels de dimensions
finies. Alors on a
dim(E) = dim(F ) ⇐⇒ E ≃ F
Démonstration. On suppose que E et F sont tous les deux non nuls (dans
le cas contraire, le résultat est évident). Posons n = dim(E), alors d’apès le
théorème 3.5.1 on a E ≃ K n .
Si dim(E) = dim(F ) alors F ≃ K n et donc par transitivité E ≃ F . Réci-
proquement, Si E ≃ F , alors F ≃ K n et donc d’apès le théorème 3.5.1 on a
dim(F ) = n. D’où le résultat.
Exercice 7. Monter que l’application
f ∶ R2 Ð→ C
(x, y) z→ x + iy
34
Chapitre 4
Matrices
4.1 Généralités
Définition 4.1.1. Soient n et m deux entiers naturels non nuls. On appelle
matrice d’ordre (ou de type, ou de taille) n×m à coefficient dans K un tableau
de scalaires à n lignes et m colonnes de la forme
où les aij ∈ K s’appellent les coefficients (ou les éléments) de la matrice A.
Si n = m on dit que A est une matrice carrée d’ordre n.
Notations 1.
1. On note par Mn,m (K) l’ensemble des matrices d’ordre n×m à coefficients
dans K.
2. On note par Mn (K) l’ensemble des matrices carrées d’ordre n à coeffi-
cients dans K.
3. La matrice A pourra être écrite de façon abrégée :
35
la ligne et le second indice j au numéro de la colonne. Ainsi le coefficient aij
est situé à l’intersection de la ligne numéro i avec la colonne numéro j.
5. Parfois on note Aij le coefficient aij de la matrice A.
6. On note par Li (A) la ligne i de A et Cj (A) la colonne j de A. Avec ces
notations on a
⎛ L1 (A) ⎞
⎜ L (A) ⎟
A=⎜ 2 ⎟
⎜ ⋮ ⎟
⎝Ln (A)⎠
et
A = (C1 (A) C2 (A) . . . Cm (A))
Encore quelques définitions et notations :
• La diagonale d’une matrice carrée A = (aij )1≤i,j≤n est constituée des
éléments situés sur la diagonale de la matrice A. Les éléments a11 , . . . , ann
de la diagonale de A sont dits les coefficients diagonaux.
Soit
⎛ 1 √0 2⎞
A=⎜2 3 4⎟ ,
⎝−1 4 7⎠
√
les oefficients diagonaux de A sont 1, 3 et 7.
• On appelle matrice colonne toute matrice d’ordre n × 1. On dit aussi
que c’est un vecteur colonne et elle de la forme
⎛ a1 ⎞
⎜ a2 ⎟
⎜ ⎟
⎜⋮⎟
⎝an ⎠
(a1 a2 . . . an )
⎛a1 0 ⋯ 0 ⎞
⎜ 0 a2 ⋱ ⋮ ⎟
A=⎜ ⎟
⎜ ⋮ ⋱ ⋱ 0⎟
⎝ 0 ⋯ 0 an ⎠
36
On la note A = diag(a1 , . . . , an ).
⎛1 √0 0⎞
A = ⎜0 2 0⎟ ,
⎝0 0 3 ⎠
⎛ i 0 0⎞
A = ⎜0 i 0 ⎟ ,
⎝0 0 i ⎠
est une matrice scalaire.
• La matrice d’ordre n × m dont tous les coefficients sont des zéros est
appelée la matrice nulle et est notée 0n,m . Donc la matrice 0n est la
matrice scalaire d’ordre n : 0n = diag(0, . . . , 0).
⎛0 0⎞
03,2 = ⎜0 0⎟ ,
⎝0 0⎠
⎛0 0 0⎞
03 = ⎜0 0 0⎟ ,
⎝0 0 0⎠
• Une matrice triangulaire supérieure est une matrice carrée A = (aij )1≤i,j≤n
telle que aij = 0 si i > j, donc A est de la forme
⎛1 √0 5⎞
A = ⎜0 2 −1⎟ ,
⎝0 0 3⎠
est une matrice triangulaire supérieure.
37
• Une matrice triangulaire inférieure est une matrice carrée A = (aij )1≤i,j≤n
telle que aij = 0 si i < j, donc A est de la forme
⎛ a11 0 ⋯ 0 ⎞
⎜ a21 a22 ⋮ ⎟
⎜ ⎟
⋱
⎜ ⋮ ⋱ ⋱ 0 ⎟
⎝an1 ⋯ ann−1 ann ⎠
⎛1 √0 0⎞
A = ⎜2 2 0 ⎟,
⎝4 0 −7⎠
Remarques 5.
1. Si A = (aij ) 1≤i≤n alors AT = (bji )1≤j≤m avec bji = aij .
1≤j≤m 1≤i≤n
2. Si A est d’ordre n × m alors AT est d’ordre m × n.
3. Si A est une matrice carrée d’ordre n alors AT est aussi une matrice car-
rée d’ordre n.
4. On a Li (A) = Ci (AT et Li (AT ) = Ci (A).
5. Le transposée d’une matrice triangulaire supérieure est une matrice trian-
gulaire inférieure.
6. Le transposée d’une matrice triangulaire inférieure est une matrice trian-
gulaire supérieure.
Exemples 13.
⎛1 5 ⎞
1.Soit A = ( ) alors A = ⎜2 7 ⎟.
1 2 3 T
5 7 6 ⎝3 6 ⎠
2. In = In , 0n = 0n et 0n,m = 0m,n .
T T T
3 (αA)T = αAT .
4. Si A est une matrice scalaire alors AT = A.
5. On peut avoir AT = A sans que soit une matrice scalaire. En effet, consi-
dérons la matrice
⎛1 2 3 ⎞
A = ⎜2 7 6 ⎟
⎝3 6 7 ⎠
38
6. On peut avoir AT = −A. Par exemple
⎛ 0 2 −3⎞
A = ⎜−2 0 6 ⎟
⎝ 3 −6 0 ⎠
On a
⎛ 0 −2 3 ⎞ ⎛ 0 2 −3⎞
A =
T
⎜ 2 0 −6 ⎟ = − ⎜−2 0 6 ⎟ = −A
⎝−3 6 0 ⎠ ⎝ 3 −6 0 ⎠
√
A=( ) et B = ( )
1 2 3 −1 2 3
1
5 −2 6 1 3 3
alors
√
2A = ( ) et A + B = ( )
2 4 6 0 2+ 2 6
−5
10 −4 12 6 3 9
39
4.3 Produit matriciel
Si A = (aij ) 1≤i≤n et B = (Bij )1≤i≤m , alors, par définition, AB = C où
C = (cij )1≤i≤n avec
1≤j≤m 1≤j≤p
1≤j≤p
⎛ b1j ⎞
cij = (ai1 . . . aim ) ⎜ ⋮ ⎟
⎝bmj ⎠
=ai1 b1j + ⋯ + aik bkj + ⋯ + aim bmj
m
= ∑ aik bkj .
k=1
Remarques 6.
1. Le produit de deux matrice n’est défini que si le nombre de colonnes de la
première matrice est égal au nombre de lignes de la deuxième matrice et le
produit d’une matrice d’ordre n × m par une matrice d’ordre m × p est une
matrice d’ordre n × p.
2. En particulier :
● Si A est d’ordre n × m et B est d’ordre m × n, alors AB est une matrice
carrée d’ordre n.
● Si A est d’ordre n × m et B est une matrice colonne d’ordre m × 1, alors
AB est une matrice colonne d’ordre n × 1.
● Si A est une matrice ligne d’ordre 1 × m et B est d’ordre m × n, alors AB
est une matrice ligne d’ordre 1 × n.
Exemples 15.
1.
⎛ 0 1 −1⎞ ⎛ 1 ⎞ ⎛−3⎞
⎜ 2 −2 0 ⎟ ⎜−1⎟ = ⎜ 4 ⎟
⎝−1 4 5 ⎠ ⎝ 2 ⎠ ⎝ 5 ⎠
2.
⎛ 1 3 −1⎞
(2 −1 4) ⎜ 2 −2 0 ⎟ = (−4 24 18)
⎝−1 4 5 ⎠
3.
⎛1⎞
(2 −1 4) ⎜2⎟ = (12)
⎝3⎠
40
4.
⎛1⎞ ⎛2 −1 4 ⎞
⎜2⎟ (2 −1 4) = ⎜4 −2 8 ⎟
⎝3⎠ ⎝6 −3 12⎠
5.
⎛ 1 3 −1⎞ ⎛1⎞ ⎛1⎞
(2 −1 4) ⎜ 2 −2 0 ⎟ ⎜2⎟ = (−4 24 18) ⎜2⎟ = (106)
⎝−1 4 5 ⎠ ⎝3⎠ ⎝3⎠
A=( ) et B = ( )
−1 3 1 3
2 −2 2 −2
On a
A × B = AB = ( )
5 −9
−2 10
BA = ( )
5 −3
−2 10
On a alors AB ≠ BA.
Remarque 21. Le produit de deux matrices non nulles peut être nul, c’est-à-
dire,
AB = 0 ⇏ A = 0 ou B = 0.
En effet considérons
A=( ) et B = ( )
−1 1 1 1
−1 1 1 1
41
On a
AB = ( )
0 0
0 0
On a alors AB = 0.
Remarque 22. Soit A et B deux matrices carrées de même ordre. Alors
(A + B)2 = A2 + AB + BA + B 2
(A − B)2 = A2 − AB − BA + B 2
(A + B)(A − B) = A2 − AB + BA − B 2
En général on n’a pas (A+B)2 = A2 +2AB +B 2 , mais d’après la remarque
précédente, si on suppose que A et B commutent, c’est-à-dire, AB = BA,
alors on a l’identité (A + B)2 = A2 + 2AB + B 2 . D’une façon général on le
Résultat suivant dit formule de binôme de Newton :
Proposition 4.3.2. Soient A, B ∈ Mn (K). On suppose que AB = BA. Alors
pour tout p ∈ N on a
An = A × A × ⋯ × A
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶
n fois
42
Exercice 9. Montrer que (An )m = Anm et An Am = An+m .
Exercice 10.
√1 , . . . , am ) une matrice diagonale. Montrer A = diag(a1 , . . . , am ).
1. Soit A = diag(a n n n
⎛ 3 √0 1 ⎞ ⎛0 0 1⎞
2. Soient B = ⎜ 0 3 √1 ⎟ et N = ⎜0 0 1⎟.
⎝ 0 ⎠ ⎝0 0 0⎠
√
0 3
(i) Montrer que N 2 = 0 et que B − N = 3I3 . √ √
√ Déterminer B en remarquons que B = 3I3 + N et N × ( 3I3 ) =
(ii) n
( 3I3 ) × N.
Définition 4.3.4. Une matrice carrée A de Mn (K) est dite inversible, s’il
existe une matrice B ∈ Mn (K) telle que
AB = In et BA = In .
On dit que B est l’inverse de A et on la note A−1 .
Remarque 24. Une matrice carrée non inversible est dite singulière.
Propriétés 3. Soient A, B ∈ Mn (K). Alors on a les
1. Montrer que l’inverse de A s’il existe elle est unique.
2. Montrer que (A−1 )−1 = A et que In−1 = In .
2. Montrer que AB = In ⇐⇒ BA = In .
3. Montrer que si A et B sont inversible alors la matrice AB est inversible
et on a (AB)−1 = B −1 A−1 .
4. Montrer que si A est inversible alors la matrice AT est inversible et on a
(AT )−1 = (A−1 )T .
5. Montrer que si A est inversible alors la matrice Am est inversible pour
tout m ∈ N et on a (Am )−1 = (A−1 )m .
Démonstration. Voir la fiche d’exercices N°3.
43
On vérifie facilement que que le système (S) peut être présenté sous la forme
matricielle suivante
AX = B
où
⎛a1,1 a1,2 ⋯ a1,n ⎞ ⎛ x1 ⎞ ⎛b1 ⎞
⎜a ⋯ a2,n ⎟ ⎜x ⎟ ⎜b ⎟
A = ⎜ 2,1 2,2 ⎟, X = ⎜ 2⎟ et B = ⎜ 2 ⎟ .
a
⎜ ⋮ ⋮ ⋯ ⋮ ⎟ ⎜ ⋮ ⎟ ⎜⋮⎟
⎝ap,1 ap,2 ⋯ ap,n ⎠ ⎝xn ⎠ ⎝ bb ⎠
On remarque que A est la matrice des coefficients du système (S) et B son
second membre.
Par exemple, considérons le système suivant
(S) {
2x − 3y + 5z = 1
3x + 2z = 4
Posons
⎛x⎞
A=( ), X = ⎜y ⎟ et B = ( )
2 −3 5 1
3 0 2 ⎝z ⎠ 4
On a
AX == ( )
2x − 3y + 5z
3x + 2z
et donc
2x − 3y + 5z = 1
AX = B ⇐⇒ { ⇐⇒ (x, y, z) ∈ S.
3x + 2z = 4
44
et donc
(x1 , . . . , xn ) ∈ S ⇐⇒ (y1 , . . . , yn ) ∈ H.
Comme application de ces résultats on a la proposition suivante
Proposition 4.4.1. Soit A une matrice inversible d’ordre n et soit (S) le
système d’équation dont l’écriture matricielle est AX = Y . La resolution
du système (S) donne naissance à une matrice carrée B d’ordre n telle que
BY = X. La matrice B ainsi obtenue est l’inverse de A, c’est-à-dire B = A−1 .
Exemple 16. Soit la matrice
⎛ 1 2 −2⎞
A = ⎜−1 3 0 ⎟
⎝ 0 −2 1 ⎠
Montrer que A est inversible et calculer son inverse.
Soient
⎛x1 ⎞ ⎛y 1 ⎞
X = ⎜x2 ⎟ et Y = ⎜y2 ⎟
⎝x3 ⎠ ⎝y 3 ⎠
On a
⎛ 1 2 −2⎞ ⎛x1 ⎞ ⎛y1 ⎞
AX = Y ⇐⇒ ⎜−1 3 0 ⎟ ⎜x2 ⎟ = ⎜y2 ⎟
⎝ 0 −2 1 ⎠ ⎝x3 ⎠ ⎝y3 ⎠
⎧
⎪
⎪
⎪ 1
x + 2x2 −2x3 = y1
⇐⇒(S) ⎨ −x1 + 3x2 = y2
⎪
⎪
⎪
⎩ −2x2 +x3 = y3
On résout le système (S), on obtient que (S) est un système de Cramer
et donc A est une matrice inversible. On trouve x1 = 3y1 + 2y2 + 6y3 , x2 =
y1 + y2 + 2y3 et x3 = 2y1 + 2y2 + 5y3 . On obtient alors le nouveau système
⎧
suivant
⎪
⎪ 3y1 + 2y2 + 6y3 = x1
⎪
⎨ y1 + y2 + 2y3 = x2
⎪
⎪
⎪
⎩ 2y1 + 2y2 + 5y3 = x3
Ce dernier système peut s’écrire matriciellement
⎛3 2 6⎞ ⎛y1 ⎞ ⎛x1 ⎞
⎜1 1 2⎟ ⎜y2 ⎟ = ⎜x2 ⎟
⎝2 2 5⎠ ⎝y3 ⎠ ⎝x3 ⎠
La matrice inverse de A est donc
⎛3 2 6⎞
A−1 = ⎜1 1 2⎟ .
⎝2 2 5⎠
45
4.5 Matrices d’applications linéaires
4.5.1 Matrice d’une famille de vecteurs
Soit E une espace vectoriel et soit B = (u1 , . . . , un ) une base de E. Soit
v un vecteur de E et considérons les coordonnées de v dans la base B, vB =
(a1 , . . . , an ). On appelle matrice du vecteur v dans la base B, la matrice
colonne MatB (v) = vBT , c’est-à-dire,
⎛ a1 ⎞
MatB (v) = ⎜ ⋮ ⎟
⎝an ⎠
⎛−1 4 0 0⎞
MatB (P1 , P3 , P4 , P5 ) = ⎜ 0 −1 5 0⎟
⎝ 3 0 3 0⎠
46
Par suite,
MatB,B′ (f ) = MatB′ (f (u1 ), . . . , f (un )).
Notation 4. Si E = F et B = B ′ , la matrice MatB,B (f ) est notée tout
simplement MatB (f ).
On admet sans démonstration le résultat suivant.
Proposition 4.5.2. Soit w un vecteur quelconque de E. Alors
Exemple 18.
1. On considère l’application identique de E. On a
idE (u1 )B = (1, 0 . . . , 0), idE (u2 )B = (0, 1, 0 . . . , 0), . . . , idE (un )B = (0, . . . , 0, 1).
47
de F . Soit f ∶ E Ð→ F l’application linéaire définie par f (x, y, z) = (x + 2y +
3z, x + y − 3z).
on a f (1, 0, 0) = (1, 1), f (0, 1, 0) = (2, 1) et f (0, 0, 1) = (3, −3), alors
MatB,B′ (f ) = ( )
1 2 3
1 1 −3
1 2 3 ⎛ ⎞
x
On a ( ) ⎜y ⎟ = ( ).
x + 2y + 3z
1 1 −3 ⎝ ⎠ x + y − 3z
z
Pousons u = (x, y), alors MatB′ (f (u)) = MatB,B′ (f )MatB (u).
3. Soient E = K4 [X] et F = K2 [X] et soient B et B ′ les bases canoniques √ de
√
E et de F . Soit f ∶ E Ð→ F l’application linéaire√définie par f (P )
√ 3P .
= ′′
donc√f (1)B′ = (0, 0, 0), f (X)B′ = (0, 0, 0), f (X )B′ = (2 3, 0, 0), f (X )B′ =
2 3
(0, 6 3, 0), √
f (X 4 )B′ = (0, 0, 12 3).
√
⎛0 0 2 3 √ 0 0 ⎞
MatB,B′ (f ) = ⎜0 0 0 6 3 0√ ⎟
⎝0 0 0 0 12 3⎠
Considérons P = 2X 4 + X 3 − X 2 + 3X + 5 Déterminer P ′′ .
On a PB = (5, 3, −1, 1, 2). Alors
√
MatB′ (P ”) = √ MatB′ ( 3P ”) = √ MatB′ (f (P ))
1 1
3 3
⎛5⎞
⎛0 0 2 0 0 ⎞ ⎜ ⎜3⎟
⎟
= ⎜0 0 0 6 0 ⎟ ⎜ ⎜−1⎟
⎟
⎝0 0 0 0 12⎠ ⎜ ⎜1⎟
⎟
⎝2⎠
⎛−2⎞
=⎜6⎟
⎝ 24 ⎠
48
l’application linéaire définie par f (x, y, z) = (x − 2y + z, y − 3z, 2x + y + z).
on a f (e1 ) = (1, 0, 2), f (e2 ) = (−2, 1, 1) et f (e3 ) = (1, −3, 1), alors
⎛1 −2 1 ⎞
MatB (f ) = ⎜0 1 −3⎟ .
⎝2 1 1 ⎠
On a
v1 = e1 + e2 + e3 , donc
f (v1 ) = f (e1 ) + f (e2 ) + f (e3 ) = (1, 0, 2) + (−2, 1, 1) + (1, −3, 1) = (0, −2, 4)
⎛ 0 −1 1⎞
MatB′ ,B (f ) = ⎜−2 1 0⎟ .
⎝ 4 3 2⎠
On a
(0, −2, 4) = av1 + bv2 + cv3 ⇐⇒(a + b + c, a + b, a) = (0, −2, 4)
⇐⇒a = 4, b = −6, c = 2
⇐⇒f (v1 )B′ = (4, −6, 2)
49
(1, −3, 1) = av1 + bv2 + cv3 ⇐⇒(a + b + c, a + b, a) = (1, −3, 1)
⇐⇒a = 1, b = −4, c = 4
⇐⇒f (e3 )B′ = (1, −4, 4)
Donc
⎛2 1 1⎞
MatB,B′ (f ) = ⎜−2 0 −4⎟ .
⎝ 1 −3 4 ⎠
Démonstration. Voir TD
2.
MatB (g) = In ⇐⇒ g = idE
Proposition 4.5.4. Soient G un K-ev et B ′′ = (w1 , . . . , wq ) une base de G.
Soit g ∶ F Ð→ G une application linéaire. Alors
50
Proposition 4.5.5. On suppose que n = m, c’est-à-dire, dim(E) = dim(F ).
Alors
L’application f est bijective si et seulement si MatB,B′ (f ) est inversible. Dans
ce cas on
MatB′ ,B (f −1 ) = MatB,B′ (f )−1 .
Démonstration. Si f est bijective, alors on a f ○ f −1 = idF et f −1 ○ f = idE ,
donc MatB′ (f ○ f −1 ) = In et MatB (f −1 ○ f ) = In . Par suite MatB,B′ (f ) ×
MatB′ ,B (f −1 ) = MatB′ ,B (f −1 ) × MatB,B′ (f ) = In . Donc MatB,B′ (f ) est inver-
sible et on a
MatB′ ,B (f −1 ) = MatB,B′ (f )−1 .
Réciproquement, supposons que la matrice MatB,B′ (f ) est inversible. Puisque
MatB,B′ (f )−1 ∈ Mn,m (K), alors d’après la proposition 4.5.3, ∃g ∈ L (F, E)
telle que MatB′ ,B (g) = MatB,B′ (f )−1 . On a
donc
MatB (g ○ f ) = In
alors g ○ f = idE . De la même façon on montre que f ○ g = idF . En conclusion,
g = f −1 et donc f est inversible.
Corollaire 4.5.6. Soient g et f deux endomorphismes de E. Alors
1.
MatB (g ○ f ) = MatB (g) × MatB (f )
MatB (B ′ ) = ( )
3
2 1
−1 1
51
Thoérème 4.6.2. On a les résultats suivants :
1. MatB (B ′ ) est une matrice carrée d’ordre n.
2. MatB (B ′ ) = MatB′ ,B (idE ).
3. MatB (B ′ ) est inversible et on a MatB (B ′ )−1 = MatB′ (B).
Démonstration.
1. On sait que MatB (B ′ ) est une matrice d’ordre s × t où s = card(B) et t =
card(B ′ ). Puisque card(B) = card(B ′ ) = n, alors MatB (B ′ ) est une matrice
carrée d’ordre n.
2. On considère idE de E muni de B ′ dans E muni de B :
E ) =
Donc MatB′ ,B (idE ) est inversible et on a MatB′ ,B (idE )−1 = MatB,B′ (id−1
MatB,B′ (idE ). D’où le résultat.
Proposition 4.6.3. Soit w ∈ E. Soient MatB (w) la matrice colonne des coor-
données de w dans la base B et MatB′ (w) la matrice colonne des coordonnées
de w dans la base B ′ . Alors
On a
MatB,B′ (idE )MatB (w) = MatB′ (idE (w)).
Donc
MatB′ (B)MatB (w) = MatB′ (w).
52
Exemple 20. Dans E = R2 soit B = (e1 , e2 ) la base canonique. Considérons
la base B ′ = (v1 , v2 ) où v1 = e1 − 2e2 , v2 = 3e1 + e2 .
1. On a
MatB (B ′ ) = ( ).
1 3
−2 1
2. On a e1 = 71 v1 + 27 v2 et e2 = −3
7 v1 + 71 v2 . Donc
MatB′ (B) = ( ).
1 1 −3
7 2 1
Alors
MatB′ (w) = ( )( ) = ( ).
1 1 −3 3 1 −12
7 2 1 5 7 11
Par suite, w = −12
7 v1 + 11
7 v2 .
(E, B) (F, B ′ )
f
/
idE ↺ idF
(E, C) (F, C ′ )
f
/
et
Donc
MatC,C ′ (f ) × MatC (B) = MatC ′ (B ′ ) × MatB,B′ (f )
53
alors
MatC,C ′ (f ) = MatC ′ (B ′ ) × MatB,B′ (f ) × MatC (B)−1
ou
MatC,C ′ (f ) = MatB′ (C ′ )−1 × MatB,B′ (f ) × MatB (C).
MatB (f ) = ( ).
3 1
2 0
On a
MatB (B ′ ) = ( )
1 3
−2 1
et
MatB′ (B) = ( ).
1 1 −3
7 2 1
On a
MatB′ (f ) = ( )( )( ).
1 1 −3 3 1 1 3
7 2 1 2 0 −2 1
54
Démonstration. L’application
55
56
Chapitre 5
Déterminants de matrices et
applications
det ∶ Mn (K) Ð→ K
m=1
m=1
57
Notation 6. Si
⎛ a11 a12 ⋯ a1m ⎞
⎜a ⋯ a2m ⎟
A = ⎜ 21 22 ⎟
a
⎜. . . . . . . . . . . . . . . . . . ⎟
⎝an1 an2 ⋯ anm ⎠
On note aussi
RR a11 a12 ⋯ a1m RR
RR RR
RR R
RR a21 a22 ⋯ a2m RRR
det(A) = RR R RRR
RRR. . . . . . . . . . . . . . . . . .RRR
RRa R
RR n1 an2 ⋯ anm RRR
Exemple 22. On a det(0n ) = 0 et det(In ) = 1.
Exemples 16.
1. A = (3) alors det(A) = 3.
2. Si A = ( ), alors
a b
c d
det(A) = ∣ ∣ = ad − bc
a b
c d
√
√ √ √ √
Par exemple ! ∣√ ∣ = (2 × 2) − (−3 × 3) = 2 2 + 3 3.
2 −3
3 2
⎛3 0 −2⎞
3. A = ⎜1 2 1 ⎟.
⎝5 4 7 ⎠
On développe det(A) suivant la 1ère ligne :
RR3 0 −2RR
RR RR
RR R
RRR1 2 1 RRRR =3 ∣2 1∣ − 0 ∣1 1∣ − 2 ∣1 2∣
RR R
RR5 4 7 RRR
4 7 5 7 5 4
R R
=30 + 12 = 42
= − 8 + 62 − 12 = 42
58
On développe det(A) suivant la 2ème colonne :
RR3 0 −2RR
RR RR
RR R
RR1 2 1 RRR = − (0) ∣1 1∣ + 2 ∣3 −2∣ − 4 ∣3 −2∣
RRR RR
RR5 4 7 RRR
5 7 5 7 1 1
R R
=62 − 20 = 42
Remarques 7.
Régle de Sarrus
1. La régle de Sarrus consiste à écrire les trois colonnes du déterminant, puis
à répéter les deux premières. On calcule la somme des produits des éléments
des trois diagonales principales moins la somme des produits des éléments
des trois diagonales non principales.
⎛a11 a12 a13 ⎞
A = ⎜a21 a22 a23 ⎟.
⎝a31 a32 a33 ⎠
⎛3 0 −2⎞
Exemple : Soit A = ⎜1 2 1 ⎟. Alors
⎝5 4 7 ⎠
3 0 −2 3 0
det(A) = 1 2 1 1 2
5 4 7 5 4
=(42 + 0 − 8) − (−20 + 12 + 0)
=42
2. La régle de Sarrus n’est valable que pour des matrices carrées d’ordre 3.
Exercice 11. Montrer que si A est une matrice triangulaire (supérieure ou
inférieure) d’ordre n, alors le déterminant de A est égal au produit des coef-
ficients de la diagonale, c’est-à-dire,
n
det(A) = ∏ Aii .
i=1
59
5.2 Propriétés des déterminants
Thoérème 5.2.1. Notons Ci la colonne i d’une matrice. On a alors
Lemme 5.2.2. Si deux lignes ou deux colonnes de A sont égales alors det(A) =
0.
Thoérème 5.2.3. On a
1. det(M) = − det(A).
2. det(N) = λ det(A).
3. det(P ) = det(A).
4. det(Y ) = det(A).
60
Thoérème 5.2.4. On a
⎛ L1 ⎞ ⎛ L1 ⎞ ⎛ L1 ⎞
⎜ ⎟ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⋮
⎜ Lm−1 ⎟ ⎜Lm−1 ⎟ ⎜Lm−1 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
det ⎜ ′ ⎟ ⎜ ⎟ ⎜ ′ ⎟
⎜Lm + Lm ⎟ = det ⎜ Lm ⎟ + det ⎜ Lm ⎟
⎜ L ⎟ ⎜L ⎟ ⎜L ⎟
⎜ m+1 ⎟ ⎜ m+1 ⎟ ⎜ m+1 ⎟
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜ ... ⎟ ⎜ ... ⎟ ⎜ ... ⎟
⎝ Ln ⎠ ⎝ Ln ⎠ ⎝ Ln ⎠
Thoérème 5.2.5. On a
1. det(H) = − det(A).
2. det(F ) = λ det(A).
3. det(Z) = det(A).
4. det(S) = det(A).
⎛ L1 ⎞
⎜ ⋮ ⎟
⎜ ⎟
⎜Lm−1 ⎟
⎜ ⎟
Lm z→ det ⎜
⎜ Lm ⎟
⎟
⎜L ⎟
⎜ m+1 ⎟
⎜ ⎟
⎜ ... ⎟
⎝ Ln ⎠
61
Exemple 23. Dans le corps des réels on a :
Thoérème 5.3.1. Si det(A) est non nul, alors le système (S) est de Cramer
et on a
∆xi
xi =
det(A)
Remarque 33. Le système (S) n’est pas de Cramer si A n’est pas carrée ou
A est carrée avec det(A) = 0. Dans ce cas on peut aussi appliquer la méthode
de Cramer pour résoudre (S), mais on doit appliquer le théorème5.3.1 à une
matrice extraite de A de déterminant non nul et d’ordre maximum. Pour plus
de détail voir devoir N°3.
62
5.4 Déterminant d’une famille de vecteurs
Définition 5.4.1. Soient E un espace vectoriel de dimension n et soit B
une base de E. Soit G = (v1 , . . . , vn ) une famille quelconque de vecteurs de
E de cardinal n. On appelle déterminant de G dans la base B le scalaire
det(MatB (G)).
Thoérème 5.4.2. Soient E un espace vectoriel de dimension n et soit B une
base de E. Soit G = (v1 , . . . , vn ) une famille quelconque de vecteurs de E de
cardinal n. Alors G est une base de E si et seulement si det(MatB (G)) ≠ 0.
Démonstration. Posons A = MatB (G) et Soit T une matrice échelonnée obte-
nue en effectuant des opérations élémentaires sur les colonnes de A. Puisque
T est une matrice carrée d’ordre n, alors T est une matrice triangulaire et
donc det(T ) = T11 × ⋯ × Tnn . Donc
Or rg(A) = rg(T ) et det(A) = α det(T ) où α est un scalaire non nul. Donc
63
D’après le diagramme commutatif suivant
■■
■■
■■ ↺
■■ idE
f ■■
(E, B ′ )
■■
$
On déduit que
MatB,B′ (f ) = MatB′ (B) × MatB (f )
donc
MatB′ (G) = MatB′ (B) × MatB (G)
par suite
RRRa RR
Exemple 24. Soit
RR 11 a12 a13 RRR
A = RRRRa21 a22 a23 RRRR
RRR R
RRa31 a32 a33 RRRR
On a S3 = {1, τ1 , τ2 , τ3 , σ1 , σ2 } où τ1 = (23), τ2 = (12), τ3 = (13), σ1 = (123), σ2 =
(132).
Alors
det(A) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 + a12 a23 a31 + a13 a21 a32 .
64
Le résultat suivant se démontre en utilisant la formule de Leibniz
Proposition 5.5.2. Soient A et B deux matrices carrées d’ordre n. Alors
1. det(A) = det(AT ).
2. det(AB) = det(A) × det(B).
Proposition 5.5.3. Soit A une matrice carrée d’ordre n. Alors A est inversible
si et seulement si det(A) ≠ 0. Dans ce cas on a det(A−1 ) = det(A)−1 .
Démonstration.
1. Est une conséquence directe du fait que f est bijective si et seulement si
la matrice MatB (f ) est inversible.
2. On sait que MatB′ (f ) = MatB (B ′ )−1 × MatB (f ) × MatB (B ′ ), donc
65
5.7 Calcul de l’inverse d’une matrice
Définition 5.7.1. Soit A une matrice carrée d’ordre n. On appelle cofacteur
du coefficient Aij le scalaire
Com(A)ij = cof(Aij ).
⎛ 1 3 −1⎞
A=⎜2 3 5⎟
⎝−1 1 2 ⎠
Alors
et
det(A) = ∑ Aij cof(Aij )
n
i=1
Démonstration.
Si on dévelope det(A) suivant la ligne i on trouve la première égalité.
Si on dévelope det(A) suivant la colonne j on trouve la deuxième égalité.
66
On admet sans démonstration le résultat suivant.
Thoérème 5.7.3. Soit A une matrice carrée d’ordre n. Alors
(i) ACom(A)T = Com(A)T A = det(A)In .
(ii) Si A est une matrice inversible, On a
1
A−1 = Com(A)T
det(A)
⎛1 9 5⎞
Com(A) = ⎜ 7 1 4 ⎟
⎝18 7 −3⎠
donc
⎛1 7 18 ⎞
Com(A)T ) = ⎜9 1 7 ⎟
⎝5 4 −3⎠
alors
−1 ⎛
1 7 18 ⎞
A−1 = ⎜9 1 7 ⎟
31 ⎝
5 4 −3⎠
67
68
Chapitre 6
χA (X) = ∣ ∣ = X2 + 5
1−X 2
−3 −1 − X
3. Supposons que la matrice A est triangulaire supérieure
69
Alors χA (X) = ∏ni=1 (aii − X).
Définition 6.1.2. Soit f ∈ End(E). On appelle polynôme caractéristique de
f , noté χf (X) = det(f − XId), le polynôme caractéristique d’une matrice
quelconque de f .
Remarque 35. On a f − αId est un endomorphisme de E pour tout α ∈ K,
alors que f − XId ne l’est pas (c’est seulement une notation). D’ailleurs la
matrice A − XIp n’appartient pas à Mp (K).
70
Donc 0 est une valeur propre de f si et seulement si f n’est pas injectif.
4. Si λ ∈ sp(f ) alors dim(E(λ)) ≥ 1.
Proposition 6.3.2. Soit λ ∈ K. Alors λ est une valeur propre de f si et
seulement si χf (λ) = 0.
Exemples 18.
1. Soit E = C(R) le R-ev des fonctions de classe C ∞ . Soit ∂ ∶ E Ð→ E qui
à une fonction f associe sa dérivée f ′ . On a ∂(eλx ) = λeλx . Donc eλx est un
vecteur propre de ∂ associé à la valeur propre λ.
2. On suppose que E = F ⊕ G. et soit π la projection sur F parallèlement à
G. Alors F = E(1), G = E(0).
3. On suppose que E = F ⊕ G. et soit s la symétrie par rapport à F parallè-
lement à G. Alors F = E(1) et G = E(−1).
Proposition 6.3.6. Si λ est une valeur propre de f alors E(λ) est sev stable
par f , c’est-à-dire, f (E(λ)) ⊆ E(λ).
71
6.4 Cas des matrices
Définition 6.4.1. Soit A ∈ Mp (K) et Z ∈ K p un vecteur non nul.
1. On dit que Z est un vecteur propre de A si AZ = λZ pour un certain
λ ∈ K. Dans ce cas on dit que λ est la valeur propre de A associée au vecteur
propre Z. On dit aussi que Z est un vecteur propre de A associé à la valeur
propre λ.
2. Le spectre de A, noté spK (A) ou simplement sp(A), est l’ensemble des
valeurs propres de A.
3. Soit λ ∈ sp(A). L’espace propre de A associé à λ est le sev de K p défini
par E(λ) = {Z ∈ K p /AZ = λZ} = {Z ∈ K p /(A − λIp )Z = 0}.
Remarques 9.
1. λ ∈ sp(A) ⇐⇒ det(A − λIp ) = 0 ⇐⇒ χA (λ) = 0.
2. Posons p = dim(E) et Soit f ∈ End(E). Soit B une base de E et posons
A = MB (f ). On a :
(i) sp(f ) = sp(A).
(ii) Soit λ ∈ sp(f ) et soit E(λ, f ) et E(λ, A) les sous espaces propres de f et
de A associés à λ. Alors
En effet,
f (u)λu ⇐⇒ AuB = λuB .
Exemples 19.
1. Si A est une matrice triangulaire
On a χA (X) = X 2 + 1. Donc spR (A) = ∅, spC (A) = {−i, i}, spZ/2Z (A) = {1}
et spZ/5Z (A) = {2, 3}.
72
Définition 6.4.2. Soit P ∈ K[X]. On dit que P est scindé sur K si P à toutes
ses racines dans K, c’est-à-dire, P est de la forme
où a, a1 , . . . , as ∈ K.
Exemples 20.
1. (X 2 − 1)3 = (X − 1)3 (X + 1)3 est scindé sur R.
2. X 2 + 1 n’est pas scindé sur R et il est scindé sur C.
3. X 2 + 1 est scindé sur Z/5Z car X 2 + 1 = (X − 2)(X − 3).
73
de K p défini par f (Z) = AZ pour tout vecteur colonne Z de K p . On a
MC (f ) = A. Donc diagonaliser A revient à chercher une base B de vecteurs
propres de f , c’est-à-dire, chercher une matrice inversible P et une matrice
diagonale D telles que P −1 AP = D.
Définition 6.5.2. On dit qu’un endomorphisme d’un K-ev E est scindé si son
polynôme caractéristique est sindé sur K. On dit qu’une matrice A ∈ Mp (K)
est scindée si son polynôme caractéristique est sindé sur K.
Proposition 6.5.3. Soit λ1 , . . . , λs les valeurs propres distinctes de f . Alors f
est diagonalisable si et seulement si f est scindé et
E = E(λ1 ) ⊕ ⋯ ⊕ E(λs ).
Démonstration. χf (X) = (−1)n (X −λ1 )m1 ⋯(X −λs )ms où les λi sont des sca-
laires deux à deux distincts et n = dim(E). Par hypothèse on a mi = ma (λi ) =
mg (λi ) pour tout i ∈ {1, . . . , s}. Il est clair que m1 +⋯+ms = deg(χf (X)) = n.
74
Puisque dim(E(λi )) = mg (λi ) = ma (λi ) = mi , alors dim(E(λ1 )⊕⋯⊕E(λs )) =
m1 + ⋯ + ms = n, donc E(λ1 ) ⊕ ⋯ ⊕ E(λs ) = E. En conclusion, f est diagona-
lisable.
Réciproquement, supposons que f est diagonalisable. Alors E = E(λ1 ) ⊕
⋯ ⊕ E(λs ) où λ1 , . . . , λs sont les valeurs propres distinctes de f . On sait que
f = fE(λ1 ) ⊕ ⋯ ⊕ fE(λs ) . D’après Proposition ?? on a χfE(λi ) = (−1)mg (λi ) (X −
λi )mg (λi ) , 1 ≤ i ≤ s, Donc χf (X) = ∏si=1 χfE(λi ) = (−1)∑i=1 mg (λi ) ∏si=1 (X −
s
Pratique de la diagonalisation
Soit f un endomorphisme d’un K-ev E de dimension n.
• On détermine χf
• Si f n’est pas scindé sur K alors f n’est pas diagonalisable
• Si f est scindé sur K, on cherche si mg (λ) = ma (λ) pour toute valeur
propre λ de f
• Si oui, on cherche une base Bi de E(λi ) avec sp(f ) = {λ1 , . . . , λs }. On
a alors B = (B1 , . . . , Bs ) est une base de diagonalisation pour f
• Dans le cas contraire, f n’est pas diagonalisable.
Soit A ∈ Mp (K).
• On détermine χA
• Si A n’est pas scindé sur K alors A n’est pas diagonalisable
• Si A est scindé sur K, on cherche si mg (λ) = ma (λ) pour toute valeur
propre λ de A
• Si oui, on cherche une base Bi de E(λi ) avec sp(f ) = {λ1 , . . . , λs }. On
peut par exemple chercher les familles Bi en résolvant les systèmes
homogènes d’inconnue Z :
(A − λi Ip )Z = 0.
• Si P est la matrice de passage de la base canonique C de K p à la base
B = (B1 , . . . , Bs ), c’est-à-dire, P = MC (B) alors
P −1 AP = D
75
est une matrice diagonale
• Dans le cas contraire, A n’est pas diagonalisable.
76