Chapitre 2
Espace vectoriel
2.1 Introduction au groupe
Définition 2.1. Une loi de composition interne sur un ensemble E est une appli-
cation de E × E dans E.
Exemple 2.2. (1) L’addition ou la multiplication sont des lois de composition
internes sur N, Z, Q, R ou C.
(2) la soustraction définit une loi de composition interne sur Z, Q, R, ou C mais
sur N.
(3) Le produit scalaire de deux vecteurs de Rd n’est pas une loi de composition
interne si d ≥ 2.
(4) On note F (E, E) l’ensemble des applications de E dans E, l’application
F (E, E) × F (E, E) → F (E, E)
(f, g) ?→ f ◦g
(f ◦ g est défini par ∀x ∈ E, f ◦ g(x) = f (g(x))) est une loi de composition
interne.
Définition 2.3. Un groupe est la donnée d’un ensemble G et d’une loi de composi-
tion interne notée ∗ suivante :
G×G → G
(x, y) ?→ x ∗ y
telle que (G, ∗) vérifie les trois propriétés suivantes :
(1) (Elément neutre) Il existe e ∈ G tel que ∀x ∈ G, e ∗ x = x ∗ e = x.
(2) (Associativité) Pour tout x, , y, z ∈ G, (x ∗ y) ∗ z = x ∗ (y ∗ z).
(3) (Elément inverse) Pour tout x ∈ G, il existe x′ ∈ G tel que x ∗ x′ = x′ ∗ x = e.
Si de plus, ∀x, y ∈ G, on a x ∗ y = y ∗ x,on dit que ∗ est commutative et (G, ∗) est
un groupe commutatif ou abélien.
Remarque 2.4. On emploie aussi parfois le terme de symétrique au lieu de l’in-
verse.
9
2 . Espace vectoriel
Exemple 2.5. (1) Z, Q, R et C sont des groupes abéliens : 0 est l’élément neutre,
l’inverse de x est −x. Notons que (N, +) n’est pas un groupe car la condition
(3) de la définition 2.3 n’est pas vérifié.
(2) Q∗ , R∗ , C∗ munis de la multiplication sont des groupes : 1 est l’élément neutre.
Il en est de même pour T, l’ensemble des nombres complexe de module 1. Si
x est réel, alors l’inverse de x est x1 . Tout élément de C∗ possède un inverse
pour la loi × :
∀z ∈ C∗ , ∃z ′ ∈ C∗ | z × z ′ = z ′ × z = 1
(Si z = x + iy alors z ′ = xx−iy 1
2 +y 2 = z = z
−1
).
(3) Soit E un ensemble et soit S(E) l’ensemble des bijections de E sur E, soit ◦
la loi de composition interne définie par la composition de deux bijections.
Montrer à titre d’exercice que (S(E), ◦) est un groupe et qu’il est non abélien
et E a au moins trois éléments.
En particulier, pour n ∈ N, soit E = {1, . . . , n}. Alors S(E) est noté Sn . Sn
est un groupe de cardinal n!. On l’appelle le groupe des permutations sur n
éléments.
Proposition 2.6. (1) L’élément neutre est unique.
(2) L’inverse x′ d’un élément x ∈ G est unique.
(3) L’inverse de l’inverese de x ∈ G est x, i.e (x′ )′ = x.
(4) Pour tout x, y ∈ G, (x ∗ y)′ = y ′ ∗ x′ .
(5) Pour tout x, y, z ∈ G, si x ∗ y = x ∗ z alors y = z.
Preuve:
(1) Soient e′ , e ∈ G deux éléments neutres de G. En appliquant la propriété d’un
élément neutre à e et e′ , on obtient :
e′ ∗ e = e ∗ e′ = e,
e ∗ e′ = e′ ∗ e = e′ .
Par conséquant e = e′ .
(2) Soit x′′ ∈ G tel que x′′ ∗ x = x ∗ x′′ = e. on a alors x” ∗ x ∗ x′ = x′ ce qui
implique que x′′ = x′ (puisque x ∗ x′ = e).
(3) Soit (x′ )′ l’inverse de l’inverse de x′ , on a (x′ )′ ∗ x′ = e. Puisque x ∗ x′ = e et
d’aprés la deuxième propriété de cette proposition, on a x = (x′ )′ .
(4) On a
(x ∗ y) ∗ (y ′ ∗ x′ ) = x ∗ y ∗ y ′ ∗ x′ = x ∗ x′ = e
donc (x ∗ y)′ = y ′ ∗ x′ .
(5) On a
x′ ∗ (x ∗ y) = x′ ∗ (x ∗ z) =⇒ (x ∗ x′ ) ∗ y = (x ∗ x′ ) ∗ z =⇒ y = z.
?
Notation : Soit (G, ∗) un groupe, on note souvent xy au lieu de x ∗ y, 1 au lieu
de e et x−1 l’inverse de x, pour tout x ∈ G.
10
2.2 Espace vectoriel
2.2 Espace vectoriel
L’ensemble K désigne toujours R ou C.
Définition 2.7. On appelle K-espace vectoriel (ou espace vectoriel seu K) tout
ensemble non vide E muni d’une loi de comoposition interne notée +
K×E → E
(λ, x) ?→ λx
telles que :
(1) (E, +) est un groupe abélien.
(2) ∀λ, µ ∈ K, ∀x ∈ E, on a (λ + µ)x = λx + µx.
(3) ∀λ ∈ K, ∀x, y ∈ E, on a λ(x + y) = λx + λy.
(4) ∀λ, µ ∈ K, ∀x ∈ E, on a λ(µx) = (λµ)x.
(5) ∀x ∈ E, on a 1x = x.
Les éléments d’un espace vectoriel sont appelés vecteurs ; et les éléments de K sont
appelés scalaires.
Lorsqu’il n’y a pas de confusion, on dira espace vectoriel au lieu de K espace
vectoriel.
Exemple 2.8. (1) L’ensemble des vecteurs du plan est un espace vectoriel.
(2) K est un K espace vectoriel.
(3) Soient E un K espace vectoriel et X un ensemble non vide quelconque. Consi-
dérons F (X, E) l’ensemble des applications de X dans E. Pour f, g ∈ F (X, E)
et λ ∈ K, on définit f + g, λf ∈ F (X, E) par :
∀x ∈ X, (f + g)(x) := f (x) + g(x) et (λf )(x) := λ(f (x))
alors F (X, E) muni de ces lois est un K espace vectoriel.
(4) Sur R2 , on définit les deux lois suivantes : pour (x, y), (x′ , y ′ ) ∈ R2 et λ ∈ R,
(x, y) + (x′ , y ′ ) := (x + x′ , y + y ′ ) et λ(x, y) := (λx, λy)
alors R2 est un R-espace vectoriel.
(5) Plus généralement : Si E1 , E2 , . . . , En sont n espaces vectoriels, alors l’espace
produit E := E1 × E2 × · · · × En est un espace vectoriel pour les lois suivantes :
Pour tous (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) ∈ E et λ ∈ K, on définit
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )
λ(x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn ).
(6) L’ensemble Pn [X] des polynômes de degré inférieur ou égal à n additionné du
polynôme nul est un espace vectoriel.
Proposition 2.9. Pour tout λ, µ ∈ K et pour tout x, y ∈ E, on a :
(1) λx = 0 ⇐⇒ λ = 0 ou x = 0.
(2) λ(x − y) = λx − λy.
(3) (λ − µ)x = λx − µx.
(4) (−λ)(−x) = λx.
11
2 . Espace vectoriel
2.3 Sous-espace vectoriel
Dans toute la suite l’ensemble E désignera un espace vectoriel sur K.
2.3.1 Définition
Définition 2.10. Soit F un sous-ensemble de E. On dit que F est un sous-espace
vectoriel de E si F possède les propriétés suivantes :
(1) 0 ∈ F ;
(2) ∀x, y ∈ F , x + y ∈ F . Autrement dit F est stable par l’addition ;
(3) ∀x ∈ F et ∀λ ∈ K, λx ∈ F . Autrement dit, F est stable par la multiplication
par scalaire.
Remarque 2.11. Tout sous-espace vectoriel de E, est un espace vectoriel pour les
lois induites par E.
Exemple 2.12. (1) Si E est un espace vectoriel, alors {0} et E sont des sous-
espaces vectoriel de E.
(2) Si E = R2 , alors F = {(x, 0); x ∈ R} est un sous-espace vectoriel de E. De
même, si (x0 , y0 ) ∈ R2 , alors F {(λx0 , λy0 ); λ ∈ R} est un sous-espace vectoriel
de E.
(3) L’ensemble F = {(x, y, z) ∈ R3 | z = 0} est un sous-esapce vectoriel de R3 .
(4) H = {(x1 , . . . , xn ) ∈ Rn | x1 + · · · + xn = 0} est un sous-espace vectoriel
de Rn . En effet Rn est un R-espace vectoriel de vecteur nul 0 = (0, . . . , 0).
H ⊂ Rn et 0 = (0, . . . , 0) ∈ H car 0 + · · · + 0 = 0. Soient λ, µ ∈ R et x =
(x1 , . . . , xn ), y = (y1 , . . . , yn ) ∈ H. On a λx + µy = (λx1 + µy1 , . . . , λxn + µyn ).
Or (λx1 + µy1 ) + · · · + (λxn + µyn ) = λ(x1 + · · · + xn ) + µ(y1 + · · · + yn ) = 0
car x1 + · · · + xn = y1 + · · · + yn = 0 puisque x, y ∈ H donc λx + µy ∈ H.
Corollaire 2.13. Soit E un espace vectoriel et F un sous-ensemble de E (F ⊂ E).
Si F vérifie les propriétés (1) et (2) suivantes alors F est un sous-espace vectoriel
de E :
(1) F est non vide (F contient l’élément neutre de E).
(2) ∀(x, y) ∈ F × F, ∀(λ, µ) ∈ K × K, alors λx + µy ∈ F .
Exemple 2.14. Les parties suivantes ne sont pas des sous-espaces vectoriels de R2 :
– {(x, y) ∈ R2 | x + y = 1} car ne contient par le vecteur nul ;
– {(x, y) ∈ R2 | xy = 0} car non stable par addition ;
– {(x, y) ∈ R2 | x + y ∈ Z} car non stable par produit extérieur.
Proposition 2.15. Soient E un espace?vectoriel et E1 , . . . , En des sous-espaces
vectoriels de E, alors l’intersection F = nk=1 Ei est un sous-espace vectoriel de E.
Preuve:
Pour tout i, on a 0 ∈ Ei , donc 0 ∈ F . Soient x, y ∈ F et λ ∈ K alors pour tout i,
on a λx + µy ∈ Ei donc λx + µy est dans l’intersection de tout les Ei . ?
12
2.3 Sous-espace vectoriel
Remarque 2.16. La réunion de deux sous-espace vectoriels n’est pas en général un
sous-espace vectoriel. En effet, si E = R2 , les sous-ensembles E1 = {(x, y) ∈ R2 |
x + y = 0} et E2 = {(x, y) ∈ R2 | x − y = 0} sont deux sous-espaces vectoriels de
R2 mais E1 ∪ E2 n’est pas un sous-espace vectoriel (par exemple, soient x, y ∈ R∗ ,
on a (x, −x) ∈ E1 et (y, y) ∈ E2 mais (x, −x) + (y, y) n’appartient ni à E1 ni à E2 ).
2.3.2 Combinaisons linéaires
Soit {x1 , . . . , xp } une famille de?vecteurs d’un espace vectoriel E. Tout vecteur
de E de la forme a1 x1 + . . . ap xp = pk=1 ak xk , où les ak ∈ R est appelé combinaison
linéaire des vecteurs xk , k = 1 . . . , p.
Remarque 2.17. On peut généraliser cette notion à une famille infinie de vecteurs,
mais dans ce cas il faut que la suite des scalaires soit à support fini.
2.3.3 Sous-espace vectoriel engendré par une partie d’un es-
pace vectoriel
Soit A un sous-ensemble non-vide de l’espace vectoriel E. On note vect(A), l’en-
semble des combinaisons linéaires d’éléments de A. On a donc
?
vect(A) = { a∈A λa a | (λa) est une famille de scalaires à support fini}.
Donc un élément x de E appartient à vect(A), si et seulement si, il existe x1 , . . . , xn ∈
A et des scalaires λ1 , . . . , λn , tels que : x = λ1 x1 + · · · + λn xn .
Théorème 2.18. Soit A une partie d’un espace vectoriel E. vect(A) est l’unique
sous-espace vectoriel de E vérifiant :
(1) A ⊂ vect(A),
(2) vect(A) est inclus dans tout sous-espaces vectoriels contenant A.
Le sous-espace vectoriel vect(A) se comprend comme étant le plus petit sous-espace
vectoriel contenant A, on l’appelle espace vectoriel engendré par A.
Corollaire 2.19. vect(A) est l’intersection de tous les sous-espaces vectoriel de E
contenant A.
Corollaire 2.20. A est un sous-espace vectoriel, si et seulement si, vect(A) = A.
Exemple 2.21. (1) vect{ensemble vide} = {0} car l’espace nul est le plus petit
sous-espace vectoriel de E.
(2) vect(E) = E car vectE est le plus petit sous-espace vectoriel contenant E.
(3) Soit A = {u}. Montrons que vect{u} = {λu | λ ∈ K} = Ku.
Puisque u ∈ A ⊂ vect(A) et puisque vect(A) est un sous-espace vectoriel on a
λu ∈ vect(A), pour tout λ ∈ K. Ainsi Ku ⊂ vect{u}. Par double inclusion on
obtient Ku = vect{u}.
(4) Soit A = {u, v}. Par double inclusion, on montre comme ci-desus que vect{u, v} =
{λu + µv | λ, µ ∈ K} = Ku + Kv.
13
2 . Espace vectoriel
Proposition 2.22. Si A et B deux parties de E alors A ⊂ B =⇒ vect(B) ⊂
vect(A).
Preuve:
Supposons que A ⊂ B. On a alors A ⊂ vect(B) or vect(B) est un sous-espace
vectoriel donc vect(A) ⊂ vect(B). ?
Proposition 2.23. Si A et B sont deux parties de E alors vect(A ∪ B) = vect(A) +
vect(B).
Exemple 2.24. Pour F et G deux sous-espaces vectoriels de E. vect(F ∪G) = F +G.
Ainsi F + G apparait comme étant le plus patit sous-espace vectoriel contenant F et
G.
14
2.4 Feuille d’exercices-Espaces vectoriels et sous-espaces vectoriels
2.4 Feuille d’exercices-Espaces vectoriels et sous-espaces
vectoriels
Exercice 1. Soit E un R-espace vectoriel.
On munit le produit cartésien E×E de l’addition usuelle : (x, y)+(x′ , y ′ ) = (x+x′ , y+
y ′ ) et de la multiplication externe ∗ par les complexes définie par : (a + i.b) ∗ (x, y) =
(a.x − b.y, a.y + b.x).
Montrer que E × E est alors un C-espace vectoriel.
Celui-ci est appelé complexifié de E.
Exercice 2. Soit R∗+ muni de la loi interne définie par a ⊕ b = a.b, ∀a, b ∈ R∗+ et de
la loi externe ⊗ telle que : λ ⊗ a = aλ , ∀a ∈ R∗+ , ∀λ ∈ R.
Montrer que (R∗+ , ⊕, ⊗) est un R-espace vectoriel.
Exercice 3. Sur R2 , on définit les deux lois suivantes : pour tous (x, y), (x′ , y ′ ) ∈ R2
et ∀λ ∈ R, on pose
(x, y) + (x′ , y ′ ) = (x + x′ , y + y ′ ) et λ ⋆ (x, y) = (λx, 0).
Le triplet (R2 , +, ⋆) est-il un espace vectorielsur R ?
Exercice 4. Les parties suivantes sont-elles des sous-espaces vectoriels de R2 ?
(a) {(x, y) ∈ R2 | x ? y} ;
(b) {(x, y) ∈ R2 | xy = 0} ;
(c) {(x, y) ∈ R2 | x = y} ;
(d) {(x, y) ∈ R2 | x + y = 1}.
Exercice 5. Soient F = {(x, y, z) ∈ R3 | x+y −z = 0} et G = {(a−b, a+b, a−3b) |
a, b ∈ R}.
(a) Montrer que F et G sont des sous-espaces vectoriels de R3 .
(b) Déterminer F ∩ G.
Exercice 6. Les parties suivantes sont-elles des sous-espaces vectoriels de RN ?
(a) {(un ) ∈ RN | (un ) bornée} ;
(b) {(un ) ∈ RN | (un ) monotone} ;
(c) {(un ) ∈ RN | (un ) convergente} ;
(d) {(un ) ∈ RN | (un ) arithmétique}.
Exercice 7. Soient u1 , . . . , un des vecteurs d’un K-espace vectoriel E.
Montrer que l’ensemble F = {λ1 u1 + · · · + λn un | λ1 , . . . , λn ∈ K} est un sous-espace
vectoriel de E = vect(u1 , . . . , un ).
Exercice 8. Soient F et G des sous-espaces vectoriels de E.
Montrer que F ∩ G = F + G ⇔ F = G.
Exercice 9. Soient F et G deux sous-espaces vectoriels d’un K-espace vectoriel E.
Montrer que F ∪ G est un sous-espace vectoriel de E, si et seulement si, F ⊂ G ou
G ⊂ F.
Exercice 10. Comparer vect(A ∩ B) et vect(A) ∩ vect(B).
Exercice 11. Soient A et B deux parties d’un K-espace vectoriel E.
Montrer que vect(A ∪ B) = vect(A) + vect(B).
15
2 . Espace vectoriel
2.5 Applications linéaires
2.5.1 Définitions
Définition 2.25. Soient (E, +, .) et (F, .+) deux K-espaces vectoriels. On dit que
f : E → F est linéaire (ou est un morphisme d’espace vectoriel) si :
(1) ∀x, y ∈ E, on a f (x + y) = f (x) + f (y) ;
(2) ∀λ ∈ K, ∀x ∈ E, on a f (λx) = λf (x).
On note L(E, F ) l’ensemble des applications de E dans F .
Proposition 2.26. [Caractérisation usuelle des applications linéaires] : Soit
f : E → F . L’application f est linéaire, si et seulement si , ∀λ, µ ∈ K, ∀x, y ∈ E,
f (λx + µy) = λf (x) + µf (y).
Exemple 2.27. Soit f : E → F définie par f : x ?→ 0F . L’application f est linéaire.
Proposition 2.28. Soient E, E1 , . . . En , (n ∈ N∗ ) des κ espaces vectoriels. L’appli-
cation
f : E → E1 × · · · × En
x ?→ (f1 (x), . . . , fn (x)).
f est linéaire de E dans E1 × · · · × En , si et seulement si, f1 , . . . , fn sont des appli-
cations linéaires de respectivement de E dans E1 , . . . , de E dans En .
Exemple 2.29. Montrons que f : R2 → R3 définie par f (x, y) = (x + y, x − y, 2y)
est une application linéaire. Soient λ, µ ∈ R, et a = (x, y), b = (x′ , y ′ ) ∈ R2 ,
f (λa + µb) = f (λx + µx′ , λy + µy ′ )
= (λx + µx′ + λy + µy ′ , λx + µx′ − λy + µy ′ , 2λy + 2µy ′ )
= λ(x + y, x − y, 2y) + µ(x′ + y ′ , x′ − y ′ , 2y ′ )
= λf (a) + µf (b).
Proposition 2.30. Soient (E, +, .), (F, +, .), (G, +, .) des K- espaces vectoriels.
(1) Si l’application f : E → F est linéaire alors f (0E ) = 0F ;
(2) Si f : E → F et g : F → G sont linéaires alors g ◦ f : E → G est linéaire.
?
Si e1 , . . . en sont des vecteurs de E alors ∀λ1 , . . . , λn ∈ K, f ( nk=1 ak ek ) =
(3) ?
n
k=1 ak f (ek ).
2.5.2 Applications linéaires particulières
Formes linéaires
Définition 2.31. On appelle forme linéaire sur un K-espace vectoriel E, toute ap-
plication linéaire de E dans K. On note E ∗ , au lieu de L(E, K), l’ensemble des
formes linéaires sur E.
Exemple 2.32. Pour a1 , . . . , an ∈ K fixé, l’application f : Kn → K définie par
f : (x1 , . . . , xn ) ?→ a1 x1 + · · · + an xn est une forme linéaire sur Kn . En effet, c’est
une application de Kn vers K et c’est aussi une application linéaire car on vérifie
aisement que ∀λ, µ ∈ K, ∀x, y ∈ Kn , on a f (λx + µy) = λf (x) + µf (y).
16
2.5 Applications linéaires
Endomorphisme
Définition 2.33. On appelle endomorphisme de E, toute applicatin linéaire de E
dans lui même. On note L(E), au lieu de L(E, E), l’ensemble des endomorphismes
de E.
Exemple 2.34. L’application identité IdE : E → E est un endomorphisme de E.
Proposition 2.35. Si f et g deux endomorphismes de E, alors f ◦ g est aussi un
endomorphisme de E.
Isomorphisme
Définition 2.36. On appelle isomorphisme d’un K espace vectoriel E vers un K-
espace vectoriel F toute application linéaire bijective de E vers F . On note Iso(E, F )
l’ensemble des isomorphismes de E dans F .
Exemple 2.37. L’application f : R2 → C définie par f (a, b) = a + ib est un
isomorphisme de R-espace vectoriel. En effet, cette application est R-linéaire et
bijective.
Proposition 2.38. Si f : E → F et g : F → G sont des isomorphismes alors la
composée g ◦ f : f → G est un isomorphisme.
Proposition 2.39. Si f : E → F est un isomorphisme alors son application réci-
proque f −1 : F → E est un isomorphisme.
Exemple 2.40. L’application g : C → R2 définie par g : z ?→ (ℜ(z), Im(z)) est
l’isomorphisme réciproque de l’application f : (a, b) ∈ R2 ?→ a + ib ∈ C.
Automorphisme
Définition 2.41. On appelle automorphisme de E, toute application linéaire bijec-
tive de E. On note Gl(E) l’ensemble d’automorphisme de E.
Proposition 2.42. Si f : E → F et g : F → G sont des automorphismes alors la
composée g ◦ f : f → G est un automorphisme.
Proposition 2.43. Si f : E → F est un automorphisme alors son application
réciproque f −1 : F → E est un automorphisme.
2.5.3 Noyau et image d’une application linéaire
Théorème 2.44. Soit f : E → F une application linéaire. Si V est une sous-espace
vectoriel de E alors f (V ) est un sous-espace vectoriel de F .
Si W est un sous-espace vectoriel de F alors f −1 (W ) est un sous-espace vectoriel de
E.
Définition 2.45. Soit f : E → F une application linéaire.
(1) On appelle image de f l’espace Im f = f (E).
(2) On appelle noyau de f l’espace ker f = f −1 ({0}).
17
2 . Espace vectoriel
Proposition 2.46. (1) Im f est un sous-espace vectoriel de F .
(2) ker f est un sous-espace vectoriel de E.
Remarque 2.47. (1) Pour déterminer l’image d’une application linéaire f , on
détermine les valeurs prises par f , i.e., les y ∈ F tels qu’il existe x ∈ E pour
lequel y = f (x).
(2) Pour déterminer le noyau d’une application linéaire f , on résout l’equation
f (x) = 0F d’inconnue x ∈ E.
Exemple 2.48. Déterminons le noyau et l’image de l’aaplication linéaire f : R2 →
R2 définie par f : (x, y) ?→ (x − y, x + y). Soit a = (x, y) ∈ R2 . ..... ker f = {x, x) |
x ∈ R}
Im f = {(x, −x) | x ∈ R}.
Théorème 2.49. Si f : E → F est une application linéaire alors
(1) f est surjective, si et seulement si, Im f = F
(2) f est injective, si et seulement si, ker f = {0E }.
Preuve:
?
2.6 Famille de vecteurs
2.6.1 Sous-espace vectoriel engendré par une famille finie de
vecteurs
Soient E un K-espace vectoriel et F = (ei )1≤i≤n une famille finie de vecteurs de
E.
Définition 2.50. On appelle combinaison linéaire des ?vecteurs de la famille F =
(ei )1≤i≤n tout vecteurs x de E pouvant s’écrire x = ni=1 λi ei avec λ1 , . . . , λn des
scalaires de K bien choisis.
Définition 2.51. On appelle espace vectoriel engendré par la famille F = (ei )1≤i≤n ,
le sous-espace vectoriel engendré par la partie {e1 , . . . , en }. On le note vect F , vect(ei )1≤i≤n
ou vect(e1 , . . . , en ).
Exemple 2.52. Le sous-espace vectoriel engendré par la famille vide est l’espace
nul {0}.
Théorème 2.53. Si (e1 , . . . , en ) est une famille de vecteurs de E alors vect(e1 , . . . , en )
est l’ensemble des combinaisons linéaires des vecteurs e1 , . . . , en , c’est-à-dire :
?n
vect(e1 , . . . , en ) = { i=1 λi ei | λ1 , . . . , λn ∈ K}.
Exemple 2.54. (1) Cas n = 1, X(u) = {λu | λ ∈ K} = Ku.
(2) Cas n = 2, X(u, v) = {λu + µv | λ, µ ∈ K} = Ku + Kv.
(3) Dans R3 , considérons u = (1, 1, 1), v = (0, −1, 2).
vect(u, v) = {(λ, λ + µ, 2µ) | λ, µ ∈ K}.
18
2.6 Famille de vecteurs
Remarque 2.55. Il est efficace d’établir qu’une partie est un sous-espace vectoriel
en observant que celle-ci est engendrés par une famille de vecteurs.
Exemple 2.56. (1) Dans R3 , considérons P = {(a + b, a − b, 2b) | a, b ∈ R}.
Puisque P = vect(u, v), avec u = (1, 1, 0) et v = (1, −1, 2), P est un sous-
espace vectoriel de R3 .
(2) Dans R3 , considérons P = {(x, y, z) | x + y − z = 0}.
Puisque x + y − z = 0 ↔ z = x + y, on a P = vect((1, 0, 1), (0, 1, 1)). ainsi P
est un sous-espace vectoriel de R3 .
2.6.2 Famille génératrice
Définition 2.57. On dit qu’une famille F = (ei )1≤i≤n de vecteurs de E est généra-
trice de E, si tout vecteur x de E s’écrit comme combinaison linéaire des vecteurs
de la famille F , c’est-à-dire :
?n
∀x ∈ E, ∃(λ1 , . . . , λn ) ∈ Kn | x = λ1 e1 + · · · + λn en = i=1 λ i ei .
Remarque 2.58. La famille F est génératrice de E, si et seulement si, vect(F ) =
E.
Exemple 2.59. (1) Dans E = Rn , on pose ei = (0, . . . , 1, 0 . . . , 0) ∈ Rn où 1
se situe en ième position. La famille B = (ei )1≤i≤n est génératrice de Rn . En
effet ∀x = (x1 , . . . , xn ) ∈ Rn , on peut écrire x = x1 e1 + · · · + xn en .
(2) Dans E = R, la famille (1) est génératrice. En effet, x ∈ R, x = x.1.
(3) Dans E = C vu comme R-espace vectoriel, la famille F = (1, i) est généra-
trice. En effet, pour tout z ∈ C, on peut écrire z = a.1 + b.i, avec a = ℜ(z) et
b = Im(z).
Proposition 2.60. Si (e1 , . . . , en , en+1 ) est une famille génératrice et si en+1 ∈
X(e1 , . . . , en ) alors la sous-famille (e1 , . . . , en ) est génératrice.
2.6.3 Famille libre, famille liée
Définition 2.61. Un vecteur u est dit colinéaire à un vecteur v de E s’il existe
α ∈ K tel que u = αv. Deux vecteurs u et v sont dits colinéaires si l’un des deux est
colinéaire à l’autre.
Attension
u est colinéaire à v n’équivaut pas à v est colinéaire à v. En effet, le vecteur nul est
colinéaire à tout vecteurs mais tout veceturs n’est pas colinéaire au vecetur nul.
Définition 2.62. (1) On dit que la famille (e1 , . . . , en ) de vecteurs de E est libre
si elle vérifie ∀λ1 , . . . , λn ∈ K, λ1 e1 + · · · + λn e = 0 → λ1 = . . . λn = 0. On dit
que les veceturs e1 , . . . , en sont linéairement indépendants
(2) On dit que la famille (e1 , . . . , en ) est liée si elle n’est pas libre ce qui signifie
∃λ1 , λn ∈ K, λ1 e1 + . . . λn en = 0 et (λ1 , . . . , λn ) ?= (0, . . . , 0). Une égalité
λ1 e1 + · · · + λn en = 0 avec λ1 , . . . , λn non tous nuls est appelée relation linéaire
sur les vecteurs e1 , . . . , en .
19
2 . Espace vectoriel
Exemple 2.63. Soit u ∈ E, étudions la liberté de la famille (u). Si u ?= 0 alors
∀λ ∈ K, λu = 0 ⇒ λ = 0. Par suite, la famille (u) est libre.
Si u = 0 alors on peut écrire λu = 0 avec λ = 1 ?= 0. Par suite, la famillle (0) est
liée.
Proposition 2.64. Soient n ≥ 2 et (e1 , . . . , en ) une famille de vecteurs de E. On a
équivalence entre :
(i) (e1 , . . . , en ) est liée ;
(ii) L’un des vecteurs e1 , . . . , en est combinaison linéaire des autres.
Exemple 2.65. (1) Soient u, u ∈ E.
(u, v) est liée, si et seulement si, (∃α ∈ K, u = αv) ou (∃β ∈ K, v = βu).
Ansi, la famille (u, v) est liée, si et seulement si, u et v sont colinéaires.
(2) Dans E = R3 , considérons les vecteurs u = (1, 2, 1), v = (1, −1, 1), w =
(1, 1, 0) et la famille F = (u, v, w). Etudions la liberté de la famille F . Soient
α, β, γ ∈ R.
⇔α+β+γ =0
αu + βv + γw = 0 2α − β + γ = 0
α + β = 0.
Aprés résolution du système, on obtient αu + βv + γw = 0 ⇔ α = β = γ = 0,
la famille F est donc libre.
(3) Dans E = R3 , considérons les vecteurs u = (1, −1, 0), v = (2, −1, 1), w =
(0, 1, 1) et la famille F = (u, v, w). Etudions la liberté de la famille F .
Soient α, β, γ ∈ R.
α + 2β = 0
αu + βv + γw = 0 ⇔ −α − β = 0
β + γ = 0.
?
α = −2β
Aprés rsolution du système, on obtient αu + βv + γw = 0 ⇔
γ = −β.
On en déduit que la famille F est liée car on a notament la relation linéaire
−2u + v − w = 0.
(4) Dans E = F (R, R), considérons les fonctions f : x ?→ 1, g : x ?→ cosx, h :
x ?→ sinx et montrons que la famille (f, g, h) est libre. Soient α, β, γ ∈ R
Supposons αf + βg + γh = 0. Pour tout x ∈ R, on a α + βcosx + γsinx = 0.
Pour x = 0, on obtient l’équation α + β = 0(1). Pour x = Π/2, on obtient
l’équation α + γ = 0(2). Pour x = Π, on obtient l’équation αβ = 0(3). On a (1)
et (3) donnent α = β = 0 et par (2) on obtient γ = 0. Finalement la famille
(f, g, h) est libre.
Remarque 2.66. (1) Toute sous-famille d’une famille libre est libre.
(2) Toute sur-famille d’une famille liée, en particulier toute famille contenant le
vecteur nul est liée.
20
2.6 Famille de vecteurs
(3) Une sur-famille d’une famille libre n’est pas nécessairement libre.
Proposition 2.67. Si (e1 , . . . , en ) est une famille libre et si en+1 ∈
/ vect(e1 , . . . , en )
alors la sur-famille (e1 , . . . , en , en+1 ) est libre.
2.6.4 Base d’un espace vectoriel
Définition 2.68. On dit qu’une famille B = (ei )1≤i≤n = (e1 , . . . , en ) de vecteurs de
E est une base de E si celle-ci est libre et génératrice.
Exemple 2.69. (1) Dans E = Kn , on pose ei = (1, . . . , 0, 1, 0, . . . , 0) ∈ Kn où 1
se situe en ième position. On a déja vu que B = (e1 , . . . , en ) est génératrice de
Kn ; montrons qu’elle est libre. Soient λ1 , . . . , λn ∈ K. Supposons que λ1 e1 +
· · · + λn en = 0. On a (λ1 , . . . , λn ) = (0, . . . , 0) et donc λ1 = · · · = λn = 0.
Finalement , la famille B est libre et génératrice de Kn , c’est une base de Kn .
(2) Considérons la famille (1, i) déléments du R-espace vectoriel C. On a déja vu
que cette famille est génratrice ; montrons qu’elle est libre. Soient λ, µ ∈ R.
Supposons que λ.1 + µ.i = 0. En identifiant parties réelles et imaginaires, on
obtient λ = µ = 0. Finalement, la base B est libre est génératrice du R-espace
vectoriel C, c’est une base de C.
Remarque 2.70. La famille (1, i) est liée dans le C-espace vectoriel C. Elle n’est
pas donc une base du C-espace vectoriel C.
2.6.5 Composante dans une base
Théorème 2.71. Si B = (ei )1≤i≤n est une base d’un K-espace vectoriel de E alors
∀x ∈ E, ∃!(λ1 , . . . , λn ) ∈ Kn , x = λ1 e1 + . . . λn en .
Définition 2.72. Avec les notations ci-dessous, les scalaires λ1 , . . . , λn sont appelés
les composants de x dans la base B (ou encore les composantes de x).
Remarque 2.73. Les composantes d’un vecteur dépendant de la base dans laquelle
on travaille.
Exemple 2.74. (1) Dans E = Kn , considérons la base canonique B = (e1 , . . . , en )
et le vecteur x = (x1 , . . . , xn ). Puisque x = x1 e1 + · · · + xn en , les composantes
du vecteurs x dans la base B sont les saclaires x1 , . . . , xn .
(2) Dans le R-espace vectoriel C, les composantes de z ∈ C dans la base canonique
(1, i) sont ℜ(z) et Im(z)
Théorème 2.75. Si B = (ei )1≤i≤n est une base de E alors pour tout vecteur x et
y de composantes x1 , . . . , xn et y1 , . . . , yn dans B, les composantes de x + y sont
x1 + y1 , . . . , xn + yn et celle de λx sont λx1 , . . . , λxn . Ainsi l’application x ∈ E ?→
xi ∈ K est une forme linéaire sur E.
21
Chapitre 3
Matrices
3.1 Opérations sur les matrices
3.1.1 Définition
Définition 3.1. Soient n, p ∈ N∗ . On appelle matrice à n lignes et p colonnes à
coefficients dans K, un tableau à n lignes et p colonnes d’éléments de K. On note
une telle matrice
a11 a12 · · · a1P
a21 a22 · · · a2p
M = (aij ) 1≤i≤n =
.. .. ..
. .
1≤j≤p
. . . ..
an1 an2 · · · anp
– On dit que M est une matrice colonne si p = 1.
– On dit que M est une matrice ligne si n = 1.
– On dit que M est une matrice carrée si n = p.
Notations :
– On note Mn,p (K) l’ensemble des matrices à n lignes et p colonnes à coefficients
dans K.
– Si p = n, on note Mn (K) l’ensemble des matrices carrées à n lignes et à n
colonnes.
– Un élément de Mn (K) est dite matrice carrée de taille n.
– Soit M = (aij ) 1≤i≤n , alors aij est le coefficient situé sur la iième ligne et la
1≤j≤p
j ième colonne de la matrice M .
Définition 3.2. Soit M = (aij )1≤i,j≤n une matrice carrée de taille n. On dit que :
(1) M est une matrice triangulaire supérieure (resp. strictement supérieure) si
25
3 . Matrices
aij = 0 pour tout i > j (resp. i ≥ j). C’est-à-dire :
a a12 · · · a1n 0 a12 · · · a1n
11
.. . . . . ..
0 a22 · · · a2n . . . .
M = .. .. .. .
, (resp.M =
.. ..
).
. . . .. . . an−1,n
0 · · · 0 ann 0 ··· ··· 0
(2) M est une matrice inférieure (resp. strictement inférieure) si aij = 0 pour tout
i < j (resp. i ≤ j). C’est-à-dire :
a 0 ··· 0 0 0 ··· 0
11
.. .. ..
a21 a22 ··· 0 a21 . . .
M = .. . . .. .
, (resp.M =
. ..
).
. . . .. .. . 0
an1 · · · an,n−1 ann an1 · · · an,n−1 0
(3) M est une matrice diagonale si aij = 0 pour tout i ?= j. C’est-à-dire :
a 0 ···0
11
.. .. ..
0 . . .
M = .. . .
.
. . an−1,n−1 0
..
0 ··· . ann
(4) M est symétrique (resp. antisymétrique) si aij = aji (resp. aij = −aji ) pour
tout 1 ≤ i, j ≤ n. C’est-à-dire :
a11 a12 · · · a1n a a12 · · · a1n
11
a12 a22 · · · a2n −a12 a22 · · · a2n
M = . , ( resp. M =
. .. . . .. .. .. .. .. ).
. . . . . . . .
a1n a2n · · · ann −a1n −a2n · · · ann
Définition 3.3. Soit M = (aij ) 1≤i≤n
1≤j≤p
∈ Mn,p (K). On appelle transposée de M la
t
matrice M = (bij ) 1≤j≤n
1≤i≤p ∈ Mp,n (K) où bij = aij . C’est-à-dire :
a11 a21 · · · an1
a12 a22 · · · an2
t
M == .
. .. . . .. .
. . . .
a1p a2p · · · anp
Autrement dit, les n lignes de M sont les n colonnes de t M et les p colonnes de M
sont les p lignes de t M .
Remarque 3.4. (1) Une matrice carrée M est symétrique, si et seulement si,
M =t M .
(2) Une matrice carrée M est antisymétrique, si et seulement si, M = −t M .
26
3.1 Opérations sur les matrices
3.1.2 (Mn,p(K), +, .) est un K-espace vectoriel
Opérations
Soit A = (aij ) 1≤i≤n
1≤j≤p
∈ Mn,p(K) et B = (bij ) 1≤i≤n
1≤j≤p
∈ Mn,p (K). On définit la
matrice A+B ∈ Mn,p (K) de la façon suivante : A+B = (aij +bij ) 1≤i≤n
1≤j≤p
∈ Mn,p(K).
Ainsi
a11 a12 · · · a1P b11 b12 · · · b1P
a21 a22 · · · a2p b21 b22 · · · b2p
A+B = .. .. .. . + .. .. .. ..
. . . .. . . . .
an1 an2 · · · anp bn1 bn2 · · · bnp
a11 + b11 a12 + b12 · · · a1P + b1p
a21 + b21 a22 + b22 · · · a2p + b2p
= .. .. .. .. .
. . . .
an1 + bn1 an2 + bn2 · · · anp + bnp
Remarque 3.5. On ne somme que des matrices de même types.
Définition 3.6. Soit M = (aij ) 1≤i≤n
1≤j≤p
∈ Mn,p(K) et soit λ ∈ K. On définit la
matrice λA de Mn,p (K) par λA = (λaij ) 1≤j≤p
1≤i≤n . Ainsi
λa11 λa12 · · · λa1P
λa21 λa22 · · · λa2p
λA =
.. .. .. ..
.
. . . .
λan1 λan2 · · · λanp
Théorème
3.7.
(Mn,p (K), +, .) est un K-espace vectoriel d’élément nul 0 = 0Mn,p (K) =
0 ··· 0
..
. ··· .
0 ··· 0
Dimension
Définition 3.8. Soit 1 ≤ i ≤ n et 1 ≤ j ≤ p. On appelle matrice élémentaire
d’indice (i, j) de Mn,p (K) la matrice Eij , dont tous les coefficients sont nuls sauf à
la iième ligne et la j ième colonne qui vaut 1.
? ?
1 0
Exemple 3.9. (1) Dans M2 (K), les matrices élémentaires sont E11 = , E12 =
? ? ? ? ? ? 0 0
0 1 0 0 0 0
, E21 = , E22 = .
0 0 1 0 0 1
27
3 . Matrices
(2) Dans Mn,1 (K) les matrices élémentaires sont :
1 0
..
0 .
E11 =
.. , . . . , En1 =
.
. 0
0 1
Théorème 3.10. La famille B = (Eij , 1 ≤ i ≤ n, 1 ≤ j ≤ p) est une base de
Mn,p(K).
Preuve: ?
∀X = (aij ) 1≤i≤n
1≤j≤p
∈ M n,p (K), on a X = 1≤i≤n aij Eij . Donc B est une famille
1≤j≤p
génératrice de Mn,p(K). Montrons maintenant
? que B est libre. Soient λij ∈ K,
1 ≤ i ≤ n et 1 ≤ j ≤ p, tel que 1≤i≤n λij Eij = 0Mn,p (K) et montrons que
?1≤j≤p
λij = 0, ∀1 ≤ i ≤ n et 1 ≤ j ≤ p. On a 1≤i≤n λij Eij = 0Mn,p (K) est équivalent à
1≤j≤p
λ11 · · · λ1p 0 ··· 0
.. .. .. ..
. =
. . . .
λn1 · · · λnp 0 ··· 0
Par identification on obtient λij = 0, ∀1 ≤ i ≤ n, 1 ≤ j ≤ p. ?
Corollaire 3.11. La dimension de l’espace vectoriel Mn,p (K) est mp. En particulier
dim Mn (K) = n2 et dim Mn,1 (K) = dim M1,n (K) = n.
Exemple 3.12. (1) Soient A1 , A2 , A3 , A4 les matrices de M2 (R) suivantes :
1 0 1 0 1 1 0 −1
A1 = , A2 = , A3 = , A4 = .
0 1 0 −1 1 1 1 0
Montrons que B = (A1 , A2 , A3 , A4 ) est une base de M2 (R). Nous remarquons
que card(B) = 4 = dim M2 (R). Donc pour que B soit une base de M2 (R) il
suffi que B soit libre sur M2 (R). Soient λ1 , . . . , λ4 ∈ R, tel que λ1 A1 + λ2 A2 +
λ3 A3 +λ4 A4 = 0. Montrons que λ1 = · · · = λ4 = 0. On a λ1 A1 +λ2 A2 +λ3 A3 +
λ4 A4 = 0 est équivalent à
λ + λ2 + λ3 l3 − λ 4 0 0
1 = .
λ3 + λ4 λ1 − λ2 + λ3 0 0
Qui est équivalent à
λ1 + λ2 + λ3 = 0,
λ − λ = 0,
3 4
λ3 + λ4 = 0,
λ − λ + λ = 0.
1 2 3
On déduit facilement que λ1 = λ2 = λ3 = λ4 = 0.
28
3.1 Opérations sur les matrices
(2) Montrons que :
a+b −a + b
F = { | a, b ∈ K}
2a + b −a + 2b
est un sous-espace vectoriel de M2 (K). On a
? ? ? ?
a −a b −b
F = { + | a, b ∈ K}
2a −a b 2b
? ? ? ?
1 −1 1 −1
= {a +b | a, b ∈ K}
2 −1 1 2
? ? ? ?
1 −1 1 −1
= vect( , ).
2 −1 1 2
Par suite F est un sous-espace vectoriel de M2 (K).
? ?
a b
(3) Soit H = { | a + b + c + d = 0, ∀a, b, c, d ∈ K. Montrons que H est
c d
un sous-espace vectoriel de M2 (K). Soit f l’application suivante
f : M (κ) → K
2
a b
?→ a + b + c + d.
c d
Il est facile à vérifier que f est une application linéaire, c’est-à-dire, pour tous
λ, β ∈ K, A, B ∈ M2 (K) on a f (λA + βB) = λf (A) + βf (B). On a
ker f = {M ∈ M2 (K) | f (M ) = 0}
? ?
a b
= { | a + b + c + d = 0}
c d
On remarque que ker f = H et on sait que le noyau d’une application linéaire
est un sous-espace vectoriel. On déduit alors que H est un sous-espace vectoriel
de M2 (K).
3.1.3 Sous-espaces des matrices diagonales et triangulaires
Proposition 3.13. Dn (K) l’ensemble des matrices diagonales de Mn (K) est un
sous-espace vectoriel de Mn (K) de dimension n.
a11 0
..
Remarque 3.14. Une base de Dn (K) = {M ∈ Mn (K) | M = . , aij ∈
0 ann
K} est B1 = (E11 , . . . , Enn ).
Proposition 3.15. (1) T≥ ≤
n (K) (resp. Tn (K)) est un sous-espace vectoriel de Mn (K)
de dimension n(n+1)
2
.
29
3 . Matrices
(2) T> <
n (K) (resp. Tn (K)) est un sous-espace vectoriel de Mn (K) de dimension
n(n−1)
2
.
Remarque 3.16. (1) T≥
n (K) = vect(Eij , ∀1 ≤ i ≤ j ≤ n);
(2) T>
n (K) = vect(Eij , ∀1 ≤ i < j ≤ n);
(3) T≤
n (K) = vect(Eij , ∀1 ≤ j ≤ i ≤ n);
(4) T<
n (K) vect(Eij , ∀1 ≤ j < i ≤ n).
Exercice Montrer que :
<
(1) T≥
n (K) ⊕ Tn (K) = Mn (K);
>
(2) T≤
n (K) ⊕ Tn (K) = Mn (K).
3.1.4 Propriétés du produit matriciel
Soient A = (aij ) 1≤i≤n
1≤j≤p
∈ Mn,p (K), B = (bij ) 1≤j≤q
1≤i≤p ∈ Mp,q (K). On définit la
matrice C = A × B = AB = (cij ) 1≤i≤n ∈ Mn,q (K), par ∀1 ≤ i ≤ n, ∀1 ≤ j ≤ q,
?p 1≤j≤q
cij = k=1 aik bkj .
Exemple Vérifier que pour tous Eij , Ekl ∈ Mn (K), on a Eij Ekl = δjk Eil .
Attention : Pour une cette multiplication matricielle soit possible il est necessaire
que le nombre de colonnes de A soit egal au nombre de ligne de B. On peut retirer
type(n,p)× type(p,q)=type(n,q).
Exemple 3.17.
? ?? ? ? ?
1 2 1 0 0 1 × 1 + 2 × 2 0 + 2 × 1 0 + 2 × −1
=
−1 1 2 1 −1 −1 × 1 + 1 × 2 0 + 1 × 1 0 + 1 × −1
? ?
5 2 −2
=
1 1 −1
Remarque 3.18. Si les types de A et B permettent de calculer AB et BA, alors
en général on n’a pas AB = BA. Par exemple :
1 0 0 1 0 1
= .
0 0 0 0 0 0
0 1 1 0 0 0
= .
0 0 0 0 0 0
Proposition 3.19. (1) Pour tout A ∈ Mn,p (K), B ∈ Mp, q(K), C ∈ Mq,m , on a
(AB)C = A(CB) ;
(2) pour tous A, B ∈ Mn,p (K) et C ∈ Mp, q(K), on a (A + B)C = AC + BC ;
(3) pour tous A ∈ Mn,p (K) et B, C ∈ Mp, q(K), on a A(B + C) = AB + AC ;
(4) Pour tout A ∈ Mn,p(K), B ∈ Mp, q(K), et pour tout λ ∈ K, on a λ(AB) =
(λA)B = A(λB).
30
3.1 Opérations sur les matrices
Remarque 3.20. Dans l’ensemble des matrices Mn (K) des matrices carrées, la
multilplications est une loi de composition interne. Elle admet comme élément neutre
la matrice diagonale
1 0
..
In = . .
0 1
Puissance d’une matrice
Définition 3.21. Soit A ∈ Mn (K), on note A0 = In , A1 = A, A2 = A×A, . . . , Am =
A × · · · × A (m termes).
Attension : (A + B)2 = A2 + AB + BA + B 2 ?= A2 + 2AB + B 2 .
(A + B)3 = A3 + A2 B + ABA + Ba2 + AB 2 + BAB + B 2 .
Matrices inversibles
Définition 3.22. Une matrice A ∈ Mn (K) est dite inversible s’il existe B ∈
Mn (K) vérifiant AB = BA = In . Cette matrice B est alors unique, c’est l’inverse
de A noté A−1 .
Exemple 3.23. La matrice In est inversible et In−1 = In .
Proposition 3.24. Soient A, B ∈ Mn (K).
(1) Si A et B sont inversibles alors (AB)−1 = B −1 A−1 .
(2) Si A est inversible alors A−1 est inversible et (A−1 )−1 = A.
Définition 3.25. On note GL(n)(K) l’ensemble des matrices inversibles de Mn (K).
Proposition 3.26. (GL(n)(K), ×) est un groupe appelé groupe linéaire d’ordre n.
? ?
1 2
Exemple 3.27. Soit A = . On vérifie par le calcul que A2 − 5A = 2I2 .
3 4
Par suite A( 21 A − 52 I2 ) = I2 . On conclut alors que A−1 = 12 A − 52 I2 .
Remarque 3.28. La somme de deux matrices inversibles n’est pas toujours une
matrice inversible. Par example :
1 0 −1 0 0 0
+ = .
0 1 0 −1 0 0
Détermination pratique de l’inverse d’une matrice carrée inversible
Lemme 3.29. Soient A, B ∈ Mn,p (K) si AX = BX, ∀X ∈ Mp,1 (K) alors A = B.
31
3 . Matrices
Comment chercher l’inverse d’une matrice carrée A ∈ Gl n(K) : Soit
x1
A = (aij ) 1≤j≤n
1≤i≤n ∈ GL(n)(K). On introduit X = ... ∈ Mn,1 (K) et Y =
xn
y1
.. = AX ∈ M (K). On a
. n,1
yn
y a · · · ann x
1 11 1
.. .. .. ..
. = . . . .
yn an1 · · · ann xn
Qui est équivalent à
y = a11 x1 + a12 x2 + · · · + a1n xn
1
.. .. ..
. . .
y
n = an1 x1 + an2 x2 + ann xn .
Si cela est possible, on résout ce système dont les inconnus sont x1 , . . . , xn et on
obtient :
x1 = b11 y1 + b12 y2 + · · · + b1n yn
.. .. .. (3.1)
. . .
x = b y +b y +b y .
n n1 1 n2 2 nn n
Soit B = (bij ) 1≤j≤n
1≤i≤n ∈ GL(n)(K). Le système (3.1) est équivalent à X = BY . Ainsi
In X = BAX, ∀X ∈ Mn,1 (K), d’après le lemme 3.29 on a In = BA donc A−1 = B.
0 1 1
Exemple 3.30. Soit A = 1 0 1 ∈ M3 (R). Déterminons A−1 ? Soient X =
1 1 0
x1 y1
x2 , Y = y2 ∈ M3,1 (R), tel que Y = AX. On a :
x2 y3
y 1 = x2 + x3 x2 = y 1 − x3 x2 = 21 (y1 − y2 + y3 )
1
y 2 = x1 + x3 ⇔ x3 = 2 (y2 − y3 + y1 ) ⇔ x3 = 21 (y1 + y2 − y3 )
y 3 = x1 + x2 x 1 = y 3 − y 1 + x3 x1 = 21 (−y1 + y2 + y3 )
−1 1 1
On déduit alors que A−1 = 21 1 −1 1 .
1 1 −1
3.2 Représentations matricielles
3.2.1 Matrice colonne des composantes d’un vecteur
Soit E un K-espace vectoriel muni d’une base B = (e1 , . . . , en ), ∀x ∈ E, ∃!(α1 , . . . , αn ) ∈
K, tel que x = α1 e1 + · · · + αn en .
32
3.2 Représentations matricielles
Définition 3.31. On appelle matrice des composantes dans B du vecteur x la ma-
trice colonne de M1,n (K) telles que ses coefficients sontα1 , . .
. , αn , qui sont les
α1
..
composantes de x dans la base B. On la note MatB (x) = . ∈ Mn, 1(K).
αn
Remarque 3.32. Puisque les composantes d’un vecteur dépend de la base choisie,
il est necessaire de préciser la base.
Exemple 3.33. Soit le R espace vectoriel Rn muni de sa base canonique (e1 , . . . , en ).
0
.. 1
.
2
0
On a : MatB (ei ) = . Soit x = (1, 2, 3, . . . , n) ∈ Rn , on a MatB (x) = .. .
1 .
0 n
..
.0
3.2.2 Matrice des composantes d’une famille de vecteurs
Soit F = (x1 , . . . , xp ) une famille de vecteurs d’un K-espace vectoriel E muni
d’une base B = (e1 , . . . , en ). Pour tout 1 ≤ i ≤ p notons ci la colonne des compo-
santes dans B du vecteur xi .
Définition 3.34. On appelle matrice des composantes dans la base B de la famille
des vecteurs F la matrice de Mn,p (K) dont les colonnes sont c1 , . . . , cp , on la note
MatB (F ) = MatB (x1 , . . . , xp ).
Remarque 3.35. Si p = 1, on retrouve la définition de la matrice des composantes
du vecteur x1 dans la base B.
Exemple 3.36. (1) Soit E un K-espace vectoriel muni de la base B = (v1 , . . . , vn ).
On a
1 0
..
MatB (B) = MatB (v1 , . . . , vn ) = . .
0 1
(2) Soit E = K3 muni de sa base canonique B = (e1 , e2 , e3 ) et soient F =
(x1 , x2 , x3 , x4 ), où x1 = (1, 2, 3), x2 = (−1, 5, 6), x3 = (4, 7, 9), x4 = (4, −6, −7).
1 −1 4 4
MatB (F ) = MatB (x1 , x2 , x3 , x4 ) = 2 5 7 −6 .
3 6 9 −7
(3) Soit E = R3 [X] muni de sa base canonique B = (1, X, X 2 , X 3 ). Soient F =
(P0 , P1 , P2 , P3 ), P0 = (1 + X)0 = 1, P1 = (1 + X)1 = 1 + X, P2 = (1 + X)2 =
33
3 . Matrices
1 + 2X + X 2 , P3 = (1 + X)3 = 1 + 3X + 3X 2 + X 3 . On a
1 1 1 1
0 1 2 3
MatB (F ) = .
0 0 1 3
0 0 0 1
3.2.3 Matrice d’une application linéaire
Soient E et F deux K-espaces vectoriels muni respectivement des bases B =
(e1 , . . . , en ) et C = (v1 , . . . , vp ).
Définition 3.37. On appelle matrice representative dans les bases B et C d’une
application linéaire u ∈ L(E, F ) la matrices des composantes dans C de la famille
image (u(e1 ), . . . , u(en )), on la note MatB,C u = MatC (u(e1 ), . . . , u(en )) ∈ Mp,n(K).
Remarque 3.38. La matrice représentative de u dépend du choix des bases B et
C, il est donc necessaire de préciser ces derniers.
Exemple 3.39. (1) Soit u l’application linéaire suivante :
u : R3 → R2
(x, y, z) ?→ (x + 2y − z, x − y).
On muni R3 de la base canonique B = (e1 , e2 , e3 ) (e1 = (1, 0, 0), e2 = (0, 1, 0), e3 =
(0, 0, 1)) et soit C = (v1 , v2 ) la base canonique de R2 (v1 = (1, 0), v2 = (0, 1)).
Déterminons la matrice représentative de u dans les bases B et C. On a
u(e1 ) = (1, 1) = v1 + v2 ,
u(e2 ) = (2, −1) = 2v1 − v2 ,
u(e3 ) = (−1, 0) = −v1 + 0v2 .
Donc
1 2 −1
MatC (u(B)) = .
1 −1 0
(2) Soient a, b ∈ R (fixés) et u l’application linéaire suivante :
u : R3 [X] → R3
P ?→ (P (a), P (b), P (c)).
On muni R3 [X] de sa base canonique B = (P0 = 1, P1 = X, P2 = X 2 , P3 =
X 3 ) et on muni R3 de sa base canonique C = (e1 , e2 e3 ). Déterminons la
matrice représentative de u dans les bases B et C. On a
u(P0 ) = (1, 1, 1) = e1 + e2 + e3 ,
u(P1 ) = (a, b, c) = ae1 + be2 + ce3 ,
u(P3 ) = (a2 , b2 , c2 ) = a2 e1 + b2 e2 + c2 e3 ,
u(P3 ) = (a3 , b3 , c3 ) = a3 e1 + b3 e2 + c3 e3 .
34
3.2 Représentations matricielles
On déduit que
1 a a2 a3
MatC (u(B)) = 1 b b2 b3 .
2 3
1 c c c
3.2.4 Matrice d’un endomorphisme
Soit E un K-espace vectoriel de dimension n et muni de la base B = (e1 , . . . , en ).
Définition 3.40. On appelle matrice représentative dans la base B d’un endomor-
phisme u ∈ L(E) la matrice représentative dans la base B au départ et à l’arrivée
de u, on la note MatB,B u = MatB u ∈ Mn (K).
Exemple 3.41. (1) Soient E un K-espace vectoriel muni d’une base B = (e1 , . . . , en )
et u = IdE l’identité de E. On a MatB u = In .
(2) Soit B = (e1 , e1 , e3 ) la base canonique de R3 et soit u l’endomorphisme sui-
vant :
u : R3 → R3
(x, y, z) ?→ (x + z, z + x, x + y).
On a
u(e1 ) = (0, 1, 1) = e2 + e3 ,
u(e2 ) = (1, 0, 1) = e1 + e3 ,
u(e3 ) = (1, 1, 0) = e1 + e2 .
Alors
0 1 1
MatB (u) = 1 0 1 .
1 1 0
Soient v1 = (1, 1, 1), v2 = (1, 1, 0), v3 = (1, 0, 0), vérifions que B ′ = (v1 , v2 , v3 )
est une base de R3 , pour cela il suffit de montrer que B ′ est libre, car card(B ′ ) =
dim R3 = 3. Soient α, β, γ ∈ R, tel que αv1 + βv2 + γv3 = 0R3 et montrons
que α = β = γ = 0. On a αv1 + βv2 + γv3 = 0R3 est équivalent à
α+β+γ =0
γ=0
α+β =0 ⇔ β=0
α=0
α=0
Donc B ′ est libre. Déterminons MatB ′ u. On a
u(v1 ) = (2, 2, 2) = 2v1 ,
u(v2 ) = (1, 1, 2) = 2v1 − v2 ,
u(v3 ) = (0, 1, 1) = v1 + v3 .
35
3 . Matrices
Alors
2 2 1
MatB ′ (u) = 0 −1 0 .
0 0 −1
3.2.5 Image d’un vecteur
Soient E et F deux K-espaces vectoriels munis des bases B = (e1 , . . . , en ) et
C = (v1 , . . . , vp ). Pour x ∈ E et y ∈ F , par convention on note X et Y les deux
colonnes de x et y dans les bases B et C.
Théorème 3.42. Pour u ∈ L(E, F ), la matrice de u dans les bases B et C est
l’unique matrice de Mp,n (K) vérifiant ∀x ∈ E, ∀y ∈ F , y = u(x) ⇔ Y = AX.
Exemple 3.43. Soirt E un R-espace vectoriel muni d’une base B = (e1 , e2 , e3 ).
Soit u un endomorphisme de E dont la matrice dans B est
1 1 2
MatB u = 1 −1 0 = A.
1 0 1
Soit x = x1 e1 + x2 e2 + x3 e3 ∈ E. On peut calculer le vecteur u(x) par produit
matriciel.
x + x 2 + x3
1
MatB u(x) = AX = x1 − x2 .
x1 + x3
On peut alors étudier le noyau de u en réslovant l’équation matricielle AX =
0M3,1 (K) .
x + x2 + x3 = 0
1 x =x ,
2 1
AX = 0M3,1 (K) ⇔ x1 − x2 = 0 ⇔
x = −x .
x +x =0 3 1
1 3
Ainsi ker u = {x1 (e1 + e2 − e3 ) | x1 ∈ K} = vect(e1 + e2 − e3 ).
On peut aussi facilement déterminer l’image de u.
En effet, par le théorème du rang, on a Rg u = dim E − dim ker u = 2. On peut donc
déterminer une base de Im [Link] considérant deux vecteurs libres de l’image de u. Or
les colonnes de A sont formées par les composantes des vecteurs u(e1 ), u(e2 ) et u(e3 ),
qui sont des éléments de l’image et puisque u(e1 ) = e1 + e2 + e3 et u(e2 ) = e1 − e2
sont libres alors Im(u) = vect(u(e1 ), u(e2 )).
36
3.3 Formule de changement de base
3.2.6 Isomorphisme de représentation matricielle
Soient E et F deux K-espaces vectoriels munis de bases B = (e1 , . . . , en ) et
C = (v1 , . . . , vp ).
Théorème 3.44. L’application
MB,C : L(E, F ) → Mp,n (K)
u ?→ MatB,C u
est un isomorphisme de K-espaces vectoriels.
Corollaire 3.45. Soient E et F deux K-espaces vectoriels de dimensions finies
alors l’espace vectoriel L(E, F ) est un K-espace vectoriel de dimension finie et
dim L(E, F ) = dim F × dim F . En particulier, dim L(E) = (dim E)2 et dim E ∗ =
dim K × dim E = dim E.
Remarque 3.46. Par l’isomorphisme de représentation matricielle, introduire une
application linéaire u de E vers F équivaut à introduire sa représentation matricielle
relative à des bases données de E et F . C’est trés souvent ainsi que sont introduit
des applications linéaires en dimension finie.
3.2.7 Composition d’une application linéaire
Soient E, F et G trois K-espaces vectoriels munis des bases B = (e1 , . . . , ep ),
C = (v1 , . . . , vn ) et D = (w1 , . . . , wm ).
Théorème 3.47. Pour tout u ∈ L(E, F ) et v ∈ L(F, G), on a : MatB,D (v ◦ u) =
MatC,D v × MatB,C u.
3.2.8 Isomorphisme et matrice inversible
Soient E et F deux K-espaces vectoriels munis dew bases B = (e1 , . . . , ep ) et
C = (v1 , . . . , vn ).
Théorème 3.48. Soient u ∈ L(E, F ) et A = MatB,C u on a équivalence entre
(1) u est un isomorphisme ;
(2) A est inversible.
De plus, MatC,B (u−1 ) = A−1 .
3.3 Formule de changement de base
3.3.1 Matrice de passage
Soit E un K-espace vectoriel de dimension n muni de deux bases B = (e1 , . . . , en )
et B ′ = (e′1 , . . . , e′n ).
Définition 3.49. On appelle matrice de passage de la base B à la base B ′ la matrice
P = MatB (B ′ ) = MatB (e′1 , . . . , e′n ).
37
3 . Matrices
Exemple 3.50. soit le R-espace vectoriel R3 muni de la base canonique B =
(e1 , e2 , e3 ) et de la base B ′ = (e′1 , e′2 , e′3 ), où e′1 = e1 − e2 + e3 , e′2 = e2 − e3 et
e′3 = −2e1 + 2e2 − e3 . La matrice de passage de la Base B à la base B ′ est
1 0 −2
MatB B ′ = −1 1 2 .
1 −1 −1
Proposition 3.51. Si P est la matrice de passage de la base B à la base B ′ alors
P = MatB (IdE (B ′ )).
Attension : Ici la matrice de l’endomorphisme IdE n’est pas l’identité car la
représentation matricielle de l’identité est formée en choississant une base à l’arrivée
qui n’est a priori la même au départ.
Proposition 3.52. Si P est la matrice de passage de la base B à la base B ′ alors
P est inversible et P −1 est la matrice de passage B ′ à la base B.
Exemple 3.53. Reprenons les notations de l’exemple précident.
e ′
= e − e + e 1 0 −2
1 1 2 3
′
′
e2 = e2 − e3 et P = Mat B B = −1 1 2 .
e′ = −2e + 2e − e
3 1 2 3 1 −1 −1
Pour former la matrice de passage inverse P −1 , il suffit d’exprimer les vecteurs de la
base B en fonction de ceux de la base B ′ . A l’aide du système précédent on obtient :
e = e ′
+ e ′
1 2 2
1 1 2
−1
′ ′
e2 = 2e1 + e2 + e3 ′ et donc P = Mat B ′ B = 1 1 0 .
e = 2e′ + e′
3 1 3 0 1 1
3.3.2 Nouvelle composante de vecteur
Théorème 3.54. Soient B et B ′ deux bases d’un K-espace vectoriel E de dimen-
sion n si x est un vecteur de E dont on note X et X ′ les colonnes des composantes
dans B et B ′ de x alors on a X = M atB B ′ X ′ .
Remarque 3.55. On retient la formule suivante MatB x = MatB B ′ × MatB ′ x.
Corollaire 3.56. X ′ = MatB ′ BX.
3.3.3 Nouvelle représenatation d’une application linéaire
Théorème 3.57. Soient B et B ′ deux bases d’un K-espace vectoriel E et C et C ′
deux bases d’un K-espace vectoriel F . Si f est une application linéaire de E vers F
dont on note A = MatC (f B)) et A′ = MatC ′ (f (B ′ )) alors on a A′ = Q−1 AP , où P
est la matrice de passage de la base B à la base B ′ et Q est la matrice de passage
de la base C à la base C ′ .
38
3.4 Rang d’une matrice
Remarque 3.58. On peut retrouver la formule du théorème 3.57 à l’aide du dia-
gramme commutatif suivant :
f
(E, B) (F, C)
. IdE IdF
f
(E, B ′ ) (F, C ′ )
On a :
IdF ◦f = f ◦ IdE ⇔ MatC ′ IdF (C)A = A′ MatB ′ IdE (B)
⇔ A′ = MatC ′ Idf (C)AMatB IdE (B ′ )
⇔ A′ = Q−1 AP.
3.4 Rang d’une matrice
3.4.1 Definition
Rappel : Si F = (x1 , . . . , xn ) est une famille de vecteurs d’un K-espace vectoriel
E alors on appelle rang de la famille F la dimension de l’espace engendré par F .
Rg F = dim vect(x1 , . . . , xn ).
Si E et F sont deux K-espaces vectoriels de dimensions finies et u ∈ L(E, F )
alors on appelle rang de l’application linéaire u la dimension de Im u. C’est à dire :
Rg u = dim Im u.
Ces deux concepts sont liés puisque si B = (e1 , . . . , en ) est une base de E alors
Rg u = Rg(u(e1 ), u(e2 ), . . . , u(en )).
Définition 3.59. Soit A = (aij ) 1≤i≤n
1≤j≤p
∈ Mn,p (K) de colonnes C1 , . . . , Cp . On ap-
pelle rang de A le rang de la famille (C1 , . . . , CP ). On note Rg(A) = Rg(C1 , . . . , Cp ).
Théorème 3.60. Si F = (x1 , . . . , xp ) une famille de vecteurs d’un K-espace vecto-
riel E et si A est la matrice de la famille F dans une certaine bese B de E alors
Rg(A) = Rg(x1 , . . . , xp ).
Théorème 3.61. Soient E et F deux K-espaces vectoriels. Si u ∈ L(E, F ) et si A
est la matrice de u relative à des bases B de E et C de F alors Rg(u) = Rg(A).
3.4.2 Propriétés du rang d’une matrice
Proposition 3.62. Pour tout A ∈ Mn,p(K), Rg(A) ≤ min(n, p).
Proposition 3.63. pour tous A ∈ n, p(K), B ∈ Mp,q (K), on a Rg(AB) ≤ min(Rg(A), Rg(B)).
De plus
(a) Si A est une matrice carrée inversible alors Rg(AB) = Rg(B) ;
(b) Si B est une matrice carrée inversible alors Rg(AB) = Rg(A).
Remarque 3.64. On ne modifie pas le rang d’une matrice en multipliant celle-ci
par une matrice inversible.
39
3 . Matrices
Théorème 3.65. Soit A ∈ Mn (K). On a équivalence entre :
(i) A est inversible ;
(ii) Rg(A) = n.
Remarque 3.66. Pour tout A ∈ Mn,p (K), on a Rg(A) = Rg(t A).
40
3 . Matrices
46
Chapitre 4
Systèmes Linéaires, Méthode du
Pivot de Gauss
4.1 Transformations des matrices
4.2 Réduction des matrices ; Méthode du Pivot Gauss
4.3 Recherche de l’inverse d’une matrice carrée
4.4 Systèmes linéaires
47
4 . Systèmes Linéaires, Méthode du Pivot de Gauss
4.5 Exercices
Exercice 1 : Transformer les matrices suivantes en matrices échelonnées ré-
duites :
0 2 −1 3
0 2 −2 5 0 3 −1 −1 m
1 −2
1 0
−1 3 0 4 1 2
−m 1
m
, −1 2 1 5 , .
0 1 −2 2 1 1 1 −m −1
2 −1 0 0
0 −1 2 −4 −1 −3 m 1 1
1 2 −2 −1
Exercice 2 : Calculer lorsque c’est possible l’inverse des matrices suivantes :
2 1 0 2
1 2 3
0 0 0 3
A = 0 −4 −2 , B =
,
−1 2 1 1
1 −1 2
0 0 0 1
1 0 0 2 1
2 −1 3 4 7
1 −2
C= ,D = 0 0 2 1
0 .
3 1
0 0 0 0 1
1 1 1 2 4
Exercice 3 : Résoudre dans R les systèmes par la méthode du pivot de Gauss.
2x + 3y = 12,
x − y + 3z = 6,
(S1 ) : −3x + 5y = 1, (S2 ) : 3x − 2y + 7z = 14,
7x − 11y = −1,
x + 3y − 3z = −4.
2x + 3y + z = 4,
Exercice 4 : Pour λ ∈ R, résoudre le système (Sλ ) : −x + 6y + 2z = 5,
7x + 3y + z = λ.
Exercice 5 : Résoudre en fonction du paramètre m ∈ C, les systèmes suivants
d’inconnues
complexes :
x−y+z = m mx + y + z = 1 mx + y + z + t = 1
(a) x + my − z = 1 (b) x + my + z = m (c) x + my + z + t = m
x−y−z = 1 x + y + mz = m2 x + y + mz + t = m + 1.
Exercice 6 : Soit a, b ∈ C. Résoudre le système :
ax + by + z = 1
x + aby + z = b
x + by + az = 1
48
Chapitre 5
Réduction des Matrices Carrées
5.1 Valeurs propres, Vecteurs propres
Définition 5.1. Soient E un K-espace vectoriel, f un endomorphisme de E et
λ ∈ K. S’il existe x un vecteur non nul de E tel que f (x) = λx, on dit que :
(1) λ est une valeur propre de f .
(2) x est un vecteur propre de f associé à la valeur propre λ.
Dans ce cas :
Eλ = ker(f − λid) = {x ∈ E | f (x) = λx}
est appellé le sous-espace propre associé à λ.
Remarque 5.2. λ est une valeur propre de f ⇔ ker(f −λidE ) ?= {0E } ⇔ dim E ?= 0.
Exemple 5.3. (1) Soit f : R → R, x ?→ 2x. On a 2 est une valeur propre de f .
(2) Soit f : R2 → R2 , (x, y) ?→ (x, 2y). On a f (1, 0)(1, 0) et f (0, 1) = 2(0, 1). Donc
1 et 2 sont deux valeurs propres de f et (1, 0) (resp. (0, 1)) est un vecteur propre
associé à la valeur propre 1 (resp. 2).
Remarque 5.4. Soient λ1 , λ2 deux valeurs propres différentes de f ∈ L(E). Alors
Eλ1 capEλ2 = {0}.
Proposition 5.5. Soient E un K-espace vectoriel et f un endomorphisme de E.
Si x1 , . . . , xp sont des vecteurs propres associes aux valeurs propres deux à deux
distinctes λ1 , . . . , λp alors la famille (x1 , . . . , xp ) est libre.
Corollaire 5.6. Soient E un K-espace vectoriel de dimension n et f un endomor-
phisme de E.
(1) Si λ1 , . . . , λp sont des valeurs propres de f distinctes deux à deux et Eλ1 , . . . , Eλp
sont
?les sous-espaces propres associés, alors la somme Eλ1 +· · ·+Eλp est directe
p
et i=1 dim Eλi ≤ n.
(2) f ademet au plus n valeurs propres.
49
5 . Réduction des Matrices Carrées
5.2 Diagonalisation d’un endomorphisme
Soient E un K-espace vectoriel de base B = (e1 , . . . , en ) etf un endomorphisme
λ1 0
..
de E. Notons A = MatB (f (B)). Si A est diagonale avec A = . alors
0 λn
f (ei ) = λi ei , ∀1 ≤ i ≤ n. Donc les valeurs popres de f sont λ1 , . . . , λn et e1 , . . . , en
sont des vecteurs propres de f associés respectivement à λ1 , . . . , λn . Réciproque-
ment :
Si ∀1≤ i ≤ n, ei est un vecteur propre de f associée à la valeur propre _i, alors
λ1 0
. ..
A=
0 λn
Définition 5.7. Soient E un K-espace vectoriel de dimension n et f un endomor-
phisme de E. On dit que f est diagonalisable s’il existe une base B de E telle que
la matrice de f dans cette base est diagonale (c’est-à-dire, il existe une base de E
formée par les valeurs propres de f ).
Théorème 5.8. Soient E un K-espace vectoriel de dimension n et f un endomor-
phisme de E, qui possède p valeurs propres distinctes. Les conditions suivantes sont
équivalentes :
(i) f est diagonalisable.
(ii) E = Eλ1 ⊕ . . . Eλp .
(iii) Il existe ue base B de E telle que A′ = MatB f (B) est diagonale.
Corollaire 5.9. Soient E un K-espace vectoriel de dimensuion n et f un endomor-
phisme de E. Si f possède n valeurs propres distinctes alors f est diagonalisable.
5.3 Diagonalisation d’une matrice carrée
Définition 5.10. Soient A une matrice carrée de Mn (K) et λ ∈ K. S’il existe
X ∈ Kn , (on identifie Kn avec Mn,1 (K)) tel que AX = λX alors
(1) λ est une valeur propre de A.
(2) X est un veceteur propre de A associé à la valeur propre λ.
Dans ce cas : Eλ = {X ∈ Mn,1 (K) | AX = λX} est l’espace propre associé à la
avaleur propre λ.
Proposition 5.11. Soient A ∈ Mn (K) et λ ∈ K. Les conditions suivantes sont
équivalentes :
(i) λ est une valeur propre de A.
(ii) A − λIn n’est pas inversible.
(iii) det(A − λIn ) = 0.
50
5.3 Diagonalisation d’une matrice carrée
Preuve:
Nous démontrons que (i) implique (ii). On a λ est une valeur propre de A, donc
il existe X ∈ Mn,1 (K) un vecteur propre non nul associé à la valeur propre λ. On
a AX − λX = (A − λIn )X = 0. Si on suppose que A − λIN est inversible, on a
(A − λIn )−1 (A − λIn )(X) = 0. Ceci implique que X est nul ce qui est absurde. ?
51