Cours d'Algèbre Linéaire : Notions Clés
Cours d'Algèbre Linéaire : Notions Clés
Dans le premier chapitre, on présente quelques notions sur les structures algébriques. Dans
le second, on étudie les éléments de calcul matriciel et le troisième est consacré aux espaces
vectoriels.
Des travaux dirigés seront proposés au fur et à mesure, ils permettront de mettre en
application des notions du cours sur des exemples simples et significatifs.
ELEMENTS DE LOGIQUE
1.Opérations logique
Tableau de vérité
p q Nonp p et q p ou q p q p q
V V F V V V V
V F F F V F F
F V V F V V F
F F V F F V V
Soit E un ensemble
x appertient à E : x ∈ E
x n’appartient pas à E : x ∉ E
F un sous ensemble de E : F ⊂ E
PE : Ensemble des sous ensemble de E
∈ PE
E ∈ PE
A ⊆ E A ∈ PE
Soit A et B 2 sous ensembles de E
Si A ∩ B = , A et B sont disjoints
x ∈ A ∩ B x ∈ A et x ∈ B
A∩B = B∩A
A∪B = B∪A
Soient A, B et C des sous ensembles de E
A ⊆ B et B ⊆ C A ⊆ C
A ∩ B ∩ C = A ∩ B ∩ C = A ∩ B ∩ C
Soit E 1, . . . E n , n ensembles
n
L’intersection se note : ∩ E i
i=1
n
L’union se note : ∪ E i
i=1
A une partie de E, on appelle complément de A dans E et on note C E A : les
éléments de E qui ne sont pas dans A
Si A ⊂ B alors C E B ⊂ C E A
Soit A et B 2 sous ensembles de E, on appelle différence de A et B note A\B
l’ensemble des éléments de A qui n’appartiennent pas à B
A\B = A ∩ C E B.
2. Applications
1.1. Définitions
Définition .1.On appelle loi de composition interne (LCI) ou opération sur E toute
1.2. Notations
Dans la pratique on emploie pour désigner les lois de composition des notations telles que :
a*b;
(a, b) → a T b ; … etc.
Exemples .1.
5) La loi ⊗ définie sur 2 par (a , b) (a', b') = (aa' - bb', ab' + ba')
AxA → A
On peut alors considérer l’application restreinte : , qui définit une loi de
(a , b) → a * b
1.3. Propriétés
commune, a * b * c
a * b = b * a, pour tous, a, b de E
∀ a, b ∈ E, x * a = x * b ⇒ a = b (régularité à gauche)
a * e = e * a = a, pour tout a ∈ E
Théorème .1. Si une loi de composition interne admet un élément neutre, elle en admet un seul.
Preuve : Supposons en effet que e et e’ soient des éléments neutres ; la formule e * a = a donne
e’ = e.
Exemples .2.
1) Sur l’ensemble des entiers relatifs, on a les trois lois de composition interne :
d’élément neutre. .
composition associatives et commutatives sur P(E). La première de ces lois admet pour
a‘ * a = e (resp. a * a’ = e)
Théorème .2. Si a ∈ E est symétrisable, il en est de même de son symétrique a’, et celui-ci
relation :
(a * b)’ = b' * a’
2. GROUPES
Définition .1. Un ensemble non vide, G muni d’une LCI, * est un groupe si :
Lorsque la loi * est commutative, on dit que G est un groupe commutatif ou plus
couramment abélien.
Exemples .3.
commutatifs.
2) *,
* et * munis de la loi produit (la multiplication usuelle) forment des
groupes.
5) Les couples suivants ne sont pas des groupes : (, +), ( , .), (P(E), ∪ ),
(P(E), ∩ )
rque : Lorsqu’on a affaire à une loi de composition en notation multiplicative. Les éléments
(a) H≠∅
- Un groupe G possède toujours au moins deux sous groupes : lui même, et l’ensemble {e} réduit
à l’élément neutre de G.
3. CORPS
Définition .1. Un ensemble non vide K, muni d’une loi additive notée, + et d’une loi
Si de plus, la loi, . est commutative, on dira que K est un corps commutatif ou abélien.
Définition .2. Un corps K est dit fini, s'il n'admet qu'un nombre fini d'éléments.
Exemples .5.
(La multiplication usuelle) sont des corps commutatifs, appelés corps usuels.
Définition .3. Un élément, a, non nul est un diviseur de zéro, s'il existe un élément b non
ELEMENTS DE
CALCUL MATRICIEL
Les premiers rudiments de calcul matriciel sont dus aux mathématiciens J.J. Sylvester et A. Cayley (à partir de
1850).
Les matrices sont des objets mathématiques que l'on rencontre très couramment en
mathématiques, que ce soit en algèbre linéaire ou en géométrie. Leurs intérêts sont
notamment les nombreuses interprétations qu'on peut leur donner, outre le nombre de
problèmes qu'elles permettent de résoudre.
1. MATRICES
1.1. Définitions
Une matrice d’ordre (m, n) (ou de type (m, n) ou de taille m.n) est une application A de
{1, 2, ... , m}x{1, 2, ... , n} dans K,qui à chaque couple (i, j), on associe un élément de K
noté aij.
Les éléments aij pour (i, j) ∈ {1, 2, ... , m}x{1, 2, ... , n} sont rangées dans un "tableau
rectangulaire" :
aa11
a12 ... a1n
. . . .
Une matrice d’ordre (m, m) est dite matrice d’ordre m (nombre de lignes = nombre de
colonnes)
Deux matrices A = (aij), B = (bij) de même ordre sont égales ⇔ aij = bij , ∀ i, j
6 Cours d’algèbre linéaire
2. Eléments de calcul matriciel
Exemples .1.
3 5 -1
1) , est une matrice d'ordre (2, 3) :
0 1 4
a11 = 3, a12 = 5, a13 = -1, a21 = 0, a22 = 1 et a23 = 4
0 1
2) 2 -1, est une matrice d'ordre (3, 2) :
5 3
a11 = 0, a12 = 1, a21 = 2, a22 = -1, a31 = 5 et a32 = 3
1 si i = σ(j)
M4(σ) = (σij) d’ordre 4 définie par : σij =
0 si i ≠ σ(j)
1 2 3 4
Considérons σ = la permutation de E4 définie par :
1 3 4 2
0
1 0 0 0
0 0 1
La matrice associée à cette permutation est donnée par : M4 (σ) =
0 1 0 0
0 0 1 0
Notations :
Mm, n(K).
C'est une matrice dont le nombre de lignes est égal au nombre de colonnes
(m = n). Elle est dite matrice carrée d'ordre n ou tout simplement matrice
d'ordre n
C'est une matrice d'ordre (1, n) (i.e.la matrice a une seule ligne) :
C'est une matrice d'ordre (m, 1) (i.e.la matrice a une seule colonne) :
a11
a21
A=
...
am1
2.3. Matrices triangulaires
ll11 0 0 ... 0
L=
21 l22 0 ... 0
. . . . 0
ln1 ln2 ln3 ... lnn
d11 0 ... 0
D=
0 d22 0 .
. . . 0
0 … 0 dnn
C'est une matrice carrée notée In (ou tout simplement I), couramment appelée
01 10 ... 0
δ
ii = 1
In = (δij) =
pour i = 1, 2, ... , n
=
0 .
δij = 0 pour i ≠ j
. . . 0
0 … 0 1
La transposée d’une matrice A d’ordre (m, n), est la matrice notée tA (ou AT) d’ordre
3 1
3 1 0
Exemple .2. Soit A =
. La matrice transposée de A est tA = 1 1 .
1 1 6
0 6
Si A = (aij)1 ≤ i ≤ n, et tA = (bij)1 ≤ i ≤ n, , alors on a :
1≤j≤n 1≤j≤n
bij = aji , ∀ i, j
Une matrice carrée A est dite symétrique ⇔ tA = A (i.e. aij = aji , ∀ i, j).
3.1. Somme
Soient A = (aij), B = (bij), deux matrices de même ordre. On définit la matrice somme
2 3 0 1 3 1 3 6 1
Exemple .3. A = , B = ⇒ A+B=
4 5 2 4 2 7 8 7 9
Propriétés :
1. A + B = B + A
3. A + 0 = 0 + A
4. A + (-A) = 0
t
5. (A + B) = tA + tB
3.2. Produit
par :
α.A = (α.aij)
Le produit AB dans cet ordre de la matrice ligne A = (a11, a12, … , a1m) par la
b11
b21
matrice colonne B =
m
est défini par le scalaire : c = ∑ a1k.bk1
.
bm1 k=1
4
Exemple .4. (1 2 3) 5 = 1x4 + 2x5 + 3x3 = 23
3
. Cas général
Si A est une matrice d'ordre (m, n), B est une matrice d'ordre (n, p). Le produit A.B
n
dans cet ordre est une matrice P = (pij) d'ordre (m, p) telle que : pij = ∑ ai k.bk j
k=1
, (1 ≤ i ≤ m, 1 ≤ j ≤ p)
jème colonne de B
↓
b1j
.
n
ième ligne de A → (ai1 … aik … ain) bkj pij = ∑ ai k.bk j
. k=1
bnj
Remarques :
(1) Le produit AB n'a de sens que si le nombre de colonnes de A est égal au nombre de
lignes de B.
Exemples .5.
2 3 2 2 2
1) Soient A = , B = 4 2
2 2 2
1 3
Le nombre de colonnes de A est égal au nombre de lignes de B. Le produit A.B est
p11 p12
une matrice d'ordre 2 : A.B =
p21 p22
2 2
4
avec : p11 = (2 3 2) = 18, p21 = (2 2 2) 4 = 14
1 1
2 2
2
p12 = (2 3 2) = 16, p22 = (2 2 2) 2 = 14
3 3
18 16
Ainsi, on a : A.B =
14 14
0 1 0 -i 1 0
2) Sx = , Sy = , Sz = ⇒ Sx.Sy = i.Sz, Sy.Sx = - i.Sz
1 0 i 0 0 -1
Définition : On dit que A ≠ 0 est un diviseur de zéro s'il existe une matrice B ≠ 0 telle
que :
Exemples .6.
1 1 1 -1 0 0
1) A= , B = ⇒ A.B =
1 1 -1 1 0 0
2 1 2 -1 0 0
2) A= , B = ⇒ A.B =
-2 -1 -4 2 0 0
Ces matrices sont des diviseurs de zéro dans M2( » )
Propriétés :
1. (A.B).C = A.(B.C)
2. (λ.A).B = λ.(A.B), ∀ λ ∈ K
4. A.In = In.A = A
5. En général, on a : A.B ≠ B.A (si A.B = B.A, on dit que A et B commutent entre elles).
6. t(A.B) = tB.tA
7. t(λ.A) = λ.(tA)
4. MATRICES INVERSIBLES
4.1. Définitions
Définition .1. Une matrice A d'ordre n, est dite inversible (ou régulière), s'il existe
B est dite matrice inverse de A et on la note A-1. Si la matrice inverse existe, elle
est unique.
12 Cours d’algèbre linéaire
2. Eléments de calcul matriciel
Définition .2. Une matrice d’ordre n qui n’admet pas d’inverse est dite non
Vouloir inverser une matrice peut sembler, une drôle d’idée. Pourtant, cela
plusieurs systèmes d’équations linéaires qui ne sont différenciés que par leurs
seconds membres.
Pour calculer l'inverse de A, on peut utiliser la méthode suivante dite, méthode des
Exemples .7.
1 1
1) On considère la matrice suivante : A =
1 0
a c
B= telle que : A.B = In
b d
1 1 a c 1 0 1 1 a 1 1 1 c 0
. = ⇔ . = et . =
1 0 b d 0 1 1 0 b 0 1 0 d 1
a + b = 1 (1) c + d = 0 (3)
⇔ et
a = 0 (2) c = 1 (4)
0 1
⇒ a = 0, b = 1, c = 1 et d = -1. On obtient, donc : B =
1 -1
-1 0 1
On vérifie facilement que : A.B = B.A = I ⇒ B = A =
1 -1
1 2 a c
2) A = . De la même façon, on pose B = .
2 4 b d
1 2 a c 1 0 1 2 a 1 1 2 c 0
. = ⇔ . = et . =
2 4 b d 0 1 2 4 b 0 2 4 d 1
a + 2b =1 (1) c + 2d = 0 (3)
⇔ et
2a +4b =0 (2) 2c + 4d = 1 (4)
.
0
0
Soient A-1 = (αij) sa matrice inverse, et, ej = 1 , 1 est placé à la j me ligne (pour j = 1,
0
.
0
2, …, n) :
α
a11 a12 ... a1n
1j
A.A-1 = In ⇔
a21 a22 ... a2n
α2j = e , pour j = 1, 2, ... , n
. . . . ..
j
Remarque :
Ces n systèmes linéaires ont la même matrice A. Au lieu de les résoudre séparément, ce qui
nécessiterait de faire subir à la matrice A, n fois la même transformation, nous allons les
résoudre simultanément, en ne considérant qu'une seule matrice A et n vecteurs
colonnes(c’est la technique basée sur la méthode de Gauss- Jordan). Ainsi, ces n systèmes
vont se présenter sous la forme de deux matrices accolées (A | In ).
-1 3 5
Exemple .8. On se propose de calculer l'inverse de la matrice A = 3 1 3 .
5 3 -1
Utilisons la méthode de Gauss- Jordan, pour résoudre 3 fois le système linéaire A.x = b, en
A I3
[-1] 3 5
1 0 0
3 1 3 0 1 0
5 3 -1 0 0 1
-1 3 5
1 0 0
0 [10] 18 3 1 0
0 18 24 5 0 1
→ La ligne 2 reste, inchangée
3
→ Remplaçons la 1ére ligne par : ligne 1 – x ligne 2
10
9
→ Remplaçons la 3ème ligne par : ligne 3 – x ligne 2
5
-1
2 1 3
0 - - 0
5 10 10
0 10 18
3 1 0
42
0 5
1
2 9
0 [- ] - -
5 5
→ La ligne 3 reste, inchangée
1
→ Remplaçons la 1ére ligne par : ligne 1 – x ligne 3
21
15
→ Remplaçons la 2ème ligne par : ligne 2 – (- ) x ligne 3
7
5 3 1
- - 21
-1 0 0
42 14
15 20 15
0 10 0
- 7
42
7 7
0 0 [-
5
] 2 9
-5 -5 1
( Remplaçons la 1ére ligne par : – ligne 1
( Remplaçons la 2ème ligne par : EQ \f(1;10) x ligne 2
5
→ Remplaçons la 3ème ligne par : - x ligne 3
42
-1
5 A
I3 3 1 5 3 1
- -
1 0 0
42 14 21
6 2 3
14 7 2
3 2 3 - 1 1 3 3
0 1 0 - → A = -2
14 7 2
0 0 1 5 5
42 -
1 3 1 3
-
21 14 3 2 6
Propriétés :
1. A A
n m = An + m
2. (A )
n m = An.m
Soient A et B, deux matrices carrées de même ordre telles que, A.B = B.A, (on dit A
et B commutent ) alors :
n
n
(A + B) = ∑np Ap.Bn - p
p=0
0 1 0 0
Exemple .8. En prenant, A = , B = .
0 0 1 0
Matrice idempotente
2
B2 = (I - A) = In – 2. A + A = In - A =B
2
Matrice nilpotente
Une matrice d'ordre n est dite nilpotente s'il existe un entier p ∈ * tel que :
p
A = 0 et Ap-1 est différent de 0.
0 0
La matrice A = est une matrice nilpotente, on montre que, A2 = 0.
1 0
suivante :
p
A- p = (A-1) , ∀p∈
1 -3 2
1 4 1 0
2 1 -1 -2
A= 2 1 -3 , B= 2 1 1 1 et C = 3 -2 -1 -1.
4 -3 -1 1 -2 1 2 2 -5 -1 0
simplification).
ESPACES VECTORIELS
Dans tout le chapitre (K, +, .), désignera un corps commutatif d’élément neutre 0 et d’unité 1
(K = ou ).
Définition .1. On appelle loi de composition externe (lce) opérant de K sur un ensemble E
KxE E
toute application (notée par exemple ) :
(, u) u
Définition .2. E un ensemble muni d’une loi de composition externe, opérant de K sur
∈ K, u ∈ A, u ∈ A
KxA A
On peut alors considérer l’application restreinte : qui définit une loi
(, u) u
de composition externe opérant de K sur A appelée loi externe induite par celle de E.
2. ESPACES VECTORIELS
Définition : l’ensemble est dit espace vectoriel sur K (ou un K- espace vectoriel) si, et
seulement, si :
b1. (u v) = ( u) ( v)
b2. ( + ) u = ( u) ( u)
b3. (.) u = ( u)
b4. 1 u = u
- On dit que, les propriétés (a) et (b) confèrent à E une structure d’espace vectoriel sur K.
- Les éléments de E sont appelés vecteurs et les éléments de K sont appelés scalaires.
Exemples .1.
1) Tout corps commutatif (K, +, .), est un espace vectoriel sur lui-même.
n
2) Structure de K- espace vectoriel sur K : (K, +, .) est un corps commutatif.
n
Soit n ∈ ℕ et E = K .
Pour tous x = (x1, ... , xn), y = (y1, ... , yn) ∈ E : x y = (x1 + y1, ... , xn + yn)
Ensuite la loi externe (loi produit) définie sur KxKn à valeurs dans Kn par :
ExE E
. Où, (f g)(x) = f(x) + g(x), x ∈ I.
(f , g) f g
Ensuite la loi externe (loi produit) définie sur xE à valeurs dans E par :
( f )(x) = .f(x), x ∈ I.
- Muni de ces deux lois. ℱ(I, ), a une structure d’espace vectoriel sur
ExE E
((x, y); (x', y')) (x, y) (x', y') = (x + x', y + y')
Et une loi externe notée, opérant de sur E et définie par :
E E
( ;(x, y )) (x, y ) ( x, y )
- Muni de ces deux lois. x n’est pas un - espace vectoriel. En effet :
(a) Le symbole de la loi interne, sera désormais noté +, 0 et, -x désigneront respectivement
Propriétés :
(c) x ∈ E, ∈ K ; .x = 0 = 0 ou x = 0
Preuve :
l'on a :
Définition : Une partie non vide F de E est un sous espace vectoriel (s.e.v.) de E si la
1. F
Conséquences :
1. Dans . Si on prend, = -1 ; u ∈ F -u ∈ F
2. Dans 2 . Si on pose, y = -u 0 ∈ F
Donc une condition nécessaire et suffisante pour que F ne soit pas un s.e.v. de E, est que 0 ∉ F.
Exemple .2.
ℱ( , )
Contre-exemple .2.
Définitions :
(1) Combinaisons linéaires : Soit A = (u1, u2, ... , up) = (ui)1 i p une famille finie de
p
Tout vecteur de E de la forme 1u1 + 2u2 + … + pup = i ui où i ∈ K
i=1
(2) Sous espace engendré : L’ensemble de toutes ces combinaisons que l’on désigne
par vec(u1, u2, ... , up) est appelé sous espace vectoriel engendré par les vecteurs u1,
u2, … , up.
vec(u1, u2, ... , up) est le plus petit sous espace (au sens de l’inclusion) contenant
A = (ui)1 i p
p
scalaires 1, 2, … , p tels que u = i ui, c’est-à-dire si tout vecteur de est
i=1
Exemples .4.
1) Le vecteur nul, est combinaison linéaire de toute famille finie de vecteurs, les
3 3 est
2) Considérons le - espace vectoriel . Tout vecteur (x, y, z) ∈
D = {v | v = .u, ∈ }
n n:
4) E = . Considérons les vecteurs suivants de
ei = (0, ... , 0, 1, 0, ... , 0), i ∈ {1, 2, ... , n} (1 est placé à la ième position).
Définition .1. Une famille finie (ui)1 i n de vecteurs de E est dite libre (ou les
vecteurs u1, u2, … , un sont dits linéairement indépendants) si, et seulement, si pour
n
tous scalaires 1, 2, … , n ∈ K, i.ui = 0 1 = 2 = … = n = 0
i =1
Définition .2. Une famille finie (ui)1 i n de vecteurs de E est dite liée (ou les
n
1, 2, …, n ∈ K (non tous nuls) tels que : i.ui = 0
i =1
Exemples .5.
2 la famille ((1, 0); (1, 1)) est libre. Par contre la famille
2) Dans
((1, 0); (0, 1); (1, 1)) est liée (puisque (1, 1) = (1, 0) + (0, 1))
Pi(x) = xi, pour i = 0, 1, 2, ... , n.(P0, P1, ... , Pn) est une famille libre de E.
indépendants :
P = {w | w = .u + .v ; ( , ) ∈ 2}
5.2. Propriétés
Corollaire :
6.1. Définitions
Définition .1. La famille de vecteurs (ui)1 i nforme une base de E si les deux
(1) Les vecteurs u1, u2, ... , un, sont linéairement indépendants : la famille (ui)1 i n
est libre
(2) Les vecteurs u1, u2, ... , un, engendrent E : la famille (ui)1 i n est génératrice
Définition .2. Une famille de vecteurs (ui)1 i n est une base de E si tout
vecteur u ∈ E peut s’écrire de manière unique comme combinaison linéaires des ui,
pour i = 1, 2, … , n.
n
u ∈ E, 1, 2, … , n ∈ K, tels que, u = i.ui
i =1
- Les scalaires 1, … , n sont alors appelés les composantes ou les coordonnées du vecteur u dans
1
la base B de E et, on note : u =
2 ou u = ( , ... , )
1 n B
.
nB
Exemples .6.
n
1) E = , les vecteurs e1, e2, ... , en définis dans les exemples .4., forment une
2) E = ℙn(K). La famille (P0, ... , Pn), définie dans les exemples .5., forme une
vecteurs non coplanaires. Le triplet (OM1, OM2, OM3) forme une base de E
- Un espace vectoriel E est dit de dimension finie n, et on écrit dim E = n, si E, admet une base de
n vecteurs.
Exemples .7.
n
1. , est de dimension n sur
Théorème .1. E un espace vectoriel de dimension finie. Alors toutes les base de
Remarques :
b. Si un espace vectoriel n’est pas de dimension finie, on dit qu’il est de dimension
infinie.
Théorème .2. Dans un espace vectoriel E de dimension finie, il existe toujours des
bases.
Corollaire (des théorèmes .1. et .2.) : Dans un espace vectoriel de dimension finie, p.
Toute famille de plus de p éléments est liée.
Toute famille de moins de p éléments ne peut être génératrice.
Toute famille libre de p éléments forme une base.
Toute famille génératrice de p éléments forme une base.
De tout système générateur on peut extraire une base.
Remarque : Les deux dernières propriétés énoncées dans le corollaire signifie que si
dim E = p, alors pour toute famille de p vecteurs, libre génératrice base (une des deux
propriétés suffit).
Preuve :
Si S est libre, comme card S = p = dim E S est libre maximale (au sens de
Théorème : Tout s.e.v. F d’un espace vectoriel E sur K est tel que : dim F dim E
Soit E un K- espace vectoriel de dimension n et, soit S = (u1, u2, ... , up) une famille
de p vecteurs de E (p n).
Remarques :
b. rg(u1, u2, …… , up) = p u1, u2, ... , up, sont linéairement indépendants (i.e. le
rang de (u1, u2, … , up) est nombre maximum de vecteurs linéairement indépendants
d. rg(u1, u2, …… , up) = dim E (u1, u2, …… , up) est un système de générateurs
de E
4. Par ajout d'un vecteur nul (i.e. rg(u1, u2, … , up , 0) = rg(u1, u2, ... , up)).
Preuve : l'espace vectoriel engendré par le système reste invariant par les
Exemple .8.
Considérons, u = (1, -1, 1, 0), v = (1, 1, 0, 1) et w = (2, 0, 1, 1) des vecteurs
4
de
La méthode de Gauss est utilisée, pour calculer le rang d'un système de vecteurs S
Soit :
ui = i, 1.v1 + ... + i, j.vj + ... + i, n.vn, pour i = 1, 2, ... , p
où B = (v1, ... , vn) est une base de E et, i, 1, ... , i, j, ... , i, n sont les
Propriété .1. Si, pour i > j on a, i, j = 0 et, i {1, 2, … , p} on a, i, i 0, alors
Propriété .2. La famille S = (u1, u2, ... , up) et, la famille S' obtenue en remplaçant
p
dans S, ui par j uj avec i non nul, ont le même rang.
j=1
Preuve :
Le sous espace engendré par S et, par S' = (S - {ui})∪{1u1 + ... + pup} est bien le
même si i 0.
même sous espace que S et, dont les vecteurs non nuls, possèdent la propriété .1.
vecteurs de 4 muni de sa base canonique (e1, e2, e3, e4) tel que :
1 -1 1 0 u
On constitue le tableau suivant : 1 1 0 1 v
2 0 1 1 w
On choisit un des vecteurs dont la 1ère composante est, non nulle (si les trois
premières composantes des trois vecteurs étaient, nulles on opérera dans le sous
1 -1 1 0
u
nulle (soit, = 1 = -1, ’= 1 et ’ = -2) : 0 2 -1 1 v-u
0 2 -1 1 w - 2u
Formons ensuite le système S" = {u, v’, w"} avec : w" = "v ’ + "w ’
" et ", étant choisis de manière que la 2ème composante de w", soit nulle :
1 -1 1 0
u
0 2 -1 1 v - u
0 0 0 0 w - 2u - (v - u)
Les trois systèmes S, S' et S" ont le même rang (propriété .2.); S" est formé de
par :
w - 2u - (v - u) = 0 w = u + v
Preuve :
F G (0 F et 0 G)
Soit, H = F G. K, (u , v) ∈ HxH
u∈ F u ∈ G .u + v ∈ F
, et, .u + v ∈ H
v∈F v∈G .u + v ∈ G
D’une manière générale si, (Fi )i I est une famille de s.e.v. de E alors Fi , (pour tout
i I)est un s.e.v. de E.
F = {(x , 0) | x ∈ } et G = {(0 , y) | y ∈ }.
On vérifie facilement que F et G sont deux s.e.v. de 2. Cependant, F ∪ G n’est pas un s.e.v.
de 2
Mais u + v ∉ F ∪ G
F + G = vec(F ∪ G)
z ∈ S, x ∈ F et y ∈ G : z = = x + y
On note alors, S = F G
Exemples .9.
Alors, E = F1 F2 ... Fn
E=FG
Ce sous espace G associé à F est loin d’être unique.
Preuve :
Supposons que dim E = n et, dim F = p et, soit B' = (b1, … , bp) une base de F. B'
est libre dans E car F ⊂ E, d’après le théorème sur l’existence de bases, on peut
compléter B' par une famille B" = (bp + 1, ... , bn) pour obtenir une base B de E,
B = B'∪ B".
z = (1 b1 + ... + p bp) + (p + 1 bp + 1 + ... + n bn) (car B est une base de E),
unique dans G.
Donc, on a bien : E = F G