0% ont trouvé ce document utile (0 vote)
86 vues38 pages

Cours d'Algèbre Linéaire : Notions Clés

Transféré par

Moad Chbani
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
86 vues38 pages

Cours d'Algèbre Linéaire : Notions Clés

Transféré par

Moad Chbani
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Département des sciences

Fondamentales & Appliquées (DFSA)


Unité de Mathématiques

COURS D’ALGEBRE LINEAIRE


PartieI

Mme B.KHATTABI APESA 2021/2022


Ce manuel regroupe les trois premiers chapitres du cours d’Algèbre linéaire de l’année
préparatoire aux Etudes Supérieures Agronomiques et Vétérinaire.

Dans le premier chapitre, on présente quelques notions sur les structures algébriques. Dans
le second, on étudie les éléments de calcul matriciel et le troisième est consacré aux espaces
vectoriels.

Des travaux dirigés seront proposés au fur et à mesure, ils permettront de mettre en
application des notions du cours sur des exemples simples et significatifs.
ELEMENTS DE LOGIQUE

1.Opérations logique

la logique mathématique désigne l’ensemble des régles de pensées par lesquelles


on peut atteindre une vérité.
une proposition est une phrase qui est soit vraie soit fausse
au sens mathématique une proposition désigne un théorème d’importance
secondaire et au sens logique elle est vraie.
A partir de 2 propositions p et q on peut définir deux autres propositions "nonp" et
"nonq".
par définition la proposition "Nonp" est vraie si p est fausse.

Tableau de vérité
p q Nonp p et q p ou q p  q p  q
V V F V V V V
V F F F V F F
F V V F V V F
F F V F F V V

2. Quelques types de démonstrations

Le but est de démontrer l’implication entre 2 propositions p et q


- Méthode direct
- Méthode de démonstration par contraposée
pour montrer que p  q =, on montre que Nonq  Nonp
- Démonstration par l’absurde
pour montrer que p  q, on suppose p vraie et q fausse et on aboutit à une
contradictions avec des axiomes ou des hypothèses.
- Démonstration par récurence
- le but est de démontrer qu’une proposition p indexé par n,noté p n est vraie pour tout
entier n ou pour tout entier n ≥ n 0

LES ENSEMBLES ET APPLICATIONS

1. Définition sur les ensembles

Soit E un ensemble
x appertient à E : x ∈ E
x n’appartient pas à E : x ∉ E
F un sous ensemble de E : F ⊂ E
PE : Ensemble des sous ensemble de E
 ∈ PE
E ∈ PE
A ⊆ E  A ∈ PE
Soit A et B 2 sous ensembles de E
Si A ∩ B = , A et B sont disjoints
x ∈ A ∩ B  x ∈ A et x ∈ B
A∩B = B∩A
A∪B = B∪A
Soient A, B et C des sous ensembles de E
A ⊆ B et B ⊆ C  A ⊆ C
A ∩ B ∩ C = A ∩ B ∩ C = A ∩ B ∩ C
Soit E 1, . . . E n , n ensembles
n
L’intersection se note : ∩ E i
i=1
n
L’union se note : ∪ E i
i=1
A une partie de E, on appelle complément de A dans E et on note C E A : les
éléments de E qui ne sont pas dans A
Si A ⊂ B alors C E B ⊂ C E A
Soit A et B 2 sous ensembles de E, on appelle différence de A et B note A\B
l’ensemble des éléments de A qui n’appartiennent pas à B
A\B = A ∩ C E B.

2. Applications

Soit E et F 2 ensembles et f une application de E dans F


Soit A ⊆ E, fA = fx, x ∈ A = y ∈ F, ∃x ∈ A, y = fx
B ⊆ F, f −1 B = x ∈ A, fx ∈ B
on note FE, F l’ensembledes applications de E dans F
Soit L ⊆ E, on appelle réstriction de f à L, noté f /L l’application f: L  F
Soit f : E  F et g : F  G 2 applications
on définit l’application composée de f par g noté fog comme l’application de E dans
G, ∀x ∈ E, gofx = gfx.
Si f et g sont injectives, gof est injective
Si f et g sont surjectives, gof est surjective
Si f et g sont injectives, f est injective
Si f et g sont surjectives, g est isurjective
Soit f : E  F une application
f est bijective  ∃f −1 : F  E ,fof −1 = Id E
f −1 s’appelle la fnction réciproque de f
Si f et g sont bijectives, alors gof est bijective et gof −1 = f −1 og −1 .
QUELQUES NOTIONS SUR
LES STRUCTURES ALGEBRIQUES

E désigne un ensemble non vide.


1. LOI DE COMPOSITION INTERNE

1.1. Définitions

Définition .1.On appelle loi de composition interne (LCI) ou opération sur E toute

application de l’ensemble produit ExE dans l’ensemble E lui-même.


Une loi de composition interne sur E consiste donc, intuitivement, à faire correspondre, à tout
couple (a, b) d’éléments de E, un troisième élément de E qui dépend de, a et de b suivant une loi
donnée d’avance.

1.2. Notations
Dans la pratique on emploie pour désigner les lois de composition des notations telles que :

(a, b) → a + b (notation additive) ; (a, b) → a.b (notation multiplicative) ; (a, b) →

a*b;

(a, b) → a T b ; … etc.

Soit (a, b) → a T b, une loi de composition interne sur un ensemble E

L'élément a T b de E est appelé composé de, a et de, b.

Exemples .1.

1) La somme sur, ; *; Z ;  ;  et  (mais pas sur Z * ;  *;  * et  *).

2) Le produit sur, ; *; Z ;  ;  et  .

3) La différence sur  ou   (mais pas sur ).

4) La loi ⊕ définie sur  2 par (a , b) ⊕ (a', b') = (a + a', b + b')

5) La loi ⊗ définie sur  2 par (a , b) (a', b') = (aa' - bb', ab' + ba')

6) Les lois, ∪ ; ∩ et ∆ (réunion, intersection et différence symétrique) sur P(E) [ensemble

des parties de E].

1 Cours d’algèbre linéaire


E est un ensemble muni d’une LCI notée, *.

Définition .2. Une partie A de E, est dite stable pour * si : ∀ a, b ∈ A, a * b ∈ A

 AxA → A
On peut alors considérer l’application restreinte : , qui définit une loi de
 (a , b) → a * b

composition interne sur A appelée loi interne induite par celle de E

1.3. Propriétés

Soit * et T deux lois internes sur E.

 Associativité : La loi * est dite associative si et seulement si Pour tous éléments a,

b et c de E, on a : a * (b * c) = (a * b) * c, dans ce cas on notera la valeur

commune, a * b * c

 Commutativité : La loi * est dite commutative si, et seulement, si :

a * b = b * a, pour tous, a, b de E

 Distributivité : La loi T est distributive par rapport à la loi * si, et seulement, si

pour tous a, b, c de E, on a : a T (b * c) = (a T b) * (a T c) (distributivité à

gauche) et, (b * c) T a = (b T a) * (c T a) (distributivité à droite)

1.4. Eléments particuliers

 Elément régulier : Soit x ∈ E. x est dit élément régulier pour * si :

∀ a, b ∈ E, x * a = x * b ⇒ a = b (régularité à gauche)

et, ∀ a, b ∈ E, a * x = b * x ⇒ a = b (régularité à droite)

 Elément neutre : Soit e ∈ E. e est dit élément neutre pour * si :

a * e = e * a = a, pour tout a ∈ E

Théorème .1. Si une loi de composition interne admet un élément neutre, elle en admet un seul.

Preuve : Supposons en effet que e et e’ soient des éléments neutres ; la formule e * a = a donne

en particulier e * e’ = e’ ; la formule a * e’ = a donne en particulier e * e’ = e ; on a donc

e’ = e.

2 Cours d’algèbre linéaire


1. Quelques notions de la structure algébrique

Exemples .2.

1) Sur l’ensemble  des entiers relatifs, on a les trois lois de composition interne :

 L’addition (a, b) → a + b, est commutative, associative, et admet un élément neutre 0

 La multiplication (a, b) → ab, est commutative, associative, et admet un élément


neutre 1
 La soustraction (a, b) → a - b, n’est ni commutative, ni associative, et n’admet pas

d’élément neutre. .

2) Sur P(E) ; les applications (A, B) → A ∩ B et (A, B) → A ∪ B sont des lois de

composition associatives et commutatives sur P(E). La première de ces lois admet pour

élément neutre l’ensemble E, la seconde, l’ensemble vide, ∅.

 Eléments symétrisables : si e ∈ E est l'élément neutre pour, *. Etant donné un

élément a ∈ E, on appelle symétrique à gauche (resp. symétrique à droite) de, a tout

élément a' ∈ E tel que l’on ait :

a‘ * a = e (resp. a * a’ = e)

Et on appelle symétrique de, a tout élément a’ vérifiant : a * a' = a' * a = e.

Enfin, on dit que

3 Cours d’algèbre linéaire


1. Quelques notions de la structure algébrique

Théorème .2. Si a ∈ E est symétrisable, il en est de même de son symétrique a’, et celui-ci

admet a pour symétrique. Si a et b sont symétrisables, il en est de même de, a * b, et on la

relation :
(a * b)’ = b' * a’

2. GROUPES

Définition .1. Un ensemble non vide, G muni d’une LCI, * est un groupe si :

(1) * est associative.

(2) * admet un élément neutre.

(3) Tout élément de G a un symétrique dans G.

Lorsque la loi * est commutative, on dit que G est un groupe commutatif ou plus

couramment abélien.

Exemples .3.

1)  ,  ,  et  munis de la loi somme (l’addition usuelle) sont des groupes

commutatifs.

2)  *, 
* et  * munis de la loi produit (la multiplication usuelle) forment des

groupes.

3) L’ensemble P(E) muni de la différence symétrique est un groupe.

4) (  2, ⊕) est un groupe commutatif.

5) Les couples suivants ne sont pas des groupes : (, +), (  , .), (P(E), ∪ ),

(P(E), ∩ )

rque : Lorsqu’on a affaire à une loi de composition en notation multiplicative. Les éléments

inversibles du groupe G sont appelés des unités et constituent un groupe appelé

groupe des unités.

2.1. Sous-groupes d’un groupe

(G, *), désigne un groupe.

Définition .2. On dit qu’une partie H de G est un sous-groupe de G si :

4 Cours d’algèbre linéaire


1. Quelques notions de la structure algébrique

(a) H≠∅

(b) Si a ∈ H et b ∈ H ⇒ a * b’ ∈ H ( b’ est le symétrique de b )

- Un groupe G possède toujours au moins deux sous groupes : lui même, et l’ensemble {e} réduit
à l’élément neutre de G.

3. CORPS

Définition .1. Un ensemble non vide K, muni d’une loi additive notée, + et d’une loi

multiplicative notée, . est un corps si :

(1) (K, +) est un groupe commutatif.

(2) (K*, .), où, K* = K - {0}, est un groupe.

(3) . est distributive par rapport à +.

Si de plus, la loi, . est commutative, on dira que K est un corps commutatif ou abélien.

Définition .2. Un corps K est dit fini, s'il n'admet qu'un nombre fini d'éléments.

On montre que tout corps fini est commutatif.

Exemples .5.

1) (  , +, .), (  , +, .), (  , +, .), munis de la loi + (L’addition usuelle) et de la loi .

(La multiplication usuelle) sont des corps commutatifs, appelés corps usuels.

2) (  2, ⊕, ⊗) (Voir exemples .1.) est un corps.

Définition .3. Un élément, a, non nul est un diviseur de zéro, s'il existe un élément b non

nul tel que :

a.b = 0 (b est aussi un diviseur de zéro).

Proposition : Un corps n'admet pas de diviseurs de zéro.

5 Cours d’algèbre linéaire


2. Eléments de calcul matriciel

ELEMENTS DE
CALCUL MATRICIEL

Les premiers rudiments de calcul matriciel sont dus aux mathématiciens J.J. Sylvester et A. Cayley (à partir de
1850).

Les matrices sont des objets mathématiques que l'on rencontre très couramment en
mathématiques, que ce soit en algèbre linéaire ou en géométrie. Leurs intérêts sont
notamment les nombreuses interprétations qu'on peut leur donner, outre le nombre de
problèmes qu'elles permettent de résoudre.

1. MATRICES

K = » ou » . m et n, deux entiers naturels non nuls.

1.1. Définitions

Une matrice d’ordre (m, n) (ou de type (m, n) ou de taille m.n) est une application A de

{1, 2, ... , m}x{1, 2, ... , n} dans K,qui à chaque couple (i, j), on associe un élément de K

noté aij.

Les éléments aij pour (i, j) ∈ {1, 2, ... , m}x{1, 2, ... , n} sont rangées dans un "tableau

rectangulaire" :

 aa11 
a12 ... a1n

 21 a22 ... a2n



A= . . . . 

 . . . . 

 am1 am2 ... amn 

 aij s'appelle terme ou coefficient de la matrice, on lit, a indice i, j

 Dans la notation aij, i désigne le numéro de la ligne, j celui de la colonne.

 Une matrice A d'éléments aij est notée : A = (aij)1 ≤ i ≤ m, ou simplement


1≤j≤n
A = (aij)

 Une matrice d’ordre (m, m) est dite matrice d’ordre m (nombre de lignes = nombre de
colonnes)
 Deux matrices A = (aij), B = (bij) de même ordre sont égales ⇔ aij = bij , ∀ i, j
6 Cours d’algèbre linéaire
2. Eléments de calcul matriciel

Exemples .1.

 3 5 -1
1)   , est une matrice d'ordre (2, 3) :
 0 1 4
a11 = 3, a12 = 5, a13 = -1, a21 = 0, a22 = 1 et a23 = 4

 0 1

2)  2 -1, est une matrice d'ordre (3, 2) :
 5 3
a11 = 0, a12 = 1, a21 = 2, a22 = -1, a31 = 5 et a32 = 3

3) E4 = {1, 2, 3, 4}. A toute permutation σ de E4, on associe la matrice :

 1 si i = σ(j)
M4(σ) = (σij) d’ordre 4 définie par : σij = 
0 si i ≠ σ(j)

1 2 3 4
Considérons σ =   la permutation de E4 définie par :
1 3 4 2

σ(1) = 1, σ(2) = 3, σ(3) = 4 et σ(4) = 2

0 
1 0 0 0
0 0 1
La matrice associée à cette permutation est donnée par : M4 (σ) = 
0 1 0 0
0 0 1 0

Notations :

(a) Matrices rectangulaires :

Quand m ≠ n, on parlera d'une matrice rectangulaire d’ordre (m, n).

L'ensemble des matrices d'ordre (m, n) à coefficients dans K est noté

Mm, n(K).

(b) Matrices carrées :

C'est une matrice dont le nombre de lignes est égal au nombre de colonnes

(m = n). Elle est dite matrice carrée d'ordre n ou tout simplement matrice

d'ordre n

L'ensemble des matrices carrées d'ordre n, est noté Mn(K).

* Les éléments aii, sont appelés éléments diagonaux de A.

* Les éléments aij pour i ≠ j, sont appelés éléments hors – diagonaux de A.

* L'ensemble des éléments diagonaux constitue, la diagonale principale de A.

7 Cours d’algèbre linéaire


2. Eléments de calcul matriciel

2. MATRICES DE TYPES PARTICULIERS

2.1. Matrice ligne

C'est une matrice d'ordre (1, n) (i.e.la matrice a une seule ligne) :

A = (a11 , a12 , … , a1n)

2.2. Matrice colonne

C'est une matrice d'ordre (m, 1) (i.e.la matrice a une seule colonne) :
a11
 a21 
A=
 
 ... 
 am1
2.3. Matrices triangulaires

 Matrice triangulaire supérieure

C'est une matrice carrée U = (uij), vérifiant : uij = 0, pour i > j

 u11 u12 ... u1n



U=
 0 u22 ... u2n

 . . . . 
0 … 0 unn 

 Matrice triangulaire inférieure

C'est une matrice carrée L = (lij), vérifiant : lij = 0, pour i < j

 ll11 0 0 ... 0

L=
 21 l22 0 ... 0

 . . . . 0 
 ln1 ln2 ln3 ... lnn 

2.4. Matrice diagonale

C'est une matrice carrée D = (dij), telle que : dij = 0, pour i ≠ j

8 Cours d’algèbre linéaire


2. Eléments de calcul matriciel

 d11 0 ... 0

D=
0 d22 0 .

 . . . 0 
 0 … 0 dnn 

On la note D = diag(dii) = diag (d11 , d22 , … , dnn).

2.5. Matrice unité

C'est une matrice carrée notée In (ou tout simplement I), couramment appelée

matrice identité (ou encore matrice de Kronecker) est telle que :

 01 10 ... 0

δ
 ii = 1
In = (δij) = 
pour i = 1, 2, ... , n
=
 0 . 
δij = 0 pour i ≠ j
. . . 0

0 … 0 1

Où δij est le symbole de Kronecker.

2.6. Matrice nulle

C'est une matrice vérifiant : aij = 0, ∀ i, j. On la notera 0M , ou simplement 0


m, n(K)

(si aucune confusion n'est à craindre).

2.7. Matrices symétriques– antisymétriques- orthogonales

 Transposée d’une matrice : Soit A ∈ Mm, n( » )

La transposée d’une matrice A d’ordre (m, n), est la matrice notée tA (ou AT) d’ordre

(n, m), obtenue en échangeant (dans l'ordre)

les lignes de A pour devenir colonnes de tA.

3 1
3 1 0
Exemple .2. Soit A = 
 
. La matrice transposée de A est tA = 1 1 .
1 1 6  
0 6
Si A = (aij)1 ≤ i ≤ n, et tA = (bij)1 ≤ i ≤ n, , alors on a :
1≤j≤n 1≤j≤n

bij = aji , ∀ i, j

 Une matrice carrée A est dite symétrique ⇔ tA = A (i.e. aij = aji , ∀ i, j).

9 Cours d’algèbre linéaire


2. Eléments de calcul matriciel

 Une matrice A est dite antisymétrique ⇔ tA = -A (i.e. aij = - aji , ∀ i, j).

 Une matrice A est dite orthogonale ⇔ tA.A = A.tA = I

3. OPERATIONS SUR LES MATRICES

3.1. Somme

Soient A = (aij), B = (bij), deux matrices de même ordre. On définit la matrice somme

de A et B, la matrice C notée A + B = (cij) telle que : cij = aij + bij , ∀ i, j

2 3 0 1 3 1  3 6 1
Exemple .3. A =  , B =   ⇒ A+B= 
4 5 2 4 2 7 8 7 9

Propriétés :

1. A + B = B + A

2. (A + B) + C = A + (B + C). On notera la valeur commune, A + B + C

3. A + 0 = 0 + A

4. A + (-A) = 0

t
5. (A + B) = tA + tB

 Les propriétés (1 - 4) confèrent à (M


Mm, n(K), +) une structure de groupe commutatif.

3.2. Produit

 Produit par un scalaire

Soient A = (aij), α ∈ K. Le produit de α par A est la matrice notée α.A définie

par :

α.A = (α.aij)

 Produit d’une matrice ligne par une matrice colonne

Le produit AB dans cet ordre de la matrice ligne A = (a11, a12, … , a1m) par la

b11
 b21 
matrice colonne B =
  m
est défini par le scalaire : c = ∑ a1k.bk1
 .
bm1 k=1

10 Cours d’algèbre linéaire


2. Eléments de calcul matriciel

4
Exemple .4. (1 2 3) 5 = 1x4 + 2x5 + 3x3 = 23
3
. Cas général

Si A est une matrice d'ordre (m, n), B est une matrice d'ordre (n, p). Le produit A.B

n
dans cet ordre est une matrice P = (pij) d'ordre (m, p) telle que : pij = ∑ ai k.bk j
k=1

, (1 ≤ i ≤ m, 1 ≤ j ≤ p)

jème colonne de B

b1j
.
  n
ième ligne de A → (ai1 … aik … ain) bkj   pij = ∑ ai k.bk j
. k=1
bnj
Remarques :

(1) Le produit AB n'a de sens que si le nombre de colonnes de A est égal au nombre de

lignes de B.

(2) L'élément pij de P est alors le produit de la, ième ligne de A

par la, jème colonne de B.

Exemples .5.

2 3 2 2 2
1) Soient A =  , B =  4 2 
2 2 2
 1 3
Le nombre de colonnes de A est égal au nombre de lignes de B. Le produit A.B est

 p11 p12 
une matrice d'ordre 2 : A.B =  
 p21 p22 
2 2 
4  
avec : p11 = (2 3 2)   = 18, p21 = (2 2 2) 4  = 14
1 1
2 2
2  
p12 = (2 3 2)   = 16, p22 = (2 2 2) 2 = 14
3 3

11 Cours d’algèbre linéaire


2. Eléments de calcul matriciel

 18 16 
Ainsi, on a : A.B =  
 14 14 

0 1  0 -i  1 0 
2) Sx =  , Sy =  , Sz =   ⇒ Sx.Sy = i.Sz, Sy.Sx = - i.Sz
1 0  i 0  0 -1 

Définition : On dit que A ≠ 0 est un diviseur de zéro s'il existe une matrice B ≠ 0 telle

que :

A.B = 0 (B est aussi un diviseur de zéro).

Exemples .6.

1 1  1 -1 0 0 
1) A= , B =   ⇒ A.B =  
1 1  -1 1 0 0 

 2 1  2 -1 0 0 
2) A= , B =   ⇒ A.B =  
 -2 -1  -4 2 0 0 
Ces matrices sont des diviseurs de zéro dans M2( » )

Propriétés :
1. (A.B).C = A.(B.C)

2. (λ.A).B = λ.(A.B), ∀ λ ∈ K

3. A.(B + C) = A.B + A.C

4. A.In = In.A = A

5. En général, on a : A.B ≠ B.A (si A.B = B.A, on dit que A et B commutent entre elles).

6. t(A.B) = tB.tA

7. t(λ.A) = λ.(tA)

4. MATRICES INVERSIBLES

4.1. Définitions

Définition .1. Une matrice A d'ordre n, est dite inversible (ou régulière), s'il existe

une matrice B d'ordre n, telle que : A.B = B.A = In

B est dite matrice inverse de A et on la note A-1. Si la matrice inverse existe, elle

est unique.
12 Cours d’algèbre linéaire
2. Eléments de calcul matriciel

Théorème .2. U ne matrice A d'ordre n, est dite inversible si et seulement si elle

inversible à droite ou à gauche.

 L'ensemble des matrices inversibles d'ordre n, muni de la loi produit, est un

groupe appelé groupe linéaire d'ordre n sur K, noté GLn(K).

Définition .2. Une matrice d’ordre n qui n’admet pas d’inverse est dite non

inversible ou une matrice singulière.

4.2. Inversion de matrices : Techniques de calcul

 Méthode des coefficients indéterminés

Vouloir inverser une matrice peut sembler, une drôle d’idée. Pourtant, cela

intervient dans des calculs intermédiaires, en beaucoup de domaines. Là où

l’inversion de matrice intervient le plus directement, c’est dans la résolution de

plusieurs systèmes d’équations linéaires qui ne sont différenciés que par leurs

seconds membres.

Pour calculer l'inverse de A, on peut utiliser la méthode suivante dite, méthode des

coefficients indéterminés : On cherche une matrice B = (bij) telle que A.B = In

Exemples .7.
 1 1 
1) On considère la matrice suivante : A =  
 1 0 

On se propose de calculer l'inverse de A. Pour cela, on cherche une matrice

 a c 
B=  telle que : A.B = In
 b d 

 1 1  a c   1 0   1 1   a  1  1 1   c 0
 .  =   ⇔  .  =   et  .  =  
 1 0 b d   0 1   1 0   b  0  1 0  d 1
a + b = 1 (1) c + d = 0 (3)
⇔  et 
a = 0 (2) c = 1 (4)

 0 1
⇒ a = 0, b = 1, c = 1 et d = -1. On obtient, donc : B =  
 1 -1

13 Cours d’algèbre linéaire


2. Eléments de calcul matriciel

-1  0 1
On vérifie facilement que : A.B = B.A = I ⇒ B = A =  
 1 -1

1 2  a c 
2) A =   . De la même façon, on pose B =  .
2 4  b d 

 1 2  a c   1 0   1 2   a  1  1 2   c 0
 . =   ⇔  .  =   et  .  =  
 2 4 b d   0 1   2 4   b  0  2 4  d 1
 a + 2b =1 (1)  c + 2d = 0 (3)
⇔  et 
2a +4b =0 (2) 2c + 4d = 1 (4)

(1) et (2) ⇒ 2 = 0, ce qui est impossible ⇒ A est une matrice singulière.

 Méthode d’élimination de Gauss- Jordan


Prenons A = (aij) une matrice d’ordre n. On cherche à inverser A

(on suppose que A est inversible).

.
0

0
 
Soient A-1 = (αij) sa matrice inverse, et, ej = 1 , 1 est placé à la j me ligne (pour j = 1,
0
.
 0
2, …, n) :
α
 a11 a12 ... a1n
  1j 
A.A-1 = In ⇔
 a21 a22 ... a2n
  α2j  = e , pour j = 1, 2, ... , n
 . . . .   .. 
j

 an1 an2 ... ann   αnj 

Remarque :
Ces n systèmes linéaires ont la même matrice A. Au lieu de les résoudre séparément, ce qui

nécessiterait de faire subir à la matrice A, n fois la même transformation, nous allons les
résoudre simultanément, en ne considérant qu'une seule matrice A et n vecteurs
colonnes(c’est la technique basée sur la méthode de Gauss- Jordan). Ainsi, ces n systèmes
vont se présenter sous la forme de deux matrices accolées (A | In ).

Le principe de la méthode de Gauss- Jordan revient à la détermination d’une matrice N

inversible telle que la matrice NA soit diagonale, ce qui correspond à la procédure


14 Cours d’algèbre linéaire
2. Eléments de calcul matriciel

d’élimination. Il reste ensuite à résoudre le système linéaire à matrice diagonale :


NA.x = N.b

 -1 3 5

Exemple .8. On se propose de calculer l'inverse de la matrice A =  3 1 3 .
 5 3 -1 
Utilisons la méthode de Gauss- Jordan, pour résoudre 3 fois le système linéaire A.x = b, en

prenant successivement b = ei , pour i = 1, 2, 3.

A I3

 [-1] 3 5
 1 0 0

 3 1 3  0 1 0
  
 5 3 -1  0 0 1

Faisons subir à cette matrice les transformations suivantes :

→ La ligne 1 reste, inchangée


→ Remplaçons la 2ème ligne par : ligne 2 – (- 3) x ligne 1
→ Remplaçons la 3ème ligne par : ligne 3 – (- 5) x ligne 1

 -1 3 5
 1 0 0

 0 [10] 18  3 1 0 
 0 18 24  5 0 1 
→ La ligne 2 reste, inchangée
3
→ Remplaçons la 1ére ligne par : ligne 1 – x ligne 2
10
9
→ Remplaçons la 3ème ligne par : ligne 3 – x ligne 2
5

 -1  
2 1 3
0 - - 0
5 10 10
0 10 18
 3 1 0

 42  
0 5 
1 
2 9
0 [- ] - -
5 5
→ La ligne 3 reste, inchangée
1
→ Remplaçons la 1ére ligne par : ligne 1 – x ligne 3
21
15
→ Remplaçons la 2ème ligne par : ligne 2 – (- ) x ligne 3
7

15 Cours d’algèbre linéaire


2. Eléments de calcul matriciel


5 3 1
- - 21
 
-1 0 0

 
42 14
15 20 15


0 10 0
- 7
 42 
7 7

 0 0 [-
5 
] 2 9
-5 -5 1 
( Remplaçons la 1ére ligne par : – ligne 1
( Remplaçons la 2ème ligne par : EQ \f(1;10) x ligne 2
5
→ Remplaçons la 3ème ligne par : - x ligne 3
42

-1
5 A
  
I3 3 1 5 3 1
- -
 1 0 0

42 14 21
  6 2 3

 
14  7  2
3 2 3 - 1 1 3 3
0 1 0 - → A = -2
  14 7 2
 0 0 1  5   5
42   - 
1 3 1 3
-
21 14 3 2 6

5. PUISSANCES D'UNE MATRICE

5.1. Puissances positives d’une matrice

Définition : Soit A une matrice d'ordre n

On définit les puissances p- ième (p ∈ ) de A, par :


p
A0 = In (A ≠ 0), A = A.A …… A , ∀ p ∈ * (le produit est effectué p fois)

Ainsi : A2 = A.A, A3 = A.A.A = A2.A = A.A2, ... etc.

Propriétés :

Soit A une matrice carrée, n et m deux entiers naturels non nuls, On a :

1. A A
n m = An + m

2. (A )
n m = An.m

5.2. Formule des binômes de Newton

Soient A et B, deux matrices carrées de même ordre telles que, A.B = B.A, (on dit A

et B commutent ) alors :

n
n
(A + B) = ∑np Ap.Bn - p
p=0

16 Cours d’algèbre linéaire


2. Eléments de calcul matriciel

 0 1   0 0 
Exemple .8. En prenant, A =  , B =  .
 0 0   1 0 

On montre que on n’a pas en général A2 - B2 = (A – B).(A + B). Une condition

nécessaire et suffisante pour la validité de la relation est que A.B = B.A.

 Matrice idempotente

Une matrice A d'ordre n est idempotente si elle satisfait à la relation A2 = A.

Remarque : La matrice B = In - A est aussi idempotente car :

2
B2 = (I - A) = In – 2. A + A = In - A =B
2

La matrice A= est une matrice idempotente.

 Matrice nilpotente

Une matrice d'ordre n est dite nilpotente s'il existe un entier p ∈ * tel que :
p
A = 0 et Ap-1 est différent de 0.

Dans ce cas p est dit ordre de nilpotence de A

 0 0 
La matrice A =   est une matrice nilpotente, on montre que, A2 = 0.
 1 0 

5.3. Puissances négatives d’une matrice inversible

Soit A une matrice inversible. On définit les puissances négatives de A de la manière

suivante :

p
A- p = (A-1) , ∀p∈

Proposition : A et B deux matrices inversibles de même ordre :


-1
1. A.B est inversible et on a : (A.B) = B-1.A-1
-1 t -1
2. A est une matrice inversible et on a : (tA) = (A )

Attention ! En général, l’égalité A.B = A.C, n’entraîne pas nécessairement B = C. Il


suffit de considérer l’exemple suivant :

17 Cours d’algèbre linéaire


2. Eléments de calcul matriciel

 1 -3 2
  1 4 1 0
  2 1 -1 -2

A= 2 1 -3 , B= 2 1 1 1 et C =  3 -2 -1 -1.
 4 -3 -1  1 -2 1 2  2 -5 -1 0

On vérifie facilement que A.B = A.C alors que B différent C

Proposition : Si A est une matrice inversible, l’égalité A.B = A.C ⇒ B = C (loi de

simplification).

18 Cours d’algèbre linéaire


3. Espaces vectoriels

ESPACES VECTORIELS

Dans tout le chapitre (K, +, .), désignera un corps commutatif d’élément neutre 0 et d’unité 1

(K =  ou  ).

1. LOI DE COMPOSITION EXTERNE

Définition .1. On appelle loi de composition externe (lce) opérant de K sur un ensemble E

 KxE  E
toute application (notée par exemple ) : 
 (, u)    u
Définition .2. E un ensemble muni d’une loi de composition externe,  opérant de K sur

E. Une partie A de E est, dite stable pour cette loi lorsque :

  ∈ K, u ∈ A,   u ∈ A

 KxA  A
On peut alors considérer l’application restreinte :  qui définit une loi
 (, u)    u

de composition externe opérant de K sur A appelée loi externe induite par celle de E.

2. ESPACES VECTORIELS

E un ensemble non vide, muni de deux lois de composition :

 Une loi de composition interne notée, 

 Une loi de composition externe opérant de K sur E, notée, 

Définition : l’ensemble est dit espace vectoriel sur K (ou un K- espace vectoriel) si, et

seulement, si :

(a) (E, ) est un groupe commutatif.

(b) La loi externe,  doit satisfaire les propriétés suivantes :

 (u, v) ∈ ExE,  (, ) ∈ KxK

b1.   (u  v) = (  u)  (  v)

b2. ( + )  u = (  u)  (  u)

b3. (.)  u =   (  u)

b4. 1  u = u

18 Cours d’algèbre linéaire


3. Espaces vectoriels

 L’élément neutre de (E, ) est alors appelé vecteur nul, on le note 0.

- On dit que, les propriétés (a) et (b) confèrent à E une structure d’espace vectoriel sur K.

- Les éléments de E sont appelés vecteurs et les éléments de K sont appelés scalaires.

- L’axiome (b4) peut paraître inutile. Cependant, si on considère l’ensemble E des

couples (u, v) tels que : Pour tous u, v ∈  muni de la loi externe :

  (u, v) = (u, 0), on en comprend immédiatement l’utilité.

Exemples .1.

1) Tout corps commutatif (K, +, .), est un espace vectoriel sur lui-même.

n
2) Structure de K- espace vectoriel sur K : (K, +, .) est un corps commutatif.

n
Soit n ∈ ℕ et E = K .

D’abord la loi interne  (loi additive) définie par :

Pour tous x = (x1, ... , xn), y = (y1, ... , yn) ∈ E : x  y = (x1 + y1, ... , xn + yn)

Ensuite la loi externe  (loi produit) définie sur KxKn à valeurs dans Kn par :

Pour tous  ∈ K, x = (x1, ... , xn) ∈ E :   x = (.x1, ... ,  .xn)

- Muni de ces deux lois. Kn a une structure d’espace vectoriel sur K.

3) Structure de  - espace vectoriel sur, E = ℱ(I,  ) :

Soit I, un intervalle de  , et E = ℱ(I,  ); ensemble des fonctions réelles définies sur I.

E a une structure d’espace vectoriel sur  pour les lois suivantes :

D’abord la loi interne  (loi additive) définie par :

 ExE  E
 . Où, (f  g)(x) = f(x) + g(x),  x ∈ I.
 (f , g)  f  g

Ensuite la loi externe  (loi produit) définie sur  xE à valeurs dans E par :

(  f )(x) = .f(x),  x ∈ I.

- Muni de ces deux lois. ℱ(I,  ), a une structure d’espace vectoriel sur 

Contre-exemple .1. E =  x  muni des deux lois suivantes :

19 Cours d’algèbre linéaire


3. Espaces vectoriels

Une loi interne notée,  (loi additive) sur E et définie par :

 ExE  E

 ((x, y); (x', y'))  (x, y)  (x', y') = (x + x', y + y')
Et une loi externe notée,  opérant de  sur E et définie par :

  E  E

( ;(x, y ))    (x, y )  (  x,  y )
- Muni de ces deux lois.  x  n’est pas un  - espace vectoriel. En effet :

1  (x, y) = (-x, y)  (x, y) (pour x  0)

 Par soucis de clarté, nous adoptons les notations suivantes :

(a) Le symbole  de la loi interne, sera désormais noté +, 0 et, -x désigneront respectivement

l’élément neutre de E pour la loi additive + et le symétrique de x, élément quelconque de E

dans (E, +).

(b) Le symbole  de la loi externe, sera désormais noté, .

Propriétés :

(E, +, .), un K- espace vectoriel.

(a)  ∈ K,  x, y ∈ E ; .(x - y) = .x - .y

(b)  ,  ∈ K,  x ∈ E ; ( - ).x = .x - .x

(c)  x ∈ E,   ∈ K ; .x = 0   = 0 ou x = 0

Preuve :

(a) .(x - y) + .y = .[(x - y) + y] = .x

a.1. si, x = y, on obtient : .0 = 0

a.2. si, x = 0, on obtient : .(-y) = -(.y)

(b) ( - ).x + .x = [( - ) + ].x = .x

b1- si,  =  on obtient : 0.x = 0

b2- si,  = 0 on obtient : (-).x = -(.x), on peut donc écrire -.x

(c) D'après a.1. et a.2. c'est suffisant.

D'autre part si; x = 0, et   0, l'inverse -1 de , existe (puisque   0), et

l'on a :

20 Cours d’algèbre linéaire


3. Espaces vectoriels

1.x = x = (-1).x = -1.(.x) = -1.0 = 0

3. SOUS ESPACES VECTORIELS

Dans toute la suite (E, +, .) désignera un K- espace vectoriel

Définition : Une partie non vide F de E est un sous espace vectoriel (s.e.v.) de E si la

restriction à FxF de la loi de composition interne + de E, et, la restriction à KxF de loi de

composition externe, confèrent à F une structure d’espace vectoriel sur K.

Théorème : Une partie F de E (F ⊂ E) est un s.e.v de E si, et seulement, si :

1. F  

2.  (u, v) ∈ FxF ; u + v ∈ F (stabilité de F pour la loi interne +)

3.   ∈ K,  u ∈ F ; .u ∈ F (stabilité de F pour la loi externe .)

Corollaire : (caractérisation usuelle)

Une partie F de E est un s.e.v de E si, et seulement, si :


i. F

ii.  (, ) ∈ KxK,  (u, v) ∈ FxF ;

Conséquences :

1. Dans  . Si on prend,  = -1 ;  u ∈ F  -u ∈ F

2. Dans 2 . Si on pose, y = -u  0 ∈ F

 Donc une condition nécessaire et suffisante pour que F ne soit pas un s.e.v. de E, est que 0 ∉ F.

Exemple .2.

1) F = {0} est un s.e.v. de E.

3 | z = 0}, est un s.e.v. de,  3


2) L’ensemble F = {(x, y, z) ∈ 

3) ℙn(  ) ; ensemble des fonctions polynômes de degré  n, est un s.e.v. de,

ℱ(  ,  )

21 Cours d’algèbre linéaire


3. Espaces vectoriels

Contre-exemple .2.

F = {f ∈ ℱ([a , b],  ) / f(a) + f(b) = 1}

F n'est pas un de ℱ([a , b],  ). En effet :

L’application nulle  ∉ F [ est définie par : (x) = 0,  x ∈ [a , b]]

4. COMBINAISONS LINEAIRES, FAMILLE GENERATRICE

4.1. Combinaisons linéaires

Définitions :

(1) Combinaisons linéaires : Soit A = (u1, u2, ... , up) = (ui)1  i  p une famille finie de

p vecteurs d’un espace vectoriel E.

p
Tout vecteur de E de la forme 1u1 + 2u2 + … + pup =  i ui où i ∈ K
i=1

est appelé combinaison linéaire des vecteurs ui, i = 1, 2, …, p

(2) Sous espace engendré : L’ensemble de toutes ces combinaisons que l’on désigne

par vec(u1, u2, ... , up) est appelé sous espace vectoriel engendré par les vecteurs u1,

u2, … , up.

 vec(u1, u2, ... , up) est le plus petit sous espace (au sens de l’inclusion) contenant

 A = (ui)1  i  p

Si F est un s.e.v. de E, alors : si A ⊂ F  vec(u1, u2, ... , up) ⊂ F

4.2. Famille génératrice

Proposition : On dit que la famille A = (ui)1  i  p, engendrent E ou forme une famille

génératrice ou un système de générateurs de E si, et seulement, si :

E = vec(u1, u2, ... , up)

 En d’autres termes, A = (ui)1  i  p, engendre E si pour tout u ∈ E, il existe des

p
scalaires 1, 2, … , p tels que u =  i ui, c’est-à-dire si tout vecteur de est
i=1

combinaison linéaires des ui, i = 1, 2, … , p.

22 Cours d’algèbre linéaire


3. Espaces vectoriels

 Si A = , le sous espace engendré par A, est {0}

Exemples .4.

1) Le vecteur nul, est combinaison linéaire de toute famille finie de vecteurs, les

coefficients étant tous nuls

3 3 est
2) Considérons le  - espace vectoriel  . Tout vecteur (x, y, z) ∈ 

combinaison linéaire de la famille de vecteurs (e1, e2, e3), avec :

e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1)

En effet : (x, y, z) = (x, 0, 0) + (0, y, 0) + (0, 0, z)

= x.(1, 0, 0) + y.(0, 1, 0) + z.(0, 0, 1) = x.e1 + y.e2 + z.e3

3) Droite vectorielle : est un s.e.v. D, engendré par un seul vecteur u  0 :

D = {v | v = .u,  ∈  }
n n:
4) E =  . Considérons les vecteurs suivants de 

ei = (0, ... , 0, 1, 0, ... , 0),  i ∈ {1, 2, ... , n} (1 est placé à la ième position).

e1, e2, ... , en forment un système de générateurs de  n.

5. DEPENDANCE ET INDEPENDANCE LINEAIRE

On rappelle que E, est un K– espace vectoriel.

5.1. Famille libre et famille liée

Définition .1. Une famille finie (ui)1  i  n de vecteurs de E est dite libre (ou les

vecteurs u1, u2, … , un sont dits linéairement indépendants) si, et seulement, si pour

n
tous scalaires 1, 2, … , n ∈ K, i.ui = 0  1 = 2 = … = n = 0
i =1

Définition .2. Une famille finie (ui)1  i  n de vecteurs de E est dite liée (ou les

vecteurs u1, u2, … , un sont dits linéairement dépendants) si et seulement si :

n
 1, 2, …, n ∈ K (non tous nuls) tels que : i.ui = 0
i =1

23 Cours d’algèbre linéaire


3. Espaces vectoriels

Conséquence : La famille (ui)1  i  n est liée  elle n'est pas libre

Exemples .5.

1) Tout vecteur u  0, {u} forme est une famille libre.

2 la famille ((1, 0); (1, 1)) est libre. Par contre la famille
2) Dans 

((1, 0); (0, 1); (1, 1)) est liée (puisque (1, 1) = (1, 0) + (0, 1))

3) E = ℙn(K) ; l'espace vectoriel des fonctions polynômes de degré  n. Considérons

les n + 1 vecteurs P0, P1, ... , Pn de ℙn(K) ; définis par :

Pi(x) = xi, pour i = 0, 1, 2, ... , n.(P0, P1, ... , Pn) est une famille libre de E.

4) Plan vectoriel : est un s.e.v. P, engendré par deux vecteurs u, v, linéairement

indépendants :

P = {w | w = .u + .v ; ( , ) ∈  2}

5.2. Propriétés

Théorème : Soit F un sous espace engendré par p vecteurs d’un K- espace

vectoriel E, alors, toute famille d’au moins (p + 1) vecteurs de F est liée.

Corollaire :

(1) (ui)1  i  n est liée   i ∈ {1, 2, … , n} tel que

ui ∈ vec(u1 , u2, ... , ui - 1, ui + 1, ... , un)




(2) (ui)1  i  n est libre  pour tout i ∈ {1, 2, … , n} tel que

ui ∉ vec(u1 , u2, ... , ui - 1, ui + 1, ... , un)




6. BASE ET DIMENSON D’UN ESPACE VECTORIEL

6.1. Définitions

Soit E un K- espace vectoriel, E  {0}.

Définition .1. La famille de vecteurs (ui)1  i  nforme une base de E si les deux

conditions suivantes sont vérifiées :

24 Cours d’algèbre linéaire


3. Espaces vectoriels

(1) Les vecteurs u1, u2, ... , un, sont linéairement indépendants : la famille (ui)1  i  n

est libre
(2) Les vecteurs u1, u2, ... , un, engendrent E : la famille (ui)1  i  n est génératrice

Définition .2. Une famille de vecteurs (ui)1  i  n est une base de E si tout

vecteur u ∈ E peut s’écrire de manière unique comme combinaison linéaires des ui,

pour i = 1, 2, … , n.

- La famille de vecteurs (ui)1  i  n, est une base de E si :

n
 u ∈ E,  1, 2, … , n ∈ K, tels que, u = i.ui
i =1
- Les scalaires 1, … , n sont alors appelés les composantes ou les coordonnées du vecteur u dans
1
 
la base B de E et, on note : u =
2 ou u = ( , ... ,  )
1 n B
.
nB
Exemples .6.
n
1) E =  , les vecteurs e1, e2, ... , en définis dans les exemples .4., forment une

base de E appelée base canonique de  n

2) E = ℙn(K). La famille (P0, ... , Pn), définie dans les exemples .5., forme une

base de E appelée base canonique de E


  
3) E l'espace ordinaire muni d'une origine O. Soient OM1, OM2 et OM3, 3

  
vecteurs non coplanaires. Le triplet (OM1, OM2, OM3) forme une base de E

Définition .3. Soit E un K- espace vectoriel. On appelle dimension de E, le cardinal

d’une base quelconque de E.

La dimension de E sur le corps K se note dimK E. Lorsque aucune confusion n’est à

craindre, on note simplement dim E.

25 Cours d’algèbre linéaire


3. Espaces vectoriels

- Un espace vectoriel E est dit de dimension finie n, et on écrit dim E = n, si E, admet une base de
n vecteurs.
Exemples .7.
n
1.  , est de dimension n sur 

2. ℙn (  ), est de dimension n + 1 sur 

 Dans toute la suite (E, +, .) désignera un K- espace vectoriel de dimension finie

Théorème .1. E un espace vectoriel de dimension finie. Alors toutes les base de

E ont le même nombre d’éléments.

Remarques :

a. L’espace vectoriel {0}, est défini par sa dimension 0.

b. Si un espace vectoriel n’est pas de dimension finie, on dit qu’il est de dimension
infinie.
Théorème .2. Dans un espace vectoriel E de dimension finie, il existe toujours des

bases.

Corollaire (des théorèmes .1. et .2.) : Dans un espace vectoriel de dimension finie, p.
 Toute famille de plus de p éléments est liée.
 Toute famille de moins de p éléments ne peut être génératrice.
 Toute famille libre de p éléments forme une base.
 Toute famille génératrice de p éléments forme une base.
 De tout système générateur on peut extraire une base.

Remarque : Les deux dernières propriétés énoncées dans le corollaire signifie que si

dim E = p, alors pour toute famille de p vecteurs, libre  génératrice  base (une des deux
propriétés suffit).
Preuve :

 Si S est libre, comme card S = p = dim E  S est libre maximale (au sens de

l’inclusion)  S une base de E

Inversement, si S est une base de E  S est libre

 Si S est, génératrice  S est génératrice minimale (au sens de l’inclusion), car

card S = p = dim E, c’est donc une base de E.

26 Cours d’algèbre linéaire


3. Espaces vectoriels

Inversement, si S est une base de E  S est une famille génératrice

Théorème : Tout s.e.v. F d’un espace vectoriel E sur K est tel que : dim F  dim E

En particulier si, dim F = dim E, alors nécessairement F = E

6.2. Rang d’une famille finie de vecteurs

Soit E un K- espace vectoriel de dimension n et, soit S = (u1, u2, ... , up) une famille

de p vecteurs de E (p  n).

Définition : On appelle rang de la famille de vecteurs S et on note, par rg(S), la

dimension du s.e.v. engendré par cette famille.

Remarques :

a. rg(u1, u2, …… , up)  p

b. rg(u1, u2, …… , up) = p  u1, u2, ... , up, sont linéairement indépendants (i.e. le

rang de (u1, u2, … , up) est nombre maximum de vecteurs linéairement indépendants

extraits de cette famille).

c. rg(u1, u2, …… , up)  dim E

d. rg(u1, u2, …… , up) = dim E  (u1, u2, …… , up) est un système de générateurs

de E

Théorème : le rang d'un système de vecteurs est invariant :

1. Par permutation de vecteurs.

2. Par multiplication par un scalaire non nul.

3. Par ajout à un vecteur d'une combinaison linéaire des autres.

4. Par ajout d'un vecteur nul (i.e. rg(u1, u2, … , up , 0) = rg(u1, u2, ... , up)).

5. Si, B = (u1, u2, ... , up - 1, up), B' = (u1, u2 , ... , up - 1).

F le s.e.v engendré par B' on a :

(5.a) Si up ∈ F, on a : rg(B) = rg(B') ;

(5.b) Si up ∉ F, on a : rg(B) = 1 + rg(B')

27 Cours d’algèbre linéaire


3. Espaces vectoriels

Preuve : l'espace vectoriel engendré par le système reste invariant par les

opérations énoncées (permutation, multiplication, … etc.).

Exemple .8.
Considérons, u = (1, -1, 1, 0), v = (1, 1, 0, 1) et w = (2, 0, 1, 1) des vecteurs
4
de 

rg(u, v, w)  3. En fait on a : w = u + v  w ∈ F = vec(u, v)

 rg(u, v, w) = rg(u, v) = 2 ((u, v) est une famille libre)

6.3. Application : (Méthode de Gauss pour le calcul du rang)

La méthode de Gauss est utilisée, pour calculer le rang d'un système de vecteurs S

dans un espace vectoriel E de dimension n sur K.

Connaissant les composantes, de p vecteurs de S relativement à une base B de E.

Soit :

ui = i, 1.v1 + ... + i, j.vj + ... + i, n.vn, pour i = 1, 2, ... , p

où B = (v1, ... , vn) est une base de E et, i, 1, ... , i, j, ... , i, n sont les

coordonnées du vecteur ui dans la base B de E.

La méthode de Gauss repose sur deux propriétés importantes :

Propriété .1. Si, pour i > j on a, i, j = 0 et,  i  {1, 2, … , p} on a, i, i  0, alors

les vecteurs de S sont linéairement indépendants (rg(S) = p).

Propriété .2. La famille S = (u1, u2, ... , up) et, la famille S' obtenue en remplaçant

p
dans S, ui par j uj avec i non nul, ont le même rang.
j=1

Preuve :

Le sous espace engendré par S et, par S' = (S - {ui})∪{1u1 + ... + pup} est bien le

même si i  0.

La méthode consiste donc à utiliser la propriété .2. en effectuant des

combinaisons linéaires successives de manière à obtenir un système engendrant le

28 Cours d’algèbre linéaire


3. Espaces vectoriels

même sous espace que S et, dont les vecteurs non nuls, possèdent la propriété .1.

Nous l’exposerons sur l’exemple suivant :

On considère le système de vecteurs suivant : S = (u, v, w), où u, v et w, 3

vecteurs de  4 muni de sa base canonique (e1, e2, e3, e4) tel que :

u = e1 - e2 + e3, v = e1 + e2 + e4, w = 2e1 + e3 + e4

1 -1 1 0 u
 
On constitue le tableau suivant :  1 1 0 1 v
 2 0 1 1 w

On choisit un des vecteurs dont la 1ère composante est, non nulle (si les trois

premières composantes des trois vecteurs étaient, nulles on opérera dans le sous

espace engendré par (e2, e3, e4)).

Ici prenons u et formons le système, S' = (u, v’, w’) avec :

v ’ = v + u, w ’ = ’w + ’u

, , ’ et ’, étant choisis de manière que la première composante de v’ et w’, soit

1 -1 1 0
u
nulle (soit,  = 1  = -1, ’= 1 et ’ = -2) :  0 2 -1 1 v-u
0 2 -1 1  w - 2u

Formons ensuite le système S" = {u, v’, w"} avec : w" = "v ’ + "w ’

" et ", étant choisis de manière que la 2ème composante de w", soit nulle :

1 -1 1 0
  u
 0 2 -1 1 v - u
 0 0 0 0 w - 2u - (v - u)
Les trois systèmes S, S' et S" ont le même rang (propriété .2.); S" est formé de

deux vecteurs indépendants (propriété .1.) et du vecteur nul. Ainsi,

rg(S) = rg(S') = rg(S") = 2

Les vecteurs u, v et w sont liés, la relation de dépendance linéaire étant donnée

par :

w - 2u - (v - u) = 0  w = u + v

On remarquera donc que la méthode de Gauss donne aussi les (p - r) relations de

dépendance linéaire entre les p vecteurs d’un système S de rang r.

29 Cours d’algèbre linéaire


3. Espaces vectoriels

7. OPERATIONS SUR LES SOUS ESPACES VECTORIELS

On rappelle que (E, +, .) désigne un K- espace vectoriel de dimension finie

7.1. Intersection de sous espaces vectoriels

Proposition : (Intersection de deux sous espaces vectoriels)

Si F et G sont deux sous espaces vectoriels de E alors

F  G = {u ∈ E | u ∈ F et u ∈ G}, est un sous espace vectoriel de E.

Preuve :
 F  G   (0  F et 0  G)

 Soit, H = F  G.    K,  (u , v) ∈ HxH

u∈ F u ∈ G  .u + v ∈ F
  , et,     .u + v ∈ H
 v∈F  v∈G  .u + v ∈ G

 D’une manière générale si, (Fi )i  I est une famille de s.e.v. de E alors  Fi , (pour tout

i  I)est un s.e.v. de E.

7.2. Réunion de sous espaces vectoriels

Proposition : (Réunion de deux sous espaces vectoriels)

Si, F et G sont deux espaces vectoriels de E alors F ∪ G = {u ∈ E | u ∈ F ou u ∈ G}, n’est

pas un sous espace vectoriel, sauf dans le cas trivial où F ⊆ G ou G ⊆ F.

Exemple .3. Dans l’espace vectoriel  2, considérons les ensembles suivants :

F = {(x , 0) | x ∈ } et G = {(0 , y) | y ∈  }.

On vérifie facilement que F et G sont deux s.e.v. de  2. Cependant, F ∪ G n’est pas un s.e.v.

de  2

En effet : Les vecteurs u = (1, 0) ∈ F et v = (0, 1) ∈ G  u, v ∈ F ∪ G,

Mais u + v ∉ F ∪ G

7.3. Somme et somme directe de sous espaces vectoriels

30 Cours d’algèbre linéaire


3. Espaces vectoriels

Définition .1. Soient F et G deux s.e.v. de E. on appelle somme de F et G; l’ensemble

noté F + G et défini par : F + G = {z ∈ E /  x ∈ F ,  y ∈ G : z = x + y}

Proposition : L’ensemble F + G est un s.e.v. de E engendré par F ∪ G :

F + G = vec(F ∪ G)

Proposition : F + G est le plus petit s.e.v. de E contenant F ∪ G

Définition .2. La somme S = F + G, est dite directe si, et seulement, si :

 z ∈ S,  x ∈ F et  y ∈ G : z = = x + y

On note alors, S = F  G

8. SOUS ESPACES SUPPLEMENTAIRES

Définition : F et G deux s.e.v. de E. On dit que F et G sont supplémentaires dans E (ou

encore que la somme F + G est directe) si, et seulement, si E = F  G.

Proposition : (Caractérisation des sous espaces supplémentaires)

F et G deux s.e.v. de E. On dit que F et G sont supplémentaires dans E ou encore

que E = F  G si, et seulement, si :


1) E = F + G
2) F  G = {0}

Exemples .9.

1) Soit (e1, e2, ... , en) une base de E, On pose :

Fi = vec(ei) ; le s.e.v. engendré par le vecteur ei.

Alors, E = F1  F2  ...  Fn

2) E = ℱ(  ,   ; ensemble des fonctions réelles définies de  dans 

G = { f ∈ E / f(-x) = f(x),  x ∈  } ; ensemble des fonctions paires

H = { f ∈ E / f(-x) = - f(x),  x ∈  } ; ensemble des fonctions impaires

On montre que, E = G  H. En effet :

Pour tout f de E, on a : f = s + d, où,

f(x) + f(-x) f(x) - f(-x)


s(x) = et, d(x) = , s ∈ G et d ∈ H  E = G + H
2 2

On vérifie facilement que, G  H = {} [, est définie par : (x) = 0,  x ∈  ]

31 Cours d’algèbre linéaire


3. Espaces vectoriels

Théorème : (Formule de Grassmman)

Soient F et G deux s.e.v. de E; alors on a :

dim(F + G) = dim F + dim G – dim (F G)

Théorème : F et G deux supplémentaires dans E (E = F  G). On a alors :

dim E = dim F + dim G

Preuve : Il suffit de voir que : dim E = dim F + dim G - dim (F  G) (Formule de


Grassman)

Comme F  G = {0}  dim(F  G) = 0

Théorème : Pour tout s.e.v. F de E, il existe un sous espace G de E tel que :

E=FG
Ce sous espace G associé à F est loin d’être unique.

Preuve :

Supposons que dim E = n et, dim F = p et, soit B' = (b1, … , bp) une base de F. B'

est libre dans E car F ⊂ E, d’après le théorème sur l’existence de bases, on peut

compléter B' par une famille B" = (bp + 1, ... , bn) pour obtenir une base B de E,

B = B'∪ B".

Considérons, G = vec(bp + 1, ... , bn) ; le s.e.v. engendré par la famille B".

Tout vecteur z de E, s’écrit d’une manière unique sous la forme :

z = (1 b1 + ... + p bp) + (p + 1 bp + 1 + ... + n bn) (car B est une base de E),

Avec : x = 1b1 + ... + p bp unique dans F et, y = p + 1bp + 1 + ... + n bn

unique dans G.

Donc, on a bien : E = F  G

On peut alors énoncer le théorème suivant :

Théorème de la base incomplète :

Tout système libre de E peut être complété en une base de E


32 Cours d’algèbre linéaire
3. Espaces vectoriels

33 Cours d’algèbre linéaire

Vous aimerez peut-être aussi