0% ont trouvé ce document utile (0 vote)
16 vues13 pages

Homogenes Systemes

Transféré par

bendifmr94
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
16 vues13 pages

Homogenes Systemes

Transféré par

bendifmr94
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Systèmes linéaires homogènes

François DE M ARÇAY
Département de Mathématiques d’Orsay
Université Paris-Saclay, France

1. Introduction
2. Représentation vectorielle des solutions d’un système linéaire
Exemple 2.1. Soit le système de 3 équations linéaires à 4 variables :
x1 + 2 x2 + 3 x3 + 4 x4 = 7,
5 x1 + 6 x2 + 7 x3 + 8 x4 = 11,
9 x1 + 10 x2 + 11 x3 + 12 x4 = 15,
dont la matrice complète est :
 
1 2 3 4 7
 5 6 7 8 11  .
9 10 11 12 15
Une application de la méthode du pivot montre (exercice) que la réduction à une forme
échelonnée réduite est :
   x1 x2 x3 x4 
1 2 3 4 7 1 0 −1 −2 −5
 5 6 7 8 11  ∼  0 1 2 3 6 .
9 10 11 12 15 0 0 0 0 0
Ainsi, le système est compatible, les inconnues principales (résolubles) sont x1 et x2 ,
tandis que les inconnues paramétriques (secondaires) sont x3 et x4 .
Sur cette matrice mise sous forme échelonnée réduite, on lit directement l’espace des
solutions :
 
Sol := −5+x3 +2 x4 , 6−2 x3 −3 x4 , x3 , x4 : x3 ∈ R quelconque, x4 ∈ R quelconque .
Question 2.2. Peut-on mettre cet espace de solutions sous forme de combinaison linéaire
de vecteurs ?
1
2 François DE M ARÇAY, Département de Mathématiques d’Orsay, Université Paris-Saclay, France

Réponse : oui sur cet exemple, et oui aussi pour tous les systèmes linéaires quelconques
étudiés dans ce cours !
En effet, écrivons :
       
−5 + x3 + 2 x4 −5 1 2
 6 − 2 x3 − 3 x 4 
 =  6  + x3  −2  + x4  −3  .
     

 x3   0   1   0 
x4 0 0 1


Si donc nous introduisons les vecteurs-colonnes appartenant à V R4 :
     
−5 1 2
 6   −2   −3 
~x0 :=  0 ,
 ~v1 := 
 1 ,
 ~v2 :=  0 ,

0 0 1
les solutions générales du système sont les vecteurs de la forme :
~x0 + t1 ~v1 + t2 ~v2 ,
avec t1 ∈ R et t2 ∈ R quelconques, qui sont des noms nouveaux pour x3 et x4 .
Ce phénomène est général. Rappelons qu’un système linéaire de m équations linéaires
à n inconnues x1 , . . . , xn est compatible si et seulement si, après application de la méthode
du pivot, la dernière ligne d’une forme échelonnée (réduite ou non) n’est pas :
 
0 0 ··· 0 |  ,
avec un nombre réel non nul  ∈ R\{0}, car en effet, s’il existait une telle ligne qui
signifierait :
0 x1 + · · · + 0 xn = ,
on en déduirait 0 = nonzero, ce qui est impossible, donc le système serait incompatible.
Par conséquent, après mise sous forme échelonnée, tout système qui possède au moins
une solution est de la forme :
0 0  ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ | ∗
0 0 0  ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ | ∗
0 0 0 0 0  ∗ ∗ ∗ ∗ ∗ ∗ | ∗
0 0 0 0 0 0  ∗ ∗ ∗ ∗ ∗ | ∗
0 0 0 0 0 0 0 0 0 0  ∗ | ∗ Dernière ligne non nulle compatible !
0 0 0 0 0 0 0 0 0 0 0 0 | 0
.. .. .. .. .. .. .. .. .. .. .. .. .
. . . . . . . . . . . . | ..
0 0 0 0 0 0 0 0 0 0 0 0 | 0.
Évidemment, on s’empresse de supprimer les lignes nulles, puisqu’elles se réduisent à
la tautologie 0 = 0. Ensuite, on poursuit la méthode des pivots-saumons remonteurs de
rivières glaciaires afin de parvenir à la forme échelonnée réduite (unique) :
x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 x11 x12
0 0 1 0 ∗ 0 0 ∗ ∗ ∗ 0 ∗ | ∗
0 0 0 1 ∗ 0 0 ∗ ∗ ∗ 0 ∗ | ∗
0 0 0 0 0 1 0 ∗ ∗ ∗ 0 ∗ | ∗
0 0 0 0 0 0 1 ∗ ∗ ∗ 0 ∗ | ∗
0 0 0 0 0 0 0 0 0 0 1 ∗ | ∗
3. Système linéaire homogène associé à un système linéaire 3

Ici, on illustre la méthode avec n = 12 inconnues x1 , x2 , x3 , x4 , x5 , x6 , x7 , x8 , x9 , x10 , x11 ,


x12 .
Donnons des noms aux étoiles :
0 0 1 0 c1,5 0 0 c1,8 c1,9 c1,10 0 c1,12 | d1
0 0 0 1 c2,5 0 0 c2,8 c2,9 c2,10 0 c2,12 | d2
0 0 0 0 0 1 0 c3,8 c3,9 c3,10 0 c3,12 | d3
0 0 0 0 0 0 1 c4,8 c4,9 c4,10 0 c4,12 | d4
0 0 0 0 0 0 0 0 0 0 1 c5,12 | d5 ,
et résolvons les 5 inconnues principales x3 , x4 , x6 , x7 , x11 :
x3 = d1 − c1,5 x5 − c1,8 x8 − c1,9 x9 − c1,10 x10 − c1,12 x12 ,
x4 = d2 − c2,5 x5 − c2,8 x8 − c2,9 x9 − c2,10 x10 − c2,12 x12 ,
x6 = d 3 − c3,8 x8 − c3,9 x9 − c3,10 x10 − c3,12 x12 ,
x7 = d 4 − c4,8 x8 − c4,9 x9 − c4,10 x10 − c4,12 x12 ,
x11 = d5 − c5,12 x12 .
Ensuite, écrivons le vecteur solution générale à 12 composantes :
 x1   x1 
x2
x2
 xx34  dd12 −c 1,5 x5 −c1,8 x8 −c1,9 x9 −c1,10 x10 −c1,12 x12
−c2,5 x5 −c2,8 x8 −c2,9 x9 −c2,10 x10 −c2,12 x12 

x
 x5   5
 x6   d −c x −c x −c x −c x 
 x7  =  d
3
4 −c
3,8 8
x
4,8 8 −c
3,9 9
x
4,9 9 −c
3,10 10
x
4,10 10 −c
3,12 12
x
4,12 12

 x8  
x8

 x9  
x9

x10 
x10

x11
x12 d5 −c5,12 x12
x12
0 1 0  0
  0   0   0   0 
0 0 0 0 0 0
0 1
dd1  00 00 −c
 1,5  −c1,8  −c 1,9  −c1,10  −c 1,12
−c02,12 
−c
−c2,9 
−c 
 02  0 0 −c2,5   2,8   2,10 
   1   0   0   0  −c 
= d3  + x100 + x200 + x5 + x8 −c3,8  + x9 −c3,9  + x10 −c3,10  + x12
−c4,12  .
3,12 
 00 
  
d4  0 0 −c4,8  −c4,9  −c4,10 
0 0 0  0   1   0   0   0 
0 0 0
 0   0   1   0   0 
0 0 0 0 1 0
0 0 0 0 −c5,12
0 0 0 0 0
d5 0 0 0 0 1
De cette manière, on a représenté la solution générale du système linéaire initial sous une
forme vectorielle :
~x = ~x 0 + t1 ~v1 + t2 ~v2 + t3 ~v3 + t4 ~v4 + t5 ~v5 + t6 ~v6 + t7 ~v7 ,
où t1 , t2 , t3 , t4 , t5 , t6 , t7 sont des nombres réels quelconques, et sont des nouveaux noms
pour les variables libres x1 , x2 , x5 , x8 , x9 , x10 , x12 .
3. Système linéaire homogène associé à un système linéaire
Considérons à nouveau un système linéaire quelconque de m > 1 équations à n > 1
inconnues :
a1,1 x1 + a1,2 x2 + · · · + a1,n xn = b1 , 
a1,1 a1,2 ··· a1,n b1

a2,1 x1 + a2,2 x2 + · · · + a2,n xn = b2 ,  a2,1 a2,2 ··· a2,n b2 
 .
 .. .. .. .. ..  ,
···································· . . . . 
am,1 x1 + am,2 x2 + · · · + am,n xn = bm , am,1 am,2 · · · am,n bm
écrit de manière détaillé, ou représenté par sa matrice complète.
4 François DE M ARÇAY, Département de Mathématiques d’Orsay, Université Paris-Saclay, France

Mieux encore, un tel système peut s’écrire sous forme matricielle :


a1,1 · · · a1,n x1 b1
    
 ... ... ..   ..  =  ..  ,
. . .
am,1 · · · am,n xn bm
c’est-à-dire de manière très abrégée :
(SA,~b ) A ~x = ~b.
Définition 3.1. Le système linéaire homogène associé :
(SA,~0 ) A ~y = ~0,

est le système linéaire dans lequel on remplace le vecteur constant ~b du membre de droite
par le vecteur nul ~0, c’est-à-dire sous forme développée :
a1,1 · · · a1,n y1 0
    
 .. . ... .
..   ..  =  ...  .
.
am,1 · · · am,n yn 0
En mathématiques, on appelle homogène une fonction f (x) qui satisfait f (λ x) =
λ f (x) pour tout λ ∈ R. Ici, on a aussi homogénéité au sens où :
A (λ ~y = λ A ~y = λ ~0 = ~0,


de telle sorte que si ~y est une solution, alors λ ~y est aussi une solution, pour tout λ ∈ R 1.
Volontairement, nous avons utilisé les lettres yj au lieu des lettres xj , ci-dessus, afin de
mieux différencier les deux espaces de solutions. Et il est clair que :
SA,~0 := SA,~b .
~b=~0

Ces deux systèmes se ressemblent donc presque comme deux jumeaux ! Car il ont la même
matrice : 16j6n colonnes
A = ai,j 16i6m lignes .
Introduisons leurs deux espaces respectifs de solutions :


Sol SA,~b := ~x ∈ V Rn : A ~x = ~b ,
 


Sol SA,~0 := ~y ∈ V Rn : A ~y = ~0 .
 

Question 3.2. Ces deux espaces de solutions sont ils liés l’un à l’autre, et si oui, comment ?
Évidemment, quand ~b = ~0, ces deux espaces de solutions coïncident, mais ce n’est pas
vraiment cette réponse un peu trop simplette que nous espérions, car le vecteur constant ~b
du membre de droite n’est pas toujours égal à ~0.

1. En revanche, lorsque le vecteur constant ~b 6= ~0 n’est pas nul, cette propriété n’est pas vraie pour le
système A ~x = ~b, c’est-à-dire que si ~x est une solution, il n’est pas vrai que λ ~x est aussi une solution pour
tout λ ∈ R, simplement parce que λ ~b n’est pas toujours égal à ~b :
A λ ~x = λ A ~x = λ ~b 6= ~b

(en général).
3. Système linéaire homogène associé à un système linéaire 5

Observation 3.3. Si deux solutions ~x 0 et ~x 00 du système linéaire sont connues, alors leurs
différence est solution du système homogène :
 
A ~x 0 = ~b et A ~x 00 = ~b A ~x 0 − ~x 00 = ~0.

=⇒

Démonstration. Cela est essentiellement évident par simple soustraction :


A ~x 0 − ~x 00 = A ~x 0 − A ~x 00 = ~b − ~b = ~0.



Une représentation développée de cette soustraction « bancaire » est la suivante. En par-


tant de :
a1,1 x01 + · · · + a1,n x0n = b1 , a1,1 x001 + · · · + a1,n x00n = b1 ,
··························· et de : ···························
am,1 x01 + ··· + am,n x0n = bm , am,1 x001 + · · · + am,n x00n = bm ,
il vient :
a1,1 x01 − x001 + · · · + a1,n x0n − x00n = b1 − b1 = 0,
 

···················································
am,1 x01 − x001 + · · · + am,n x0n − x00n = bm − bm = 0.
 

Autrement dit, le vecteur :


~y := ~x 0 − ~x 00
est solution du système linéaire homogène associé SA,~0 . Voilà donc un premier lien naturel :
SA,~b ; SA,~0 .
Or il existe aussi un « lien inverse », avec une flèche zigzagante dans l’autre sens.
Supposons en effet que, par chance, ou parce qu’on a réussi à copier sur son voisin de
table, on connaisse une certaine solution « particulière » ~x 0 du système linéaire, c’est-à-dire
avec :
A ~x 0 = ~b.
Parfois en effet, on peut « deviner à l’oeil » des solutions, sans avoir à entreprendre un
calcul de pivot. Mieux vaut avoir une vue d’aigle — surtout en examen !
Alors là, c’est super ! Car on peut prendre avantage de la connaissance d’une telle solu-
tion particulière A ~x 0 = ~b pour comprendre la solution générale de A ~x = ~b, en effectuant
une simple soustraction 2 :
A ~x − ~x 0 = A ~x − A ~x 0 = ~b − ~b = ~0,

| {z }
=: ~
y

puisqu’on constate alors que le vecteur ~y := ~x − ~x 0 est solution du système linéaire homo-
gène associé :
A ~y = ~0.
Une réponse satisfaisante à la Question 3.2 peut alors être énoncée sous la forme d’un

2. En mathématiques, il n’y a rien de plus beau et de plus utile qu’un signe moins − !
6 François DE M ARÇAY, Département de Mathématiques d’Orsay, Université Paris-Saclay, France

Théorème 3.4. La solution générale ~x d’un système linéaire :


(S ~ )
A,b A ~x = ~b,
est toujours la somme :
~x = ~x 0 + ~y ,
d’une solution particulière ~x 0 satisfaisant A ~x 0 = ~b avec la solution générale ~y du système
homogène associé :
(SA,~0 ) A ~y = ~0.
Démonstration. En réfléchissant et en relisant le raisonnement qui précède, on se convainc
que ~x = ~x 0 + ~y est solution générale de SA,~b si et seulement si ~y est solution générale de
SA,~0 . 
Maintenant, discutons de la résolution d’un système linéaire homogène A ~x = ~0, c’est-
à-dire d’un système :
a1,1 x1 + a1,2 x2 + · · · + a1,n xn = 0,
a2,1 x1 + a2,2 x2 + · · · + a2,n xn = 0,
····································
am,1 x1 + am,2 x2 + · · · + am,n xn = 0,
dont les seconds membres sont tous égaux à 0.
Clairement, sa matrice complète est de la forme :
a1,1 a1,2 · · · a1,n 0
 
 a2,1 a2,2 · · · a2,n 0
 .
 .. .. .. .. ..  ,
. . . .
am,1 am,2 · · · am,n 0
avec que des 0 à la dernière colonne. En reprenant l’exemple général de la Section 2, avec
n = 12, nous pouvons nous imaginer que la méthode du pivot transforme cette matrice en
une matrice du type :
0 0  ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ |
0
0 0 0  ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ |
0
0 0 0 0 0  ∗ ∗ ∗ ∗ ∗ ∗ |
0
0 0 0 0 0 0  ∗ ∗ ∗ ∗ ∗ |
0
0 0 0 0 0 0 0 0 0 0  ∗ |
0 Dernière ligne non nulle toujours compatible !
0 0 0 0 0 0 0 0 0 0 0 0 |
0
.. .. .. .. .. .. .. .. .. .. .. .. .
. . . . . . . . . . . .| ..
0 0 0 0 0 0 0 0 0 0 0 0 | 0.
Observation 3.5. Quand on effectue des combinaisons linéaires sur les lignes par la mé-
thode du pivot, la dernière colonne conserve tous ses 0.
Preuve. En effet, ou bien on permute deux lignes et le dernier 0 demeure, ou bien on
multiplie une ligne par un nombre réel non nul τ ∈ R∗ , ou bien on additionne µ fois une
ligne à une autre ligne. Dans les deux derniers cas :
τ 0 = 0, 0 + µ 0 = 0. 
3. Système linéaire homogène associé à un système linéaire 7

Par conséquent, il est impossible d’obtenir une dernière ligne non nulle de la forme
incompatible :
0 0 · · · 0 | .
Par contraposition, ce raisonnement justifie l’
Observation 3.6. Un système linéaire homogène A ~y = ~0 est toujours compatible.
Preuve. Une autre explication de ce fait, plus simple, est la suivante :
A ~0 = ~0,
donc ~y := ~0 est toujours une solution — triviale, évidente ! Il fallait y penser !
Or d’après la théorie générale de la résolution des systèmes linéaires, nous savons que
trois cas, et trois cas seulement, peuvent se produire :
(i) le système n’a aucune solution [est incompatible] ;
(ii) le système a une solution unique [est compatible] ;
(iii) le système possède une infinité de solutions [est compatible].
Ici, pour un système linéaire homogène A ~y = ~0, les deux cas (ii) et (iii) peuvent se produire,
mais jamais le (mauvais) cas (i), puisque nous venons de constater que ~y := ~0 est toujours
solution ! 

Pour terminer cette section, admettons maintenant que nous ayons poursuivi la méthode
du pivot jusqu’à mettre la matrice complète du système homogène A ~y = ~0 sous forme
échelonnée réduite :
y1 y2 y3 y4 y5 y6 y7 y8 y9 y 10 y 11 y 12
0 0 1 0 ∗ 0 0 ∗ ∗ ∗ 0 ∗ | 0
0 0 0 1 ∗ 0 0 ∗ ∗ ∗ 0 ∗ | 0
0 0 0 0 0 1 0 ∗ ∗ ∗ 0 ∗ | 0
0 0 0 0 0 0 1 ∗ ∗ ∗ 0 ∗ | 0
0 0 0 0 0 0 0 0 0 0 1 ∗ | 0
0 0 0 0 0 0 0 0 0 0 0 0 | 0
0 0 0 0 0 0 0 0 0 0 0 0 | 0
0 0 0 0 0 0 0 0 0 0 0 0 | 0
0 0 0 0 0 0 0 0 0 0 0 0 | 0,
toujours avec que des 0 à la dernière colonne. Ici, nous traitons un cas de m = 9 équations
à n = 12 variables.
Supprimons les 4 dernières lignes, donnons des noms aux étoiles :
0 0 1 0 c1,5 0 0 c1,8 c1,9 c1,10 0 c1,12 | 0
0 0 0 1 c2,5 0 0 c2,8 c2,9 c2,10 0 c2,12 | 0
0 0 0 0 0 1 0 c3,8 c3,9 c3,10 0 c3,12 | 0
0 0 0 0 0 0 1 c4,8 c4,9 c4,10 0 c4,12 | 0
0 0 0 0 0 0 0 0 0 0 1 c5,12 | 0.
Cet exemple est essentiellement le même qu’à la fin de la Section 2, mais avec :
d1 = d2 = d3 = d4 = d5 = 0.
8 François DE M ARÇAY, Département de Mathématiques d’Orsay, Université Paris-Saclay, France

Résolvons les 5 inconnues principales y3 , y4 , y6 , y7 , y11 :


y3 = − c1,5 y5 − c1,8 y8 − c1,9 y9 − c1,10 y10 − c1,12 y12 ,
y4 = − c2,5 y5 − c2,8 y8 − c2,9 y9 − c2,10 y10 − c2,12 y12 ,
y6 = −c3,8 y8 − c3,9 y9 − c3,10 y10 − c3,12 y12 ,
y7 = −c4,8 y8 − c4,9 y9 − c4,10 y10 − c4,12 y12 ,
y11 = −c5,12 y12 .
Ensuite, écrivons le vecteur solution générale à 12 composantes :
 y1   y1 
y2
y2
 yy34  −c 1,5 y5 −c1,8 y8 −c1,9 y9 −c1,10 y10 −c1,12 y12
−c2,5 y5 −c2,8 y8 −c2,9 y9 −c2,10 y10 −c2,12 y12 
 y5  
 −c3,8 y8 −c3,9 y9 −c y5 
 y6  y −c y
3,10 10 3,12 12

 y7  =   −c4,8 y8 −c4,9 y9 −c4,10 y10 −c4,12 y12 

 y8  y8
yy9  
y9

10 y
 
y11 10
y12 d5 −c5,12 y12
y12
1 0 
0
  0   0   0   0 
0 0 0 0 0
0 1
00 00 −c1,5  −c1,8  −c 1,9  −c 1,10  −c 1,12
−c02,12 
−c −c −c

0 0 −c2,5   2,8   2,9   2,10 
 1   0   0   0  −c 
= y100 + y200 + y5 + y8 −c3,8  + y9 −c3,9  + y10 −c3,10  + y12
−c4,12  .
3,12 
 00 
  
0 0 −c4,8  −c4,9  −c4,10 
0 0  0   1   0   0   0 
0 0
 0   0   1   0   0 
0 0 0 1 0
0 0 0 −c5,12
0 0 0 0 0
0 0 0 0 1
De cette manière, on a représenté la solution générale du système linéaire initial sous une
forme vectorielle :
~x = t1 ~v1 + t2 ~v2 + t3 ~v3 + t4 ~v4 + t5 ~v5 + t6 ~v6 + t7 ~v7 ,
où t1 , t2 , t3 , t4 , t5 , t6 , t7 sont des nombres réels quelconques, et sont des nouveaux noms
pour les variables libres y1 , y2 , y5 , y8 , y9 , y10 , y12 .
Ici, quand on compare avec la fin de la Section 2, il n’y a pas de vecteur constant ~x 0 ,
mais c’est mieux, puisqu’on a une vraie combinaison linéaire de 7 vecteurs ~v1 , ~v2 , ~v3 , ~v4 ,
~v5 , ~v6 , ~v7 .
Résumé 3.7. L’ensemble des solutions d’un système linéaire homogène A ~y = ~0 :
 
Sol SA,~0 = Vect ~v1 , . . . , ~vr ,
est un espace vectoriel, engendré par r vecteurs ~v1 , . . . , ~vr , pour un certain entier r.
Évidemment, le nombre r est le nombre d’inconnues paramétriques dans la forme éche-
lonnée réduite (unique) de la matrice A.

4. Interprétation vectorielle des systèmes linéaires




Dans l’espace vectoriel V Rm à m > 1 dimensions, soient n > 1 vecteurs ~a1 , . . . , ~an , et
soit un autre vecteur ~b.
Question 4.1. Existe-t-il des coefficients scalaires x1 , . . . , xn tels que :
x1 ~a1 + · · · + xn ~an = ~b ?
5. Familles libres de vecteurs ~a1 , . . . , ~an 9

C’est-à-dire : Le vecteur ~b est-il combinaison linéaire des vecteurs ~a1 , . . . , ~an ?


Si nous déployons les m composantes verticales de chacun de ces n + 1 vecteurs :

a1,1 a1,n b1
     

~a1 =  ...  , ..., ~an =  ...  , ~b =  ...  ,


am,1 am,n bm

la question :
a1,1 a1,n b1
     

x1  ...  + · · · + xn  ...  =  ... 


?

am,1 am,n bm
revient évidemment à résoudre le bon vieux système linéaire-camembert des familles :

a1,1 · · · a1,n x1 b1
    
 ... ... ..   ..  =?  ..  .
. . .
am,1 · · · am,n xn bm

Et dans les chapitres qui précèdent, nous avons déjà vu de nombreux exemples de tels
systèmes.
L’objectif, maintenant, est de montrer que l’algorithme du pivot de Gauss possède une
interprétation vectorielle. Rappelons la


Définition 4.2. Le sous-espace vectoriel de V Rn engendré par n vecteurs :


~a1 , . . . , ~an ∈ V Rm ,

est l’ensemble noté :


 n o
Vect ~a1 , . . . , ~an := x1~a1 + · · · + xn~an : x1 , . . . , xn ∈ R quelconques .

Il a la propriété presque évidente d’être invariant par combinaisons linéaires.

Proposition 4.3. Pour tous scalaires λ, µ ∈ R, et pour tous vecteurs :



~x = x1 ~a1 + · · · + xn ~an ∈ Vect ~a1 , . . . , ~an ,

~y = y1 ~a1 + · · · + yn ~an ∈ Vect ~a1 , . . . , ~an ,
on a encore :

λ ~x + µ ~y ∈ Vect ~a1 , . . . , ~an .

Preuve. En effet :

λ ~x + µ ~y = λ x1 ~a1 + · · · + λ xn ~an
+ µ y1 ~a1 + · · · + µ yn ~an
 
= λ x1 + µ y1 ~a1 + · · · + λ xn + µ yn ~an . 
10 François DE M ARÇAY, Département de Mathématiques d’Orsay, Université Paris-Saclay, France

5. Familles libres de vecteurs ~a1 , . . . , ~an




Si un vecteur ~a1 ∈ V Rm n’est pas le vecteur nul ~0, l’espace vectoriel qu’il engendre :

Vect ~a1 = R ~a1 ,


est la droite vectorielle dirigée par ~a1 , dans l’espace vectoriel ambiant V Rm .
Autre exemple : si deux vecteurs ~a1 et ~a2 ne sont pas colinéaires, c’est-à-dire ne sont
pas situés sur une même droite vectorielle, alors :

Vect ~a1 , ~a2 = R ~a1 + R ~a2 ,


est un plan vectoriel, de dimension 2, contenu dans l’espace ambiant V Rm .


Définition 5.1. Dans V Rm ,on dit que n > 1 vecteurs ~a1 , . . . , ~an sont linéairement indé-
pendants, ou que la famille ~a1 , . . . , ~an est libre, si on a l’implication :
 
x1 ~a1 + · · · + xn ~an = 0~ =⇒ x1 = 0, . . . , xn = 0 .

 Inversement, on dit que ~a1 , . . . , ~an sont linéairement dépendants, ou que la famille
~a1 , . . . , ~an est liée, s’il existe des scalaires non tous nuls :

x1 , . . . , xn 6= (0, . . . , 0),
tels que :
x1 ~a1 + · · · + xn ~an = ~0.
En revenant aux cas simples n = 1 et n = 2 on a la
Proposition 5.2. (1) Un système de un vecteur {~a1 } est libre si et seulement si ~a1 6= ~0.

(2) Un système de deux vecteurs ~a1 , ~a2 est libre si et seulement si ~a1 et ~a2 ne sont pas
colinéaires.
Pour ce qui concerne (2), nous allons en fait établir la contraposition c’est-à-dire que
plutôt que d’établir l’équivalence :
P ⇐⇒ Q
où P et Q sont deux énoncés, nous allons établir l’équivalence :
non P ⇐⇒ non Q,
ce qui est logiquement équivalent.
Démonstration. (1) Si ~a1 6= ~0, en partant de x1 ~a1 = ~0, ceci implique x1 = 0, donc {~a1 }
est libre.
Au contraire, si ~a1 = ~0, pour tout x1 ∈ R, on a aussi x1 ~a1 = ~0, en particulier avec
x1 6= 0, donc {~a1 } est liée.
(2) La contraposition en question est l’équivalence :

~a1 , ~a2 est liée ⇐⇒ ~a1 , ~a2 sont colinéaires.

Premièrement, supposons que ~a1 , ~a2 liée, c’est-à-dire qu’il existe (x1 , x2 ) 6= (0, 0)
avec :
x1 ~a1 + x2 ~a2 = ~0.
5. Familles libres de vecteurs ~a1 , . . . , ~an 11

Par symétrie, on peut supposer que λ1 6= 0. Donc on peut résoudre :


~a1 = − xx21 ~a2 ,
ce qui montre que ~a1 et ~a2 sont colinéaires.
Deuxièmement, et réciproquement, on peut supposer par symétrie que ~a1 = µ ~a2 avec
µ ∈ R, ce qui équivaut à :
~a1 − µ ~a2 = ~0,
donc avec (x1 , x2 ) := (1, −µ) 6= (0, 0), on a une relation de dépendance linéaire entre ~a1
et ~a2 . 
Voici une reformulation de la Définition 5.1.
 →

Proposition 5.3. Une famille ~a1 , . . . , ~an de vecteurs dans V Rn est libre si et seulement
si le système linéaire homogène :
a1,1 · · · a1,n x1 0
    
 ... ..
.
..   ..  =  ..  .
. . .
am,1 · · · am,n xn 0
admet au moins une solution non nulle (x1 , . . . , xn ) 6= (0, . . . , 0). 
Appliquons la méthode du pivot de Gauss, et supposons qu’elle a été conduite jusqu’à
produire une matrice équivalente sous forme échelonnée :
 ∗ ···
   
a1,1 · · · a1,n a01,1 · · · a01,n
 
 0  ··· 
 ... ..
.
.. 
. ;  . . .  =:   ..
. ..
.
..  ,
. 
 .. .. . . 
0 0
am,1 · · · am,n am,1 · · · am,n
0 0 ···
que nous noterons dorénavant avec des primes (non salariales).


Théorème 5.4. Dans V Rm , on a équivalence entre :

(i) ~a1 , . . . , ~an est libre ;
(ii) une matrice échelonnée a0i,j associée à ai,j possède un pivot sur chaque colonne.
 

La matrice complète a0i,j 0 du système gaussifié doit donc être du type :


 

x1 x2 x3 x4 x5 x6 x7 x8 x9 x10
 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ | 0
0  ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ | 0
0 0  ∗ ∗ ∗ ∗ ∗ ∗ ∗ | 0
0 0 0  ∗ ∗ ∗ ∗ ∗ ∗ | 0
0 0 0 0  ∗ ∗ ∗ ∗ ∗ | 0
0 0 0 0 0  ∗ ∗ ∗ ∗ | 0
0 0 0 0 0 0  ∗ ∗ ∗ | 0
0 0 0 0 0 0 0  ∗ ∗ | 0
0 0 0 0 0 0 0 0  ∗ | 0
0 0 0 0 0 0 0
0  0 | 0
.. .. .. .. .. .. ..
.. .. .. .
. . . . . . .
. . . | ..
0 0 0 0 0 0 0 0 0 0 | 0
12 François DE M ARÇAY, Département de Mathématiques d’Orsay, Université Paris-Saclay, France

Il est alors clair que son nombre de ligne m > n doit nécessairement être supérieur ou égal
à son nombre de colonnes.
Démonstration. Puisqu’il faut déduire que toutes les variables x1 = 0, . . ., xn = 0, sont
nulles, aucune variable ne peut être indépendante. Autrement dit, toutes les variables sont
dépendantes, c’est-à-dire que toutes les variables x1 , . . . , xn doivent pouvoir se résoudre,
et cela se produit si et seulement si chaque colonne contient un pivot (un carré noir). 


Théorème 5.5. Dans V Rm , toute famille de n > m + 1 vecteurs ~a1 , . . . , ~an est toujours
nécessairement liée.
Démonstration. En effet, on vient de dire, pour la liberté, qu’il est nécessaire que n 6 m.
Donc quand n > m + 1, la liberté est terminée : présentez vos poignets et vos chevilles,
chaînes dans les prisons de l’universités !
Plus sérieusement, il y a au moins n − m > 1 variables indépendantes, que l’on peut
choisir toutes 6= 0, et en résolvant le système linéaire, on trouve donc une relation de
dépendance linéaire x1 ~a1 + · · · + xn ~an = ~0 dont les coefficients x1 , . . . , xn ne sont pas
tous nuls, puisque au moins n − m > 1 d’entre eux sont non nuls. 

6. Familles génératrices de vecteurs ~a1 , . . . , ~an




Dans V R2 , les deux vecteurs :
   
1 0
~e1 := et ~e2 := ,
0 1

ont la propriété que, pour tout vecteur ~b = b1



b2 , il existe x1 et x2 tels que :

x1 ~e1 + x2 ~e2 = ~b,


avec évidemment x1 := b1 et x2 := b2 .
 →

Définition 6.1. On dit qu’une famille ~a1 , . . . , ~an de vecteurs dans V Rm est génératrice


si, pour tout vecteur ~b ∈ V Rm , il existe des scalaires x1 , . . . , xn ∈ R tels que :
x1 ~a1 + · · · + xn ~an = ~b.
Autrement dit, tout vecteur ~b est combinaison linéaire de ~a1 , . . . , ~an .
À nouveau, cette propriété va pouvoir s’exprimer grâce à une forme échelonnée de la
matrice complète du système :
 ∗ ··· ∗
   
a1,1 · · · a1,n b1 a01,1 · · · a01,n b01
 
 0  ··· ∗ 
 ... .. .. ..  ;
 .. .. .. ..  ,
. . . ...  =:  .
. .  . . .  . . . 
 .. ..
0 0 0
am,1 · · · am,n bm am,1 · · · am,n bm
0 0 ··· ∗
avec un second membre à droite de la barre verticale qui demeure quelconque, et que nous
noterons ~b0 .


Théorème 6.2. Dans V Rm , on a équivalence entre :

(i) ~a1 , . . . , ~an est génératrice ;
8. Exercices 13

(ii) dans une matrice échelonnée a0i,j b0i associée à ai,j bi , il n’y a aucune ligne (en
   
bas) de la forme : h i
0 · · · 0 b0i ;
(iii) il existe un pivot sur chaque ligne.
La matrice complète a0i,j b0i du système gaussifié doit donc être du type :
 

x1 x2 x3 x4 x5 x6 x7 x8 x9 x10
 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ | b01
0  ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ | b02
0 0 0  ∗ ∗ ∗ ∗ ∗ ∗ | b03
0 0 0 0  ∗ ∗ ∗ ∗ ∗ | b04
0 0 0 0 0 0 0 0  ∗ | b05
Il est alors clair que le nombre de lignes m 6 n doit nécessairement être inférieur ou égal
au nombre de colonnes.
Démonstration. (ii) ⇐⇒ (iii) découle aisément du principe général de l’algorithme de
Gauss.
(i) =⇒ (ii) Par contraposition, s’il existe une mauvaise ligne, en choisissant un vecteur
~b0 avec b0 6= 0, on voit que b~0 ne peut pas être combinaison linéaire de ~a0 , ~a0 .
j 1 n
(i) ⇐= (ii) Comme il existe un pivot sur chaque ligne, et comme les colonnes 3 la condi-
tion (iii) est aussi satisfaite, et nous avons déjà plusieurs fois constaté que c’est
 la condition
nécessaire et suffisante pour que le système linéaire de matrice gaussifiée a0i,j b0i ait tou-

jours au moins une solution. 
7. Familles libres et génératrices de vecteurs ~a1 , . . . , ~an
Lorsque n = m, i.e. lorsqu’on a un nombre de vecteurs égal à la dimension de l’espace
ambiant, les Théorèmes 5.4 et 6.2 donnent le


Théorème 7.1. Dans V Rm , on a équivalence entre :

(i) ~a1 , . . . , ~an est libre ;

(ii) ~a1 , . . . , ~an est génératrice. 
8. Exercices
Exercice 1. EE
Exercice 2. EE

3. Elle sont « commes », les colommes ? Impossible de résister à ce petit calembour polisson de passage !

Vous aimerez peut-être aussi